1.1, deadless (ok), 00:05, 06/11/2012 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
а напуркуа для свопа воротить gmirror? своп на зеркале это чо новомодный фетиш?
| |
|
2.63, Аноним (-), 22:11, 16/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
Затем, что битые секторы на свопе - все равно что битая память, улавливаешь? Про такие вещи, как потеря данных, не слышал?
| |
|
3.64, iZEN (ok), 22:16, 16/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
> Затем, что битые секторы на свопе - все равно что битая память,
> улавливаешь? Про такие вещи, как потеря данных, не слышал?
geom mirror разве на лету проверяет считываемые данные с зеркальных копий?
| |
|
|
1.2, nagual (ok), 00:11, 06/11/2012 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
А если один диск из зеркала отвалится а своп не на зеркале ? Единственный недостаток свопа на ZFS это невозможность работы с коркой.
| |
|
2.65, iZEN (ok), 22:19, 16/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
> А если один диск из зеркала отвалится а своп не на зеркале
> ? Единственный недостаток свопа на ZFS это невозможность работы с коркой.
У меня, если какая-то программа валится, то оставляет файл с расширением .core в домашнем каталоге пользователя или в / — всё на ZFS.
| |
|
3.66, nagual (ok), 22:22, 16/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
>> А если один диск из зеркала отвалится а своп не на зеркале
>> ? Единственный недостаток свопа на ZFS это невозможность работы с коркой.
> У меня, если какая-то программа валится, то оставляет файл с расширением .core
> в домашнем каталоге пользователя или в / — всё на ZFS.
Сорри. Я неправильно выразился. Имелся ввиду дамп ядра после паники. Своп на ZFS не позволяет это делать.
| |
|
4.67, iZEN (ok), 22:26, 16/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
> Имелся ввиду дамп ядра после паники. Своп на ZFS не позволяет это делать.
Точно не позволяет? А какие причины? Может версия ZFS или системы устарела?
| |
|
5.68, nagual (ok), 22:32, 16/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
>> Имелся ввиду дамп ядра после паники. Своп на ZFS не позволяет это делать.
> Точно не позволяет? А какие причины? Может версия ZFS или системы устарела?
Я помню что читал это, но почему не разбирался.
| |
|
|
|
|
|
2.4, nagual (ok), 01:20, 06/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
> Скажите люди добрые нахера на ZFS делать стотыщь мильонов разделов?
Нужно если только свойства им разные делать, компрессию или квоты. Или чтоб снапшеты отдельные.
| |
|
1.5, PavelR (ok), 06:01, 06/11/2012 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
>Отключаем RAID1 на MB
не вижу, где в заметке/скрипте освещен данный вопрос.
| |
|
2.7, Сергей (??), 10:36, 06/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
Дурацкое название, не отключаем, а создаем зеркало средствами zfs, строка в скрипте
/sbin/zpool create -m $MNT -f -o cachefile=/var/tmp/$ZPOOL.cache $ZPOOL mirror
/dev/gpt/disk0.nop /dev/gpt/disk1.nop
Правда нафига указывать сеецифичные для автора параметры в rc.conf, loader.conf, на мой взгляд надо только специфику zfs
| |
|
|
2.9, iZEN (ok), 01:40, 07/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
В системе, где только одна ZFS, файл /etc/fstab не нужен. Для SWAP можно использовать файл, который настраивается в rc.conf, или распределённое место в ZVOL.
| |
|
|
2.11, nagual (ok), 16:04, 07/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
> Покажите вывод команды zpool status
Кусок лога:
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
zroot 19,9G 660K 19,9G 0% 1.00x ONLINE -
pool: zroot
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
zroot ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
gpt/disk0 ONLINE 0 0 0
gpt/disk1 ONLINE 0 0 0
errors: No known data errors
NAME PROPERTY VALUE SOURCE
zroot recordsize 128K default
ashift: 12
| |
|
|
|
3.14, shadowcaster (?), 17:53, 07/11/2012 [^] [^^] [^^^] [ответить]
| +1 +/– |
И там, и там. Если уточнять, то и opensolaris тоже имеет проблемы со свапом на zfs. У коммерческой солярки свап на zfs обрабатыватеся специальным образом, и это не портировано.
Если есть zfs и нужен swap - я делаю отдельные gpt разделы типа freebsd-swap и в gmirror их.
| |
|
4.15, nagual (ok), 18:01, 07/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
> И там, и там. Если уточнять, то и opensolaris тоже имеет проблемы
> со свапом на zfs. У коммерческой солярки свап на zfs
> обрабатыватеся специальным образом, и это не портировано.
> Если есть zfs и нужен swap - я делаю отдельные gpt разделы
> типа freebsd-swap и в gmirror их.
Может быть в 9.1 исправят, будем надеяться.
| |
|
5.16, shadowcaster (?), 18:20, 07/11/2012 [^] [^^] [^^^] [ответить]
| +1 +/– |
> Может быть в 9.1 исправят, будем надеяться.
Нет, не исправят. Это не баг, а фича. :)
С другой стороны, все равно zfs строится не на физических дисках, а на gpt разделах. Как минимум на каждый диск надо устанавливать bootloader и загрузочный раздел, так что мешает еще добавить в разбивку swap и добавить его в gmirror?
| |
|
6.17, nagual (ok), 18:23, 07/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
>> Может быть в 9.1 исправят, будем надеяться.
> Нет, не исправят. Это не баг, а фича. :)
> С другой стороны, все равно zfs строится не на физических дисках, а
> на gpt разделах. Как минимум на каждый диск надо устанавливать bootloader
> и загрузочный раздел, так что мешает еще добавить в разбивку swap
> и добавить его в gmirror?
Неохота gmirror добавлять, его удалить можно только из singl mode.
| |
|
7.21, Shadowcaster (?), 20:42, 07/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
gmirror простой, как табуретка, собрать можно на живой системе, разобрать - так же. удаленно.
| |
|
6.18, iZEN (ok), 18:46, 07/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
>> Может быть в 9.1 исправят, будем надеяться.
> Нет, не исправят. Это не баг, а фича. :)
...которой я не наблюдал при 100% заполненности SWAP на ZVOL размером 256 МБ.
> С другой стороны, все равно zfs строится не на физических дисках, а
> на gpt разделах. Как минимум на каждый диск надо устанавливать bootloader
> и загрузочный раздел, так что мешает еще добавить в разбивку swap
> и добавить его в gmirror?
Мешает то, что в zpool рекомендуется отдавать неразмеченное RAW-пространство дисков целиком, а не разделы: "Делайте по одному LUN'у на физический носитель".
| |
|
7.23, Shadowcaster (?), 20:55, 07/11/2012 [^] [^^] [^^^] [ответить]
| +1 +/– |
> ...которой я не наблюдал при 100% заполненности SWAP на ZVOL размером 256
> МБ.
Может 256 Гигабайт? Потому как 256 МБ - это не та размеры, при которых логично использовать zfs.
> Мешает то, что в zpool рекомендуется отдавать неразмеченное RAW-пространство дисков целиком,
> а не разделы: "Делайте по одному LUN'у на физический носитель".
Речь шла про gpt разметку, а не про LUN-ы. Если ОС (/) загружается с других носителей, а zfs монтируется потом, то проще всего отдать все устройство под pool. Если надо монтировать root с zfs - то надо сначала загрузить то, что умеет собрать zfs pool и смонтировать его. Подробно разные методы для freebsd описаны тут:
http://wiki.freebsd.org/RootOnZFS
| |
|
8.25, iZEN (ok), 21:12, 07/11/2012 [^] [^^] [^^^] [ответить] | +/– | FreeBSD умела как я выяснял на собственном опыте грузиться с RAW-ZFS без всяко... текст свёрнут, показать | |
|
|
|
|
4.19, nagual (ok), 18:49, 07/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
> И там, и там. Если уточнять, то и opensolaris тоже имеет проблемы
> со свапом на zfs. У коммерческой солярки свап на zfs
> обрабатыватеся специальным образом, и это не портировано.
А есть ссылки на багрепорт ?
| |
4.20, nagual (ok), 20:30, 07/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
> И там, и там. Если уточнять, то и opensolaris тоже имеет проблемы
> со свапом на zfs. У коммерческой солярки свап на zfs
> обрабатыватеся специальным образом, и это не портировано.
> Если есть zfs и нужен swap - я делаю отдельные gpt разделы
> типа freebsd-swap и в gmirror их.
Я тоже ловил креши на исчерпании памяти и при этом без zfs. Там проблема может быть в другом. Я ловил под vmware так что ...
| |
|
5.24, nagual (ok), 20:56, 07/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
Вот подумал может стоит добавить zfs set recordsize=4K для свопа ?
Это как то связанно с vm.pmap.pg_ps_enabled которая появилась в 9.0-RELEASE.
| |
|
|
|
2.27, AlexAT (ok), 23:20, 09/11/2012 [^] [^^] [^^^] [ответить]
| +1 +/– |
Да уж, ARC такой ARC. Хуже реализацию кеша придумать было сложно.
| |
|
3.28, nagual (ok), 00:01, 10/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
> Да уж, ARC такой ARC. Хуже реализацию кеша придумать было сложно.
# zfs set primarycache=metadata database/mysql
# zfs set secondarycache=none database/mysql
А в линуксе можно отключить кеширование для отдельного раздела ? Что бы не вытеснять нужные данные из кеша ?
| |
|
4.29, AlexAT (ok), 11:44, 10/11/2012 [^] [^^] [^^^] [ответить]
| +1 +/– |
> А в линуксе можно отключить кеширование для отдельного раздела ? Что бы
> не вытеснять нужные данные из кеша ?
Вообще говоря, есть O_DIRECT - вполне стандартный механизм для доступа к файлам, который не вредит кэшу. Считанные или записанные под O_DIRECT данные сразу помещаются в хвост LRU, и имеют почти нулевой таймаут (и высший приоритет) сброса на диск/очистки.
Ну а поскольку в монстроидном ZFS имеется ARC, который не реализует никакие типовые механизмы работы с системой и системным кешем - естественно, был придуман очередной костыль... правда есть определенное ощущение, что отключение оного приведет к интересным фокусам с производительностью.
| |
|
5.30, nagual (ok), 13:24, 10/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
> Вообще говоря, есть O_DIRECT - вполне стандартный механизм для доступа к файлам,
> который не вредит кэшу. Считанные или записанные под O_DIRECT данные сразу
> помещаются в хвост LRU, и имеют почти нулевой таймаут (и высший
> приоритет) сброса на диск/очистки.
Сейчас месье нам раскажет о том как он прикрутит O_DIRECT к тем приложениеям которые скомпилированы без O_DIRECT ;-)
| |
|
6.31, AlexAT (ok), 10:06, 11/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
> Сейчас месье нам раскажет о том как он прикрутит O_DIRECT к тем
> приложениеям которые скомпилированы без O_DIRECT ;-)
1) исходники запретили?
2) если приложение не использует O_DIRECT - это, как правило, сознательно, и отключать кэш в этом случае будет только полный идиот
| |
|
7.32, nagual (ok), 11:15, 11/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
>> Сейчас месье нам раскажет о том как он прикрутит O_DIRECT к тем
>> приложениеям которые скомпилированы без O_DIRECT ;-)
> 1) исходники запретили?
> 2) если приложение не использует O_DIRECT - это, как правило, сознательно, и
> отключать кэш в этом случае будет только полный идиот
1) Месье предлагает переписать половину пакетов ? Надеюсь месье это не в серьёз ?
2) Что касается второго вопроса MySQL+RAW+ZFS как раз тот случай когда O_DIRECT не имеет значения так как RAW. Месье ниасилил документацию ?
Итак ARC в ZFS имеет преимущество над реализацией кеша в BTRFS уже тем что позволяет отключать кеширование для отдельных разделов.
| |
|
8.33, AlexAT (ok), 12:30, 11/11/2012 [^] [^^] [^^^] [ответить] | +1 +/– | Не предлагаю - мне это не надо Кому абсолютно надо - ССЗБ, и пусть переписывает... текст свёрнут, показать | |
|
9.34, nagual (ok), 12:38, 11/11/2012 [^] [^^] [^^^] [ответить] | –1 +/– | Месье теоретик Судя по отсутсвию тестов BTRFS MySQL vs ZFS MySQL в первом случ... текст свёрнут, показать | |
|
|
|
|
|
Часть нити удалена модератором |
14.39, AlexAT (ok), 21:13, 11/11/2012 [ответить] | +/– | Если быть конкретнее - сменил 3 места работы, рост, однако 3 года назад на теку... текст свёрнут, показать | |
|
|
|
|
|
|
|
9.70, nagual (ok), 01:00, 18/11/2012 [^] [^^] [^^^] [ответить] | +/– | Потрудитесь объяснить как вы понимаете связь между MySQL, RAW, ZFS и O_DIRECT ... текст свёрнут, показать | |
|
10.71, AlexAT (ok), 11:52, 18/11/2012 [^] [^^] [^^^] [ответить] | +1 +/– | 1 В терминологии MySQL RAW - это сырой раздел, без файловой системы 2 MySQL по... текст свёрнут, показать | |
|
|
|
|
|
|
|
|
|
1.43, Fomalhaut (?), 22:49, 13/11/2012 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Вот только для свопа на ZFS стОит сделать его волум блоком в 4кБ (размер страницы на i386/amd64).
$ zfs create -V 4gb -o org.freebsd:swap=on -o volblocksize=4K -o checksum=off systor/swap
Но в таком случае можно было вообще обойтись без таблицы разделов и "раскатать" ZFS по всему диску.
P.S. И правильно сделано: для свопа на ZFS не надо ничего писать в /etc/rc.conf - при портировании ZFS на Фряху решили сделать это лучше и не засирать fstab. И, дабы не нарушать совместимость zpool-ов с солярой, заюзали для этого user propert-ю.
| |
|
2.44, nagual (ok), 23:07, 13/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
> Вот только для свопа на ZFS стОит сделать его волум блоком в
> 4кБ (размер страницы на i386/amd64).
> $ zfs create -V 4gb -o org.freebsd:swap=on -o volblocksize=4K -o checksum=off systor/swap
> Но в таком случае можно было вообще обойтись без таблицы разделов и
> "раскатать" ZFS по всему диску.
> P.S. И правильно сделано: для свопа на ZFS не надо ничего писать
> в /etc/rc.conf - при портировании ZFS на Фряху решили сделать это
> лучше и не засирать fstab. И, дабы не нарушать совместимость zpool-ов
> с солярой, заюзали для этого user propert-ю.
Что еще стоит добавить ?
/sbin/zfs set checksum=off $ZPOOL/swap
/sbin/zfs set primarycache=none $ZPOOL/swap
/sbin/zfs set secondarycache=none $ZPOOL/swap
/sbin/zfs set sync=disabled $ZPOOL/swap # отключить ZIL
/sbin/zfs set recordsize=4K $ZPOOL/swap
| |
|
3.45, AlexAT (ok), 23:07, 13/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
Ну да. Что может быть лучше в *опу из-за CoW фрагментированного свопа?
| |
|
4.46, nagual (ok), 23:11, 13/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
> Ну да. Что может быть лучше в *опу из-за CoW фрагментированного свопа?
Своп создается с ключем -V тоесть raw ...
| |
|
5.47, AlexAT (ok), 23:20, 13/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
> Своп создается с ключем -V тоесть raw ...
А нафига тогда, простите, ZFS?
| |
|
6.48, nagual (ok), 23:24, 13/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
>> Своп создается с ключем -V тоесть raw ...
> А нафига тогда, простите, ZFS?
Своп в файл поверх фс ? Я так даже в линуксе не делаю ...
| |
|
7.49, AlexAT (ok), 23:24, 13/11/2012 [^] [^^] [^^^] [ответить]
| +/– |
> Своп в файл поверх фс ? Я так даже в линуксе не делаю ...
А RAW-разделы, что, отменили?
| |
|
8.50, nagual (ok), 23:42, 13/11/2012 [^] [^^] [^^^] [ответить] | +/– | Четырьмя поставми выше написано raw У вас провалы в памяти или иллюминаторы в к... текст свёрнут, показать | |
|
|
|
|
|
|
4.57, nagual (ok), 00:07, 14/11/2012 [^] [^^] [^^^] [ответить] | +/– | На вскидку так sbin zfs set checksum fletcher4 ZPOOL sbin zfs create -V SWAP... большой текст свёрнут, показать | |
|
|
|
|