|
|
|
4.17, QuAzI (ok), 13:23, 27/07/2017 [^] [^^] [^^^] [ответить] [↓] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| –1 +/– |
В случае сдвигов мозга всегда можно не меняя ФС уехать на другую ОС. ZFS на сегодняшний день только вантуз не поддерживает (но это их проблемы). Плюс никто не гонит в проде использовать ветки из сырого будущего, которое ещё даже не в проекте.
Хранилки на линуксе делают, но вот большинство из них (которые тупо NAS'ы с минимальным количеством ОЗУ, лишь бы линух с FTP шевелился) не потянут ни btr, ни zfs.
Ну а больших плюсов у btrfs, которую пишет горстка разработчиков под одну ОС, и которая может развалиться ввиду каких-нибудь очередных сдвигов мозга у Линуса и компании - не вижу.
| |
|
|
6.30, QuAzI (ok), 14:12, 27/07/2017 [^] [^^] [^^^] [ответить] [↓] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| –1 +/– |
Сборки с нуля? Имеется ввиду тупо скопировать данные во вновь созданный раздел? С заведомо умершей системы например ты такое сможешь? И зачем вообще? ZFS как-то волшебно меняется сама по себе в зависимости от ОС, если в неё не лезть специально?
По вантузу... Там одних только лулзов с "динамическим диском" хватает, который, являясь костылём поверх ntfs, превращает при любых шитхеппенсах восстановление данных в локальный адок. Ну нафиг такое счастье
| |
6.32, Pofigist (?), 14:21, 27/07/2017 [^] [^^] [^^^] [ответить] [↓] [↑] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| –5 +/– |
> только вот я даже не знаю, где тусуются люди, умеющие ЭТО готовить и знающие, где там лежат грабли.
Я например. Но ну енто нафиг - делать СХД на ОС общего назначения это глупость. Ну как минимум - ее надо хорошенько ощипать от всего лишнего... Собственно к сожалению это такая же неразрешимая проблема как и линакс на роутере - OpenWRT ее решило очень частично если что.
Вообщем к сожалению свободных замен Cisco IOS или NetApp ONTAP - нет и не предвидется. :(
| |
|
|
|
|
|
7.96, пох (?), 14:57, 28/07/2017 [^] [^^] [^^^] [ответить] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| –1 +/– |
> я не очень понимаю, а сложно накинуть туда еще памяти
это мои деньги, я не люблю ими топить печку.
Памяти там с избытком для той задачи, которую эта виртуалка обслуживает, ее прежняя инкарнация на 8S+ufs умещалась в 256m (разумеется, она не очень пересобрала бы там мир, но это и не требовалось)
К тому же практика коллег показала, что повиснуть без славиных патчей может и при 8G и при такой же вялой нагрузке.
при этом девятка с zfs при ограничении arc_max и тюнинге vmem может умещаться и в гигабайте без особо видимых глазом проблем. В 10 сломали ограничение, в 11 мне было низачем не нужно, но, скорее всего, с тем же патчем работает, а без него виснет рано или поздно.
| |
|
|
|
|
|
|
|
|
|
6.122, SysA (?), 16:24, 07/08/2017 [^] [^^] [^^^] [ответить] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| +/– |
>> https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/6/html-
> И при чем здесь файловая система? Если это модуль для san сетей?
Специально для админов локалхоста:
1. Удивись: БТРФС - это больше, чем просто ФС! Это вполне себе полноценная система управления внешней памятью, то бишь функциональная замена РАЙДов, ЛВМ и пр., т.е. элемент САН'а.
2. Сюрприз - в реальном производстве (когда в хозяйстве хотя бы несколько десятков физических серверов) работать на локальных дисках дорого, ненадежно и неэффективно. Поэтому используются если не САН'ы, то хотя бы решения попроще, типа полочек с дисками. А работать без резервирования связи - ССЗБ! :)
| |
|
|
|
|
|
|
2.10, пох (?), 12:51, 27/07/2017 [^] [^^] [^^^] [ответить] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| –2 +/– |
> сопоставима со стабильностью btrfs или со стабильностью ext4? Это всё-таки разные вещи
именно что разные. Ящики сравниваем с яблоками?
Если сравнивать с ext4 over lvm на большом объеме - то там столько интересных способов навсегда потерять хранилку, что даже btrfs перестает выглядеть особенно стремно.
| |
|
1.7, Аноним (-), 12:33, 27/07/2017 [ответить] [﹢﹢﹢] [ · · · ] [↓] [↑] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| –2 +/– |
> Добавлено 42 новых параметра для тонкой настройки работы модуля ядра.
То есть расписались в собственном бессилии сделать систему работоспособной в поставке "по-умолчанию." Интересно, сколько их вссего теперь насчитывается, не меньше двух сотен, наверное. Кто в здравом уме будет перелопачивать доки и тюнить всё это?
| |
|
2.9, X4asd (ok), 12:46, 27/07/2017 [^] [^^] [^^^] [ответить] [↓] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| –5 +/– |
> Кто в здравом уме будет перелопачивать доки и тюнить всё это?
ясно же кто! тот кому нужно не рабочее решение -- а провести время-провождение в режиме весело поиграть...
...то есть.. хм.. наверно типичный пользователь ZFS. :-)
остальные -- просто заиспользуют файловую систему встроенную в ядро, без неадекватнох телодвижений по привязыванию проволокой чужеродного говона. EXT4, XFS, BTRFS -- всем хватает в зависимости от необходимого количества желаемых плюшек.
# P.S.: в этом месте должен появиться фанат ZFS уверяющий что стабильность ZFS якобы сильно лучше чем стабильность BTRFS, выдумывая мифы про порчу данных на BTRFS :-D :-D :-D
| |
|
|
4.23, PnDx (ok), 13:48, 27/07/2017 [^] [^^] [^^^] [ответить] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| –2 +/– |
> Простите, а ZFS еще не готова к продакшену?
Ещё не готова, но уже́ используется. Как и экстентные ФС. Как те же лекарства. Там, где выигрыш перевешивает риски.
В моём ареале обитания соотношение zfs:btrfs ≈10:1 "по головам".
Т.е. btr на одной _очень_специальной_ (виртуальной) ноде, где наличие рефлинков перевесило вероятность продолбать контент. А вот zfs подкладывается, в частности, под распределённые big-data системы. Потому что поблочные суммы и сжатие. Так что через годик-другой будет 20:1 и т.д.
| |
4.64, Аноним (-), 21:15, 27/07/2017 [^] [^^] [^^^] [ответить] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| +/– |
> Простите, а ZFS еще не готова к продакшену?
Не совсем. ZFS - не программа, это инфраструктура хранения. Сравнивать её с обычными FS - едино как сравнивать PostgreSQL с BerkleyDB. И этот монстр ДОЛЖЕН быть интегрирован в систему а не установлен сбоку. На памяти борьба ARC с системой за память и иные чудеса... Но если с памятью в машине проблем нет (или хотя бы оттюнен ARC) и ZFS стоит сбоку и держит некий сторедж, оно рабочее, даже очень.
| |
|
|
4.24, пох (?), 13:51, 27/07/2017 [^] [^^] [^^^] [ответить] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| –4 +/– |
> Использую ZFS просто как есть, apt-get install и минимальной разметки оказалось более
> чем достаточно чтобы получить более чем работающую конфигурацию.
и чем это отличается от горе-фанатиков, так же точно поставивших btrfs, или вовсе lvm с его миной с часовым механизмом?
"у них все работает", ага, и рассуждения о прямизне своих рук (а на деле - банальном ламерстве, то есть отсутствии и знаний о внутреннем устройстве - приносящих, как обычно, много горестей, и опыта за рамками домашней порно-студии) а потом - "мы не виноваты, оно само".
| |
|
|
|
7.47, Cuernud (?), 16:06, 27/07/2017 [^] [^^] [^^^] [ответить] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| +4 +/– |
> ну типа оно умеет в один непрекрасный момент превращаться в тыкву. Совсем,
> поскольку вместо метаинформации записывает мусор. Подробности очень старательно прячутся
> (кто-то на этом делает гешефты, кто-то боится распугать ентер-прайсных клиентов, в
> общем, такой секрет полишинеля), в целом, очень похоже на пресловутую фичу
Похоже на теорию заговора. Кто прячет подробности-то, кто этот негодяй?
Хотя бы при каких вариантах применения и обстоятельствах тыквизация? Или вообще ни от чего не зависит?
Из личного опыта и опыта коллег (а контора большая) ничего такого, и вообще впервые слышу.
Нагуглить про самопроизвольную порчу метаданных пока не удалось ничего.
| |
|
|
|
|
|
4.39, Anton (??), 14:55, 27/07/2017 [^] [^^] [^^^] [ответить] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| +3 +/– |
> никаких мифов делал тестовый сервак зимбры 100гб диск на Btrfs 0.19м пуле
> , у зимбры был разряженный бд файл на 80 гб который
> в сиситеме занимал 700к и отображался корректно при заполнении почто помойки
> данными свыше 20 гб получил fs crashed and remounted as ro
Я правильно понял что вы делали пул из нескольких дисков на версии btrfs выпущенной в 2008 году? При том что она только родилась в 2007?
| |
|
|
|
3.53, X4asd (ok), 17:55, 27/07/2017 [^] [^^] [^^^] [ответить] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| +3 +/– |
> Большинство же даже не догадывается переключить свой ssd в non-rotational
ssd вообще-то по умолчанию non-rotational, и блочные устройства сделаные поверх него (следущим слоем) -- тоже автоматически non-rotational ..
ну или как вам там живётся в каменном веке?
какие параметры ещё в ручную переключаете?
| |
|
4.65, пох (?), 21:22, 27/07/2017 [^] [^^] [^^^] [ответить] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| –3 +/– |
> ssd вообще-то по умолчанию non-rotational, и блочные устройства сделаные поверх него
это если оно правильно угадает. А теперь покажите мне типового линups юзверя, который это хотя бы проверить догадается? Они вон, смотрите тут повыше, f2fs на нем норовят заделать. Или вовсе btr... Ну откуда у них мозгам-то быть?
> ну или как вам там живётся в каменном веке?
> какие параметры ещё в ручную переключаете?
я вам еще один страшный тайна открою - zfs тоже тюнит все эти параметры автоматически, только вот тоже не всегда удачно угадывает, особенно на нетиповых конфигурациях, которые авторам изначального кода (десять лет назад) в страшном сне не снились.
Большинству типовых пользователей с типовым мозгом версии 1.0, лучше как раз ничего там не крутить.
Крутить будем мы, те кто использует либо в очень ограниченных ресурсах, либо собирает большую хранилку под конкретную задачу и умеет проверять свои идеи тестированием.
| |
|
|
|
|
2.87, iZEN (ok), 09:33, 28/07/2017 [^] [^^] [^^^] [ответить] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| –1 +/– |
> С момента объявления о готовности жду, когда сделают уменьшение количества дисков, расширение и сужение райд группы.
Удивительно дело — столько ждать, терпеть, не пользоваться и только поэтому? Вот это я понимаю — приоритеты и собственные принципы!!
> И ведь лет 6-7 назад говорили, что уже вот-вот, почти готово.
Кто говорил? Можно ссылку на это странное высказывание?
| |
|
3.90, пох (?), 10:32, 28/07/2017 [^] [^^] [^^^] [ответить] [↓] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| –1 +/– |
>> С момента объявления о готовности жду, когда сделают уменьшение количества дисков,
>> расширение и сужение райд группы.
> Удивительно дело — столько ждать, терпеть, не пользоваться и только поэтому? Вот
ну да, вдруг захочется диск сп...ть, времена нынче сложные, и очень нужны бабки для выплаты по ипотеке? А начальству какая разница, по инвентаризации все сходится - "сервер большой, 1штук"
> это я понимаю — приоритеты и собственные принципы!!
just a business, ничего личного!
>> И ведь лет 6-7 назад говорили, что уже вот-вот, почти готово.
> Кто говорил? Можно ссылку на это странное высказывание?
ага, мне тоже интересно, учитывая что это как раз ключевая архитектурная особенность
| |
|
4.109, iav (ok), 16:31, 30/07/2017 [^] [^^] [^^^] [ответить] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| +/– |
> ну да, вдруг захочется диск сп...ть, времена нынче сложные, и очень нужны
> бабки для выплаты по ипотеке? А начальству какая разница, по инвентаризации
> все сходится - "сервер большой, 1штук"
Вы, похоже, живёте в мире, в котором ничего никогда не меняется, и никто никогда не ошибается. Странный мир, не хотел бы я жить в таком.
| |
|
5.118, пох (?), 16:58, 02/08/2017 [^] [^^] [^^^] [ответить] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| –1 +/– |
> Вы, похоже, живёте в мире, в котором ничего никогда не меняется,
> и никто никогда не ошибается.
работающие хранилки, которые нельзя просто увести в оффлайн и скопировать - не меняются, да.
Потому что ссыкотно, даже если ошиблись и получилась не очень оптимальная конфигурация, но она работает - хрен с ней, пусть уже дальше работает.
сановские разработчики думали ровно так же, во всяких гайдлайнах эта фича тоже вполне описана - десять раз подумай, семь раз отмерь, и один раз отрежь немножко. Не думаю, что вам стоит ждать изменений в этой области - оно там довольно глубоко зарыто в архитектуру, сделать хорошо и надежно не получится.
(вариант сделать ребалансинг в виде долгой _деструктивной_ операции, при обломе в процессе которой пул накрывается совсем и необратимо, разумеется, мало кому подойдет)
| |
|
|
3.101, iav (ok), 01:05, 29/07/2017 [^] [^^] [^^^] [ответить] [↑] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| +/– |
>> С момента объявления о готовности жду, когда сделают уменьшение количества дисков, расширение и сужение райд группы.
> Удивительно дело — столько ждать, терпеть, не пользоваться и только поэтому? Вот
> это я понимаю — приоритеты и собственные принципы!!
Почему не использовать? Использую уже лет 10, наверное. Но невозможность убирания устройств кажется запредельным унизительным идиотизмом.
>> И ведь лет 6-7 назад говорили, что уже вот-вот, почти готово.
> Кто говорил? Можно ссылку на это странное высказывание?
Сам Adam Leventhal говорил. Ссылку за пару минут не нашёл, но мы ж не в суде, вы не обязаны мне верить.
| |
|
4.110, Elhana (ok), 20:38, 30/07/2017 [^] [^^] [^^^] [ответить] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| –1 +/– |
Его не некому делать. Просто например Ahrens высказался, что если его сделать, то это будет последней фичей zfs, потому что там столько проблем с ним возможно, что добавление новых фич превратится в ад. В некоторых случаях гораздо проще просто скопировать с одного пула на другой.
Собственно с btrfs как раз эта фигня творится, когда вы удаляете диск из пула, меняете уровни рейда, запускаете balance - оно может неделю и больше легко все это лопатить, даже на не очень большом пуле.
https://www.reddit.com/r/homelab/comments/57t5dj/btrfs_balanceadddelete_device
| |
|
|
|
1.112, Inv (?), 21:04, 30/07/2017 [ответить] [﹢﹢﹢] [ · · · ] [↑] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| –1 +/– |
Была у меня история, как-то решил что надо наш zoneminder перенести на linux + zfs, закончилось очень больно через пару дней, когда в системе подходило время для удаления данных. На сколько получилось понять уровень деградации хранения данных был максимальный и порция в 1000 файлов удалялась около 2х часов.... тюнил, крутил, бестолку...
В итоге командой пришли к тому что хранить что-то что сверх часто обновляется на такой системе просто не вариант. Вернулись на прежнее mdadm + raid0 из 4x 1TB и все по сей день летает без всяких лагов.
Что примечательно хостинг у нас досих пор под FreeBSD, порядка 40ка серверов и все на zfs, там нареканий почти нету... а вот с видеосервером оказалась лажа.
| |
|
2.120, пох (?), 17:19, 02/08/2017 [^] [^^] [^^^] [ответить] [п©Б∙╗ п©Б∙╙п©Б∙╛п©Б∙╒п©Б∙ёя▐Б■─п©Б∙÷я▐Б■▄п©Б∙╛я▐Б■─я▐Б■░]
| –1 +/– |
> Была у меня история, как-то решил что надо наш zoneminder перенести на
> linux + zfs, закончилось очень больно через пару дней, когда в
> системе подходило время для удаления данных.
вы не на общеизвестные грабли с >80% заполнением пула налетели, надеюсь?
> обновляется на такой системе просто не вариант. Вернулись на прежнее mdadm
> + raid0 из 4x 1TB и все по сей день летает
собственно, zfs вряд ли хорошая платформа для write-only данных, не вижу чем данное решение плохо.
| |
|
|