The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Для Btrfs представлены патчи с балансировкой чтения RAID1 по алгоритму Round-robin

16.12.2024 08:25

В репозиторий, развивающий изменения в Btrfs для будущих веток ядра Linux, принят набор патчей с реализацией политики цикличной балансировки операций чтения в RAID1, использующей алгоритм "Round-robin". Для включения распределения операций чтения по круговому циклу в "/sys/fs/btrfs/<uuid>/read_policy" необходимо выставить значение "round-robin:[min_contiguous_read]", в котором необязательный параметр "min_contiguous_read" определяет минимальный размер запросов, подлежащих балансировке между зеркалами (по умолчанию значение 256 KiB).

Изначально балансировка нагрузки RAID1 в Btrfs производилась на основании PID процесса, который запросил ввод/вывод. Подобная схема неплохо работала в системах где нагрузку создаёт множество разных процессов, однако при однозадачной нагрузке не позволяла добиться максимальной производительности. Например, в проведённых тестах включение политики "round-robin" снизило время выполнения процесса дефрагментации с 18 до 8.8 секунд.

Дополнительно добавлено изменение, реализующее параметр "devid:<devid>" в "/sys/fs/btrfs//read_policy". Данный параметр отключает балансировку и предписывает выполнять операции чтения только с заданного диска.

  1. Главная ссылка к новости (https://www.phoronix.com/news/...)
  2. OpenNews: Продемонстрирована возможность загрузки Windows из раздела с Btrfs
  3. OpenNews: В ядро Linux 6.2 войдут улучшения RAID5/6 в Btrfs
  4. OpenNews: Для Btrfs представлена асинхронная реализация DISCARD
  5. OpenNews: Выпуск WinBtrfs 1.1, реализации файловой системы Btrfs для Windows
  6. OpenNews: SUSE продолжит поддержку файловой системы Btrfs
Автор новости: Аноним
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/62407-btrfs
Ключевые слова: btrfs, kernel
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (163) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, Анониссимус (?), 08:30, 16/12/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • +5 +/
    А этого не было? Ну хорошо, что теперь будет. Значит, мне не казалось, что raid1 не даёт ускорения.
     
     
  • 2.2, Тест (?), 08:35, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    raid1 и в mdadm не ускоряется by design. Можно сделать degraded raid10 (с половиной дисков), чтобы зафорсить параллельное чтение.
     
     
  • 3.12, нах. (?), 09:20, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +2 +/
    погоди, они ж лет десять назад с пафосом это чинили?
    (или я путаю и они героически чинили 2x performance hit на write? Потычьте кто-нить палочкой, я боюсь.)

     
     
  • 4.36, nox. (?), 10:57, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > погоди, они ж лет десять назад с пафосом это чинили?

    Надо этот вопрос финишному историку задать.

     
  • 3.46, Аноним (-), 11:49, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Где ты был комментатор 10 лет назад, когда я работал с Western Digital? Ты бы мне на проекте очень был бы нужен. Они в упор не хотели понимать проблему, потому что железо уже наклепали и софт под него не хотели менять. А мне только API можно было использовать.
     
  • 3.47, Аноним (47), 11:58, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > Можно сделать degraded raid10 (с половиной дисков), чтобы зафорсить параллельное чтение

    Разве raid10 с половиной дисков это не то же самое, что и raid0? Может тогда лучше сразу raid0 собрать?

     
     
  • 4.50, nox. (?), 12:21, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Нельзя. Нужно брать RAID6 или, на худой конец, RAID10. Иначе счастья в жизни нет.
     
  • 4.55, Аноним (55), 12:32, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > Разве raid10 с половиной дисков это не то же самое, что и raid0?

    Зависит какие диски считать половиной, ([1-3], [2-4]) или ([1-2], [3-4]). В первом случае если дегрейднуть одну группу [2-4] то получится raid0 то есть данные все еще целые. А вот во втором случае, если дегрейднуть группу [3-4], то потеряем целостность.

    https://ru.wikipedia.org/wiki/RAID

     
  • 4.96, Catwoolfii (ok), 17:51, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +3 +/
    >Разве raid10 с половиной дисков это не то же самое, что и raid0?

    Для типичного raid10 - да. Но у md raid есть три типа raid10:
    https://web.archive.org/web/20230324162214/https://www.ilsistemista.net/index.

     
     
  • 5.125, Аноним (125), 00:08, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Чеееееегоооооо?
     
  • 4.137, chdlb (?), 09:23, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    RAID 10 is a stripe of mirrors

    все правильно, если убрать два диска не из разных зеркал, то массив развалится

    а если из разных, то это обычный RAID0 c точки зрения надежности

     
  • 3.88, Соль земли (?), 16:45, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Про mdadm не поторопился?
     
  • 2.4, Аноним (4), 08:45, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Btrfs не даёт ускорения. И ещё и не даёт ускорения в рейде и этим кто-то в серьез пользовался...
     
     
  • 3.9, нах. (?), 09:09, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –3 +/
    ну замедление же ж дает! (не удивлюсь если там и 2x performance hit по записи, как у дедов в их md1)

    На самом деле не дает только при linear read, а если у тебя мильен мелких процессов (мля, а что это такое может быть? cp раздаваемая апачом с prefork mpm?) то все же должно быть не 2x, но побыстрее чем одинарный диск.

    Ноетанеточна, и я бы рекомендовал потестировать если всерьез закладываться на эту недофичу.

    "недо", потому что серьезные выигрыши от параллельных операций начинаются когда шпинделей не два, а двадцать два, а у нас raid6 данные портит.

     
     
  • 4.15, Аноним (-), 09:26, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –3 +/
    > Ноетанеточна, и я бы рекомендовал потестировать если всерьез закладываться на эту недофичу.

    Оно пока экспериментальное и не активировано по дефолту, это ж не ZFSники вывалить не тестированый крап с лопаты.

    > "недо", потому что серьезные выигрыши от параллельных операций начинаются
    > когда шпинделей не два, а двадцать два, а у нас raid6 данные портит.

    RAID6 для ускорения - это конечно тоже забавная идея. Хотя на 22 наверное даже прокатывает.

     
     
  • 5.24, нах. (?), 10:07, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > RAID6 для ускорения - это конечно тоже забавная идея

    обхохочешься. Производители san'ов прям животики надрывают глядя на таких как ты.

    (а сервис-инженеры, кстати, плачут. Типичная жалоба заказчика - "мы купили .... а оно и половины завленной производительности не выдает, за что тыщи нефти плочено?!". Угадаешь, почему?)

     
     
  • 6.64, Аноним (64), 13:42, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –4 +/
    >> RAID6 для ускорения - это конечно тоже забавная идея
    > обхохочешься. Производители san'ов прям животики надрывают глядя на таких как ты.

    При том одни, кажется, уже даже и надорвали. Sun, кажется, этот лопнувший от трупных газов кадавр назывался. И, вот - разобрали его на запчасти.

    > (а сервис-инженеры, кстати, плачут. Типичная жалоба заказчика - "мы купили .... а
    > оно и половины завленной производительности не выдает, за что тыщи нефти
    > плочено?!". Угадаешь, почему?)

    Ворклоад какой-нибудь дурацкий, RMW вызывает и если там парити например не распределенный а одним диском - в него все и утыкается поди?

     
     
  • 7.126, Аноним (125), 00:29, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Sun лопнул, поскольку уж очень дифференцированно свой бизнес строили. И собственный процессор Spark, и собственная ОС, и собственные ФС - ZFS и NFS, и собственный формат лент, и собственная среда исполнения кода. Не все перечислено.
    Когда IBM понял, что не справляется, начал избавляться от менее доходных направлений, передав бытовые ПС и линейку серверов X к Lenovo, сохранив за собой более прибыльные линейки I, P и Z. HP смогла сбросить с себя бремя HPUX. Oracle отказался от собственного формата лент. А Sun продолжал тужиться, тягая сразу все лямки. Не смог, в итоге, надорвался.
    Хотя, объективности ради, надо признаться, что Sun поправу можно с гордостью отнести к самому "кровавому ынтырпрайзу". В этом они оказались даже честнее IBM.
     
     
  • 8.141, Аноним (-), 09:38, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Предел мечт корпа тотал контрол над ВООБЩЕ ВСЕМ И козью морду кастомеру куда... большой текст свёрнут, показать
     
  • 8.144, 1 (??), 09:53, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    А чего тогда Apple всё не лопается и не лопается Наверное всё же дело в другом... текст свёрнут, показать
     
  • 7.129, Аноним (129), 00:42, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    san, не sun
    парити одним диском - это древнющий raid4 (который разве что лет 30 назад был актуален)

    Проблема, обозначенная выше, обусловлена тем, что взята железка, в которую можно воткнуть десяток и более дисков с рейд6, а воткнуто два диска в зеркале. Потому что от железки кусок не отрежешь, а вот дисков можно выбрать - два или двадцать. С очевидным проседанием пропускной способности массива в разы.

    Просвещайся, товарищ, и апломбу поумерь (мушку спили).

     
     
  • 8.134, нах. (?), 09:04, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    как раз и отрежешь Никто не покупает эти железки без дисков, на вырост , они, ... текст свёрнут, показать
     
     
  • 9.146, Фрол (?), 10:03, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Лол я одного такого продвинутого видел, он на нетапе рейд6 из 22 дисков nlsas за... текст свёрнут, показать
     
     
  • 10.148, Фрол (?), 10:07, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    больше 8-9 шпинделей... текст свёрнут, показать
     
  • 10.165, нах. (?), 13:34, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    я поэтому специально оговорился про ib novo, что они особняком - у них в сторва... текст свёрнут, показать
     
  • 5.57, Минона (ok), 12:55, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > это ж не ZFSники вывалить не тестированый крап с лопаты.

    У ZFS с параллельным чтением с mirror всё отлично.

    > RAID6 для ускорения - это конечно тоже забавная идея.

    У меня с 8 шпинделей в raidz2 линейное чтение ~ 1 Гбайт/с.

     
     
  • 6.65, Аноним (-), 13:45, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –6 +/
    >> это ж не ZFSники вывалить не тестированый крап с лопаты.
    > У ZFS с параллельным чтением с mirror всё отлично.

    А ваш девиз, видимо, "смотрю в книгу - вижу фигу". Потому что вон та претензия к общему выкатыванию релиза. Какая разница сколько там шпинделей, если релизеры перепутали пафосных админов типа вас с бетатестерами, и вывалили с лопаты рефлинки вообще не тестировав? Не понимаю как от такого факапища релизеров гиг в секунду помогает.

    >> RAID6 для ускорения - это конечно тоже забавная идея.
    > У меня с 8 шпинделей в raidz2 линейное чтение ~ 1 Гбайт/с.

    Да и хрен с ними. Меня проблемы внемайнлайн выкидышей в принципе не интересуют.

     
     
  • 7.100, _ (??), 18:30, 16/12/2024 Скрыто ботом-модератором     [к модератору]
  • +2 +/
     
  • 7.128, Аноним (125), 00:31, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    То есть Вас не интересуют Ваши собственные проблемы?
     
     
  • 8.142, Аноним (142), 09:42, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    То-есть свои проблемы я в рамках майнлайна решать - как раз умею А внемайнлайн ... текст свёрнут, показать
     
  • 7.132, Минона (ok), 08:09, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    >>> это ж не ZFSники вывалить не тестированый крап с лопаты.
    >> У ZFS с параллельным чтением с mirror всё отлично.
    > А ваш девиз, видимо, "смотрю в книгу - вижу фигу". Потому что

    Это твой девиз, причём не раз подтверждённый.

    > вон та претензия к общему выкатыванию релиза. Какая разница сколько там
    > шпинделей, если релизеры перепутали пафосных админов типа вас с бетатестерами, и
    > вывалили с лопаты рефлинки вообще не тестировав? Не понимаю как от
    > такого факапища релизеров гиг в секунду помогает.

    Так я не использую ZFS на линуксе, мне пофигу чего они там релизят.

    >>> RAID6 для ускорения - это конечно тоже забавная идея.
    >> У меня с 8 шпинделей в raidz2 линейное чтение ~ 1 Гбайт/с.
    > Да и хрен с ними. Меня проблемы внемайнлайн выкидышей в принципе не
    > интересуют.

    У меня ZFS как раз в мейнлайне и все виды рейдов работают отлично.
    В отличии от твоего звездолета.

     
     
  • 8.143, Аноним (142), 09:48, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Судя по развитию ситуации и где такие как вы носители парадигм с своими сказками... большой текст свёрнут, показать
     
     
  • 9.151, Минона (ok), 10:25, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Мы как сидели в энтерпрайзах так и сидим Этот мамонт в отличии от твоего некс... текст свёрнут, показать
     
  • 4.40, Роман (??), 11:18, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    постгрес тот же до сих пор процесс на запрос или вот мускуль - там треды, а процесс один..или какой-нибудь qemu может образа вмок под одним пидом туда-сюда читает
     
     
  • 5.101, _ (??), 18:36, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Дык о чём и речь! - пЫонеры-дЫзигнеры btrfs вместо дизайна сделали костыль, Ё - какая неожиданность :)
    C балансировкой IO по PID - только так, оно же не предсказуемо :(
    А по людски делать начали через 10+ лет... ну да ладно - всё равно удачи им, хоть я бтр и не пользую.
     
  • 3.85, Анониссимус (?), 16:38, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > Btrfs не даёт ускорения. И ещё и не даёт ускорения в рейде
    > и этим кто-то в серьез пользовался...

    Гонево. В raid0 даёт ускорение почти равное теоретическому.

     
     
  • 4.102, _ (??), 18:39, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    btrfs + RAID0 ...

    Это же практически /dev/null 8-\

    МьсЁ знает толк!(С)

     
     
  • 5.110, нах. (?), 21:00, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Не, ну а че - если там все равно какой-нибудь докер в докере под докером живет - оно так и так doomed to die.
    Вполне возможно, кстати, что это именно то что на самом деле использует мордокнига.

    Ей твоих котиков не жалко, а упавшая полка (даже если упадет полка, а не просто compute node, вычисляющая какую еще рекламу тебе забахать в ленту) просто переустанавливается и переформатируется заново за пятнадцать-двадцать минут, подумаешь, фокус.

    Я бы, правда, опеннетовским опросам анонимов не особо доверял, и вместо этого - померял бы, если бы мне понадобилась подобная производительность дешево и криво.

     
  • 5.117, Анониссимус (?), 22:09, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > btrfs + RAID0 ...
    > Это же практически /dev/null 8-\
    > МьсЁ знает толк!(С)

    Вовсе не /dev/null. У друга несколько лет работало, пока хдд не навернулся. Потом стим сам перекачал все дистрибутивы.

     
     
  • 6.166, нах. (?), 13:35, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > Вовсе не /dev/null. У друга несколько лет работало, пока хдд не навернулся.

    ну вот, а чем по вашему мордокнига хуже? Кому в общем-то нужны твои котики трехлетней свежести, когда новых полно?

    Так далеко ленту и не крутит никто. Мышь раньше развалится.

     
  • 3.138, chdlb (?), 09:24, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    мне не нравится как сделан RAID в BTRFS я юза dm-raid, а уже на md можно накатывать FS
     
  • 2.14, Аноним (-), 09:23, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > А этого не было? Ну хорошо, что теперь будет. Значит, мне не казалось, что
    > raid1 не даёт ускорения.

    На однозадачной нагрузке - не дает. Ибо привязка к PID. Для разных процессов одновременно - дает. Просто на 1-задачных сценариях PID один и тот же и счастье не наступало.

     

     ....большая нить свёрнута, показать (41)

  • 1.3, Аноним (4), 08:43, 16/12/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • +4 +/
    Этот ваш новомодный btrfs ещё и дефрагментировать надо? 🤦
     
     
  • 2.7, Тест (?), 08:52, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Так это ж CoW.
    П.с. Можно дефрагметировать отдельные директории/файлы.
     
     
  • 3.11, нах. (?), 09:18, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +2 +/
    ты лучше спроси, откуда у них при этом аж более чем двухкратный рост производительности, если суть "дефрагментации" - linear read (допустим, теперь с этим ок) + linear write того что мы только что прочитали. Причем второе в лучшем случае занимает столько же времени, сколько первое, и никак не должно было измениться от того что они _чтение_ пооптимизировали. А "лучший случай" крайне маловероятен в фс где и читать-то параллельно не умеют толком.

     
     
  • 4.58, Минона (ok), 12:58, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > откуда у них при этом аж более чем двухкратный рост производительности

    Тут всё просто -- они сложили скорость чтения и записи 😏

     
  • 3.19, Аноним (-), 09:34, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > П.с. Можно дефрагметировать отдельные директории/файлы.

    При желании - можно. Но стоит почитать на тему unsharing экстентов до того как это безбашенно фигачить. Впрочем, никто не мешает дефрагнуть и потом дедубликатор натравить.

     
     
  • 4.140, chdlb (?), 09:28, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    да я смотрел стату по дедупликации на своих дисках, если ты не срешь копиями типа виртуальных машин при условии что они почти не меняются, то смысла особо нет, много не потеряешь

    хранение одинакого контента это скорее случайность, у меня и нескольких процентов не соберется

     
     
  • 5.145, Аноним (145), 09:59, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Ну я вот таки cpу мультиреференснутыми на образ жаблона VM Это удобно и эффек... большой текст свёрнут, показать
     
  • 2.20, Аноним (-), 09:36, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > Этот ваш новомодный btrfs ещё и дефрагментировать надо? 🤦

    Да так то даже для EXT4 дефраг есть. Просто не особо эффективный, я видел EXT4 которым даже и он не помогал особо. На механике у них все свободное место было фрагментировано в гамно и - что хотите то и делайте.

    У сабжа дефраг субъективно несколько эффективнее EXT4'го но тоже не предел мечтаний. На SSD нафиг надо, на механике - ну если сильно забить, и это торенты какие - сами понимаете.

     
     
  • 3.35, Аноним (47), 10:52, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > На SSD нафиг надо

    А вот это не факт. Когда-то в сети уже поднималась https://www.overclock.net/threads/yes-file-system-fragmentation-does-affect-ss тема о влиянии фрагментации на скорость работы ssd, где как раз и была показана https://imgur.com/vrdwHTe зависимость скорости линейного чтения от числа фрагментов.

     
     
  • 4.38, Аноним (4), 11:16, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Но позвольте это же ntfs и 9 лет назад. Тогда ещё мамонты по земле ходили.  
     
     
  • 5.43, Аноним (47), 11:34, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > Но позвольте это же ntfs и 9 лет назад

    Какое это имеет значение? ССД с тех пор как-то принципиально изменились? Или может файловые системы с тех пор как-то по особому располагать данные научились (про ZNS И FDP слышал, но они даже в серверном сегменте пока не получили широкого распространения, что уж о бытовых системах говорить)? А у cow-фс (ZFS, BTRFS) так-то дела с фрагментацией обстоят ещё хуже, чем у NTFS...

     
     
  • 6.49, 1 (??), 12:19, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > ССД с тех пор как-то принципиально изменились?

    Да вообще кардинально изменились ... Если раньше у нас MLC для кеша вылетали раз в 3-4 года, то теперь новомодных TLC хватает максимум на год.

     
     
  • 7.56, Аноним (47), 12:54, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +3 +/
    А нечего по китайским помойкам побираться. Нормальные ssd на tlс памяти помногу лет служат. Вот хранить на них что-то при выключенном питании действительно не стоит, этого они не любят.
     
     
  • 8.82, Аноним (-), 14:58, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Добро пожаловать в мир флеша который уже не совсем энергонезависимый - и нуждает... текст свёрнут, показать
     
  • 4.68, Аноним (-), 13:48, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > А вот это не факт. Когда-то в сети уже поднималась https://www.overclock.net/threads/yes-file-system-fragmentation-does-affect-ss
    > тема о влиянии фрагментации на скорость работы ssd, где как раз
    > и была показана https://imgur.com/vrdwHTe зависимость скорости линейного чтения от числа
    > фрагментов.

    Не, ну понятно что в целом уменьшение лоскутного одеяла, метаданных и запросов по кусочкам улучшить состояние дел - может. Но не так критично как механике, которая жесточайше обваливается по скорости из-за метаний туда сюда во многие и многие разы.

     

  • 1.5, DEF (?), 08:45, 16/12/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Как только автора BcacheFS выкинули на мороз, а качество его ФС на практике оказалосл далеко от заявленных, так тут-же стали усердно коммитить в Btrfs. Суда по коммитам, скоро RAID5/6 заработает.
     
     
  • 2.6, Аноним (6), 08:51, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Совпадение ли, что тушатся именно наработки из бкэшфс?
    Оливеру хотят показать его место?
     
     
  • 3.16, Аноним (-), 09:29, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > Совпадение ли, что тушатся именно наработки из бкэшфс?
    > Оливеру хотят показать его место?

    Немного конкуренции еще никогда и никому не вредило. Не было бы bcache и кто б знает активизировались ли по части RAID эти. Не было бы btrfs - и жрали б мы ZFS с кривым управлением памятью и каким там еще трахом выраванивания размера девайсов, наслаждаясь отвалами при апгрейде кернелей. Не очень прогрессивно, да?

     
     
  • 4.21, Аноним (21), 09:39, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    ZFS прекрасен, не гони
     
     
  • 5.26, нах. (?), 10:08, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    на фоне этого вот "а мы гланды научились вырезать, через вот это вот место..." - действительно, прекрасен.

    Причем научились через 10 лет.

     
  • 5.69, Аноним (-), 13:50, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –2 +/
    > ZFS прекрасен, не гони

    У нас разные понятия о прекрасном. После btrfs'а - пересесть получится разве что на bcachefs, все остальное будет вызывать ощущение что покушал чего-то не того. За счет непотребного управления местом и дико кривых, костыльных операций менеджмента, с кучей неудобных допущений.

     
     
  • 6.116, Анониссимус (?), 22:05, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    >> ZFS прекрасен, не гони
    > У нас разные понятия о прекрасном. После btrfs'а - пересесть получится разве
    > что на bcachefs, все остальное будет вызывать ощущение что покушал чего-то
    > не того. За счет непотребного управления местом и дико кривых, костыльных
    > операций менеджмента, с кучей неудобных допущений.

    Поддержу. Раньше думал, что zfs не хуже, чем btrfs. Но попробовав, понял, насколько там всё плохо.

     
     
  • 7.147, Аноним (145), 10:05, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Сложное это дело - пересесть из звездолета с бортовыми компьютерами и гипердрайв... большой текст свёрнут, показать
     
     
  • 8.153, Аноним (47), 11:09, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Польза от твой аллокации места чанками может быть только в случае, когда все д... текст свёрнут, показать
     
  • 8.155, Аноним (47), 11:18, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    BTRFS это даже не керосиновая ракета, а тот автомобиль из Ну погоди Понаприкр... текст свёрнут, показать
     
  • 4.25, Аноним (47), 10:08, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > ZFS с кривым управлением памятью

    Так это наоборот - в линуксе кривое управление памятью, а не у ZFS. Поэтому приходится тянуть своё.

    > трахом выраванивания размера девайсов

    Впервые слышу про необходимость выравнивания девайсов на ZFS. Это на BTRFS вечно надо что-то выравнивать/балансировать/дефрагментировать/проверять/исправлять, а на ZFS просто добавляешь устройство - и оно работает.

    > наслаждаясь отвалами при апгрейде кернелей

    Какие-то сказки венского леса. Никогда не слышал чтобы у кого-либо отваливались модули ZFS. И почему должны отвалиться именно эти модули, а не какие-то другие? Понаставят себе всяких Kali, а потом у них модули отваливаюся, мамкины хакеры...

     
     
  • 5.30, нах. (?), 10:18, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    нет оно там не сильно отличается от солярисного Не поэтому А вот ровно чтоб ... большой текст свёрнут, показать
     
     
  • 6.32, Аноним (47), 10:27, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –2 +/
    > Как ты собрался получить ускорение за счет использования рэйдов, если у тебя память - системная?

    А ты точно понимаешь для чего придумали рейды? Они для отказоустойчивости, а не для ускорения. Хотя вот в будущей версии ZFS обещают чуть ли не трёхкратное ускорение за счёт DIRECT I/O...

     
     
  • 7.41, нах. (?), 11:20, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    >> Как ты собрался получить ускорение за счет использования рэйдов, если у тебя память - системная?
    > А ты точно понимаешь для чего придумали рейды? Они для отказоустойчивости, а

    пойди расскажи это netapp, hitachi, ib...len..тьфу..этим лучше не надо.

    > не для ускорения. Хотя вот в будущей версии ZFS обещают чуть
    > ли не трёхкратное ускорение за счёт DIRECT I/O...

    ничего что дырект йойо нужно в единичных случаях для которых вообще не очень нужна zfs, и вообще фс? (т.е. это способ что-то сделать в обход нее)

     
     
  • 8.44, Аноним (47), 11:40, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Нет, это способ что-то сделать в обход ARC Учи матчасть ... текст свёрнут, показать
     
     
  • 9.59, Минона (ok), 13:06, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Его можно отключить ... текст свёрнут, показать
     
  • 9.86, нах. (?), 16:40, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    в ext4, xfs и даже бырбырфесе нет никакого arc А O_DIRECT в open - есть Иди уч... текст свёрнут, показать
     
     
  • 10.95, Аноним (47), 17:36, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –3 +/
    Вот поэтому они и быстрее в несколько раз на современных накопителях чем ZFS ... текст свёрнут, показать
     
     
  • 11.109, нах. (?), 20:55, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    вот же неугомонный сказочник Показатели достигли потолка, с которого и были пер... текст свёрнут, показать
     
     
  • 12.114, Аноним (47), 21:23, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Просто оставлю это здесь https github com openzfs zfs pull 10018 https www ... текст свёрнут, показать
     
     
  • 13.118, нах. (?), 22:51, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Матчасть, я смотрю, так и не изучена Ну так зачем ты наоставлял здесь то, чего ... текст свёрнут, показать
     
     
  • 14.154, Аноним (154), 11:10, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Ну, здрасьте А как же СУБД типа Oracle Вовсю рекомендуют включать direct io А... текст свёрнут, показать
     
     
  • 15.164, нах. (?), 13:12, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Ну вот это и есть печально известные неосиляторы raw devices Им не нужна fs - н... текст свёрнут, показать
     
  • 7.63, freebzzZZZzzd (ok), 13:38, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    >А ты точно понимаешь для чего придумали рейды? Они для отказоустойчивости, а не для ускорения

    ну вот у меня полно raid0 на nvme расскажи же мне про отказоустойчивость, а не скорость.

     
     
  • 8.70, Аноним (70), 13:54, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Это не RAID - избыточный массив, это маркетинговый буллшит... текст свёрнут, показать
     
  • 8.73, Аноним (47), 14:03, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Да пожалуйста RAID переводится как Избыточный Массив Независимых Дисков Re... текст свёрнут, показать
     
     
  • 9.104, _ (??), 18:59, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Классика жанра Как же так Марьиианвна 124 - есть, а слова нет ... текст свёрнут, показать
     
     
  • 10.107, Аноним (47), 19:21, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    В данном случае именно так и есть RAID -- Redundant Array of Independent Disks ... текст свёрнут, показать
     
  • 6.84, Аноним (84), 15:17, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    А в чем собссно проблема - interleaved запросы к девайсам раскидывать Единстве... большой текст свёрнут, показать
     
     
  • 7.87, нах. (?), 16:44, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    >> Как ты собрался получить ускорение за счет использования рэйдов, если у тебя
    >> память - системная? Вот идет у тебя linear read какими-то кусками.
    >> А на устройстве лежат - блоки. А читать меньше блока ...
    > А в чем собссно проблема - interleaved запросы к девайсам раскидывать?! Единственное

    Какие еще interleaved? У тебя программа читает линейно. Кусками, чтоб в память влезло. Кусок прожевала, проглотила - пришла за следующим. В случае нормальных а не линуксных поделок - он вот он, уже в памяти лежит, потому что о нем позаботился prefetch. И еще двенадцать следующих. (И да, это так работает, мы это проверяли в свое время.)

    А прочитались они все - когда появился запрос на первый - потому что оно почти бесплатно, в отличие от чтения по кусочкам.

     
     
  • 8.93, Аноним (-), 17:28, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Ну вон там и сделали - если у программы аппетит хороший, может на оба девайса за... текст свёрнут, показать
     
  • 5.71, Аноним (-), 13:56, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Вообще-то оно там такое - потому что у саней в их ос вообще нифига не было И пр... большой текст свёрнут, показать
     
     
  • 6.92, Аноним (47), 17:08, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > Т.е. если у меня условно есть 2 винча x 2 тераьайта + 1 x 4 терабайта - ну и сколько RAID1 будет? На вон том будет 4 терабайта как делать нефиг. Вот прям из этих трех. Удачи так в вашем офигенном по менеджменту ZFS

    Вот жеж сказочник неугомонный... Тебя переклинило на 3-х дисках? Что мешает в дополнение к имеющтимся 3-м дискам докупить ещё один и собрать нормальный raid10? И на кой ляд мне твой мутировавший raid10 (raid 1E), если я на тех же 3-х дисках могу собрать нормальный raidz1 и получить те же самые 4 ТБ?

     
     
  • 7.94, Аноним (-), 17:32, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Мешает нежелание наслаждаться таким менеджментом ФС, когда диктуют что я должен... большой текст свёрнут, показать
     
     
  • 8.97, Аноним (47), 17:59, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +3 +/
    Не знаю что и какие господа тебе рассказали, но в действительности переконфигура... текст свёрнут, показать
     
     
  • 9.149, Аноним (149), 10:19, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Нет, я имел в виду что в btrfs можно переиграть на ходу - почти все мыслимые асп... большой текст свёрнут, показать
     
     
  • 10.156, Аноним (47), 11:30, 17/12/2024 Скрыто ботом-модератором     [к модератору]
  • +2 +/
     
  • 6.131, Аноним (129), 00:57, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > 2 винча x 2 тераьайта + 1 x 4 терабайта - ну и сколько RAID1 будет?

    И в чем проблема? Первые 2 страйпом в одно устройство на 4 тб, который затем в зеркало с натуральным 4 тб. Но эти выкрутасы не от большого ума, а от мало денег. Если денег таки нет, то правильней объеденить 3 по 2 тб в raidz (который по устойчивости эквивалентет франкенштейну свыше), а оставшиеся 2 тб на последнем заныкать под что-то другое. Если денег есть, то брать еще один диск на 4тб и объединять в схему суммирования двух зеркал.

     
     
  • 7.150, Аноним (149), 10:25, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    В btrfs нет никаких выкрутасов, и деньги тут не при чем Это просто удобный и ло... большой текст свёрнут, показать
     
     
  • 8.158, Аноним (158), 11:32, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Если я нажала и не знаю как оно само там что-то сделало - это удобно, ну тогда... текст свёрнут, показать
     
  • 8.160, Аноним (47), 11:57, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Так оно и у ZFS выравнивается автоматически и у LVM, и у mdadm Я даже боль... текст свёрнут, показать
     
  • 4.51, 1 (??), 12:21, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > наслаждаясь отвалами при апгрейде кернелей

    Красиво тогда получилось - ага :-)
    Ещё во фрюхе компиляция (не помню какого) пакета вылетала :-D

     
  • 2.8, нах. (?), 09:04, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    но пока что они за десять лет научились в парал...ой, нет, не научились. Научились в "балансировку" какую-то вместо параллельного чтения raid1.

    Ждите, ждите, вам непременно подвезут и raid6. Только данные на нем по прежнему хранить не стоит.

     
     
  • 3.45, А (??), 11:49, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Ну хватит ныть. Ты бы уже предложил бы что-то дельное.
     
     
  • 4.54, 1 (??), 12:25, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Я Я Я предложу !!! Купите netapp !!! Ну или плохой путь - дораду.
     
     
  • 5.75, Аноним (-), 14:10, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > Я Я Я предложу !!! Купите netapp !!! Ну или плохой путь - дораду.

    Спасиб, предложение облобызать корпоративные ботинки - это очень ценно. Но некоторым из нас хочется как раз чтобы все это делать было - не надо, и технологии были - у нас, а не у них.

     
     
  • 6.99, нах. (?), 18:09, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > Спасиб, предложение облобызать корпоративные ботинки - это очень ценно. Но некоторым из
    > нас хочется как раз чтобы все это делать было - не надо, и технологии были - у нас, а не у них.

    У вас ничего нет. Ты вот тут уже трижды целовал задницу мордокниге (это конечно куда круче чем нетапу-то, причем тот-то хоть за твои деньги - тебя обслуживает, а не тебя же и продаст).
    Да и rhbm, оплачивающей твоего клоуна с пальцем, ни на каком языке уже двадцать лет не программирующего.

    А сам ты ничегошеньки исправить - не можешь. Вон выкатили на лопате аж почти работающий (неточно) raid1, а ты-то тут причем, у тебя-то что своего есть?



     
     
  • 7.152, Аноним (-), 10:43, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    В смысле - нет А вон те сотни инстансов btrfs а - мой глюк Да, я таки деплойну... большой текст свёрнут, показать
     
     
  • 8.162, нах. (?), 12:43, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    ты опять начал вилять У тебя ТВОЕГО в этих сотнях инсталлов - ровно ничего, все... текст свёрнут, показать
     
  • 6.108, _ (??), 19:23, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > Спасиб, предложение облобызать корпоративные ботинки - это очень ценно. Но некоторым из нас хочется как раз чтобы все это делать было - не надо, и технологии были - у нас, а не у них.

    - Опять весна и я опять хочу в Париж!
    -- О! А вы уже бывали в Париже?
    - Нет... уже хотела


    Не облизывающий - давай линки на твои коммиты, да хоть чего-то что ТЫ САМ СДЕЛАЛ!
    Жалостные посты на опеннет - увы не считаются :)

     
     
  • 7.119, нах. (?), 22:54, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    да ничего оно не сделало, кроме обмена секретным кодом с другим таким же васяном посредством пересылки гитовых блобов голубиной почтой. (нетрудно догадаться о впечатляющем количестве пользователей такого проекта)

    Судя по его писанине - там квалификации ровно ноль.

    Причем он даже не в курсе инструментов, используемых в kernel dev. Потому что никакого отношения к нему не имеет.

     
  • 5.89, нах. (?), 16:45, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > Я Я Я предложу !!! Купите netapp !!! Ну или плохой путь

    поставьте zfs. Пусть хоть под линуксом.

    Поправил, не благодари.
    Да, внезапно, это у нас лучшие из худших. При определенных поправках на ветер пользоваться для хранения ценных данных - можно.

     
     
  • 6.127, _ (??), 00:30, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > Да, внезапно, это у нас лучшие из худших.

    thumb_up.jpg

    :)


    PS: Но всё же аж до Старого Нового Года буду держать дули за опальную bcachefs... а вдруг Санта тоже из наших и закодит?!? ;-)

     
     
  • 7.135, нах. (?), 09:08, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    А толку? Чтобы получилось что-то чем правда можно пользоваться не на локалхосте - надо подождать еще лет пять (тем более при единственном разработчике, а не команде).

    Столько не живут.

    А на локалхосте layered storage... ну такое себе. Чиа майнить? Так немодно ж уже...

     
  • 2.13, Аноним (13), 09:20, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    А что не так с качеством BcacheFS?
     
     
  • 3.17, Аноним (-), 09:30, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > А что не так с качеством BcacheFS?

    Да в принципе то он работает - но багов в нем так то - намного больше. Можешь рассылку почитать, там как раз syzbot сейчас лютует. Его прикрутили недавно - так что Кенту будет чем заняться на скамейке запасных.

     
  • 3.28, Аноним (28), 10:13, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    автор летает снаружи всех измерений и матюкается на окружающих вместо работы
     
     
  • 4.52, Аноним (52), 12:23, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +3 +/
    Торвальдс не является автором BcacheFS.
     
     
  • 5.74, Аноним (28), 14:06, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Поэтому бкешфс скоро выкинут из ядра по причине отсутствия разработчика.
     
  • 2.48, Аноним (48), 12:19, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    >так тут-же стали усердно коммитить в Btrfs

    Они бы занялись своей сервисной утилиткой btrfs-progs. А то в критических ситуациях она просто заявлвяет, что на разделе BTRFS не найдена. Сам становился жертвой такой ситуации.

     
     
  • 3.76, Аноним (-), 14:11, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    >>так тут-же стали усердно коммитить в Btrfs
    > Они бы занялись своей сервисной утилиткой btrfs-progs. А то в критических ситуациях
    > она просто заявлвяет, что на разделе BTRFS не найдена. Сам становился
    > жертвой такой ситуации.

    Если у вас супер слетел - используйте запасный супера, какие проблемы?!

     
     
  • 4.106, Аноним (48), 19:20, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Не нашла ни одного!
     
  • 3.90, нах. (?), 16:46, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > Они бы занялись своей сервисной утилиткой btrfs-progs. А то в критических ситуациях
    > она просто заявлвяет, что на разделе BTRFS не найдена. Сам становился

    нет ножек - нет варенья!

     

     ....большая нить свёрнута, показать (62)

  • 1.10, нах. (?), 09:12, 16/12/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    И да, это ответ на незаданный вопрос, почему zfs блочная и не надеется на системные кэши - есть тут один любитель верещать.

    "ее покровители могут ... расстроиться", если полка ценой как крыло от боинга вдруг начнет читаться со скоростью одного диска.

     
     
  • 2.18, Аноним (-), 09:32, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > И да, это ответ на незаданный вопрос, почему zfs блочная и не надеется на
    > системные кэши - есть тут один любитель верещать.
    > "ее покровители могут ... расстроиться", если полка ценой как крыло от боинга
    > вдруг начнет читаться со скоростью одного диска.

    Что самое интересное - я не понимаю как из одного всенепременно следует другое. А покровители таки - доиграются. Отсутствие интеграции с майнлайном - весьма годная мина замедленного действия.

     
     
  • 3.31, Аноним (47), 10:21, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > Отсутствие интеграции с майнлайном - весьма годная мина замедленного действия

    Так от этого наоборот одни только плюсы. Никто над тобой не стоит и не командует как и что тебе надо делать. Сам себе хозяин. И нет страха что какая-нибудь истеричка выгонит тебя только потому, что встала не с той ноги.

     
     
  • 4.78, Аноним (-), 14:15, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Ух, да, только так получается что вот тут цирк уехал - а вот эти вот - остались ... большой текст свёрнут, показать
     
  • 2.42, crypt (ok), 11:25, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    так как с фряхой у меня не задалось, то лично мне интересно попробовать получить root on btrfs, чтобы можно было делать снапшоты для отката. в таком кастрированном применении эта фс должна же сработать, да?
     
     
  • 3.61, Минона (ok), 13:18, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    OpenSUSE "из каробки" делает то что тебе нужно.
     
     
  • 4.67, Аноним (67), 13:46, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Превращает данные в мусор.
     
     
  • 5.81, Аноним (-), 14:55, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > Превращает данные в мусор.

    При том в основном у тех кто ее даже на картинке не видел. Такой вот пространственно-временной парадокс опеннета.

    Кажется это именно тот случай когда принято говорить "завидуйте уж молча, господа".

     
     
  • 6.113, crypt (ok), 21:19, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > При том в основном у тех кто ее даже на картинке не
    > видел. Такой вот пространственно-временной парадокс опеннета.

    да нет, я и на форумах достаточно насмотрелся на посты-репорты "у меня все пропало!!!". но root на btrfs нормально. пропадет - и ладно, главное, чтобы основные данные не пострадали.

     
  • 3.79, Аноним (-), 14:18, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > так как с фряхой у меня не задалось, то лично мне интересно
    > попробовать получить root on btrfs, чтобы можно было делать снапшоты для
    > отката. в таком кастрированном применении эта фс должна же сработать, да?

    Работает себе. Чего б ей не. На минималках - при использовании штук типа GRUB - этим можно даже загрузиться в вооон тот снапшот. Откатив факап по сути одним бутлоадером аж.

    ZFS он тоже в принципе читать умеет, но во первых хз как там с снапшотами, а во вторых если zfs'а вообще не цепляет энный кернел из-за нестыковок по версиям VS ядро - это все же довольно несподручно.

     
     
  • 4.111, crypt (ok), 21:10, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    не, ZFS на root нельзя, т.к. модули собираются DKMS, а для этого должно быть уже чтение fs. а что даже из бутлодера можно, я не подумал.

    да, минимальный варинт лучше всего. совершенно нет смысла использовать btrfs со всякими subvolums или как это называется. /var/log вынести на отдельный раздел, а с /tmp просто на отдельный раздел неэффективно, т.к. может занимать и ноль и гигабайты. видимо, симлинками после загрузки нужно что-то сделать.

     
     
  • 5.120, нах. (?), 22:56, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    zfs root в линуксе прекрасно возможен и работает. И нет, модули совершенно необязательно собирать именно dkms. Их вообще собирать необязательно.

     
     
  • 6.121, нах. (?), 23:01, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    (и перечитав последнюю прекрасную неновость - добавляю - и она автоматически загрузится без ручного вмешательства даже если в raid1 сдохнет один из дисков, без всяких вытанцовываний с ручным оверрайдом груба)

     
  • 6.123, crypt (ok), 23:26, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > zfs root в линуксе прекрасно возможен и работает. И нет, модули совершенно
    > необязательно собирать именно dkms. Их вообще собирать необязательно.

    драйвера-то в ядре нет. о чем ты пишешь-то.

     
  • 5.133, Минона (ok), 08:14, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > не, ZFS на root нельзя,

    Проксмокс живет себе на root-on-zfs и не жужжит.

     
  • 5.159, Аноним (-), 11:50, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Я не знаю как это обыгрывают, может initrd Системными перверсиями типа dkms я н... большой текст свёрнут, показать
     
     
  • 6.161, Аноним (47), 12:32, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > А "откат снапшота" совсем мануально - это грубо говоря:
    > mv @system @system-old
    > mv @system-2024-12 @system
    > reboot

    Ну и архаика, кошмар... В ZFS это делается одной командой: zfs rollback @system-2024-12. Как говорится, почувствуйте разницу.

     
     
  • 7.163, нах. (?), 12:59, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > Ну и архаика, кошмар... В ZFS это делается одной командой: zfs rollback

    ну только ты забыл его предупредить, что в этом случае все его собственные изменения тоже превратились в тыкву. В предложенном траходроме с mv их можно потом посмотреть и вытащить поштучно.

    Не то чтоб каждый день было надо (чаще полезней откатить вместе с самой системой) и не то чтоб нельзя было в zfs, но команд будет больше одной, потому что там снапшот не fs (и это очень правильно, потому что срез состояния отдельно, фс - отдельно, и ничего нельзя случайно перепутать и испортить необратимо. У бырбрфесе просто нет настоящих снапшотов - это на самом деле не снапшоты а новая фс, точная копия старой).

     
  • 6.167, crypt (ok), 16:27, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    С subvolumes я уже наше проблему https://www.opennet.ru/openforum/vsluhforumID3/135585.html#130

    если /tmp - subvolume, то в снапшоте слетают права с этой директории и при загрузки с этого снапшота в /tmp не удается писать.

     
  • 4.124, crypt (ok), 23:28, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > На минималках - при использовании штук типа GRUB - этим можно даже загрузиться в вооон тот снапшот.

    Да, нашел проект grub-btrfs. Отвык уже от этого ручного колхоза после фряхи:( Но да, работает.

    Не понятна роль subvolume set-default, если grub все равно оперирует block id диска, а не block id томов btrfs.

     
     
  • 5.130, crypt (ok), 00:43, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    c /tmp только что-то надо изобретать. после снапшотинга на /tmp слетают права, если это отдельный subvolume.

    так что, как я и написал выше, проще сделать симлинк /tmp на обычную fs и использовать btrfs только в самой упрощенной конфигурации.

     

  • 1.22, Аноним (47), 09:50, 16/12/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    Её же вроде выбросили из ядра, недавно даже новость была. Передумали что ли?
     
     
  • 2.23, Аноним (28), 10:05, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    ядро не равно кастратищу голубого гиганта, выкинули из шапки, в которой опять мастерят костыль из lvm+xfs
     
     
  • 3.60, Минона (ok), 13:15, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Так у них полная экспертиза по этому "костылю" + обязательства по поддержке перед клиентами.
     
     
  • 4.66, Аноним (67), 13:45, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Кому поддержка те юзают RAIDIX и Hyper FS
     
     
  • 5.83, 1 (??), 15:12, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    А разве RAIDIX не развалился на две половинки ?
    Они поддержку в скрепной стране ещё осуществляют ?
     
  • 4.77, Аноним (28), 14:13, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Вы, должно быть, не в теме заключая слово "костыль" в кавычки в обсуждении btrfs. Ознакомьтесь, пожалуйста, с документацией к продукту.
     

  • 1.27, Аноним (27), 10:12, 16/12/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    Оно ещё живо что ли, это бтрфс? Его же вроде закопали уже все.
     
     
  • 2.33, Аноним (33), 10:33, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Кексперты опеннета только. А сама ФС жива, работает и вообще про них не в курсе.
     
     
  • 3.53, Аноним (52), 12:24, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Жива и работает там, где комп с ней вообще не включают.
     
     
  • 4.72, Аноним (33), 14:00, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Фейсбуку это расскажи.
     
  • 2.39, Аноним (4), 11:17, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Это рейзерфс закопали. Хотя эти фс все на одно лицо.
     
  • 2.80, Аноним (-), 14:53, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > Оно ещё живо что ли, это бтрфс? Его же вроде закопали уже все.

    Она четверть глобуса у мордокниги обслуживает. Чтоб меня так "закопали" по королевски!

     
     
  • 3.98, нах. (?), 18:05, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    >> Оно ещё живо что ли, это бтрфс? Его же вроде закопали уже все.
    > Она четверть глобуса у мордокниги обслуживает. Чтоб меня так "закопали" по королевски!

    Мордокниге пофиг на твои данные. А у гугля вон до аж 2011го года весь глобус обслуживала ext2. (и ему не пофиг на ТВОИ данные) И заменена была на такую странную ext4, что тоже, хм...

    Так что срочно ставь ext2, гугль круче мордокниги (и он действительно круче, потому что кое-что сам делал в области систем хранения)


     
  • 3.115, Аноним (115), 21:24, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > Она четверть глобуса у мордокниги обслуживает.

    Мордокнига знает, какие части btrfs можно использовать. Откуда знает? У них работает создатель btrfs. А у остальных не работает. btrfs RAID1 они, кстати, не используют.

    > We've been focusing on the single-drive use cases internally - https://www.spinics.net/lists/linux-btrfs/msg62315.html

     
     
  • 4.122, нах. (?), 23:09, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Мне что-то подсказывает (с учетом обоих двух опенсорсеных мордокнигой прожектов, ни один из которых даже не компилируется) - она нихрена не знает, а просто надувает щеки. Так инвесторы несут больше денег.

        Mon, 23 Jan 2017 18:18:09 -0500

    We've been focusing on the single-drive use cases internally. This year that's changing as we ramp up more users in different places. Performance/stability work and raid5/6 are the top of my list right now.

    В с-ка блжд - 2017м году оно у него было "top of list", результата - ноль.

    Вот такой вот офигенный уровень у "создателя" (не совсем, но причастного к) этого недоразумения.

    Неисключено даже, что его поделку давно вынесли с основных серверов, но опять же инвесторам эта информация не очень полезна, а глупые фанаты продолжают транслировать лапшу со своих ушей.

    В принципе, то что я знаю о внутренней кухне мордокниги - говорит о том что хорошие разработчики в эту помойку не пойдут никогда в жизни. Они паталогически, феноменально жадны, и условия работы там по современным меркам совершенно неконкурентные.  Так что ничего удивительного.


     

  • 1.29, Аноним (47), 10:14, 16/12/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    Так погодите... Это что же получается, у BTRFS не только RAID5/RAID6 нерабочие, но и RAID1? А что ещё в ней работает неправильно? Огласите весь список, пожалуйста!
     
     
  • 2.34, Аноним (34), 10:41, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Зачем тебе список, просто не пользуйся. Снапшотики ещё никого до добра не доводили, побаловался и хватит.
     
     
  • 3.37, Аноним (47), 11:07, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > Снапшотики ещё никого до добра не доводили

    Какие могут быть проблемы от снапшотиков?

     
  • 2.91, нах. (?), 16:48, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > Так погодите... Это что же получается, у BTRFS не только RAID5/RAID6 нерабочие,
    > но и RAID1? А что ещё в ней работает неправильно? Огласите
    > весь список, пожалуйста!

    бжад, давайте хотя бы список что точно работает (мне что-то подсказывает, что он будет короче)

     
  • 2.112, Аноним (115), 21:11, 16/12/2024 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > А что ещё в ней работает неправильно? Огласите весь список, пожалуйста!  

    Была статья-обзор в 2021[1].

    Осторожно, в сообществе btrfs на критику обычно отвечают, что с тех пор уже всё исправили. Отвечают, не читая. А btrfs до сих пор автоматически не монтируется в degraded-состоянии[2]. То есть умирает диск в RAID1, ты однажды перезагружаешь компьютер и получаешь сюрприз. Или не сюрприз, если внимательно читал устаревшую неверную критику.

    [1] https://arstechnica.com/gadgets/2021/09/examining-btrfs-linuxs-perpetually-hal
    [2] https://www.reddit.com/r/btrfs/comments/1h2rrav/is_raid1_possible_in_btrfs

     

  • 1.157, Аноним (157), 11:30, 17/12/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • –3 +/
    Что-то я подозреваю, что это вообще не функция файловой системы - реализовывать RAID.
     
     
  • 2.168, Аноним (28), 20:22, 17/12/2024 [^] [^^] [^^^] [ответить]  
  • +/
    по непонятной причине хитрецы со времён начала продвижения zfs на рынок называют программную схд с raid, lvm, iscsi, nfs, cifs — фс. Будто это должно принести больше денег.
     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру