1.1, A.Stahl (ok), 11:57, 25/04/2016 [ответить] [﹢﹢﹢] [ · · · ]
| +17 +/– |
Отличный чертёж:
У колобков есть цилиндры и кубики. И иногда необходимо делать из кубов цилиндры и наоборот. Эта задача решается с помощью линуксового ядра в котором есть фитиль (не рванёт хоть?).
Хотя нет, мне кажется я неправильно понял иллюстрацию.
У колобков есть лишь цилиндры, но чтобы взять цилиндр в нагрузку приходится брать куб. И ещё куб можно взять отдельно без цилиндра.
Круто... Я тоже такое хочу...
| |
|
|
3.22, Аноним (-), 18:06, 25/04/2016 [^] [^^] [^^^] [ответить]
| –1 +/– |
снизу квадратные от спектрума плюс дырка для кассеты, а сверху цилиндрические от самодельного совецкого конпутера из чего пришлось сделанного
| |
|
|
1.3, Вова (?), 12:12, 25/04/2016 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Кто-нибудь может рассказать что такое "новый OSD-бэкенд BlueStore"?
Попытка избавиться от прослойки в виде ФС на диске?
| |
1.8, Аноним (-), 14:09, 25/04/2016 [ответить] [﹢﹢﹢] [ · · · ]
| –1 +/– |
Кто-нибудь пробовал это использовать для локального многодискового хранилища с зеркалированием данных вместо ZFS или Btrfs?
| |
|
2.13, kataklysm (?), 15:11, 25/04/2016 [^] [^^] [^^^] [ответить]
| +2 +/– |
Локальный многодисковый Ceph? Мммм, это как? :)
Ceph не локальный многодисковый. Это целая инфраструктура с абсолютным минимумом в 3 ноды. Сравнение с традиционными ФС, как минимум некорректно.
| |
|
3.16, Аноним (-), 15:37, 25/04/2016 [^] [^^] [^^^] [ответить]
| –2 +/– |
Просто хочется, чтобы у всех данных были две копии на разных дисках.
ZFS хреново работает с дисками непредсказуемых размеров (то есть с домашними файлопомойками и подобным зоопарком), а Btrfs ещё не отладили.
Я правильно понимаю, что Ceph тут плохая идея, с ним только совсем через задницу типа колхоза с виртуалками?
| |
|
|
5.20, Аноним (-), 16:41, 25/04/2016 [^] [^^] [^^^] [ответить]
| –1 +/– |
Тебе знакомо слово разные размеры дисков? А добавление дисков по одному?
| |
|
6.31, _ (??), 22:59, 25/04/2016 [^] [^^] [^^^] [ответить]
| +1 +/– |
Тебе знакома аксиома про "Дураки должны мучиЦЦо!?"
Или семь раз отрежь, один раз отмерь?
Впрочем если уж совсем подгорает пробуй Леффс http://leo-project.net/leofs/
Только ЧУР! потом никогда! никому! не говори! что я это советовал :-/
| |
|
7.32, Led (ok), 00:05, 26/04/2016 [^] [^^] [^^^] [ответить]
| +/– |
> Тебе знакома аксиома про "Дураки должны мучиЦЦо!?"
Не стОит злоупотреблять словом "дурак". Тем более, в данном чисто клиническом случае.
| |
|
8.34, . (?), 03:07, 26/04/2016 [^] [^^] [^^^] [ответить] | –1 +/– | Эээыымм Led - либо я не буду злоупотреблять, да но - не распарсил Вря... текст свёрнут, показать | |
|
|
6.33, t (??), 00:05, 26/04/2016 [^] [^^] [^^^] [ответить]
| +/– |
btrfs решает, я пользую. несколько лет, несколько инстансов. не прод - хобби, да.
ещё можно делать через mirroring в lvm.
ну и множество решений уровня FUSE.
| |
|
|
|
|
2.45, Александр (??), 17:10, 29/04/2016 [^] [^^] [^^^] [ответить]
| +/– |
Будет посложнее чем с файловой системой, но да, Сеф можно и удобно юзать когда нужно из зоопарка сделать один большой и надежный трэшкэн.
| |
|
1.10, Аноним (-), 14:27, 25/04/2016 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Ceph вещь хорошая, но для нормальной производительности нужно много машин и мнооого дисков.
| |
|
2.14, kataklysm (?), 15:14, 25/04/2016 [^] [^^] [^^^] [ответить]
| +/– |
> Ceph вещь хорошая, но для нормальной производительности нужно много машин и мнооого
> дисков.
Неверно, все зависит от метода/типа записи/чтения. Ceph очень не любит (не с BlueStore): threads =1 and depth=1. На rbd данная проблема решается созданием RAID0 на виртуальных машинах.
| |
|
1.12, Аноним (-), 15:07, 25/04/2016 [ответить] [﹢﹢﹢] [ · · · ]
| +3 +/– |
Отличная новость! За 5 лет работы архитектором в крупнейшем операторе связи России лично внедрил с сопроводил более 3-х проектов с Ceph. Было дело, что писал ней патчи, но баги были не критичные!
| |
|
2.15, kataklysm (?), 15:15, 25/04/2016 [^] [^^] [^^^] [ответить]
| +/– |
> Отличная новость! За 5 лет работы архитектором в крупнейшем операторе связи России
> лично внедрил с сопроводил более 3-х проектов с Ceph. Было дело,
> что писал ней патчи, но баги были не критичные!
Что за патчи? Хочется глянуть ). Спасибо
| |
2.23, alex53 (?), 19:19, 25/04/2016 [^] [^^] [^^^] [ответить]
| –2 +/– |
В ceph контрольные суммы данных уже появились?
ЗЫ:Крупнейший оператор связи это ведь rostelecom? Вот почему он так хреново работает...
| |
|
3.24, Led (ok), 20:35, 25/04/2016 [^] [^^] [^^^] [ответить]
| +/– |
> Крупнейший оператор связи это ведь rostelecom? Вот почему он так хреново работает...
Врядли из-за этого одного анонима.
| |
|
|
1.29, Аноним (-), 22:20, 25/04/2016 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
>>> недоступны ... конфигурация с несколькими активными серверами метаданных
Далее не интересно.
| |
1.35, abnis (?), 07:11, 26/04/2016 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Red Hat вроде продвигали GlusterFS, а теперь уже взялись на Ceph...
Интересно.
| |
1.36, max (??), 08:07, 26/04/2016 [ответить] [﹢﹢﹢] [ · · · ]
| –1 +/– |
Приветствую всех!
Тема для меня интересная, а можно тут узнать, кто и что использует в продакшене, напишите пожалуйста, если не секрет. Есть задача, виртуализация всего и вся, и мы тут больше склоняемся к установке GlusterFS + oVirt. Но может быть есть более интересные решения, опробованные кем то еще!? Заранее спасибо! )
| |
|
2.38, kataklysm (?), 08:39, 26/04/2016 [^] [^^] [^^^] [ответить]
| +/– |
Мы используем, два ЦОДА разнесенных данных(планируется еще один). Суммарный сырой объем 1 ПБ, с тремя репликациями и кэш пулами на PCI-SSD
Конечно же есть вопросы по производительности thread=1,depth=1,sync=1 но решаемо хитрым способом - созданием RAID0 на виртуалке. Если что обращайтесь.
А вообще мы довольны и используем порядка 2 лет RBD и S3 1.5 года (под бекапы)
| |
|
3.39, fyanon (?), 10:22, 26/04/2016 [^] [^^] [^^^] [ответить]
| –1 +/– |
Как порекомендуете собрать кластер из 6 физических серверов: на каждом 16 дисков +
два физических сервера с 2 дисками. Хотелось бы собрать хранилище ceph с iscsi шлюзом для vmware
| |
|
4.40, fyanon (?), 10:24, 26/04/2016 [^] [^^] [^^^] [ответить]
| +/– |
> Как порекомендуете собрать кластер из 6 физических серверов: на каждом 16 дисков
> +
> два физических сервера с 2 дисками. Хотелось бы собрать хранилище ceph с
> iscsi шлюзом для vmware
на серверах хранения есть raid контроллеры с кэшем
| |
|
5.44, Аноним (-), 16:26, 27/04/2016 [^] [^^] [^^^] [ответить]
| +/– |
> на серверах хранения есть raid контроллеры с кэшем
Угу. На которых батарейка через год приказывает долго жить, со всеми вытекающими.
| |
|
|
|
2.42, SunXE (ok), 11:49, 26/04/2016 [^] [^^] [^^^] [ответить]
| –1 +/– |
В oVirt со стабильностью всё плохо, это все таки тестовый продукт. Пару раз пробовал, то оно со свежим ядром не хочет работать, то по NFS дико тормозит.
Плюс к этому, лично я не люблю такие ентерпраз решения которые сами ставят и настраивают кучу пакетов, сами правят сетевые и прочие конфиги на машине. В итоге сходу не понятно как это все работает и как это потом вычистить. Такое ораклоподобное решение, под которое нужно отдельного специалиста воспитывать.
Лично я бы смотрел в сторону ProxMox кластер + drbd(или ceph). В последний раз когда я пробовал хранить вируталки в glusterfs, они раз в какое-то время лочились после чего приходилось всех их перегружать.
Glusterfs максимум для хранения бэкапов. Хотя сама файловая система очень интересная, она не размазывает файл по куче серверов, а целеком хранит отдельный файл на отдельном сервере. Для восстановления после сбоя и некоторых задач это важно.
Если у вас уже образовалась гетерогенная среда, то смотрите в сторону OpenNebula.
| |
|
|