1.5, psix (?), 01:21, 20/03/2010 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
А чем оно отличается от ZFS или RAID-Z что лучше использовать для построения распределенных отказоустойчивых хранилищ ?
| |
|
|
3.9, минона (?), 02:10, 20/03/2010 [^] [^^] [^^^] [ответить]
| –2 +/– |
думаешь ceph не справиться?
зы:
там кстати по 2-ой ссылке и другая новость есть http://ceph.newdream.net/
>RBD: rados block driver
>Christian Brunner sent an initial implementation of ‘rbd’, a librados-based block driver for qemu/KVM, to the ceph-devel list last week. A few minor nits aside, it looks pretty good and works well. The basic idea is to stripe a VM block device over (by default) 4MB objects stored in the Ceph distributed object store. This gives you shared block storage to facilitate VM migration between hosts and fancy things like that.
и т.д. что тоже весьма интересно
| |
|
4.12, _umka_ (??), 10:48, 20/03/2010 [^] [^^] [^^^] [ответить]
| +/– |
у ceph не было рековери как класс (во всяком случае еще год назад) - а значит данные которые были на клиенте в момент обрыва линка и не сохраненные на persistent storage - с большой веросятностью будут в /dev/null
| |
|
5.16, минона (?), 13:47, 20/03/2010 [^] [^^] [^^^] [ответить]
| –1 +/– |
Ceph's main goals are to be POSIX-compatible, and completely distributed without a single point of failure. The data is seamlessly replicated making it fault tolerant
| |
|
6.17, минона (?), 14:01, 20/03/2010 [^] [^^] [^^^] [ответить]
| –1 +/– |
Strong reliability and fast recovery — All data in Ceph is replicated across multiple OSDs. If any OSD fails, data is automatically re-replicated to other devices. However, unlike typical RAID systems, the replicas for data on each disk are spread out among a large number of other disks, and when a disk fails, the replacement replicas are also distributed across many disks. This allows recovery to proceed in parallel (with dozens of disks copying to dozens of other disks), removing the need for explicit “spare” disks (which are effectively wasted until they are needed) and preventing a single disk from becoming a “RAID rebuild” bottleneck.
| |
|
7.20, _umka_ (??), 15:16, 20/03/2010 [^] [^^] [^^^] [ответить]
| –1 +/– |
и ?
не надо путать 2 режима - востановление после сбоя и умирания одного из osd девайсов, и востановление состояния после аварийного reboot. Приведу простейший пример
- raid обычном серваке. рейд может рассыпаться - и его можно востановить вызвав recovery - но при этом вы должны остановить все программы которые работают с raid и теряете то что наработали программы в кэшах.
и возможно вам прийдется запустить ext3/ext4 с abort journal что бы они чего не натворили. И вам нужен запуск fsck для проверки непротиворечивости метаданных на FS.
- обычный аварийный reboot - тогда файловая система с журналированием выполняет journal replay для обеспечения непротиворечивости мета-данных на FS.
Вот если мой склероз не изменяет - ceph работал именно как raid, а не как журналируемая FS.
а у люстры recovery это несколько другая вещь - апаратную целостность данных она не контролирует (для это есть апаратные возможности рейдов или DDN storages). Lustre recovery ближе к journal replay у журналируемых FS - когда по информации с клиентов востанавливается журнал не записаных на диск операций - и выполняется повторное выполнение их для обеспечения EOS (executed once semantic).
понятна разница ?
| |
|
8.21, VBart (?), 16:17, 20/03/2010 [^] [^^] [^^^] [ответить] | +/– | Вы хотя бы читали то что вам процитировали Ceph это вам не raid и не journal fs... текст свёрнут, показать | |
|
9.28, _umka_ (??), 09:43, 21/03/2010 [^] [^^] [^^^] [ответить] | +/– | читал и смотрел ceph достаточно внимательно перечитайте раздел ceph recovery - ... текст свёрнут, показать | |
|
|
|
12.44, VBart (?), 01:06, 22/03/2010 [^] [^^] [^^^] [ответить] | +/– | Вы это гуглу расскажите 5 стораджей по 10P на дешевых компонентах будут стоить ... текст свёрнут, показать | |
|
|
14.52, VBart (?), 20:39, 22/03/2010 [^] [^^] [^^^] [ответить] | +/– | gt оверквотинг удален Не переживайте, мы все посчитали Вы считаете исходя из ... большой текст свёрнут, показать | |
|
|
12.45, VBart (?), 01:23, 22/03/2010 [^] [^^] [^^^] [ответить] | +/– | Для тех систем, для которых предназначена Ceph 1 Реплик для большей части данны... текст свёрнут, показать | |
|
|
|
|
8.22, минона (?), 16:29, 20/03/2010 [^] [^^] [^^^] [ответить] | –1 +/– | это я то путаю D странный вы какой-то вот несколько пунктов для усваивания 1... текст свёрнут, показать | |
|
9.23, минона (?), 16:47, 20/03/2010 [^] [^^] [^^^] [ответить] | –1 +/– | зы на фоне вышесказанного lustre которую уже надо переименовать в что-то типа ... текст свёрнут, показать | |
9.29, _umka_ (??), 09:48, 21/03/2010 [^] [^^] [^^^] [ответить] | –1 +/– | путаешь иди читай книжки по ceph архитектуре и что как формат внутри одного ... текст свёрнут, показать | |
|
|
|
|
|
4.18, pavlinux (ok), 14:39, 20/03/2010 [^] [^^] [^^^] [ответить]
| +/– |
>думаешь ceph не справиться?
Думается, если работа идёт в юзерспейсе, то выигрышь будет только
у распределённых приложений, и то, с точки зрения переноса вычислений на юзеров.
Так что, нужно считать суммарные ресурсы (GHz + RAM + MSS time ...+ Х.З.)/юзеров + сервера
>
>зы:
>там кстати по 2-ой ссылке и другая новость есть http://ceph.newdream.net/
>>RBD: rados block driver
>>Christian Brunner sent an initial implementation of ‘rbd’, a librados-based block driver for qemu/KVM, to the ceph-devel list last week. A few minor nits aside, it looks pretty good and works well. The basic idea is to stripe a VM block device over (by default) 4MB objects stored in the Ceph distributed object store. This gives you shared block storage to facilitate VM migration between hosts and fancy things like that.
>
>и т.д. что тоже весьма интересно
Я бы сказал, это даже более интересно...
| |
|
5.19, минона (?), 15:00, 20/03/2010 [^] [^^] [^^^] [ответить]
| –1 +/– |
это до 34 ведра. в 33-е Торвальдс его не взял
но мне нравиться ещё и это:
>Internally, Btrfs bears some resemblance to Ebofs, the userland object file system developed for use in Ceph. However, Btrfs includes some critical features Ebofs does not (namely, copy-on-write semantics for file data), and is well maintained and tested. To avoid reinventing the wheel, Ceph will use btrfs on individual storage nodes (OSDs) to store object data, and we will focus on adding any additional functionality needed to btrfs where it will hopefully benefit non-Ceph users as well.
http://ceph.newdream.net/wiki/Btrfs
вполне возможно, что к промышленному применению они обе будут готовы почти одновременно.
>Я бы сказал, это даже более интересно...
безусловно практическое применение носит определяющий характер
| |
|
6.25, anonymous (??), 20:21, 20/03/2010 [^] [^^] [^^^] [ответить]
| +/– |
У btrfs до сих пор нет банального fsck, если что то пойдет не так то только полное переформатирование, или недельные копания в исходниках и написание своих инструментов для лечения сбойных блоков и порушеной структуры. И тормозит она нещадно, причем мало что меняется за последние пол года. Нехорошие ощущения того что Oracle задумал недоброе.
| |
|
7.32, alexxy (?), 11:33, 21/03/2010 [^] [^^] [^^^] [ответить]
| +/– |
>У btrfs до сих пор нет банального fsck, если что то пойдет
>не так то только полное переформатирование, или недельные копания в исходниках
>и написание своих инструментов для лечения сбойных блоков и порушеной структуры.
>И тормозит она нещадно, причем мало что меняется за последние пол
>года. Нехорошие ощущения того что Oracle задумал недоброе.
Уверен что нет?
xeon ~ # qfile -v btrfsck
sys-fs/btrfs-progs-0.19 (/sbin/btrfsck)
так что не прав ты. =)
| |
|
8.43, минона (?), 00:13, 22/03/2010 [^] [^^] [^^^] [ответить] | +/– | он действительно пока не полностью реализован последний коммит от 21 сентября -... текст свёрнут, показать | |
|
|
|
|
|
|
|
|
2.30, alexxy (?), 11:28, 21/03/2010 [^] [^^] [^^^] [ответить]
| +/– |
А он утебя сетевой? Имхо нет. так что идет лесом. еще давай вспомним по вероятность вытаскивания данных с него в случае краха zfs (она примерно ноль :)
| |
|
3.38, Anon Y Mous (?), 23:12, 21/03/2010 [^] [^^] [^^^] [ответить]
| +/– |
>А он утебя сетевой? Имхо нет. так что идет лесом. еще давай
>вспомним по вероятность вытаскивания данных с него в случае краха zfs
>(она примерно ноль :)
А мужики то не знают. И вполне себе вытаскивают. Примеры сам найдешь или привести?
| |
|
|
5.53, Anon Y Mous (?), 01:43, 23/03/2010 [^] [^^] [^^^] [ответить]
| +/– |
Погуглите по ключевым словам zfs pool recover rewind и их вариациям в домене opensolaris.org
| |
|
|
|
|
1.27, aZ (ok), 02:47, 21/03/2010 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Очередная сотая фс в линуксе стабильность которой оставляет желать лучшего.
| |
|
2.31, alexxy (?), 11:29, 21/03/2010 [^] [^^] [^^^] [ответить]
| +/– |
>Очередная сотая фс в линуксе стабильность которой оставляет желать лучшего.
И что ты этим хочешь сказать? Назови мне фс под ругие операционные системы обладающие такими же свойствами.
| |
|
|