Редактирование: UNИX, весна 2008, 04 семинар (от 30 мая)

Материал из eSyr's wiki.

Перейти к: навигация, поиск

Внимание: Вы не представились системе. Ваш IP-адрес будет записан в историю изменений этой страницы.

ПРЕДУПРЕЖДЕНИЕ: Длина этой страницы составляет 50 килобайт. Страницы, размер которых приближается к 32 КБ или превышает это значение, могут неверно отображаться в некоторых браузерах. Пожалуйста, рассмотрите вариант разбиения страницы на меньшие части.

Правка может быть отменена. Пожалуйста, просмотрите сравнение версий, чтобы убедиться, что это именно те изменения, которые вас интересуют, и нажмите «Записать страницу», чтобы изменения вступили в силу.

Текущая версия Ваш текст
Строка 1: Строка 1:
-
* '''Докладчик:''' Александр Герасёв
+
* '''Официальная страница:''' http://uneex.mithril.cs.msu.su/Events/Storage
-
* '''Официальная страница:''' http://uneex.ru/Events/Storage
+
* '''Дамп карточки (временный):''' http://esyr.org/photo/uneex_08_05_30/
* '''Дамп карточки (временный):''' http://esyr.org/photo/uneex_08_05_30/
* '''Диктофонная запись:''' http://esyr.org/lections/audio/uneex_2008_summer/uneex_seminar_08_05_30.ogg
* '''Диктофонная запись:''' http://esyr.org/lections/audio/uneex_2008_summer/uneex_seminar_08_05_30.ogg
Строка 15: Строка 14:
Изображение:gq.jpg|Александр Герасёв (GQ)
Изображение:gq.jpg|Александр Герасёв (GQ)
Изображение:ivlad.jpg|Владимир Иванов (ivlad)
Изображение:ivlad.jpg|Владимир Иванов (ivlad)
-
Изображение:yrii.jpg|Юрий Рязанцев
+
Изображение:yrii.jpg|Юрий
</gallery>
</gallery>
С чего вдруг лектор рассказывает про такие вещи…
С чего вдруг лектор рассказывает про такие вещи…
Строка 21: Строка 20:
<div class="comment">''ГК'': Давай мы сделаем маленькое объявление, я тут вижу много разного народу, некоторые знакомые лица, некоторые — нет. Что такое UNИX: эта аббревиатура имеет отношение к некоторому плавающему собранию людей, непрерывно обновляемому. Я так думаю, что некоторые из здесь присутствующих просто не знают о существовании этого мероприятия по причине того, что последние года два оно не проводилось вообще: последний семинар был ровно два года назад из тех, что проводились давно. Задача очень простая — делиться информацией в режиме реального времени. Я сказал, что сообщество плавающее, одно время я был активным инициатором этого безобразия, потом работа меня съела и появились студенты ответственные, которые взяли на себя всю организационную часть. Это уже третье публичное сборище. Я не знаю, сколько мы выдержим стиль две недели летом, следите за объявлениями. Поскольку, вопрос о том, что означает эта аббревиатура, обсуждался на ЛОРе, повторяться я не буду.</div>
<div class="comment">''ГК'': Давай мы сделаем маленькое объявление, я тут вижу много разного народу, некоторые знакомые лица, некоторые — нет. Что такое UNИX: эта аббревиатура имеет отношение к некоторому плавающему собранию людей, непрерывно обновляемому. Я так думаю, что некоторые из здесь присутствующих просто не знают о существовании этого мероприятия по причине того, что последние года два оно не проводилось вообще: последний семинар был ровно два года назад из тех, что проводились давно. Задача очень простая — делиться информацией в режиме реального времени. Я сказал, что сообщество плавающее, одно время я был активным инициатором этого безобразия, потом работа меня съела и появились студенты ответственные, которые взяли на себя всю организационную часть. Это уже третье публичное сборище. Я не знаю, сколько мы выдержим стиль две недели летом, следите за объявлениями. Поскольку, вопрос о том, что означает эта аббревиатура, обсуждался на ЛОРе, повторяться я не буду.</div>
-
Дело в том, что мы, то есть ЛВК — бюджетная организация, и как это бывает, внезапно под новый год сказали, что есть полтора миллиона рублей, и их надо срочно потратить. Поскольку списка, чего надо, не было, решили, что места мало и пользователи любят хранить всякую мультимедию, в итоге возникла потребность во внешнем хранилище. Поэтому пришлось окунуться в то, что такое СХД, конкретно SAN, и очень много было вопросов, потому что господа, которые при ..., у них немножко другая терминология, а нас интересовали больше всякие разные технические вещи, как оно работает и как его использовать в той инфраструктуре, которую мы себе видели. Поэтому пришлось покопаться. Некоторое время назад лектор делал доклад на ЛВКшном студенческом семинаре о том, что он узнал, а это такая, изменённая версия, без совсем простых вещей, но, тем не менее, версия того доклада.
+
Дело в том, что мы, то есть ЛВК — бюджетная организация, и как это бывает, внезапно под новый год сказали, что есть полтора миллиона рублей, и их надо срочно потратить. Поскольку списка, чего надо, не было, решили, что места мало и пользователи любят хранить всякую мультимедию, в итоге возникла потребность во внешнем хранилище. Поэтому пришлось окунуться в то, что такое СХД, конкретно SAN, и очень много было вопросов, потому что господа, которые при ..., у них немножко другая терминология, а нас интересовали больше всякие разные технические вещи, как оно работает и как его использовать в той инфрастурктуре, которую мы себе видели. Поэтому пришлось покопаться. Неоторое время назад лектор делал доклад на ЛВКшном студенческом семинаре о том, что я узнал, а это такая изменённая версия, без совсем простых вещей, но тем, не менее, версия того доклада.
* ''ГК'': Будет упомянут какой-то конкретный сервер хранения данных, который был за полтора миллиона куплен?
* ''ГК'': Будет упомянут какой-то конкретный сервер хранения данных, который был за полтора миллиона куплен?
Строка 101: Строка 100:
** ''Из зала'': Я не знаю, что такое RAID 5 и RAID 6. Всю свою несознательную жизнь я использовал 0+1. [[Image:Uneex 08 05 30 raid 0+1 man.jpg|thumb|Человек из зала, использующий RAID 0+1]]
** ''Из зала'': Я не знаю, что такое RAID 5 и RAID 6. Всю свою несознательную жизнь я использовал 0+1. [[Image:Uneex 08 05 30 raid 0+1 man.jpg|thumb|Человек из зала, использующий RAID 0+1]]
** ''ivlad'': Замечательно. На самом деле не факт, что она несознательная…
** ''ivlad'': Замечательно. На самом деле не факт, что она несознательная…
-
** ''ГК'': А то есть мнение, что «raid» это «набег» (''отсылка к одной из лекций ГК, где к нему после лекций подошли с распечаткой переведённой PROMT'ом документации по установке Rad Hat, в которой упоминание RAID было переведона именно таким образом'')
+
** ''ГК'': А то есть мнение, что «рейд» это набег
-
** ''GQ'': Понятно, что самый тупой способ хранить данные на нескольких дисках так, чтобы была устойчивость: первый байт записываем на первый диск, второй на второй, третий на третий, а на четвёртый XOR этих байт. Так работает '''RAID 3''', если не ошибаюсь. <!-- 31:00 --> Но это неэффективно, поскольку всё равно обмены с дисками идут блоками, поэтому решили, что хранить надо блоками, и этот XOR хранить для блока. И использовали один диск, на котором хранили контрольные суммы. Это '''RAID 4'''. Это опять же не очень эффективно, поскольку диск с контрольными суммами получается bottleneck'ом, следственно, все операции завязаны на этот диск. Поэтому придумали распределить эту контрольную сумму по всем дискам, то есть в начале для первой группы блоков она на n-ном диске, для второй — на n&minus;1-ом, и так далее. В случае, если один из дисков выходит из строя, у нас всегда есть вся информация, чтобы все данные восстановить. Это называется '''RAID 5'''. Объединять можно любое количество дисков, больше или равное двум. В случае двух это mirror. RAID 6 это то же самое, только для каждой группы блоков два взаимодополняющих блока с чётностью. Соответственно, если два диска выходят из строя, то их также можно восстановить.
+
** ''GQ'': Понятно, что самый тупой способ хранить данные на нескольких дисках так, чтобы была устойчивость: первый байт записываем на первый диск, второй на второй, третий на третий, а на четвёртый XOR этих байт. Так работает '''RAID 3''', если не ошибаюсь. <!-- 31:00 --> Но это неэффективно, поскольку всё равно обмены с дисками идут блоками, поэтому решили, что хранить надо блоками, и этот XOR хранить для блока. И использовали один диск, на котором хранили контрольные суммы. Это ''RAID 4'''. Это опять же не очень эффективно, поскольку диск с контрольными суммами получается bottleneck'ом, следственно, все операции завязаны на этот диск. Поэтому придумали распределить эту контрольную сумму по всем дискам, то есть в начале для первой группы блоков она на n-ном диске, для второй — на n&minus;1-ом, и так далее. В случае, если один из дисков выходит из строя, у нас всегда есть вся информация, чтобы все данные восстановить. Это называется '''RAID 5'''. Объединять можно любое количество дисков, больше или равное двум. В случае двух это mirror. RAID 6 это то же самое, только для каждой группы блоков два взаимодополняющих блока с чётностью. Соответственно, если два диска выходят из строя, то их также можно восстановить.
-
** ''ivlad'': Это ты тоже из Википедии взял?
+
** ''ivlad'': Это ты тоже из Викиедии взял?
** ''GQ'': Да.
** ''GQ'': Да.
** ''ivlad'': Тогда там фигня написана. Дело в том, что в шестом RAID parity считаются по-разному.
** ''ivlad'': Тогда там фигня написана. Дело в том, что в шестом RAID parity считаются по-разному.
Строка 116: Строка 115:
<!-- Слайд 11 -->
<!-- Слайд 11 -->
[[Изображение:Uneex 08 05 30 slide11.png|thumb|left|240px]]
[[Изображение:Uneex 08 05 30 slide11.png|thumb|left|240px]]
-
[[Изображение:Uneex 08 05 30 slide12.png|thumb|left|240px]]
 
Соответственно, уровни можно замечательно комбинировать. Классический пример: можно построить страйп, и поверх страйпа пустить зеркало, а можно построить зеркало, а поверх зеркала пустить страйп. Все понимают, какой из вариантов более отказоустойчивый? Есть люди, которые не могут ответить?
Соответственно, уровни можно замечательно комбинировать. Классический пример: можно построить страйп, и поверх страйпа пустить зеркало, а можно построить зеркало, а поверх зеркала пустить страйп. Все понимают, какой из вариантов более отказоустойчивый? Есть люди, которые не могут ответить?
Строка 133: Строка 131:
* ''GQ'': Нет, здесь (RAID 0+1) если вылетел один диск, то вероятность, что мы потеряем данные <sup>2</sup>/<sub>3</sub>
* ''GQ'': Нет, здесь (RAID 0+1) если вылетел один диск, то вероятность, что мы потеряем данные <sup>2</sup>/<sub>3</sub>
* ''ГК'': Просто из картинки это не следует…
* ''ГК'': Просто из картинки это не следует…
-
[[Изображение:Uneex 08 05 30 01.jpg|thumb|240px|Владимир Иванов рассказывает про разницу между RAID 0+1 и RAID 10]]
+
* ''ivlad'': Если у тебя здесь (RAID 0+1) вылетел вот этот диск, то в рейде у тебя отвалилась эта половина зеркала целиком. Если у тебя дальше вылетел один из этих дисков (в другой половине зеркала), то у тебя отвалилось уже всё, вторая половина зеркала отвалилась, всё умерло. А вот в этой ситуации (RAID 10), если у тебя отвалился вот этот диск, то RAID 0 целиком продолжает работать, единственное что у тебя отвалилась половина заркала, но второй диск отдаёт все свои данные. Если в этом случае отвалится любой из этих двух (в другом зеркале), то оно будет продолжать работать, а если отвалится этот (второй диск зеркала), то не будет. На деле, проблемная ситуация состоит в чём: диски делают одни и те же производители, диски в дисковые системы идут из одной партии, наблюдение за их отказов это вещь нетривиальная. Есть некая статистика у дисковых вендоров, которая очень закрытая, она говорит о том, что диски выходят из строя одновременно, пачками. Поэтому скорее всего в этой ситуации выйдет из строя этот вот этот диск (второй диск зеркала). Потому что ... тебе вообще не повезло. <!-- 40:39 -->
-
* ''ivlad'': Если у тебя здесь (RAID 0+1) вылетел вот этот диск, то в RAID у тебя отвалилась эта половина зеркала целиком. Если у тебя дальше вылетел один из этих дисков (в другой половине зеркала), то у тебя отвалилось уже всё, вторая половина зеркала отвалилась, всё умерло. А вот в этой ситуации (RAID 10), если у тебя отвалился вот этот диск, то RAID 0 целиком продолжает работать, единственное что у тебя отвалилась половина зеркала, но второй диск отдаёт все свои данные. Если в этом случае отвалится любой из этих двух (в другом зеркале), то оно будет продолжать работать, а если отвалится этот (второй диск зеркала), то не будет. На деле, проблемная ситуация состоит в чём: диски делают одни и те же производители, диски в дисковые системы идут из одной партии, наблюдение за их отказами — это вещь нетривиальная. Есть некая статистика у дисковых вендоров, которая очень закрытая, она говорит о том, что диски выходят из строя одновременно, пачками. Поэтому, скорее всего, в этой ситуации выйдет из строя этот вот этот диск (второй диск зеркала). Потому что... ну, потому что тебе вообще не повезло. <!-- 40:39 -->
+
-
<!-- тут наверное что-то смешное, но я ничего разобрать не могу :( -->
+
В случае, если вышел из строя один из дисков, то нужно как можно быстрее выйдет один диск, то нужно как можно быстрее вставить новые. Понятно, что на людей нельзя надеяться, то используют горячий резерв.
-
Таким образом можно не только 0+1 и 1+0 объединять, но и 5+0, 1+0+0, и так далее. В случае, если вышел из строя один из дисков, возникает проблема как можно быстрее выйдет один диск, вдруг второй выйдет из строя. Так как на человека надеяться небезопасно, то для этого придумали добавлять hot spare диски, на которых ничего не хранится, и если один из дисков в RAID выходит из строя, то диск hot spare встаёт на его место.
+
Это один аспект отк., который отн. к сохр. данных, есть ещё аспект, отн. к доступности. Для этого есть техн., наз. MP. Есть ящик с дисками, он подключен к серверу. Есть порты ввода-вывода, которые подк. к серверу. Понятно, что они могут выйти из строя. Можно подключить два провода, тогда, если вылетает один, то всё равно они ост. соединены. И для того, чтобы это не требовало ручных изменений и настройки, сущ. подсистема MP, которая для нашего сервера делает вид, что у нас одни канал данных, но на самом деле два, и можно по ним ещё нагрузку раскидывать, например.
-
=== MultiPath ===
 
-
<!-- Слайд 13 -->
 
-
[[Изображение:Uneex 08 05 30 slide13.png|thumb|left|240px]]
 
-
Это один аспект отказоустойчивости, тот, который относится к сохранности данных, а есть ещё задача обеспечения доступности. В современных системах хранения данных для этого используется технология, которая называется MultiPath. Вот у нас есть некоторый ящик с дисками, и он подключен к серверу. Вот он подключён при помощи какого-то провода, и какие-то порты ввода/вывода на этом ящике, на этом сервере. Соответственно, это узлы, которые могут выйти из строя. Во-первых, ящик можно подключить двумя проводами, тогда, если вылетает один из портов или уборщица задевает шваброй один из проводов, то всё равно они остаются соединены. И для того, чтобы это не требовало ручных изменений и настройки, существует подсистема MultiPath, которая для нашего сервера делает вид, что у нас один канал данных, а под ней же лежат эти два канала, которые, во-первых, в случае выхода одного из строя можно использовать другой, во-вторых, если у нас слабое место по скорости эти каналы, то можно и нагрузку раскидывать по ним. В частности, мы это тоже используем.
 
- 
-
=== RAID-контроллеры ===
 
-
<!-- Слайд 14 -->
 
-
[[Изображение:Uneex 08 05 30 slide14.png|thumb|left|240px]]
 
Ещё один, совсем коротко, про RAID-контроллеры
Ещё один, совсем коротко, про RAID-контроллеры
-
* ''ximaera'': Тут коротко не получится [https://imap.cs.msu.su/pipermail/uneex/2008-May/002326.html] [[Изображение:Ximaera.jpg|thumb|240px|Антон Гавриченков (ximaera)]]
+
* Сначала контроллеры были аппаратные, они делали вид, что к ним подключён одни диск, на самом деле несколько, платы стоят дорого, поскольку делаются для дорогих серверов
-
* ''GQ'': Ну, если возникнет флейм, замечательно
+
* В какой-то момент решили делать программный RAID, понятно что он будет отнимать ресурсы системы, работать медленнее, зато это замечательно работает.
-
 
+
* Лет 5---10 назад стало популярно в очень недорогие материнские платы встраивать нечто, что производители называют аппаратным рейдом Но по сути оно было только на уровне биоса, дальше на уровне ос оно оперируется драйвером. Оно отличается в худшую сторону. Если вышла из строя аппаратный raid, то нужно купить точно такой же адаптер, но он стоит дорогих денег, давно не выпускается и так далее. Но в случае рейда 0 и 1 помогает dd и скрипт на шелле, достаточно знать, какого размера блоки и какой диск первый-второй. Понятно, что аппаратные работают быстрее
-
Сначала контроллеры были аппаратные, такие платы, которые делали вид, что к ним подключён одни диск, а на самом деле дисков было подключено несколько, и они сами как-то все синхронизации выполняли. Платы стоят дорого, особенно, когда они производятся не на потоке, а только для дорогих серверов. Поэтому придумали, почему бы программно, на уровне системы не эмулировать то же самое. И придумали программный RAID. Понятно, что он будет требовать ресурсы нашего сервера, ЦП будет задействоваться, будет, возможно, работать медленно, из-за того, что там пока вычислитель общего назначения это посчитает, плюс ему самому приходиться распараллеливать обмены по нескольким дискам. Но, тем неменее, зато это более-менее замечательно работает. И не так давно, лет 5 назад…
+
-
t
+
-
Ну, хорошо, может и десять. Стало очень популярно в недорогие материнские платы встраивать нечто, что производитель гордо называл аппаратным RAID'ом, но на самом деле это не является аппаратным RAID'ом, это нечто, способное работать как RAID на этапе загрузки, на этапе BIOS, а когда загружается операционная система, там реально драйверами реализуется все эти функции, то есть ничем в лучшую сторону это от программного RAID не отличается. Зато это отличается в худшую сторону. Когда у нас программный RAID, если вышла из строя железка, к которой подключены диски, мы можем подключить их к любой другой железке, нам же нужен физический доступ только до независимых дисков, дальше оно уже само. <!-- 47:00 --> В случае же, если вышел из строя аппаратный RAID…
+
-
* ''ГК'': …а вы ещё по глупости скачали под Linux и установили несвободный драйвер…
+
-
Да, в случае, если вышел из строя аппаратный RAID, то мы можем столкнуться с тем, что нужно купить точно такой же адаптер, чтобы получить доступ до наших данных, а точно такой же адаптер стоит больших денег, давно не продаётся, потому что давно вышло новое поколение, его надо заказывать из Штатов и ждать две недели и так далее.
+
-
* ''Юрий'': Стоп, а здесь можно пояснить?
+
-
* ''GQ'': Можно.
+
-
* ''Юрий'': Значит, эта железка нужна на этапе собственно загрузки BIOS'а…
+
-
* ''ГК'': Нет-нет, это не про fake-RAID…
+
-
* ''GQ'': Это вообще про аппаратный RAID
+
-
* ''Юрий'': А, тогда я тоже ошибся.
+
-
Поэтому с честными RAID тоже надо подумать, надо ли оно…
+
-
* ''Юрий'': На самом деле, точно такой же контроллер нужен только для RAID 5, 6 ну и 4 ещё. Потому для 3, 1 и 0 проблемы нет.
+
-
* ''GQ'': Для 1 — да, вот для 0…
+
-
* ''ivlad''(?): Достаточно знать, сколько байт…
+
-
* ''GQ'': Это вопрос масштаьируемый…
+
-
* ''Юрий'': Значит, вопрос в следующем — ... это делается просто элементарно, потому что 0, что 1 RAID, там никто не заморачивается, в отличие там, допустим, от 5. И обычная команда dd делает, всё, что нужно…
+
-
* ''ГК'': Единственная задача — определить, каким образом <!-- тут нифига не слышно — отсебятина @ 48:46 --> происходило разбиение на страйпы, а это уже сам устанавливаешь при создании массива
+
-
* ''Юрий'': На самом деле, это достаточно легко происходит, необязательно даже это знать, потому что сама файловая система, она имеет достаточно чёткое определение начальных блоков. И … понять, в какой последовательности они лежать, проблемы не представляет. <!-- конспект с места: Но в случае рейда 0 и 1 помогает dd и скрипт на шелле, достаточно знать, какого размера блоки и какой диск первый-второй. -->
+
-
 
+
-
Понятно, что аппаратный RAID быстрее…
+
-
* ''ivlad'': На порядки, я бы даже сказал
+
-
На самом деле, у fake-RAID есть один маленький плюс — если одновременно на машине Windows и Linux, то это позволит иметь доступ до дисков этого RAID'a одновременно и из Windows и из Linux, если есть нормальные драйвера под Linux. Это у fake-RAID есть такой маленький плюс
+
-
* ''ГК'': Не понял. А в чём разница?
+
-
<!-- 50:10 -->
+
-
 
+
* В СХД есть обычно свои средства
* В СХД есть обычно свои средства
Строка 193: Строка 156:
Ещё на умных, хороших аппаратный рейдах есть собственный кэш, собственная память для того, чтобы подобрать правильную посл. записи на диск. Во-вторых, там есть замечательное свойство, что после того, как данные сохранили в кэш, можно сказать ОС, что данные сохранены. В этом случае может быть проблема, что делать, если питание отрубится. Обычно, для этого есть батарейка, которая позволяет сохранить кэш..
Ещё на умных, хороших аппаратный рейдах есть собственный кэш, собственная память для того, чтобы подобрать правильную посл. записи на диск. Во-вторых, там есть замечательное свойство, что после того, как данные сохранили в кэш, можно сказать ОС, что данные сохранены. В этом случае может быть проблема, что делать, если питание отрубится. Обычно, для этого есть батарейка, которая позволяет сохранить кэш..
-
=== LVM ===
+
LVM
* Не можем спланировать, сколько потребуется места через 3 года
* Не можем спланировать, сколько потребуется места через 3 года
* Хотим home 300ГБ, а у нас два диска по 200
* Хотим home 300ГБ, а у нас два диска по 200
Строка 219: Строка 182:
* ivlad: ещё более интересная ситуация, когда надо сделать снэпшот сырого диска. Производители ... публикуют интерфейсы, которые позволяют делать снэпшот тейблспейса, и оракл дальше пишет в лог(?) ... но это решение на уровне приложения
* ivlad: ещё более интересная ситуация, когда надо сделать снэпшот сырого диска. Производители ... публикуют интерфейсы, которые позволяют делать снэпшот тейблспейса, и оракл дальше пишет в лог(?) ... но это решение на уровне приложения
-
=== СХД ===
+
СХД
-
* DAS --- direct attached storage --- ящик с дисками. Хранилище, которое подкл. непосредственно. DAS работает по принципу одного потребителя данных, и в случае децентрализации потребителя этого недостаточно для решения этого придумали
+
* DAS --- dirrect attached storage --- ящик с дисками. Хранилище, которое подкл. непосредственно. DAS работает по принципу одного потребителя данных, и в случае децентрализации потребителя этого недостаточно для решения этого придумали
* NAS --- ящик, к которому подключаются по сети и работает с ним
* NAS --- ящик, к которому подключаются по сети и работает с ним
-
* SAN --- Storage Area Network
+
* SAN --- ...
DAS
DAS
Строка 320: Строка 283:
Вообще говоря, избыточность может быть любой, m+n, что позволяет пережить m отказов. Но по скорости он сосёт, псокольку уже дя R6 нужно собирать квадрат, и при случайной записи надо собрать квадрат, и скорость проседает, что можно решать кэшом. Но большие кэши это техн. сложно.
Вообще говоря, избыточность может быть любой, m+n, что позволяет пережить m отказов. Но по скорости он сосёт, псокольку уже дя R6 нужно собирать квадрат, и при случайной записи надо собрать квадрат, и скорость проседает, что можно решать кэшом. Но большие кэши это техн. сложно.
-
Компания NetApp предложила следующее: давайте делтаь случайную запись, но писать на диск последовательно. Что мы получили: мы получили запись быструю (потому что пишем только full-... stripe) и это очень хорошо. Но возникает проблема фрагментации. Мало того, что надо делать мэппинг, но понятно, что ни о какм префетче можно не говорить, всё врея надо перепозиц. головку. Решение тут только одно --- делать периодич. дефрагментацию. Решение делать дефр. online эта такая инж. задача, вполне себе решаемая. Теоретически эта задача разрешимая, практически её пока не решили. Есть офлайновая дефрагментация.
+
Компания ... предложила следующее: давайте делтаь случайную запись, но писать на диск последовательно. Что мы получили: мы получили запись быструю (потому что пишем только full-... stripe) и это очень хорошо. Но возникает проблема фрагментации. Мало того, что надо делать мэппинг, но понятно, что ни о какм префетче можно не говорить, всё врея надо перепозиц. головку. Решение тут только одно --- делать периодич. дефрагментацию. Решение делать дефр. online эта такая инж. задача, вполне себе решаемая. Теоретически эта задача разрешимая, практически её пока не решили. Есть офлайновая дефрагментация.
-
Поэтому среди unix-гиков он очень популярен. У него хорошаяреализация nfs, он быстрее писюка. С другой стороны, у него гламурная командная строчка, и он выгядит довольно прикольно. Из success-story --- Я.Деньги по слухам работают на них.
+
Поэтому среди unix-гиков он очень популярен. У него хорошаяреализация nfs, он быстрее писюка. С другой стороны, у него гламурная командная строчка, и он выгядит довольно прикольно. Из success-story --- Я.Деньги работают на них. У EMC работает на них биллинг у МТС.
У R6 есть разные подсчёты второй parity.
У R6 есть разные подсчёты второй parity.
Строка 329: Строка 292:
** Уже сейчас можно купить Symmetrix с SSD
** Уже сейчас можно купить Symmetrix с SSD
** Плюсы и минусы SSD: операции записи ползут.
** Плюсы и минусы SSD: операции записи ползут.
-
** Надо правильно понимать, где они нужны: если позиционирование игрвет роль, то оно актуально, там будет большой прирост. Там, где делаешь потоковую запись, то тут смысла нет.
+
** Надо прапильно понимать, где они нужны: если позиционирование игрвет роль, то оно актуально, там будет большой прирост. Там, где делаешь потоковую запись, то тут смысла нет.
** В чём отличия при исп.: не сбрасывают кэш, поск. отсут. статистика по отказам
** В чём отличия при исп.: не сбрасывают кэш, поск. отсут. статистика по отказам

Пожалуйста, обратите внимание, что все ваши добавления могут быть отредактированы или удалены другими участниками. Если вы не хотите, чтобы кто-либо изменял ваши тексты, не помещайте их сюда.
Вы также подтверждаете, что являетесь автором вносимых дополнений, или скопировали их из источника, допускающего свободное распространение и изменение своего содержимого (см. eSyr's_wiki:Авторское право).
НЕ РАЗМЕЩАЙТЕ БЕЗ РАЗРЕШЕНИЯ ОХРАНЯЕМЫЕ АВТОРСКИМ ПРАВОМ МАТЕРИАЛЫ!

Личные инструменты
Разделы