![]() |
Мы — долго запрягаем, быстро ездим, и сильно тормозим.
|
||||||||||||||||||||||||||||||||||||||||||||
![]() www.lissyara.su
—> статьи
—> FreeBSD
|
|
Система стоит на небольшом сказёвом диске, на отдельном контроллере. Переносить буду с использованием дополнительного диска:
|
Разбит одним шматком, смонтирован асинхронно (да, я извращенец =) Но - машинка тестовая - чё хочу то и делаю):
|
Загрузчик (loader), в 8-ке, по-умолчанию собран без поддержки загрузки с ZFS. Вернее, даже не так. Для ZFS используется отдельный загрузчик, и изначально его нет. Поэтому, вносим такую строку в make.conf:
|
и пересобираем всё что касается загрузки системы:
|
Прописываем загрузку модуля ZFS:
|
и монтирование файловых систем при загрузке:
|
Создаём пул (о том что такое пул, и с чем его едят можно почитать в доке по утилите zpool, ну а вкратце - это набор девайсов, предоставляющих физическое хранилищще для ZFS):
|
Смотрим, чё получилось:
|
Экспортируем пул - чтобы ZFS, при дальнейших наших действиях, точно не трогала диск на котором он живёт:
|
Записываем загрузчики - для первой и второй стадии загрузки:
|
Цепляем пул обратно:
|
В установках пула, выставляем отсутствие точки монтирования (корень ("/"), выставить сразу не можем - потому как пустой пул тут же будет примонтирован в качестве корневой системы, и повествование свернёт в другую сторону - на рассказ по теме "чё же делать если всё пошло не так")):
|
Монтируем файловую систему куда вам удобно - мне - в /mnt:
|
Смотрим:
|
Переносим систему:
|
Вот тут начались грабли. Через несколько минут словил панику - ругалось что мало рамы ядру. Добавил рамы до 320Mb. После ребута, и монтирования раздела с ZFS сделал:
|
Снова паника с теми же симптомами. Грустно... Обычной SDRAM у меня больше не было. Пришлось дёрнуть с ближайшего старенького сервера 2 планки SDRAM ECC по 2Gb - на этой машине они увиделись как 2x256. Снова запустил dump/restore - снова паника. Нашёл в заначке ещё одну на гиг - тоже увиделась как 256 - всего получилось 700 с чем-то мегов - процесс прошёл нормально.
Прописываем в loader.conf откуда монтировать корневой раздел:
|
Убираем из fstab, что на разделе с ZFS все записи:
|
Перезагружаемся, видим такую картинку:
|
Итак, что имеем - загрузка ядра, всё ещё, произошла по старому - с первого SCSI диска, с UFS. А вот файловая система уже монтируется с другого - на котором ZFS. Дальше, стрёмный момент - убиваем всё содержимое первого диска - именно ради него, чуть раньше, я прописывал загрузчики на второй диск - если после убиения, но до конца переноса машина будет перезагружена - можно будет загрузиться со второго диска. Если же на него не прописать загрузчик - грузиться будет не с чего. Итак, убиваем всё на загрузочном диске:
|
Проверяем, что все разделы пропали:
|
Прописываем загрузчики:
|
А теперь, финт ушами - говорим zpool, что надо поменять один диск на другой:
|
Обломалося земноводное зелёного цвета... (© "Красная Плесень", какой-то из рассказов про Гену и Чебурашку). Вначале надо до конца читать ман, а потом делать. Девайс нельзя заменить девайсом меньшего размера (непонятно лишь почему - данных там меньше чем размер самого маленького диска. Видимо, для замены используется зеркалирование, и отключение второго диска от зеркала), тока такого же или большего размера. Тут пришлось начать думать и плотно раскуривать доку (а с первого диска я уже всё снёс =))). Ключ "force" не помог:
|
Ладно. Тогда попробуем реплицировать - в мане есть пример удалённого, должно и локально прокатить. Создаём новый пул, на SCSI диске:
|
(VG - виртуальная группа, такое именование в AIX принято. Куда удобней чем tank'и из доки по ZFS) Посмотрим, срослось ли:
|
Делаем снимок файловой системы:
|
Передаём снимок с одной файловой системы на другую:
|
Процесс, заметим, весьма ресурсоёмкий. Но, происходит быстрей чем dump/restore - в разы (но сильно медленней чем зеркалирование через zfs - там вообще всё очень шустро). Посмотрим, что получилось:
|
Цепляю в другую точку монтирования - для своего удобства, вначале выставляю отстуствие её для этого пула (заметим, в /rootVG оно автоматом примонтировалось, видимо, во время предыдущей операции, также, замечу, что убрать эту точку монтирования надо обязательно - иначе на загрузке вместо "/" пул смонтируется в "/rootVG" - это не совсем то, что нам надо =)):
|
Раздел при этом, автоматически отмонтируется - если не было открытых файлов:
|
Монтирую:
|
Подправляем loader.conf - это надо сделать в любом случае, неважно, были и проблемы с меньшим диском, как у меня, или у вас первый диск был больше/равен второму - ибо предыдущий раз этот файл трогали после зеркалирования, на диске который уже убили:
|
Товарисчи с большими/равными дисками должны прописать "rootFS" а не "rootVG". Теперь можно перезагрузиться, и посмотреть чё вышло:
|
Экспотрируем "rootFS" - чтоб не мешалось:
|
Создаём раздел в полгига размером - под свап. Тут тоже моё упущение - свап рекомендуют размещщать в начале диска, у меня он получился в середине. Надо было эти действия сделать сразу после создания пула, до переноса данных:
|
Выставляем переменные для раздела - тип файловой системы, и отключаем подсчёт контрольных сумм:
|
Дальше, я попытался этот свап подцепить:
|
Неподцепился. Логично - это не файловая система же. Тогда, пойдём обычным путём:
|
Дальше по желанию. Диск я буду отцеплять, поэтому на втором убиваю файловую систему:
|
Теперь потестим то, что получилось. Накатил MySQL, apache2, php5, раскатал архив своего форума. Словил жёсткий зависон на попытке получить страницу через fetch. Мда. Ладно. За прошедшие выходные нашёл ещё рамы - 512Mb ECC, которая увиделась как 128. До гига так и не дотянул - получилось 917Mb. Краш-тест, в виде параллельного скачивания форума в 200 потоков система пережила. LA был 160, свап заюзан на 10%.
Нарисовал в loader.conf такие переменные (получено приблизительной экстраполяцией, и дальнейшей подгонкой значений из стабильно работающей системы с 768Mb рамы), и уменьшил количество ОЗУ до 256Mb:
|
не упало - тестил переносом всего с однойго пула на другой, через:
|
Правда, перед тем как вышел на эти значения оно у меня три раза падало. Значит направление мысли было верное. Оттестил ещё раз, запустив в параллель к pax скачиваться форум в 200 потоков, и индексировать базу самого форума. Полёт нормальный.
Выводы. Работоспособно. Даже на небольшом количестве рамы, и архитектуре x32 можно допилить чтоб работало стабильно. Под amd64 всё и само будет стабильно работать.
Тем не менее - рамы рекомендуется 1Gb и более и архитектуру amd64 - там работа с памятью грамотней организована.
размещено: 2009-11-16,
последнее обновление: 2009-11-16,
автор: lissyara
vadim64, 2009-11-16 в 14:48:20
Абалдеть! Статья опередила своё время)))) Пригодится обязательно. Спасибо огромное.
wf, 2009-11-16 в 14:51:33
У себя тоже на таком же железе запускал. Сделал дома шару на самбе. Работало сначала на 128Мб, очень медленно, но работало. На работе поставил на amd64, по самбе всё отилчно, а вот при попытке через nfs сохранить копию винты (с помощью dd) вылетела в панику. Через самбу тоже самое прошло отлично.
Neus, 2009-11-16 в 22:39:05
---
vm.kmem_size=\"200M\"
vm.kmem_size_max=\"180M\"
---
это как так? может поменять 180 и 200 местами все же?
lissyara, 2009-11-17 в 1:15:56
Это именно так, как работает =)
точно не помню какой именно, но достаточно выставить тока один из этих двух параметров - значение второго ОС использовать уже не будет.
angelas_, 2009-11-22 в 3:40:51
Игнорируется vm.kmem_size_max.
*, 2009-11-22 в 17:02:27
и смысл
сыро как-то ещё))
ufs vs zfs тесты выложите
vadim64, 2009-11-23 в 9:37:24
*, 2009-11-22 в 17:02:27
и смысл
сыро как-то ещё))
ufs vs zfs тесты выложите
)))))))) Ты наверное спутал с оффсайтом. У них иди требуй тесты.
Рома, 2009-12-06 в 20:20:44
Помойму изврат это все, гиг памяти отдать только на то чтоб оно просто не падало когда захочет? Я пешком постою ))
adre, 2009-12-08 в 18:24:09
актуально... не изврат, если нету задач которым это требуется не значит что не надо... тоже самое почему винда мутировала из хп->sp1->sp2->sp3->Vista->win7 ... да и размеры у систем не такие лоховские как у тесктопов, возьмите prolant HP 4 xeon с четырмя бошками ну и там до жопы оперативки и жесткой памяти...
burzum, 2010-01-02 в 18:40:22
и всёже, хоть преимущества (не только по скорости) неоспоримы, но хотелось бы ссылку на результаты реальных тестов
adre, 2010-01-05 в 10:24:56
хочешь тестов? так сделай, народ обрадуется... =) а то желающих то много, а делать не кто не хочет
Александр Лейн, 2010-02-05 в 11:22:03
2: andre - Тесты имеет смысл делать на "боевом" во всех смыслах железе.
2: lissyara - Большое спасибо за статью! Хоть доков по зфс и навалом, ваша статья многое проясняет.
User, 2010-02-15 в 2:30:54
А как бысть если сейчас настроен gmirror ?
Pendolf, 2010-04-15 в 23:48:24
zpool create rootFS /dev/ad0
Нет прав доступа... ребутнул с включеным ZFS но мать его бут собрало в i386 и пиздец миру настал
Kalabi, 2010-04-22 в 13:20:39
Вопрос, почему же LOADER_ZFS_SUPPORT=YES в make.conf, а не в src.conf.Не имеет значения ?
Klop, 2010-07-02 в 14:02:32
На i386 системах:
echo 'vfs.zfs.prefetch_disable=0' >> /boot/loader.conf
P.S. Прикольная штука: если создать диру в .zfs/, то будем иметь готовый снапшот.
Иначе говоря, есть у нас каталог rootVG/home Можно создать снапшот стандартно: zfs snapshot vrootVG/home@test, и увидеть его по zfs list -t snapshot. А можно так: mkdir vrootVG/home/.zfs/test
Ну и проверяем так же: zfs snapshot vrootVG/home@test.
Можно работать со снапшотами без их монтирования. Вот так вот интересно получается.)))
Klop, 2010-07-02 в 14:15:14
В предыдущем посте, конечно, заменить Ну и проверяем так же: zfs snapshot vrootVG/home@test на Ну и проверяем так же: zfs list -t snapshot, но это мелочи.
Дело в том, что создание/удаление снапшота, как уже писал, прямой работой с .zfs пашет и по NFS. Хотя, а с чего не пахать...))))
fox, 2010-09-19 в 4:40:50
Рана ещё... Для ответственного продакшена нельзя рисковать, разве, что завтра не собираешься увольняться)))
Конечно Лис в своём духи постарался, по импровизировал, приятно было почитать... Но с точки зрения практического применения "тА-АрапиТСя неее надооо..."
chpoqxie, 2010-10-16 в 12:00:02
ага, поддерживаю предыдущего.
навернулся тут zfs при выполнении scrub'а - ни в какую монтироваться не захотел после ребута - виснет фряха и все тут. как только с бубном не плясал - пытаюсь import, и сразу вис. загрузился с инсталляционного диска солярки - zfs влет подхватилась.
сырое оно еще, дико сырое и недоработанное. фряха 8.1.
Мфынф, 2011-07-09 в 8:19:08
ZFS гавно
Этот информационный блок появился по той простой причине,
что многие считают нормальным, брать чужую информацию не уведомляя автора
(что не так страшно), и не оставляя линк на оригинал и автора — что более существенно.
Я не против распространения информации — только за. Только условие простое — извольте
подписывать автора, и оставлять линк на оригинальную страницу в виде прямой, активной, нескриптовой,
незакрытой от индексирования, и не запрещенной для следования роботов ссылки.
Если соизволите поставить автора в известность — то вообще почёт вам и уважение.
© lissyara 2006-10-24 08:47 MSK
Время генерации страницы 0.0746 секунд
Из них PHP: 39%; SQL: 61%; Число SQL-запросов: 77 шт.
Исходный размер: 73483;
Сжатая: 14359
Комментарии пользователей [20 шт.]