Мы — долго запрягаем, быстро ездим, и сильно тормозим.

FreeBSD
  настройка
  подсчёт трафика
  программы
  почтовые системы
  Шелезяки
  Мелочи
  Файловая система
  mount_nullfs
  badsect
  clri
  bsdlabel
  dump (rdump)
  dumpfs
  ffsinfo
  fsirand
  mount_nfs
  mount_smbfs
  swapon
  tunefs
  umount
  recovery files
  growfs
  Pax
  clonehdd
  Мониторинг RAID
  gstripe
  fusefs-ntfs
  UFS->ZFS
  RAID5
  freebsd lvm
  root ZFS, GPT
  FreeBSD on flash
  Восстановление ZFS
  Лечим FFS
  gmirror
  WWW
  Security
  system
  Games Servers
  X11
  Programming
Очумелые Ручки
OpenBSD
Cisco


www.lissyara.su —> статьи —> FreeBSD —> Файловая система —> UFS->ZFS

Удалённая миграция с UFS на ZFS

Автор: lissyara.


    Итак, решил что пора мигрировать на ZFS - много всего хорошего рассказывают, да и в рассылке народ активировался - уже с raidZ можно грузиться, плюс в ожидаемом релизе 8-ки оно будет "реди фор продакшен". Значит - пора ставить на свой любимый тестовый тазик =)
   Ожидаемые проблемы - тазик капризный до памяти - да и мало на нём её - всего 128Mb. Для ZFS рекомендовано минимум 512. Поэтому, проблемы обязательно будут =). До кучи, хочеться всё сделать через ssh - т.е. без однопользовательского режима, всяких IP-КВМ и т.п.
   Итак, обновляемся до 8-ки (у меня там 7.2 стояла пустая), получаем следующее:
2xPIII-500MHz$ uname -a
FreeBSD 2xPIII-500MHz 8.0-PRERELEASE FreeBSD 8.0-PRERELEASE #0:
Thu Nov 12 18:25:58 UTC 2009
root@2xPIII-500MHz:/usr/obj/usr/src/sys/GENERIC  i386
2xPIII-500MHz$ 

   Система стоит на небольшом сказёвом диске, на отдельном контроллере. Переносить буду с использованием дополнительного диска:
2xPIII-500MHz$ dmesg | grep -E "amrd[0-9]|ad[0-9]"
ad0: 176700MB <IC35L180AVV207 1 V26OA63A> at ata0-master UDMA33
amrd0: <LSILogic MegaRAID logical drive> on amr0
amrd0: 8700MB (17817600 sectors) RAID 0 (optimal)
Trying to mount root from ufs:/dev/amrd0s1a
2xPIII-500MHz$ 

   Разбит одним шматком, смонтирован асинхронно (да, я извращенец =) Но - машинка тестовая - чё хочу то и делаю):
2xPIII-500MHz$ df -h
Filesystem       Size    Used   Avail Capacity  Mounted on
/dev/amrd0s1a    7.7G    3.5G    3.7G    48%    /
devfs            1.0K    1.0K      0B   100%    /dev
2xPIII-500MHz$ 
2xPIII-500MHz$ mount
/dev/amrd0s1a on / (ufs, asynchronous, local)
devfs on /dev (devfs, local, multilabel)
2xPIII-500MHz$ 

   Загрузчик (loader), в 8-ке, по-умолчанию собран без поддержки загрузки с ZFS. Вернее, даже не так. Для ZFS используется отдельный загрузчик, и изначально его нет. Поэтому, вносим такую строку в make.conf:
2xPIII-500MHz$ grep -i zfs /etc/make.conf
# for zfs boot
LOADER_ZFS_SUPPORT=yes
2xPIII-500MHz$ 

и пересобираем всё что касается загрузки системы:
2xPIII-500MHz$ cd /usr/src/sys/boot && make obj depend all install

   Прописываем загрузку модуля ZFS:
2xPIII-500MHz$ grep zfs /boot/loader.conf
zfs_load="YES"
2xPIII-500MHz$ 

и монтирование файловых систем при загрузке:
2xPIII-500MHz$ grep zfs /etc/rc.conf
zfs_enable="YES"
2xPIII-500MHz$ 

   Создаём пул (о том что такое пул, и с чем его едят можно почитать в доке по утилите zpool, ну а вкратце - это набор девайсов, предоставляющих физическое хранилищще для ZFS):
2xPIII-500MHz$ zpool create rootFS /dev/ad0

   Смотрим, чё получилось:
2xPIII-500MHz$ zpool list
NAME     SIZE   USED  AVAIL    CAP  HEALTH  ALTROOT
rootFS   172G  73,5K   172G     0%  ONLINE  -
2xPIII-500MHz$ 
2xPIII-500MHz$ zpool status
  pool: rootFS
 state: ONLINE
 scrub: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        rootFS      ONLINE       0     0     0
          ad0       ONLINE       0     0     0

errors: No known data errors
2xPIII-500MHz$ 

   Экспортируем пул - чтобы ZFS, при дальнейших наших действиях, точно не трогала диск на котором он живёт:
2xPIII-500MHz$ zpool export rootFS
2xPIII-500MHz$ zpool list
no pools available

   Записываем загрузчики - для первой и второй стадии загрузки:
2xPIII-500MHz$ dd if=/boot/zfsboot of=/dev/ad0 bs=512 count=1
1+0 records in
1+0 records out
512 bytes transferred in 0.000513 secs (997901 bytes/sec)
2xPIII-500MHz$ 
2xPIII-500MHz$ 
2xPIII-500MHz$ dd if=/boot/zfsboot of=/dev/ad0 bs=512 skip=1 seek=1024
64+0 records in
64+0 records out
32768 bytes transferred in 0.020961 secs (1563299 bytes/sec)
2xPIII-500MHz$ 

   Цепляем пул обратно:
2xPIII-500MHz$ zpool import rootFS
2xPIII-500MHz$ zpool list
NAME     SIZE   USED  AVAIL    CAP  HEALTH  ALTROOT
rootFS   172G  73,5K   172G     0%  ONLINE  -
2xPIII-500MHz$ 

   В установках пула, выставляем отсутствие точки монтирования (корень ("/"), выставить сразу не можем - потому как пустой пул тут же будет примонтирован в качестве корневой системы, и повествование свернёт в другую сторону - на рассказ по теме "чё же делать если всё пошло не так")):
2xPIII-500MHz$ zfs set mountpoint=none rootFS
2xPIII-500MHz$ zfs get mountpoint rootFS
NAME    PROPERTY    VALUE       SOURCE
rootFS  mountpoint  none        local
2xPIII-500MHz$ 

   Монтируем файловую систему куда вам удобно - мне - в /mnt:
2xPIII-500MHz$ mount rootFS /mnt/
mount: rootFS : No such file or directory
2xPIII-500MHz$ mount -t zfs rootFS /mnt/

   Смотрим:
2xPIII-500MHz$ df -h
Filesystem       Size    Used   Avail Capacity  Mounted on
/dev/amrd0s1a    7.7G    3.5G    3.7G    48%    /
devfs            1.0K    1.0K      0B   100%    /dev
rootFS           169G      0B    169G     0%    /mnt
2xPIII-500MHz$ mount
/dev/amrd0s1a on / (ufs, asynchronous, local)
devfs on /dev (devfs, local, multilabel)
rootFS on /mnt (zfs, local)
2xPIII-500MHz$ 

   Переносим систему:
2xPIII-500MHz$ dump -0Lf - / | (cd /mnt/; restore -rf -)

   Вот тут начались грабли. Через несколько минут словил панику - ругалось что мало рамы ядру. Добавил рамы до 320Mb. После ребута, и монтирования раздела с ZFS сделал:
2xPIII-500MHz$ rm -rf /mnt/*

   Снова паника с теми же симптомами. Грустно... Обычной SDRAM у меня больше не было. Пришлось дёрнуть с ближайшего старенького сервера 2 планки SDRAM ECC по 2Gb - на этой машине они увиделись как 2x256. Снова запустил dump/restore - снова паника. Нашёл в заначке ещё одну на гиг - тоже увиделась как 256 - всего получилось 700 с чем-то мегов - процесс прошёл нормально.
   Прописываем в loader.conf откуда монтировать корневой раздел:
2xPIII-500MHz$ grep zfs /boot/loader.conf
zfs_load="YES"
vfs.root.mountfrom="zfs:rootFS"
2xPIII-500MHz$ 

   Убираем из fstab, что на разделе с ZFS все записи:
2xPIII-500MHz$ more /mnt/etc/fstab
# Device                Mountpoint      FStype  Options         Dump    Pass#
#/dev/amrd0s1b          none            swap    sw              0       0
#/dev/amrd0s1a          /               ufs     rw,async        1       1
#/dev/acd0              /cdrom          cd9660  ro,noauto       0       0
2xPIII-500MHz$ 

   Перезагружаемся, видим такую картинку:
2xPIII-500MHz$ df -h
Filesystem    Size    Used   Avail Capacity  Mounted on
rootFS        169G    3.5G    166G     2%    /
devfs         1.0K    1.0K      0B   100%    /dev
2xPIII-500MHz$ mount
rootFS on / (zfs, local)
devfs on /dev (devfs, local, multilabel)
2xPIII-500MHz$ 

   Итак, что имеем - загрузка ядра, всё ещё, произошла по старому - с первого SCSI диска, с UFS. А вот файловая система уже монтируется с другого - на котором ZFS. Дальше, стрёмный момент - убиваем всё содержимое первого диска - именно ради него, чуть раньше, я прописывал загрузчики на второй диск - если после убиения, но до конца переноса машина будет перезагружена - можно будет загрузиться со второго диска. Если же на него не прописать загрузчик - грузиться будет не с чего. Итак, убиваем всё на загрузочном диске:
2xPIII-500MHz$ ll /dev/amrd0*
crw-r-----  1 root  operator    0,  83 13 ноя 14:15 /dev/amrd0
crw-r-----  1 root  operator    0,  83 13 ноя 14:15 amrd0s1
crw-r-----  1 root  operator    0,  83 13 ноя 14:15 amrd0s1a
crw-r-----  1 root  operator    0,  83 13 ноя 14:15 amrd0s1b
2xPIII-500MHz$ 
2xPIII-500MHz$ dd if=/dev/zero of=/dev/amrd0 bs=1m count=1
1+0 records in
1+0 records out
1048576 bytes transferred in 0.079149 secs (13248126 bytes/sec)
2xPIII-500MHz$ 

   Проверяем, что все разделы пропали:
2xPIII-500MHz$ ll /dev/amrd0*
crw-r-----  1 root  operator    0,  83 13 ноя 14:15 /dev/amrd0
2xPIII-500MHz$ 

   Прописываем загрузчики:
2xPIII-500MHz$ dd if=/boot/zfsboot of=/dev/amrd0 bs=512 count=1
1+0 records in
1+0 records out
512 bytes transferred in 0.017034 secs (30058 bytes/sec)
2xPIII-500MHz$ dd if=/boot/zfsboot of=/dev/amrd0 bs=512 skip=1 seek=1024
64+0 records in
64+0 records out
32768 bytes transferred in 0.030083 secs (1089247 bytes/sec)
2xPIII-500MHz$ 

   А теперь, финт ушами - говорим zpool, что надо поменять один диск на другой:
2xPIII-500MHz$ zpool replace rootFS /dev/ad0 /dev/amrd0
cannot replace /dev/ad0 with /dev/amrd0: device is too small

   Обломалося земноводное зелёного цвета... (&copy; "Красная Плесень", какой-то из рассказов про Гену и Чебурашку). Вначале надо до конца читать ман, а потом делать. Девайс нельзя заменить девайсом меньшего размера (непонятно лишь почему - данных там меньше чем размер самого маленького диска. Видимо, для замены используется зеркалирование, и отключение второго диска от зеркала), тока такого же или большего размера. Тут пришлось начать думать и плотно раскуривать доку (а с первого диска я уже всё снёс =))). Ключ "force" не помог:
2xPIII-500MHz$ zpool replace -f rootFS /dev/ad0 /dev/amrd0
cannot replace /dev/ad0 with /dev/amrd0: device is too small
2xPIII-500MHz$ 

   Ладно. Тогда попробуем реплицировать - в мане есть пример удалённого, должно и локально прокатить. Создаём новый пул, на SCSI диске:
2xPIII-500MHz$ zpool create rootVG /dev/amrd0

(VG - виртуальная группа, такое именование в AIX принято. Куда удобней чем tank'и из доки по ZFS) Посмотрим, срослось ли:
2xPIII-500MHz$ zpool list
NAME     SIZE   USED  AVAIL    CAP  HEALTH  ALTROOT
rootFS   172G  3,50G   169G     2%  ONLINE  -
rootVG  8,44G    72K  8,44G     0%  ONLINE  -
2xPIII-500MHz$ 

   Делаем снимок файловой системы:
2xPIII-500MHz$ zfs snapshot rootFS@now
2xPIII-500MHz$ zfs get all | grep @now
rootFS@now  type                  snapshot              -
rootFS@now  creation              пт ноя 13 14:46 2009  -
rootFS@now  used                  538K                  -
rootFS@now  referenced            3,50G                 -
rootFS@now  compressratio         1.00x                 -
rootFS@now  devices               on                    default
rootFS@now  exec                  on                    default
rootFS@now  setuid                on                    default
rootFS@now  shareiscsi            off                   default
rootFS@now  xattr                 on                    default
rootFS@now  version               3                     -
rootFS@now  utf8only              off                   -
rootFS@now  normalization         none                  -
rootFS@now  casesensitivity       sensitive             -
rootFS@now  nbmand                off                   default
rootFS@now  primarycache          all                   default
rootFS@now  secondarycache        all                   default
2xPIII-500MHz$ 

   Передаём снимок с одной файловой системы на другую:
2xPIII-500MHz$ zfs send rootFS@now | zfs receive rootVG
cannot receive new filesystem stream: destination 'rootVG' exists
must specify -F to overwrite it
warning: cannot send 'rootFS@now': Канал разрушен
2xPIII-500MHz$ zfs send rootFS@now | zfs receive -F rootVG
2xPIII-500MHz$ 

   Процесс, заметим, весьма ресурсоёмкий. Но, происходит быстрей чем dump/restore - в разы (но сильно медленней чем зеркалирование через zfs - там вообще всё очень шустро). Посмотрим, что получилось:
2xPIII-500MHz$ zfs list
NAME     USED  AVAIL  REFER  MOUNTPOINT
rootFS  3,50G   166G  3,50G  none
rootVG  3,50G  4,81G  3,49G  /rootVG
2xPIII-500MHz$ 

   Цепляю в другую точку монтирования - для своего удобства, вначале выставляю отстуствие её для этого пула (заметим, в /rootVG оно автоматом примонтировалось, видимо, во время предыдущей операции, также, замечу, что убрать эту точку монтирования надо обязательно - иначе на загрузке вместо "/" пул смонтируется в "/rootVG" - это не совсем то, что нам надо =)):
2xPIII-500MHz$ zfs set mountpoint=none rootVG
2xPIII-500MHz$ 

   Раздел при этом, автоматически отмонтируется - если не было открытых файлов:
2xPIII-500MHz$ zfs list
NAME     USED  AVAIL  REFER  MOUNTPOINT
rootFS  3,50G   166G  3,50G  none
rootVG  3,50G  4,81G  3,49G  none
2xPIII-500MHz$ 

   Монтирую:
2xPIII-500MHz$ mount -t zfs rootVG /mnt/
2xPIII-500MHz$ df -h
Filesystem    Size    Used   Avail Capacity  Mounted on
rootFS        169G    3.5G    166G     2%    /
devfs         1.0K    1.0K      0B   100%    /dev
rootVG        8.3G    3.5G    4.8G    42%    /mnt
2xPIII-500MHz$ 

   Подправляем loader.conf - это надо сделать в любом случае, неважно, были и проблемы с меньшим диском, как у меня, или у вас первый диск был больше/равен второму - ибо предыдущий раз этот файл трогали после зеркалирования, на диске который уже убили:
2xPIII-500MHz$ grep zfs /mnt/boot/loader.conf
zfs_load="YES"
vfs.root.mountfrom="zfs:rootVG"
2xPIII-500MHz$ 

   Товарисчи с большими/равными дисками должны прописать "rootFS" а не "rootVG". Теперь можно перезагрузиться, и посмотреть чё вышло:
2xPIII-500MHz$ df -h
Filesystem    Size    Used   Avail Capacity  Mounted on
rootVG        8.3G    3.5G    4.8G    42%    /
devfs         1.0K    1.0K      0B   100%    /dev
2xPIII-500MHz$ mount
rootVG on / (zfs, local)
devfs on /dev (devfs, local, multilabel)
2xPIII-500MHz$ zpool list
NAME     SIZE   USED  AVAIL    CAP  HEALTH  ALTROOT
rootFS   172G  3,50G   169G     2%  ONLINE  -
rootVG  8,44G  3,50G  4,94G    41%  ONLINE  -
2xPIII-500MHz$ 

   Экспотрируем "rootFS" - чтоб не мешалось:
2xPIII-500MHz$ zpool export rootFS
2xPIII-500MHz$ zpool list
NAME     SIZE   USED  AVAIL    CAP  HEALTH  ALTROOT
rootVG  8,44G  3,50G  4,94G    41%  ONLINE  -

   Создаём раздел в полгига размером - под свап. Тут тоже моё упущение - свап рекомендуют размещщать в начале диска, у меня он получился в середине. Надо было эти действия сделать сразу после создания пула, до переноса данных:
2xPIII-500MHz$ zfs create -V 512Mb rootVG/swap
2xPIII-500MHz$ zfs list
NAME          USED  AVAIL  REFER  MOUNTPOINT
rootVG       4,00G  4,31G  3,49G  none
rootVG/swap   512M  4,81G    16K  -

   Выставляем переменные для раздела - тип файловой системы, и отключаем подсчёт контрольных сумм:
2xPIII-500MHz$ zfs set org.freebsd:swap=on rootVG/swap
2xPIII-500MHz$ zfs set checksum=off rootVG/swap
2xPIII-500MHz$ 

   Дальше, я попытался этот свап подцепить:
2xPIII-500MHz$ zfs mount -a
2xPIII-500MHz$ swapinfo
Device          1K-blocks     Used    Avail Capacity
2xPIII-500MHz$ 

   Неподцепился. Логично - это не файловая система же. Тогда, пойдём обычным путём:
2xPIII-500MHz$ swapon /dev/zvol/rootVG/swap
2xPIII-500MHz$ swapinfo
Device          1K-blocks     Used    Avail Capacity
/dev/zvol/rootVG/swap    524288        0   524288     0%
2xPIII-500MHz$ 

   Дальше по желанию. Диск я буду отцеплять, поэтому на втором убиваю файловую систему:
2xPIII-500MHz$ dd if=/dev/zero of=/dev/ad0 bs=1m count=1
1+0 records in
1+0 records out
1048576 bytes transferred in 0.091236 secs (11493023 bytes/sec)
2xPIII-500MHz$ zpool import rootFS
cannot import 'rootFS': no such pool available
2xPIII-500MHz$ 

   Теперь потестим то, что получилось. Накатил MySQL, apache2, php5, раскатал архив своего форума. Словил жёсткий зависон на попытке получить страницу через fetch. Мда. Ладно. За прошедшие выходные нашёл ещё рамы - 512Mb ECC, которая увиделась как 128. До гига так и не дотянул - получилось 917Mb. Краш-тест, в виде параллельного скачивания форума в 200 потоков система пережила. LA был 160, свап заюзан на 10%.
   Нарисовал в loader.conf такие переменные (получено приблизительной экстраполяцией, и дальнейшей подгонкой значений из стабильно работающей системы с 768Mb рамы), и уменьшил количество ОЗУ до 256Mb:
vm.kmem_size="200M"
vm.kmem_size_max="180M"
vfs.zfs.arc_max="16M"
vfs.zfs.vdev.cache.size="5M"

не упало - тестил переносом всего с однойго пула на другой, через:
cd / && pax -p eme -X -rw . /mnt

Правда, перед тем как вышел на эти значения оно у меня три раза падало. Значит направление мысли было верное. Оттестил ещё раз, запустив в параллель к pax скачиваться форум в 200 потоков, и индексировать базу самого форума. Полёт нормальный.


   Выводы. Работоспособно. Даже на небольшом количестве рамы, и архитектуре x32 можно допилить чтоб работало стабильно. Под amd64 всё и само будет стабильно работать.
   Тем не менее - рамы рекомендуется 1Gb и более и архитектуру amd64 - там работа с памятью грамотней организована.



Ссылка на обсуждение: http://forum.lissyara.su/viewtopic.php?t=21685.

размещено: 2009-11-16,
последнее обновление: 2009-11-16,
автор: lissyara

оценить статью:

vadim64, 2009-11-16 в 14:48:20

Абалдеть! Статья  опередила своё время)))) Пригодится обязательно. Спасибо огромное.

wf, 2009-11-16 в 14:51:33

У себя тоже на таком же железе запускал. Сделал дома шару на самбе. Работало сначала на 128Мб, очень медленно, но работало. На работе поставил на amd64, по самбе всё отилчно, а вот при попытке через nfs сохранить копию винты (с помощью dd) вылетела в панику. Через самбу тоже самое прошло отлично.

Neus, 2009-11-16 в 22:39:05

---
vm.kmem_size=\"200M\"
vm.kmem_size_max=\"180M\"
---
это как так? может поменять 180 и 200 местами все же?

lissyara, 2009-11-17 в 1:15:56

Это именно так, как работает =)

точно не помню какой именно, но достаточно выставить тока один  из этих двух параметров - значение второго ОС использовать уже не будет.

angelas_, 2009-11-22 в 3:40:51

Игнорируется vm.kmem_size_max.

*, 2009-11-22 в 17:02:27

и смысл
сыро как-то ещё))
ufs vs zfs тесты выложите

vadim64, 2009-11-23 в 9:37:24

*, 2009-11-22 в 17:02:27

и смысл
сыро как-то ещё))
ufs vs zfs тесты выложите

)))))))) Ты наверное спутал с оффсайтом. У них иди требуй тесты.

Рома, 2009-12-06 в 20:20:44

Помойму изврат это все, гиг памяти отдать только на то чтоб оно просто не падало когда захочет? Я пешком постою ))

adre, 2009-12-08 в 18:24:09

актуально... не изврат, если нету задач которым это требуется не значит что не надо... тоже самое почему винда мутировала из хп->sp1->sp2->sp3->Vista->win7 ... да и размеры у систем  не такие лоховские как у тесктопов, возьмите prolant HP 4 xeon с четырмя бошками ну и там до жопы оперативки и жесткой памяти...

burzum, 2010-01-02 в 18:40:22

и всёже, хоть преимущества (не только по скорости) неоспоримы, но хотелось бы ссылку на результаты реальных тестов

adre, 2010-01-05 в 10:24:56

хочешь тестов? так сделай, народ обрадуется... =) а то желающих то много, а делать не кто не хочет

Александр Лейн, 2010-02-05 в 11:22:03

2: andre - Тесты имеет смысл делать на "боевом" во всех смыслах железе.

2: lissyara - Большое спасибо за статью! Хоть доков по зфс и навалом, ваша статья многое проясняет.

User, 2010-02-15 в 2:30:54

А как бысть если сейчас настроен gmirror ?

Pendolf, 2010-04-15 в 23:48:24

zpool create rootFS /dev/ad0

Нет прав доступа... ребутнул с включеным ZFS но мать его бут собрало в i386 и пиздец миру настал

Kalabi, 2010-04-22 в 13:20:39

Вопрос, почему же LOADER_ZFS_SUPPORT=YES в make.conf, а не в src.conf.Не имеет значения ?

Klop, 2010-07-02 в 14:02:32

На i386 системах:
echo 'vfs.zfs.prefetch_disable=0' >> /boot/loader.conf

P.S. Прикольная штука: если создать диру в .zfs/, то будем иметь готовый снапшот.
Иначе говоря, есть у нас каталог rootVG/home Можно создать снапшот стандартно: zfs snapshot vrootVG/home@test, и увидеть его по zfs list -t snapshot. А можно так: mkdir vrootVG/home/.zfs/test
Ну и проверяем так же: zfs snapshot vrootVG/home@test.
Можно работать со снапшотами без их монтирования. Вот так вот интересно получается.)))

Klop, 2010-07-02 в 14:15:14

В предыдущем посте, конечно, заменить Ну и проверяем так же: zfs snapshot vrootVG/home@test на Ну и проверяем так же: zfs list -t snapshot, но это мелочи.
Дело в том, что создание/удаление снапшота, как уже писал, прямой работой с .zfs пашет и по NFS. Хотя, а с чего не пахать...))))

fox, 2010-09-19 в 4:40:50

Рана ещё... Для ответственного продакшена нельзя рисковать, разве, что завтра не собираешься увольняться)))
Конечно Лис в своём духи постарался, по импровизировал, приятно было почитать... Но с точки зрения практического применения "тА-АрапиТСя неее надооо..."

chpoqxie, 2010-10-16 в 12:00:02

ага, поддерживаю предыдущего.

навернулся тут zfs при выполнении scrub'а - ни в какую монтироваться не захотел после ребута - виснет фряха и все тут. как только с бубном не плясал - пытаюсь import, и сразу вис. загрузился с инсталляционного диска солярки - zfs влет подхватилась.

сырое оно еще, дико сырое и недоработанное. фряха 8.1.

Мфынф, 2011-07-09 в 8:19:08

ZFS гавно


Оставьте свой комментарий:
Ваше имя:   *
e-mail:  
жирный
наклонный
подчёркнутый
ссылка
цвет
Нынешний год:   *
 


Хостинг HOST-FOOD

2014-07-27, lissyara
gmirror

Удалённое создание софтверного зеркала средствами gmirror, на диске разбитом с использованием gpart. Использование меток дисков для монтирования разделов.
2013-08-20, zentarim
Scan+Print server FreeBSD 9

Настройка сервера печати и сервера сканирования под управлением операционной системы FreebSD 9 для МФУ Canon PIXMA MP540
2011-11-20, BlackCat
Разъём на WiFi-карту

Делаем съёмной несъёмную антену на WiFi-карте путём установки ВЧ-разъёма
2011-09-14, manefesto
Настройка git+gitosis

Настройка системы контроля версия исходного кода в связке git+gitosis+ssh
2011-08-14, zentarim
Wi-FI роутер + DHCP + DNS

Настройка Wi-Fi роутера на Freebsd 8 + DNS сервер + DHCP сервер: чтобы Wi-Fi клиенты были в одной подсети с проводными, проводные и беспроводные клиенты получали адреса автоматически по DHCP, кэширующ
2011-06-15, -ZG-
Охранная система на FreeBSD+LPT

В этой статье описана попытка реализации простой охранной системы на базе FreeBSD с подключением к ней охранных устройтсв на LPT порт и видеорегистрацией.
2011-03-13, terminus
ng_nat

Описание работы ng_nat, практическое использование, достоинства и недостатки в сравнении с ipfw nat
2011-02-20, Капитан
Nagios+Digitemp

Статья описывает создание системы оповещения о превышении температуры в специальных помещениях на основе Nagios с использованием программы Digitemp.
2011-02-17, Le1
Zyxel Configuration

Скрипт для массового изменения конфига свичей Zyxel. Берет из файла iplist список ip-шек, заходит последовательно на каждый и выполняет комманды из файла commands, записывая происходящее в лог файл.
2011-02-16, fox
hast carp zfs ucarp cluster

HAST (Highly Available Storage), CARP, UCARP, ZFS, Cluster настройка и одаптация плюс личные размышления…
2011-02-04, BlackCat
Восстановление ZFS

История о том, как был восстановлен развалившийся RAIDZ ZFS-пул (перешедший в FAULTED) с помощью скотча и подручных средств. Или о том, какие приключения ожидают тех, кто не делает резервных копий.
2011-02-03, Капитан
1-Wire

Статья описывает самостоятельное изготовление контроллера DS9097 для съёма показаний с датчиков температуры DS1820 с помощью программы Digitemp.
2011-01-28, Капитан
Температура в серверной

Статья описывает построение системы наблюдения за температурой в помещении серверной с использованием программы Digitemp и выводом графиков в MRTG
2011-01-21, m4rkell
Syslog server

Как то буквально на днях, у нас завалилось, что то в еве) или не в еве не суть. Суть в том, что когда захотели снять логи с хостов esx обнаружили, что хранят эти негодяи логии только за последнии сутк
2011-01-07, lissyara
Canon/gphotofs

Монтирование цифровых фотоаппаратов Canon (PTP) как файловой системы, автоматизация этого процесса через события devd и внешние скрипты.
2010-12-13, Al
IPSec

Описание принципов работы IPSEC и способов аутентификации.
2010-12-07, manefesto
FreeBSD on flash

Было принято решении переехать на USB Flash и установить минимальный джентельменский набор для работы своего роутера. Делаем =)
2010-12-05, Fomalhaut
root ZFS, GPT

Инструкция по установке FreeBSD с использованием в качестве таблицы разделов GPT и в качестве основной файловой системы - ZFS
2010-09-05, Cancer
Настройка аудиоплеера на ximp3

Цели: Простенький аудиоплеер, для того что бы тетя продавец в магазине утром пришла нажала на кнопку Power и заиграла в зале музыка, так же был доступ по сети, общая шара куда можно заливать музыку, к
2010-08-31, Cancer
Установка и настройка OpenVPN

На днях появилась задача - объединить головной офис и 3 филиала в одну сеть через интернет посредством OpenVPN, чтобы люди могли подключаться через RDP к базам 1С на серверах.
2010-08-25, manefesto
freebsd lvm

Использование linux_lvm для работы с LVM разделами из-под FreeBSD. Проблемы которые возники при монтирование lvm раздела
2010-04-30, gonzo111
proftpd file auth&quota

Proftpd - квоты и авторизация из файлов, без использования базы данных и/или системных пользователей
2010-04-22, lissyara
tw_cli

Пошаговая инструкция по восстановлению RAID на контроллере 3ware, из которого выпал один диск. Настройка мониторинга состояния рейда и отчётов о его состоянии на email.
2010-04-14, fox
MySQL Master+Master

MySQL (Master Master) and (Master Slave) Как настроить репликацию…
2010-03-09, terminus
DNS zones

Краткий ликбез про управление DNS зонами. Примеры проведения делегирования прямых и обратных DNS зон.
2010-03-09, aspera
Squid+AD (group access)

Настройка прокси сервера SQUID с автроризацией пользователей в AD. Разделение пользователей на группы
2010-03-02, BlackCat
Шлюз: Часть 4

Настройка дополнительных сервисов: синхронизация времени (OpenNTPD), клиент DynDNS.org.
2010-03-01, BlackCat
Шлюз: Часть 3

Настройка DHCP и DNS серверов для работы внутри частной сети, c поддержкой внутренних (частных зон) DNS, а так же интеграция DHCP и DNS сервисов.
2010-03-01, BlackCat
Шлюз: Часть 2

Конфигурация МСЭ pf для проброса портов с изменением порта назначения и без, а так же поддержки активного режима FTP и ограничения максимального размера сегмента
2010-03-01, BlackCat
Шлюз: Часть 1

Быстрая настройка шлюза/маршрутизатора с установлением PPPoE-соединения, поддержкой NAT и DNS-forwarding.
2010-02-23, Morty
darkstat

Простая считалка траффика, со встроенным веб-сервером. Очень маленькая, может делать отчеты трафика по хостам, портам, протоколам, а также строить графики
2010-01-23, gonzo111
squid+sams+sqstat

Пилим squid и sams - примеры конфигов с объяснениями. Установка SqStat.
2009-12-19, schizoid
mpd5 + radius + ng_car + Abills

Настройка pppoe-сервера с биллинговой системой Abills и шейпером ng_car
2009-11-16, lissyara
UFS->ZFS

Удалённая миграция с UFS на ZFS. Загрузка с раздела zfs. Настройка для работы с малым количеством памяти под архитектурой i386.
2009-11-13, gx_ua
fusefs-ntfs

Установка, настройка и использование fusefs-ntfs, драйвер NTFS, предназанченного для монтирования NTFS разделов под FreeBSD
подписка

    вверх      
Статистика сайта
Сейчас на сайте находится: 24 чел.
За последние 30 мин было: 116 человек
За сегодня было
13361 показов,
840 уникальных IP
 

  Этот информационный блок появился по той простой причине, что многие считают нормальным, брать чужую информацию не уведомляя автора (что не так страшно), и не оставляя линк на оригинал и автора — что более существенно. Я не против распространения информации — только за. Только условие простое — извольте подписывать автора, и оставлять линк на оригинальную страницу в виде прямой, активной, нескриптовой, незакрытой от индексирования, и не запрещенной для следования роботов ссылки.
  Если соизволите поставить автора в известность — то вообще почёт вам и уважение.

© lissyara 2006-10-24 08:47 MSK

Время генерации страницы 0.056 секунд
Из них PHP: 49%; SQL: 51%; Число SQL-запросов: 77 шт.
Исходный размер: 163163; Сжатая: 29273