Сервер nas своими руками


NAS для дома своими руками

Часть вторая: программное обеспечение

Плюнь в глаза тому, кто скажет, что можно объять необъятноеКозьма Прутков

Ваш домашний NAS должен удовлетворять именно вас, это не production-система, которая обязана обеспечивать некие формализованные показатели. Трудностей при описании такой штуки две. Одна вынесена в эпиграф, а вторая связана с острым дефицитом телепатов. Но я все же попытаюсь высказать некоторые разумные предположения, и они будут проходить по разряду IMHO. Для экономии места «IMHO» далее опускаю. Считаем, что эта метка стоит у каждого предложения. Если же ваш конкретный случай прозреть не удалось — приношу извинения, возможно, вам подойдет другой текст.

Этот же адресован собирающему свой первый NAS, способному поставить Windows, но в глаза не видавшему FreeBSD Handbook или Oracle Solaris ZFS Administration Guide. NAS собирают и IT-продвинутые граждане, они обычно разворачивают полную версию выбранной операционной системы. Интересно, что часть новичков в тему втягивается и со временем делает так же.

Задачи

Во избежание недоразумений сразу же определим, зачем нам NAS.

Первая задача — надежное хранение. Данные должны пережить аппаратную проблему, например выход из строя диска.

Вторая — давать доступ к хранимым данным. Обязательна поддержка SMB/CIFS для Windows, очень желательна NFS (для медиаплееров), FTP (для загрузки больших объемов данных) и AFP (если дома есть Макинтош). Часто упоминается DLNA, об этом отдельно.

Третья — автономное скачивание документов из сети по различным протоколам.

Четвертая — автоматизировать бекап с компьютеров в локальной сети. Семейное фото, видео, созданные вами документы — уникальны и невосстановимы, но дома это все хранится хорошо если в полутора экземплярах: один — на диске ноутбука, половина — на каком-то USB-диске, куда фотки скидывали прошлой осенью. Если (точнее — когда) такие данные пропадут, а NAS позволит их восстановить — вы испытаете искреннее удовольствие от своей прозорливости. Или наоборот.

Требования

Умеренно сложная начальная настройка. Человек в первый же день должен получить работающий вариант. Может, не полностью тюнингованный, но дающий полезный результат. Это, кстати, значит, что набивший руку пользователь должен с начальной настройкой справиться за пару-тройку часов.

Простое и достаточное текущее управление, все необходимое должно делаться через веб-интерфейс. В том числе — сохранение и, если что, восстановление конфигурации. Для специальных, экспертных целей желателен доступ по SSH или подобный.

Прозрачное повседневное использование. С ним должна справляться ваша дражайшая половина с гуманитарным образованием: кино посмотреть на телевизоре, музыку послушать, бекап с ее ноутбука на NAS должен автоматически производиться, и т. п.

DLNA/UPnP

Понять, что именно вам нужно от DLNA-сервера, реально только методом тестирования. Большинство задач среднего пользователя, типа передачи медиа на планшет, решают практически все UPnP-серверы. А по поводу использования DLNA для вывода на телевизор процитирую разработчика HMS, одного из лучших программных UPnP/DLNA-медасерверов: «Для владельцев телевизоров большинства производителей использование данной технологии является временным этапом, который заканчивается или покупкой сетевого медиаплеера (думаю, предпочтительный вариант) или подключением телевизора в качестве монитора. Если время и нервы дороги, то, возможно, стоит пропустить данный этап». Возможности встроенного в телевизор плеера и недорогого отдельного, вроде Дюны, Попкорна или WD, по всеядности, качеству картинки, удобству пользования и пр. обычно разнятся очень сильно. Правда, встроенные плееры быстро прогрессируют, поэтому определяться стоит по конкретному железу.

Дисковые массивы и файловые системы

Зачем нужен массив

Главный вопрос при построении NAS — организация дискового пространства. Как мы выяснили в 1-й части, дисков много, 4-6, иногда 10 и более. Их, конечно, можно использовать и по отдельности. Но объединение в массив удобно тем, что место доступно единым куском. В массиве без избыточности при смерти диска гибнут данные на нем и, часто, в зависимости от реализации, на всем массиве. Вы имеете право, пользуясь аргументом «ничего, перекачаю», экономить на избыточности. Те, кому время дороже, предпочитают массивы с избыточностью. Важно: никакой RAID не заменит бекап. RAID обеспечивает доступность данных в случае сбоя диска. Невосстановимые данные обязательно бекапить. К счастью, их обычно совсем немного.

Термин «массив с избыточностью» часто смешивают с термином RAID. Но доступны и более продвинутые технологии. Выбирая софт для NAS, вы можете использовать их или обойтись без этого. Чтобы понять, что́ больше подходит именно вам — давайте вспомним о проблемах RAID и файловых систем.

Дыра по записи (RAID Write Hole)

RAID 5 (6 и др.) подвержен серьезной проблеме. При записи в массив одновременно должны быть записаны данные и блоки четности. Но запись на несколько дисков не есть атомарная операция. Если в процессе записи возникнет проблема (отключение питания, сбой диска и т.п.), то возможна ситуация, когда данные и блоки четности не будут соответствовать друг другу. Если неправильно записаны данные, то они во многих случаях могут быть исправлены или хотя бы обнаружены при обслуживании файловой системы, расположенной поверх RAID (chkdsk, fsck…). А вот неверные блоки четности в худшем случае могут остаться незамеченными до момента, когда по ним будет восстанавливаться массив. И вместо данных будет восстановлен мусор. Мало того, мусор будет записан безо всяких о том предупреждений. Дополнительную информацию по проблеме можно получить здесь.Рис 1. Дыра по записи в RAID. Слева — данные и блоки четности синхронизированы, идет запись. В центре — сбой по питанию. Справа — данные и блоки четности не синхронизированы, но RAID об этом не знает.

Промышленные RAID-контроллеры решают проблему за счет использования BBU, «батарейки». После сбоя даже при отключенном питании контроллер помнит, какие данные должны были быть записаны. И при появлении возможности записывает эти данные в массив.

Сбой при реконструкции

Пусть у нас есть RAID 5 из пяти 3Т-дисков, в котором один из дисков отказал. Массив надо перестраивать, при этом придется прочитать 4 диска × 3T = 12Т =1,2·1013 байт = 0,96·1014 бит информации, причем независимо от степени заполнения массива — ведь на уровне RAID о файлах ничего неизвестно. Исправные диски пользовательского класса имеют законное право дать один сбой в среднем на 1·1014 бит (см. напр. спецификации WD Red). То есть с очень большой вероятностью мы получим сбой реконструкции просто по спецификации диска. Плюс какая-то вероятность того, что диск действительно сломается. Традиционный рецепт: использовать диски корпоративного класса (с вероятностью сбоя 10−15), не увлекаться емкими дисками и использовать RAID 6. К сожалению, все три совета по цене не очень соответствуют домашним условиям.

Надежная файловая система

Перейдем на один уровень выше, к файловой системе. От нее ждут простой вещи — возможности записать файлы и потом прочитать то, что записано. Парадоксально, но бо́льшая часть ФС этого не гарантирует: они полагаются на идеальную работу оборудования — дискового контроллера, кабеля, самого диска. Аппаратный сбой приводит не просто к потере данных — он приводит к незамеченной пользователем потере данных. Копируете свой фотоархив — а на самом деле часть файлов уже протухла. Узнать об этом можно, сличив контрольные суммы, что мы делаем при перекачке прошивок и подобных не терпящих сбоя данных. А почему бы не сличать контрольные суммы средствами ФС?

Другое «детское» пожелание к ФС — чтобы она работала и не ломалась — тоже толком не выполняется. ФС без журналирования, например FAT или ext2, при сбое способна похоронить все свое содержимое. Журналируемые ФС, например NTFS или ext3, существенно надежнее, т.к. можно найти точку непротиворечивого состояния и воспроизвести журнал. А нельзя ли создать ФС, которая вообще не может попасть в противоречивое состояние? Можно — через Copy-on-Write. Данные пишем не поверх старых, а выделяем новый блок, пишем туда, и если все в порядке — заменяем указатель со старых данных на новые.

Как уже догадался читатель, дальше должны быть примеры ФС с Copy-on-Write. Наиболее отлаженная — ZFS (в production с 2006 года), но можно вспомнить Btrfs, ожидающую релиза под Linux, и ReFS, реализованную в Windows Server 2012.

ZFS

ZFS объединяет функциональность ФС и поддержку RAID-подобных массивов. Распространяется по свободной лицензии (CDDL). Создана Sun Microsystems для Solaris. Портирована во FreeBSD начиная с версии 7.0. Совсем недавно проект ZOL (ZFS on Linux) достиг стадии релиза. Можно ожидать быстрого распространения ZOL, процесс уже пошел. Существует и проект под Mac OS X, ZEVO, см. соответствующий материал.Рис 2. ZFS автоматически сличает контрольные суммы, обнаруживает ошибки и восстанавливает данные, если они сохранены с избыточностью (рисунок с сайта eonnas.com).

Присмотритесь к ZFS, если вам интересна ФС с такими возможностями:

  • хранящая контрольные суммы и не позволяющая считать мусор вместо данных;
  • сохраняющая целостность до такой степени, что утилиты вроде chkdsk или fsck для нее просто нет;
  • снабженная инструментом проверки целостности холодных данных и их автоматической коррекции, если данные сохранены с избыточностью;
  • способная мгновенно создавать снимки своего состояния и хранить их хоть за каждую минуту месяца, монтировать любой набор снимков, откатываться к снимку.

Присмотритесь к ZFS, если вам интересен RAID:

  • программный, т.е. не требующий аппаратного контроллера;
  • аппаратно-независимый, были бы SATA-порты;
  • без Дыры по записи;
  • способный к реконструкции деградированного массива с частично нечитаемыми дисками с потерей только тех данных, для которых нет ни одной копии;
  • работающий при проверке целостности и реконструкции только с полезными данными, а не со всем массивом;
  • с поддержкой аналогов RAID1 (зеркало), RAID5 (избыточность в размере одного диска), RAID6 (двух) и даже «RAID7» (сохраняющий данные при выходе из строя любых трех дисков массива), а также более сложных вариантов, подобных RAID50 или RAID60.

У ZFS есть и недостатки, основные из которых:

  • Нарастить RAID-Z-массив на один диск нельзя. Можно заменить все терабайтные диски на тритеры — и увеличить объем. Можно собрать из 3 (и более) дисков еще один RAID-Z и добавить его к существующему, получив единый пул. Но превратить RAID-Z1 из 5 дисков в RAID-Z1 из 6 можно, только слив куда-то информацию, разрушив массив и создав новый.
  • Массив нельзя уменьшить. Можно только увеличивать — добавлять группы дисков, менять диски на бо́льшие.
  • Ресурсоемкость. ZFS постоянно считает контрольные суммы, что создает нагрузку на процессор и использует под кеши память. Дома у меня работало с Atom 330 и 2 ГБ памяти. Хотя при использовании ZFS этого Атома для полной утилизации гигабитной сети мне не хватало, но 40-50 МБ/с многих устроит.

Да, еще: если разрушить ZFS и создать из тех же дисков новый массив (то есть дать пару команд и/или понажимать кнопки в веб-интерфейсе, в обоих случаях игнорируя предупреждения), то данные с разрушенной ФС будут надежно похоронены — в отличие от, например, NTFS, данные с которой относительно просто восстановить и после пересоздания таблицы разделов. Считать ли это недостатком — зависит от точки зрения.

По мнению автора, плюшки, предоставляемые ZFS, настолько вкусные, что за них стоит заплатить дополнительными требованиями к железу. И строить NAS стоит только с ZFS. Но читатель имеет фундаментальное право на свободный выбор. Этот выбор будет определяющим при выборе софта для NAS, поэтому его стоит сделать осознанно.

ReFS + Storage Spaces

В Windows Server 2012 Microsoft предложила ФС ReFS и систему управления томами Storage Spaces. Связку ReFS и Storage Spaces можно считать до некоторой степени аналогом ZFS, причем со свойствами, не реализованными в последней. Интересны гибкость удаления-добавления дисков, thin provisioning и др. Недостатки тоже есть — это собственническая лицензия, доступна только в составе Windows Server 2012 и Windows 8.1.

Плохо, что, судя от отзывам тестировавших, производительность связки ReFS—Storage Spaces ощутимо, в разы, падает при использовании вариантов с четностью, то есть, грубо, аналога RAID5 или ZFS RAID-Z. Еще хуже, что появились первые сообщения о потере данных из-за сбоев ReFS, причем официальная поддержка не решила проблем. Так что интересному решению, похоже, стоит дозреть.

Btrfs + mdadm

Официально Btrfs для Linux пока не получила статуса релиза, хотя разрабатывается с 2007 г. Подобно подавляющему большинству ФС (и в отличие от ZFS), это именно файловая система, создаваемая поверх блочного устройства. Чтобы получить, грубо, аналог ZFS, нужно добавить, например, хорошо отлаженный mdadm, одна из возможностей которого — перестройка RAID при добавлении диска без потери данных.

Традиционные ФС

И, конечно, существование продвинутых ФС не заставляет вас выбрать одну из них. Возможно, вам для NAS больше подойдет NTFS, ext4 или UFS — родная ФС для выбранной вами оси. На относительно слабом железе этот выбор может оказаться единственным.

Варианты программного обеспечения

Рис 3. Примерный алгоритм выбора софта для домашнего NAS
Из чего и как выбирать

Хочу порекомендовать скачать VirtualBox, установить туда несколько приглянувшихся вариантов и в течение нескольких дней потыкать каждый палочкой. На виртуалке это дешевле, проще и быстрее, чем на реальном железе. Серьезно экономит нервы. Особенно если ни один из вариантов вам не понравится.

Как софт самосборного NAS можно использовать три группы программных продуктов.

Во-первых, можно поставить полную операционную систему. Это может быть Linux, UNIX или Windows в зависимости от личных потребностей и предпочтений. Windows представляется более знакомой, *nix дает больше NAS за те же деньги, но конфигурирование *nix с нуля — задача не для новичка.

Для такого новичка создан вариант номер два — преконфигурированные специально под NAS сборки. Они включают набор сервисов и веб-интерфейс, позволяющий новичку справиться с настройкой и использованием продукта без командной строки.

Наконец, третий вариант — установка полной операционной системы, а поверх нее — некоего веб-интерфейса для настройки и управления. Вариант компромиссный, промежуточный. Упрощает использование, но никак не до уровня, достаточного для неискушенного любителя. А продвинутые граждане всякие надстройки обычно недолюбливают. Мы начнем с вариантов для простых смертных.

Windows

В профильной ветке проводился опрос об используемой форумчанами в самосборных NAS операционных системах, и Windows досталось третье место с результатом чуть ниже 20%. Конечно, голосовали и более продвинутые камрады, но их точно было не большинство.

Результат, способный удивить. Windows — наиболее знакомая большинству операционная система. На ее основе можно сделать NAS — в конце концов, 20% опрошенных это сделали. Причина скромной цифры в том, что у использования Windows в качестве оси NAS есть не только достоинства, но и недостатки:

  • Windows — платный софт, конкурирующий с во многом более функциональным для конкретных задач свободным.
  • Поддерживает существование вирусов, что требует постоянной загрузки антивирусных баз.
  • Требует постоянного применения апдейтов, а после них часто нужна перезагрузка. Нельзя сказать, что все *nix-системы могут работать без вмешательства и перезагрузки годами. Но многие — могут.
  • Windows — графическая система, для естественного ее функционирования нужен монитор, клавиатура и мышь. NAS обычно их лишен. Но конечно, существуют средства, решающие проблему.
  • Windows требователен к ресурсам.
  • Дисковые массивы и контрольные суммы на уровне файловой системы — не самое сильное место Windows, особенно в настольных вариантах.

Недостатки не смертельные, их можно преодолеть, обойти, игнорировать, в конце концов. Но достаточные, чтобы рассмотреть и другие варианты. И обнаружить у них свои достоинства, и совершить массу открытий, иногда не желая того.

Приводя же неполный список достоинств Windows, помимо привычности можно упомянуть:

  • Родная высокоскоростная реализация SMB.
  • Совместимость с железом. Драйвера для Windows пишут обязательно.
  • Широкий выбор софта. То есть для NAS обычно большого выбора и не нужно. Но чем более специфичны ваши требования, тем больше вероятность, что их удастся решить именно софтом под Windows.
  • Огромное множество инструкций и решений на все случаи жизни, на родном языке.

NAS на Windows вполне возможен. Но тема настройки Windows раскрыта во многих источниках, что позволит автору рискнуть воздержаться от ее обсуждения.

Готовые *nix-сборки для NAS

Наиболее популярны в профильной ветке три сборки — NAS4Free, OMV (=openmediavault) и FreeNAS 8.x. Все нацелены на средней продвинутости любителя и позволяют либо из коробки, либо путем загрузки плагинов удовлетворить типовые потребности.

С торговой маркой FreeNAS связана история, вызывающая путаницу. Продукт FreeNAS развивался долгие годы, а затем по ряду причин разделился. Широко известное название, являющееся торговой маркой, попало в собственность компании iXsystems, которая решила полностью переписать код, а исходную разработку закрыть. Так появился FreeNAS 8.x, основанный на FreeBSD 8.x. Однако оригинальный проект силами энтузиастов выжил, был перенесен на FreeBSD 9.x и успешно развивается под именем NAS4Free. Как результат, апгрейд с сохранением настроек с FreeNAS 0.7 поддерживается в NAS4Free, но не поддерживается во FreeNAS 8.

Детальное, в том числе русскоязычное, описание установки и конфигурирования сборок можно найти в FAQ профильной ветки и на специализированном сайте, поэтому здесь текст мы сэкономим.

Официальные аппаратные требования для этих трех продуктов сведем в таблицу, тем более что они не так легко гуглятся.

ПродуктПроцессорОперативная памятьСистемный накопитель
NAS4Free 9.x, c ZFSx86, x86-64минимум 512 МБ, рекомендуется 4+ ГБ400 МБ (остальное доступно для данных)
NAS4Free 9.x, без ZFSx86, x86-64256 МБ для full, 384 МБ для embedded, 512 МБ рекомендуется400 МБ (остальное доступно для данных)
FreeNAS 8.x, с ZFSx86-646+ ГБ2 ГБ и более (будет занят целиком)
FreeNAS 8.x, без ZFSx86, x86-644 ГБ2 ГБ и более (будет занят целиком)
OMVx86, x86-641 ГБ2 ГБ и более (будет занят целиком)

И, естественно, нужны диски для хранения данных. Похоже, разработчики FreeNAS указывают не требования, чтобы только начало работать, а чтобы работало производительно. Во всяком случае, в руководстве по эксплуатации при установке на виртуальную машину указан минимальный размер оперативной памяти в 512 МБ.

NAS4Free

NAS4Free распространяется по свободной лицензии BSD. Проект имеет многолетнюю историю (происходит от m0n0wall, FreeNAS 0.7, 0.6 и ранее), старшая цифра текущей версии — 9. То есть сборка неплохо вылизана, но продолжает развиваться. Основана на последнем релизе FreeBSD 9.1. Рис 4. Вид веб-интерфейса NAS4Free (больше скриншотов)

NAS4Free скомпилирована в двух версиях, для 32- и 64-разрядных Intel x86-совместимых процессоров. Использовать NAS4Free можно тремя способами: LiveCD/LiveUSB, full и embedded. Режим «живого диска» традиционен для *nix-дистрибутивов и предназначен прежде всего для ознакомления. При реальном использовании обычно производят установку. Вариант full — традиционная установка, обычно на жесткий диск. Для установки используется небольшой раздел, размер которого задается при установке, и swap-раздел, а остальная часть диска доступна для данных. Поставить full на USB-флешку можно, но из-за интенсивной записи флешка за несколько месяцев износится.

Для установки на USB-флешку предназначен вариант установки embedded. При старте системы создается небольшой диск в памяти, куда копируется образ системы и тут же настраивается по параметрам, собранным в единственный конфигурационный файл XML. А затем производится загрузка с этого диска в памяти. Такой подход имеет достоинства. Систему очень удобно разворачивать — системную флешку можно записать на другой машине. Состояние системы собрано в одном текстовом файле, так что его очень легко сохранять и, при необходимости, использовать для восстановления системы. Диск в памяти очень быстр, а системная флешка практически не изнашивается.

Недостаток в том, что почти любые изменения, внесенные в систему иначе, чем через веб-интерфейс, теряются после перезагрузки. Частично разработчики решили проблему, предоставив в веб-интерфейсе возможность сохранения множества параметров. Частично проблему можно обойти за счет применения трюков вроде объединения через unionfs папки диска в памяти и папки на реальном носителе и использования автоматически запускаемых командных скриптов. Более продвинутые пользователи используют виртуализацию, чтобы ставить в jail или отдельные виртуальные машины все что угодно, хоть пару-тройку Windows. Расширение TheBrig серьезно облегчает настройку и использование jail для установки дополнительного софта. Но это все же требует знаний, сравнимых с необходимыми для развертывания полной системы. А новичку правильнее считать, что в NAS4Free есть только те сервисы, что включены изначально, всё настраивается через веб-интерфейс, и добавлять ничего нельзя.

Список того, что есть «из коробки»:

  • WebGUI (управление и настройка);
  • Диски и массивы: ZFS v28 (зеркало, RAID-Z 1, 2, 3…), софт-RAID 0, 1, 5 и смесь (1+0, 1+1 и т.п.), шифрование дисков (с использование аппаратного ускорения, если присутствует), файловые системы ZFS, UFS, ext2/3, FAT, NTFS, iSCSI-инициатор;
  • Сетевые протоколы и службы: SMB/CIFS (Samba) — для Windows-машин, AFP (Netatalk) — для Mac OS, NFS — для *nix, FTP (ProFTPD), TFTP (tftp-hpa), Rsync (client/server) — мощный инструмент, в том числе для бекапа, SCP (SSH), iSCSI-таргет;
  • Сервисы: UPnP server (FUPPES — надо признаться, средненький), Webserver (lighttpd), Network bandwitdh measure (Iperf), Bittorent client (Transmission);
  • Мониторинг: S.M.A.R.T (smartmontools), E-mail alert, SNMP, Syslog, UPS (NUT).

Можно видеть в списке практически все, что может понадобиться от домашнего NAS. Но наиболее важным достоинством является использование файловой системы ZFS. Относительно слабым местом NAS4Free является комплектный UPnP/DLNA-медиасервер. По личному опыту, он вполне рабочий и удовлетворит большинство потребностей, но если нужны специальные плюшки, приходится искать что-то другое.

Детальные, с картинками, инструкции по настройке я написал и опубликовал. Описана как базовая настройка, так и ухищрения вроде установки homemediaserver в виртуальную Windows-машину или TorrentMonitor в jail для автоматической загрузки сериалов по мере выхода обновлений.

FreeNAS 8

FreeNAS 8 — сборка на базе FreeBSD 8.3, созданная и развиваемая компанией iXsystems. Компания разрабатывает также платную версию. Долгое время бесплатная FreeNAS была искусственно серьезно ограничена. Вышедшая в октябре 2012-го версия FreeNAS 8.3 существенно доработана и обеспечивает необходимую для домашнего NAS функциональность. У FreeNAS прекрасная англоязычная документация. Коммерческие корни продукта прослеживаются и в высоких аппаратных требованиях (6+ ГБ RAM), и фокусе на используемую в бизнесе функциональность. Типично домашние сервисы, такие как битторрент и UPnP/DLNA-медиасервер, реализуются как дополнительные модули, каждый в собственной клетке (jail). Работа с jail ведется через пользовательский интерфейс и, как и весь проект, прекрасно документирована.

UPD: FreeNAS 9. Совсем недавно, 5 августа 2013 г., выпущен релиз FreeNAS 9.1.0, а 27 августа — содержащий коррекции ошибок релиз 9.1.1 Новая версия использует FreeBSD 9-Stable и, по мнению разработчика, содержит значительные улучшения в области стабильности, расширяемости, простоты использования и производительности. Мы планируем протестировать производительность в 3-й части статьи. Аппаратные требования FreeNAS 9.x по сравнению с FreeNAS 8.x не изменились. Рис 5. Вид веб-интерфейса FreeNAS 8 (больше скриншотов)

FreeNAS 8 устанавливается на флешку объемом не менее 2 ГБ и занимает ее целиком. Используется nanoBSD-образ, разворачиваемый в оперативную память, что предохраняет флешку от износа. Хотя существует и 32-разрядная версия, она скорее предназначена для ознакомления. Для реальной эксплуатации рекомендуется 64-разрядная версия, в частности из-за требований к объему памяти, несовместимых с 32-разрядной архитектурой.

Функциональность «из коробки» близка к функциональности NAS4Free. Отличие в доступности двух UPnP-серверов на выбор (FUPPES и miniDLNA) и отсутствии веб-сервера (разработчики обещают со временем добавить его).

Созданные в NAS4Free дисковые ZFS-пулы могут быть импортированы во FreeNAS и наоборот с сохранением данных. В профильной ветке пользователей FreeNAS 8 немного, и некоторые жалуются на проблемы (см. FAQ ветки). Впрочем, еще не создано программного продукта, на который бы хоть кто-то не жаловался.

OMV

OMV (ветка на форуме iXBT.com) основан на Debian Linux, что обеспечивает богатейшую функциональность и расширяемость. Продукт создан и поддерживается Volker Theile, в прошлом одним из ведущих разработчиков FreeNAS. Распространяется по открытой лицензии GPL.

Поддержки ZFS в продукте нет, и она, по заявлению разработчика, не планируется, что и представляется его главным недостатком. В сети можно найти хак по установке zfsonlinux на OMV. Рис 6. Вид веб-интерфейса OMV (больше скриншотов)

OMV устанавливается на жесткий диск или USB-флешку, при этом занимает носитель полностью. Такая инсталляция не выглядит оптимальной ни для диска, ни для флешки. Странно использовать весь жесткий диск под систему, которой нужен всего гигабайт. Боязно устанавливать на флешку продукт, интенсивно на нее пишущий. Однако для обеих проблем энтузиастами разработаны хаки, решающие эти проблемы: специальный скрипт выносит каталоги с интенсивной записью в память, а несложное редактирование дистрибутива позволяет создать на системном диске раздел для данных.

Описывать функциональность OMV особого смысла нет. Базовая функциональность, аналогичная NAS4Free и FreeNAS, за примечательным отсутствием ZFS, доступна из коробки или как набор дополнительных модулей. Но OMV — по сути своей Debian, вариант Linux, для которого существует неимоверное множество приложений. Их можно устанавливать стандартным для Linux способом.

Важным преимуществом OMV над упомянутыми выше сборками является возможность утилизации гигабитного канала на достаточно слабом железе, таком как Intel Atom с гигабайтом памяти (ср. сборку padavan в первой части статьи).

Другие варианты

Кроме трех наиболее популярных сборок существует множество других. Платные варианты автором практически не рассматривались, популярность у них невелика. Можно упомянуть unRAID, бесплатный в базовой версии, до 3 дисков, и не запретительно дорогой в платных. Это не совсем NAS, но решение, позволяющее держать домашнюю файлопомойку на разнокалиберных дисках, в том числе форматированных в NTFS, а также добавлять диски в систему. При этом за счет наличия диска четности данные выживают при смерти одного любого диска.

Многие бесплатные сборки находятся на ранней стадии развития, не позволяющей использовать их любителем. Как потенциально интересный пример можно привести MyNAS. Это Linux(CentOS)-проект с интеграцией zfsonlinux. Если (и когда) автор доведет продукт до релиза, он может стать интересной альтернативой.

Множество сборок для NAS растут корнями из корпоративного применения. Для дома это может быть минусом. Полбеды, что акцент делается на функциональности, дома малоинтересной. Хуже, что необходимая из коробки отсутствует, а добавить ее затруднительно. Чаще всего в таких сборках не хватает торрент-клиента и DLNA-сервера. Пример — Openfiler, отличающийся еще и платностью документации.

Если вам, как и автору этих строк, наличие ZFS кажется обязательной функциональностью NAS, то рано или поздно внимание обращается к вариантам, растущим корнями из Solaris. На все Solaris-деривативы наложило печать удушение OpenSolaris со стороны Oracle после покупки Sun. Большинство пережили трудный этап, перейдя на кодовую базу Illumos, некоторые вымерли, но это другая тема. Вариантов здесь несколько, например EON. Плюсы — производительность при несколько меньших аппетитах к железу по сравнению с вариантами на FreeBSD и Linux. Минусы — более узкий список аппаратной и программной совместимости и относительно высокие требования к администратору. Настолько высокие, что обычно значительно проще развертывать систему на полной ОС.Рис 7. Здесь покоится OpenSolaris (с сайта zdnet.de)

Особняком стоит использование на стандартном железе модифицированного софта от покупных NAS. Автор не юрист, чтобы всесторонне оценить детали применения лицензий, поэтому на всякий случай обойдемся без ссылок. Но для не-юриста картина выглядит очень похожей на ситуацию с OpenWRT. Оригинальные прошивки написаны производителями NAS на базе открытого кода с лицензией GPL. По этой же лицензии результат опубликован в исходных кодах. Энтузиасты, снова по лицензии GPL, берут этот код, модифицируют его и публикуют результат. Этот результат представляет собой в целом рабочую сборку на основе Linux, которую можно установить на голое железо, виртуальную машину или подходящий NAS другого производителя. Последнее, кстати, практикуется уже много лет и до сих пор не прикрыто — вероятно, как раз из-за отсутствия юридических нарушений в такой практике. Достоинство у такого варианта ценовое, но есть и недостатки. Во-первых, помимо GPL-кода в составе покупного NAS используется и собственнический, в основном для связи с железом. Поэтому у таких сборок есть проблемы по переходу в спящий режим, экономии электроэнергии, регулированию шума вентиляторов и т.п. Во-вторых, покупной NAS ведущего производителя — это еще и интернет-сервисы, предназначенные, естественно, только для покупателей, а не для всех желающих. Так что ровно то же самое в результате установки такой сборки не получается, скорее это вариант пощупать, в том числе и в виртуалке.

Веб-интерфейс на полную ОС

Более-менее активно участники профильной ветки используют ZFSguru и napp-it. Несомненно, существуют и другие продукты, начиная с webmin. Но они меньше подходят (или совсем не подходят) для обсуждаемых целей. Да и автор с ними не сталкивался, см. эпиграф.

ZFSguru

ZFSguru использует FreeBSD. Продукт на сегодняшний день представляет собой удобный инсталлятор FreeBSD, позволяющий установить полную систему на ZFS-пул, например на зеркало, сконфигурировать пулы данных и получить качественный полуфабрикат NAS. Полуфабрикат — потому что часть базовой для NAS функциональности пока не реализована и запланирована на неопределенное будущее. Руками придется ставить подключение к UPS, сетевой доступ к файлам и пр. Качественный — потому что то, что уже сделано — сделано хорошо.

napp-it

Проект napp-it по уровню готовности выглядит редким исключением. Продукт позволяет буквально несколькими нажатиями кнопок превратить чистую установку Solaris-подобной операционной системы в NAS с ZFS. В текущей версии рекомендуется использование OmniOs или OpenIndiana, поддерживаются с некоторыми ограничениями Nexenta, Illumian и Oracle Solaris 11.1. Секрет, видимо, в том, что разработчики удачно коммерциализировали продукт. Базовая функциональность бесплатна, бесплатны и расширения для домашнего использования, прежде всего UPnP-сервер Mediatomb. Расширения сугубо корпоративного назначения — платные. По результатам непродолжительных испытаний автором на виртуалке впечатления остались положительные. Но солярка есть солярка. В репозитариях даже transmission весьма бородатый, а более-менее современный надо собирать, на что автору кривизны рук не хватило. Камрад padavan где-то на форуме описывал пассы с бубном, которые позволили ему решить проблему, но, как говорится, что позволено Юпитеру, то не дано быку. Так что хотя napp-it и здорово добавляет дружественности NAS на базе Solaris, без заметного UNIX-опыта в эту тележку лучше не впрягаться.

Полная *nix-система

Тут — коротко. Ученого учить — только портить. Серверный *nix-продукт с нуля дома поднимают либо люди с профессиональным опытом, либо продвинутые любители, хобби которых уже не умещается в песочницу готовой сборки (или коробки) с пришиванием к ней рюшечек. Судя по профильной ветке, работают с самым разнообразным софтом. Зачастую совмещая через виртуализацию сильные стороны и/или развитую функциональность продуктов под разными ОС.

Виртуализация в NAS

Использование виртуализации в NAS — практика для продвинутого пользователя естественная. Наверное, простейший вариант — установить на NAS VirtualBox с PHP-веб-интерфейсом и поднять несколько виртуальных машин, делающих то, что в основной оси делать трудно или нецелесообразно. Прежде всего, запустить более-менее экзотический софт. Для NAS4Free и OMV написаны специальные расширения, делающие виртуализацию посильной любителю. Разумеется, VirtualBox можно поставить и на практически любую полную ось. Задача управления виртуальной машиной через монитор, мышь и клавиатуру десктоп-компьютера решается еще проще, в том числе с использованием VNC-клиента. Недостатком VirtualBox является значительное падение производительности по сравнению с системами на голом железе.

Второй вариант — мягкая виртуализация через FreeBSD-клетки (jails). Владельцы систем на полных осях чаще используют клетки по прямому назначению, для изоляции потенциально опасных процессов, типа веб-сервера, доступного извне. В сборках механизм клеток используется для того, чтобы обойти ограничения на установку дополнительных программ. Во FreeNAS это коробочная функциональность, для NAS4Free написано расширение (TheBrig), интегрирующееся в веб-интерфейс.

Наконец, выходящий за рамки NAS вариант виртуализации, довольно популярный в профильной ветке, называется с подачи разработчиков «все-в-одном». Кратко — на железо устанавливается ESXi, в нем поднимается виртуальная машина, единственной задачей которой является создание ZFS-хранилища. Для этого внутрь нее пробрасывается дисковый контроллер, а дисковое пространство экспортируется по файловым и блочным протоколам для других виртуальных и реальных машин. Если вам непонятно, зачем такие извращения — оно вам точно не нужно.

Итого

Если вы хотя бы по диагонали прочитали столько букв, то на 99,9% с созданием домашнего NAS вы справитесь. Было бы желание. Успеха, и если что — обращайтесь в профильную ветку.

Хотелось бы выразить благодарность всем участникам профильной ветки на forum.ixbt.com, в том числе камрадам bormental, Krey, ZanZag, Oleg Pyzhov, Sergei V. Sh, TPAKTOP, iZEN и RU_Taurus за множество полезных комментариев.

Особая благодарность разработчикам свободного софта: Olivier Cochard-Labbé, Daisuke Aoyama, Michael Zoon, Volker Theile и многим другим. Они сделали возможным само существование темы «NAS своими руками».

www.ixbt.com

NAS своими руками | NAS-сервер из старого ПК

Этот небольшой мануал поможет вам собрать полноценный NAS сервер из старого компьютера. Если вы готовы купить новые комплектующие и сделать свое файловое хранилище компактным и придать ему более современный вид и функциональность, то для вас больше подойдет статья «Сборка NAS-сервера. Подбор компонентов», ну а любителям готовых решений я подготовил этот материал: «Выбираем домашний NAS-сервер». Теперь вернемся к старому ПК и оценим его возможности.

Требования к старому ПК

  • SATA разъемы на материнской плате, так как HDD c этим интерфейсом обладают наилучшим соотношением цена/производите-льность и имеют гораздо больший объем, в отличии от  IDE винчес-теров.
  • Количество разъемов для подклю-чения жестких дисков на мате-ринской плате и свободных слотов в корпусе (возможность установить HDD в  5,25-дюймовые отсеки (специальные боксы)) Для сборки HTPC я использую такие боксы с 2-мя слотами под 2.5″ HDD.
  • При недостаточном количестве SATA-штекеров на блоке питания можно воспользоваться специальными переходниками IDE-SATA.

Процедура установки HDD в корпус

Чтобы установить 3,5-дюймовые жесткие диски в 5,25-дюймовые отсеки для оптических приводов поместите их в специальный бокс (см. рис).

Такие корпуса также могут быть выполнены в виде направляющих, которые крепятся с обеих сторон к HDD.

Еще можно воспользоваться пятидюймовым отсеком, в который инсталлирован оптический привод, так как его необходимость отпадает в серверном решении.

Установка программного обеспечения

Для реализации серверного решения будем использовать ПО FreeNAS.  Скачайте ISO-образ по ссылке для 32-битной или 64-битной системы и запишите на минимальной скорости на диск CD-R\RW. Если нет болванки можно установить на флешку, как сделать загрузочную флешку написано в этой статье. Временно подключите к ПК дисковод (который сняли ранее или воспользуйтесь USB приводом). Зайдите в BIOS и установите в разделе Boot загрузку с дисковода. После установки программного обеспечения и перезапуска ПК запомните его IP-адрес, который будет указан на экране.

Настройка NAS сервера

Подключите NAS-сервер к своей сети. Откройте браузер вашего рабочего компьютера в этой сети и введите в адресной строке: http://»IP-адрес вашего NAS». В появившемся окне введите имя пользователя — admin и пароль — freenas. Перейдите в меню «Storage | Volumes | Create Volume» и выберите жесткие диски, которые будут образовывать RAID-массив. Далее активируйте файловую систему ZFS.

Можно использовать:

  • RAID 0 — дисковый массив повышенной производительности, без отказоустойчивости.
  • RAID 1 — зеркальный дисковый массив, имеет высокую надежность

Будем использовать RAID 1, как более надежный. Теперь нажмите «Add Volume» для форматирования ваших дисков в массив.

Доступ к NAS серверу в локальной сети

Чтобы открыть доступ к серверу перейдите в меню «Services | Control Services», задействуйте службы CIFS и настроить доступ в разделе «Sharing | Windows Shares». Как и к любому сетевому носителю локальной сети доступ осуществляется  с помощью Проводника Windows (например, \\NAS для доступа к корню или \\NAS\Photos для доступа к определенной расшаренной папке). Также можно сделать ярлыки, нажав на кнопку «Подключить сетевой диск» в окне Компьютер (Windows 7) под строкой проводника.

P.S. Вы всегда сможете сделать дополнительный массив, добавив жесткие диски, а также можно настроить доступ для удаленного использования вашего NAS сервера.

Немного информации об опасности использования RAID

RAID — это избыточный массив независимых жестких дисков. RAID — это не система хранения резервных копий, он лишь помогает повысить комфорт доступа к данным. RАID-система представляет собой набор HDD, объединенных в один массив. Если ваш жесткий диск вышел из строя его можно заменить, а после восстановить RAID и ваши данные будут с вами, исключая массив RAID 0.

Недостатки RAID 0

Данный режим дает лишь скорость доступа к данным. В Striping Mode (режим чередования) данные разбиваются на блоки и записываются одновременно на несколько жестких дисков. При поломке одного жесткого диска все данные будут потеряны.

Недостатки RAID 1

В режиме RAID 1 применяется метод зеркалирования данных, то есть на втором диске располагается идентичная копия данных. Есть одно уязвимое место — возможная неисправность контроллера, которая приведет к повреждению обоих носителей.

Недостатки RAID 1 и RAID 5

В процессе восстановления RAID скорость записи высока и после выхода из строя какого-нибудь жесткого диска, она может стать причиной отказа другого HDD, а, следовательно, и потери данных.

Также неисправный RАID-контроллер может привести к выходу из строя HDD. В RAID-массивах изменения применяются к файлам и при случайном удалении или изменении данных, действия необратимы.

mediapure.ru

Еще один NAS своими руками, часть 1: из того, что было

В среднем, очередной пост про NAS появляется примерно раз в полгода, и рассказывает о том, как поставить систему по документации. Мы усложним задачу, привязав ее к реальному проекту и ограничив бюджет. Кроме того, мы еще и попытаемся подстелить себе соломку в тех местах, куда не еще не ступала нога молодого сисадмина, а также разрушим несколько отраслевых мифов. Эта статья не для специалистов по серверному хранению данных, геймеров и прочих оверклокеров. На вас, коллеги, и так вся индустрия работает. Она для начинающих сисадминов, любителей UNIX-систем и энтузиастов свободного программного обеспечения. У всех накопилось старое железо. Всем нужно хранить большие объемы дома или в офисе. Но далеко не у всех есть простой доступ к серверным технологиям. Я очень надеюсь, что вы найдете для себя несколько полезных идей и все-таки научитесь на чужих ошибках. Помните: система стоит не столько, сколько вы заплатили за железо, а сколько вы вложите потом времени и сил в тестирование и эксплуатацию. Если не хотите читать — посмотрите ссылки и выводы в конце; может, и передумаете.

DISCLAIMER
Информация предоставляется AS-IS без какой-либо ответственности за ее использование кем-либо, где-либо и когда-либо. Все ненароком упомянутые торговые марки являются собственностью соответствующих владельцев. Некоторые из них в рекламе уже настолько не нуждаются, что я придумываю им шуточные названия.
Благодарности
Респект Андрею Александровичу Бахметьеву, инженеру и изобретателю. Я горд, что Андрей Александрович преподавал для меня в институте! Желаю ему всяческих успехов в его проектах!
Задача
Итак, есть малый бизнес-стартап, генерирующий порядка 50Гб файлов в неделю, с необходимостью их архивного хранения в течение нескольких лет. Файлы крупные (порядка 10-20 Мб каждый), обычными алгоритмами не сжимаемые. Начальный объем данных порядка 2Тб. Совсем старые данные можно хранить в оффлайне, подключая по требованию.

Нужно уложиться в весьма скромный начальный бюджет решения 500 евро (в ценах лета 2013) и двухнедельный срок на сборку и тестирование.

За эти деньги нужно построить систему, которая позволит работать с файлами небольшой группе в одной локальной сети с разных платформ (Windows, Mac OS). Требуется длительная работа без сисадмина на площадке, защита от отказов и базовые функции управления правами доступа.
Традиционные пути
Безусловно, можно купить сетевое хранилище: их делают NetApp, QNAP, Synology и другие игроки, и притом делают неплохо даже для малого бизнеса. Но наши 500 евро – это только начало разговора для пустой коробки, без самих дисков. Если у вас есть 1000-2000 евро, лучше купите готовое изделие, а мы попробуем максимально заплатить знаниями и минимально — временем и деньгами.

UPD (спойлер ред. 2 от 2014-03-08):

Если собираете из нового железа, а не из хламаПо совокупности этого поста и его комментариев, любезно предоставленных хаброкомьюнити, предлагаю следующий алгоритм для простой четырехдисковой системы:
  1. Если двойного размера самой ёмкой из доступных моделей диска не хватает для хранимых данных, прекращаем читать спойлер (пример: модель 4Тб, требуется хранить 7Тб данных, тогда продолжаем; если требуется хранить 10Тб, тогда прекращаем)
  2. Выбираем изделие из линейки MicroServer известного производителя серверов Харлампий-Панкрат; например, n36l, n40l, n54l, с четырьмя отсеками для дисков (главное, чтобы была поддержка ECC-памяти)
  3. Обязательно комплектуем наш сервер памятью с контролем четности (ECC) из расчета 1Гб на каждый 1Тб хранимых данных, но не менее 8Гб (по рекомендации FreeNAS для дисков до 4Тб получается как раз всего 8Гб)
  4. Если у нас нет ECC-памяти, немедленно прекращаем читать этот спойлер, читаем пост до конца
  5. Выбираем производителя дисков, используя актуальный обзор отказов; например, вот этот: http://habrahabr.ru/post/209894
  6. Выбираем недорогую линейку SATA дисков с обязательным наличием ERC, а зачем, читаем здесь: http://habrahabr.ru/post/92701
  7. Выбираем ёмкость дисков (2Тб, 3Тб или 4Тб) из расчета, что их будет четыре, и что доступной для данных будет только половина (вторая половина на избыточность RAID)
  8. Перед закупкой еще раз внимательно и досконально проверяем совместимость железа между собой, количества слотов, отсеков, планок и прочего, но для FreeNAS самое главное — поддержка всего железа актуальным ядром FreeBSD
  9. Выбираем хорошую загрузочную флэшку, прочитав продолжение данного поста (часть 2: хорошие воспоминания)
  10. Закупаем, вдыхаем ароматы нового железа, собираем, подключаем, запускаем; для ZFS обязательно выключаем все аппаратные RAID'ы
  11. Создаем том RAIDZ2 из четырех дисков, обязательно с двойной избыточностью (на размерах тома около 12Тб есть риск повстречать злобного URE, читайте о нем в этом посте; если мы не боимся URE и все-таки собираем RAIDZ на четырех дисках, проверяем размер физического сектора — на современных дисках он 4Кб, и в этом случае получится совершенно нелепый страйп 43Кб, который еще и просадит нам скорость массива: forums.servethehome.com/hard-drives-solid-state-drives/30-4k-green-5200-7200-questions.html)
  12. Соль, сахар, перец, jail'ы, шары, скрипты и тому подобную сметану добавляем по вкусу

А как же облачное хранение, спросите вы? На момент написания этой статьи популярные облачные хранилища для наших объемов выглядят дороже, чем хотелось бы. Например, стоимость хранения неограниченного объема данных 36 месяцев на известном сервисе Брось Бокс обойдется в пару тысяч долларов с лишним, хотя и выплачивать их можно постепенно. Конечно, есть сервисы вроде Amazon Glacier (благодарю А.М. за подсказку) или Ажурных Окон, но, во-первых, они тарифицируют не только хранение, но и обращение (как его априорно подсчитать?), а во-вторых не будем забывать, что бизнес сидит на Интернет-аплинке 10Мбит, и маневры терабайтами потребуют не только определенных усилий по управлению процессами, но и будут весьма утомительными для пользователей.

Обычно в таких случаях берут старый компьютер, докупают большие диски, ставят Linux (не обязательно, кто-то ухитряется и Windows 7), делают массив RAID5. Отлично. Всё работает хорошо примерно полгода-год, но одним солнечным утром сервер вдруг пропадает из сети без всякого предупреждения. Конечно, сисадмин уже давно работает в другой фирме (текучка кадров), резервной копии нет (объемы слишком велики), а новый сисадмин починить систему не может (при этом на чем свет стоит ругает старого сисадмина и диалект Linux YYY, ведь надо было использовать Linux ZZZ, тогда проблем бы точно не было). Все эти истории повторяются давно и одинаково, меняются только версии ОС и растут объемы данных.
Отраслевые мифы
Миф о RAID5
Самый распространенный миф, в который я и сам верил до недавнего времени – это то, что второго подряд отказа в массиве на практике не может быть по теории вероятности. А вот и может, да еще как! Смоделируем реальную ситуацию: сервер проработал пару лет, после чего в массиве отказывает диск. Пока ничего страшного, ставим новый диск, и что происходит? Ага, реконструкция массива, т.е. длительная максимальная нагрузка на уже порядком изношенные диски. В такой ситуации отказы очень даже возможны и происходят.

Но это не все. Есть еще заложенная производителем методическая вероятность ошибки чтения, которая при определенных обстоятельствах сейчас уже практически гарантирует, что RAID5 после отказа диска обратно не соберется.

Миф о терабайте
Можно, конечно, считать всех производителей дисков начинающими программистами, но один отраслевой килобайт у них принят 1000 байт, строго по системе СИ (тот, другой килобайт, на самом деле с 1998г зовут кибибайт и обозначают KiB). Однако это не всё. Дело в том, что все выпускаемые шпиндельные диски имеют уже обнаруженные на фабрике дефекты, количество которых случайно, и потому фактический доступный размер «гуляет». У бюджетных моделей он гуляет даже в пределах одной партии одинаковых изделий, причем как в большую, так и в меньшую сторону. У меня в наборе из четырех одинаковых дисков номиналом 2Тб два оказались примерно на 2Гб меньше, а другие два – примерно на 400Мб больше номинального объема. Т.е. килобайт, подобно синусу в военное время, колеблется от 999 байт 6 бит до честных 1000 байтов даже с полубитом на конце. Либо изделия поставляют к нам на рынок на протекающих подводных лодках, либо наводнение виновато, но биты куда-то деваются. Не стоит недооценивать данный фактор: если замена отказавшего диска в массиве окажется хоть на один блок короче номинального объема, то деградировавший RAID-массив теоретически может и не собраться до оптимального состояния, и мы получим головную боль, которую можно было легко избежать вначале. Исходя из этого, больше — не значит лучше, главное — постоянство. Я предполагаю, что производители серверного оборудования решают эту проблему, всегда делая технологический запас и одновременно искусственно занижая объем доступного пространства в прошивке диска, поэтому по определенному коду изделия у них всегда (в пределах поддержки) можно получить диск, который имеет одну и ту же ёмкость. Наверное, это одна из причин, почему диск Seagate под известной серверной торговой маркой Харлампий-Панкрат и его «родной брат» без нее – не совсем одно и то же изделие. Но это только мое предположение. Возможно, у лидеров рынка хранения данных есть в рукаве и более технологичные козыри.
Риски проекта
В любом проекте важно понять риски, ведь в конечном итоге мы строим не ради забавы, но ради успеха бизнеса. Чтобы достичь гармонии Крепсондо (простите, непрерывности бизнеса), для начала мы построим упрощенную модель рисков, которая должна учитывать вероятные сбои и их последствия.
Аппаратные
По бюджету мы не имеем доступа к серверному оборудованию, поэтому и диски, и контроллеры можем использовать только дешевые, а это территория спонтанных отказов на ровном месте. К аппаратным рискам относим: механический износ (шпиндельные диски, вентиляторы), электрический износ (особенно касается флэш-памяти), ошибки в прошивках диска или контроллера, некачественный блок питания, некачественные диски, рассыпание аппаратного RAID-массива. Риском можно считать и отсутствие комплектующих запасного имущества прибора (ЗИП) в продаже вследствие устаревания.
Программные
К программным сбоям отнесем проблемы стандартных операционных систем, которые обладают склонностью к саморазрушению и не самой лучшей способностью к самовосстановлению после отказов питания, требуя регулярного администрирования. Добавим сюда ошибки реконструкции программного RAID-массива, ошибки в драйверах контроллеров, действия пользователей (намеренные и ненамеренные), действия вредоносного кода.
Имеющееся железо
Под рукой оказался мой старый компьютер примерно 2004г. выпуска на материнской плате Socket 478 GA-8IPE1000MK, с ЦП Pentium 4 @3ГГц и 1Гб ОЗУ. На корпусе написано ZEUS, он имеет целых шесть внутренних отсеков 3.5” (по тогдашним меркам это много), один 3.5” под архаичный FDD, четыре 5.25”, два места под вентиляторы охлаждения и блок питания на 250Вт. Видеокарта ATI RADEON 8500 в свое время рендерила такие хиты, как Soldiers of Anarchy, но ее вентилятор на масляном подшипнике уже давно воет, как собака Баскервилей (конечно, когда у него вообще получается вращение). Охлаждение ЦП было решено Zalman CNPS5700D-Cu, который затягивал нагретый воздух от радиатора и через эксцентричный воздуховод выдувал его внутрь корпуса, откуда его вновь приходилось выдувать наружу вторым вентилятором. В один из дней мне настолько надоел весь этот аэродром, что я решил выпилить его в буквальном смысле: взял электропилу и вырезал круглое отверстие в корпусе (по решетке вентилятора), нарастив воздуховод куском пластиковой бутылки из-под минеральной воды Карма Дома. Убрал второй вентилятор и понизил первому (на ЦП) обороты реостатом. В таком слегка панковском виде вся эта материальная часть и грустила на полке до наших дней.

Дополняла мою кунсткамеру дыра на задней панели корпуса из-за вольного трактования производителем корпуса стандартов ATX: вогнать туда панель-заглушку без напильника оказалось никак невозможно, и я оставил эти попытки.

Материнская плата имела контроллер ОЗУ, который не позволял менять планки в режиме STANDBY (это когда компьютер выключен кнопкой, но блок питания включен). Там даже светодиодный индикатор специальный выведен RAM_LED, задачей которого было предупреждать сисадмина о наличии напряжения в контуре:When RAM_LED is ON, do not install / remove DIMM from socket Конечно, в итоге контроллер накрылся; и если не пошевелить память в разъеме определенным шаманским образом, материнка ее не видела и начинала противно пищать. В справочнике писков данный сигнал мог означать как проблему ОЗУ, так и проблему блока питания, что окончательно сбивало с толку. Для довершения картины BIOS создавал какую-то особенно кривую среду при загрузке с флэшек, из-за чего у меня категорически не загружались все производные SYSLINUX (для справки: это почти безальтернативный загрузчик CD/флэшек для огромного количества вариантов Linux). Так к чему я это всё?

Выводы:

  1. Такой компьютер для серверной задачи совершенно непригоден.
  2. Молодым сисадминам категорически противопоказан секс со старым железом.
Идеи
Замена железа
Конечно, глючная мать, изношенная механика и старый блок питания совершенно не укладываются в философию Крепсондо (ой, снова простите, непрерывность бизнеса), и потому подлежат замене в первую очередь и без лишних обсуждений. Гармония Крепсондо для нас важнее, поэтому попрощаемся со старым железом, оно свою историческую миссию выполнило.

Выбор замены для Socket 478 оказался невелик: ASRoсk P4i65G. Вроде бы неплохая мать с бортовой графикой, тремя PCI, двумя SATA и шестью USB на борту. Аппаратный мониторинг сделан на базе Winbond W83627 (поддерживается в пакете lm-sensors; это оказалось потом полезным при калибровке реостата вентилятора по температуре ЦП работающей системы).

Теперь ничего не пищит, загрузка с флэшек работает нормально, что уже радует. Бортовых ста мегабит для сети NAS маловато, поэтому один слот PCI сразу же занимаем бюджетным D-Link DGE-530T, еще два PCI оставляем на дисковые контроллеры. Обычно они имеют до четырех портов, что вместе с двумя бортовыми даст нам возможность подключить десять дисков.

Про новый блок питания я расскажу позже, пока лишь отмечу, что для моей системы на базе Socket 478 вполне хватало 250Вт. Поэтому, прикинув в уме запас мощности 200Вт на раскрутку шпиндельных дисков, я с ходу согласился на предложенный мне в магазине бюджетный источник FSP Group ATX-450PNR номиналом 450Вт. Поверхностно мне понравился большой низкооборотный 120мм вентилятор – значит, шуму будет меньше (UPD: забегая вперёд, ATX-450PNR, несмотря на все ухищрения, с поставленной задачей не справился, и я не рекомендую его использовать; см. habrahabr.ru/post/218387).

Заодно я прихватил пару вентиляторов Zalman ZM-F1-FDB на модном гидродинамическом подшипнике: первый пойдет на кулер ЦП, второй – на обдув первой группы дисков.

Собственно, осталось выбрать самое важное.
Дискововая подсистема
Для сетевого хранилища важнейшей задачей является выбор режима массива (RAID). Поскольку бюджет решения не позволяет нам воспользоваться серверным оборудованием, вздыхаем и сразу откладываем аппаратные RAID-контроллеры, SAS и прочие Fiber Channel в сторону. Туда же откладываем и твердотельные диски. Раз у нас на кухне NAS (простите за каламбур), то тернистый путь пройдет через волшебный мир программных решений RAID на базе дешевых шпиндельных дисков SATA. Так гораздо занимательнее, но да помогут нам практики Крепсондо.
Диски
На мой субъективный взгляд, у продуктов SATA (по сравнению с SAS/FC) с выбором всё еще более запутано и сильнее перемешано с маркетингом. У шпиндельных дисков Seagate я увидел два условных ценовых диапазона, которые отличаются примерно на 40%. Верхний принято считать решением для среднего бизнеса, а нижний – для домашних пользователей и малого бизнеса. Чем же грозит использование самых дешевых дисков? По субъективным оценкам некоторых экспертов (ссылка), дешевые диски отказывают ощутимо чаще дорогих в первую же неделю эксплуатации, и по результатам года тенденция сохраняется. Осторожно приведя здесь эту таблицу, повторю, что это очень приближенная субъективная оценка одного из пользователей Интернета, без указания конкретных изделий:
Технология Отказов в первую неделю Отказов в первый год
Fiber Channel 1 из 40 2 из 40
SAS 1 из 34 2 из 34
SATA дорогие 1 из 14 2-4 из 14
SATA дешевые 1 из 8 2-4 из 8
По наблюдению того же пользователя, примерно один-два из дюжины годовалых дисков SATA отказывают на втором году жизни. Само собой, все SATA ощутимо ведут себя хуже, чем SAS или Fiber Channel, с этим вряд ли можно спорить. Как, впрочем, и с выделенным бюджетом, который почти не оставляет нам выбора. Производителя Seagate я выбрал достаточно интуитивно, поэтому не буду описывать данный процесс.

UPD:

Поскольку описанные события происходили летом 2013г, то я не прочитал вот этот замечательный пост: http://habrahabr.ru/post/209894/. Из него следует, что Seagate не самый лучший выбор, но читатель, безусловно, теперь предупрежден и вооружен. Благодарю, хаброкомьюнити, вы лучшие! Бегло анализируя предложения в магазинах, я отметил, что цена бюджетных дисков крупного объема 4Тб почти на 90% выше предложений на 2Тб, т.е. удельная стоимость хранения гигабайта росла почти линейно от объема. Почему это так важно? Дело в том, что мне не удалось найти контроллер для шины PCI с гарантированной поддержкой накопителей 4Тб, а экспериментировать не было возможности. Это поставило перед непростым выбором: либо ограничить диски 2Тб, либо отказаться от старого железа и переходить на шину PCI Express (с покупкой нового компьютера). К счастью, почти линейная зависимость цены от ёмкости избавила от трудных решений, но читателю рекомендую всегда считать совокупную стоимость дисковой подсистемы, ибо в NAS она определяющая, и выгода от ёмких дисков может перевесить всё остальное.

Приглянулась своей ценой модель ST2000DM001. Это был самый бюджетный вариант в линейке Seagate на 2Тб, использует новый размер сектора 4Кб и требует правильной инициализации (форматирования) файловой системы. Интересно, что представители ST2000DM001 попадаются как с двумя, так и с тремя пластинами (на картинке — вариант с двумя).

Берем четыре штуки ST2000DM001 на 7200 об/мин, для начала хватит. Три купленных диска оказались с двумя пластинами (большее углубление на корпусе и третья литера серийного номера: E), а четвертый — с тремя (меньшее углубление на корпусе, третья литера серийного номера: F). Модификация дисков 1Ch264, версия прошивки CC26. Не забываем, что мы имеем дело с дешевыми SATA-дисками, поэтому хотя бы обновляем прошивку до CC29.

Конечно, более приспособленным для нашей задачи является всё-таки представитель линейки NAS HDD ST2000VN000: данная модель обладает полезнейшим для массива ERC и работает на 5900 об/мин; можно ожидать, что диск меньше греется, дольше служит, да и разница в скорости вряд ли будет заметна в режиме сетевого хранилища.

UPD:

При выборе дисков для массива все-таки обязательно требуйте наличия ERC, читайте о нем здесь: habrahabr.ru/post/92701

Поначалу у модели ST2000DM001 сильно смутил параметр Power-On Hours 2400ч, но у Seagate это число часов работы в год, а не общее время жизни. Что ж, будем надеятся, что трети суток работы для малого бизнеса должно хватить. Можно уводить шпиндели в STANDBY по тайм-ауту, пожертвовав старт-стопами механики устройства. Оправдана ли такая экономия, покажет время.

Контроллер
Выбор винтажных контроллеров SATA для шины PCI оказался невелик. Я купил бюджетный 4-портовый STLab A-224 на базе Silicon Image SiI3114. Этот контроллер официально не поддерживает диски более 2.2Тб, хотя редкие пользователи на форумах утверждают обратное.

Поскольку мы работаем с бюджетным оборудованием, аппаратный RAID лучше не использовать. Почему? Потому что индустрия отдыхает на бюджетных RAID-контроллерах, оставляя в них коварные баги. Потому, что софтверный массив проще мониторить, ремонтировать и тюнить. Потому, что наш компьютер — это фактически и есть RAID-контроллер с сетью. Но я все равно пожелаю удачи любому смельчаку, который со мной не согласится. Несмотря на массу недостатков, у архаичного железа всё-таки есть одно существенное преимущество: драйверы, скорее всего, уже давно вшиты в ядра всех имеющихся в мире операционных систем, а за годы эксплуатации вытряхнуты почти все баги, причем как из драйверов, так и из прошивок самих контроллеров. Надеюсь, что в случае с A-224 так и есть, потому что прошивочные баги очень, очень опасны. Продавец, дайте два контроллера, пока они окончательно не исчезли из продаж.
Итого
Продукт Цена прибл., EUR Кол-во Стоимость, EUR
Мат. плата ASRock P4I65G 47 1 47
Контроллер STLab A-224 20 2 40
Диск ST2000DM001 76 4 304
Сетевой адаптер D-Link DGE-530T 8 1 8
Блок питания ATX 450PNR 32 1 32
Вентилятор Zalman ZM-F1-FDB 7 2 14
Флэш-память USB 8Гб 5 1 5
Кабели, переходники, термопаста и т.д. 10 - 10
ИТОГО 460

Оглядим еще раз нашу конструкцию. Простой, как шпала, контроллер в режиме JBOD наверняка не подведет. Четыре диска SATA третьего поколения моложе контроллера лет так на десять и выдают в среднем по пластине 150Мб/с (это больше, чем у всего PCI). Посему они выжмут из контроллера все соки, но это вряд ли будет сильно заметно по сети. Восстановление деградированного зеркала 2Тб займет от 8ч, это много, но не смертельно; на 4Тб было бы 16ч. Есть небыстрый процессор, немного ОЗУ, несколько портов USB, гигабитная сеть, полностью новая механика, свободные порты на контроллере, свободные отсеки в корпусе и запас электрической мощности. В бюджет по железу уложились, займемся софтом.

Выбор программного обеспечения
Из бесплатных систем хранения чаще всего упоминают FreeNAS, OpenMediaVault (OMV) и openfiler. У всех есть свои «фишки»: например, OMV очень скромен по требованиям, а openfiler имеет функцию удаленной репликации.

Посмотрим на проект FreeNAS на базе платформы FreeBSD. Для тех, кто не в курсе: «фришка» (как ее ласково называют) – это не Linux, а бесплатный классический UNIX имени Университета Беркли, Калифорния. Кстати, фришку можно считать дедушкой (бабушкой?) современной Mac OS X.

Почему FreeNAS? Главное преимущество FreeNAS состоит в том, что это бесплатный проект системы с промышленным дизайном, подобно гипервизору известной марки Вымой Варю загружаемый с малоразмерной флэшки. Что значит промышленный дизайн? FreeNAS монтирует корневую файловую систему флэшки в режиме read-only, а логи пишет в хранилище или в RAM-диск (не нашел такого режима ни в OMV, ни в openfiler). Это не только сбережет флэш-память от износа, но и неплохо защитит сервер от программных сбоев. Бесплатный FreeNAS реально воплотить в виде turnkey box, т.е. ящика с одной кнопкой ВКЛ. В соответствии с парадигмой Крепсондо это идеальное решение для бизнеса. Вспомним также про требования по поддержке клиентов рабочих станций Windows и Mac OS.

Отличная «фишка» FreeNAS — это фришные jail'ы (виртуальные машины-песочницы), в которых можно поднять Linux, а в нем уже почти все, что успел родить Open Source, без пересборки.

Но не стоит воспринимать FreeNAS как бюджетное решение. Акцент команда FreeNAS делает на развитие современной файловой системы ZFS. Это целая галактика технологий, но для нас первостепенное значение имеет ее прожорливость по ОЗУ: 8Гб памяти и, соответственно, 64-битная архитектура – это начало разговора для адекватной производительности на нашем объеме хранимых данных (ссылка1, ссылка2). Не спорю, ZFS можно завести на архитектуре i386 даже с 1Гб ОЗУ. Но несмотря на мои усилия, на старом железе даже в простых линейных операциях чтения/записи ZFS показала настолько отвратительную производительность, что я могу считать такой вариант лишь макетом системы, но не решением. Вдобавок к этому, на четырех дисках ZFS рекомендует использовать RAIDZ2, т.е. эффективный объем будет половинным (как в RAID1), но при этом требовать непомерного расхода ресурсов ЦП и ОЗУ. Спрашивается, а насколько вообще оправдан ZFS на четырех-то дисках? По идее, массив ZFS быстрее реконструируется, но есть один очень неприятный для нас фактор.

Основная проблема в том, что система ZFS очень чувствительна к ошибкам ОЗУ. Вот вывод экспертного исследования методической устойчивости ZFS к ошибкам ОЗУ, проведенного группой Yupu Zhang, Abhishek Rajimwale, Andrea C. Arpaci-Dusseau, Remzi H. Arpaci-Dusseau из Университета Висконсин-Мэдисон (цитата из труда End-to-end Data Integrity for File Systems: A ZFS Case Study):

In the last section we showed the robustness of ZFS to disk corruptions. Although ZFS was not specifically designed to tolerate memory corruptions, we still would like to know how ZFS reacts to memory corruptions, i.e., whether ZFS can detect and recover from a single bit flip in data and metadata blocks. Our fault injection experiments indicate that ZFS has no precautions for memory corruptions: bad data blocks are returned to the user or written to disk, file system operations fail, and many times the whole system crashes. Ого, как вам отказ всего массива на кучу ТБ из-за ошибки ОЗУ? Нет уж, спасибочки, мы адепты Крепсондо, подобные варианты видим заранее и насквозь. На новые планки памяти с контролем ошибок (ECC RAM) и новую серверную материнскую плату (а заодно: процессор, охлаждение, корпус, блок питания и т.д.) нашего бюджета точно не хватит. Поэтому без лишних сожалений откладываем ZFS в сторону. Хорошая технология, но без серверного железа — мина замедленного действия.

Вывод: если выбирать промышленный дизайн в стиле turnkey box, то это FreeNAS; если собирать на старом хламе, то это никак не ZFS; остается UFS на каркасе GEOM. Единственная проблема в том, что FreeNAS даже с UFS рекомендует минимум 2Гб ОЗУ, которых у нас нет. Это риск, но наша рабочая нагрузка будет совсем невелика.

Немного истории
Каркас geom(4) – это модульная подсистема обработки дисковых операций, разработанная примерно в 2003г. лабораторией безопасности Network Associates (McAfee) для проекта FreeBSD в рамках контракта с самим DARPA, alma mater всея Интернета. Т.е. с определенного угла GEOM можно считать неким дисковым родственником самого Интернета, «зашитым» в ядро UNIX стараниями программистов антивирусной лаборатории. Вот так коктейль. Стоит вспомнить и о судьбе самого проекта FreeNAS, пережившего своего рода раздвоение личности (точнее, растроение, если считать упомянутый OMV на платформе Debian). Не углубляясь в подробности, на выходе имеем два очень похожих проекта: новый FreeNAS и старый, по юридическим причинам именуемый теперь NAS4free.

Похоже, новые владельцы проекта FreeNAS не пожалели сил на глубокий рефакторинг кода, который, вероятно, дался ценой отказа от некоторых «устаревших» функций (например, RAID5). Во всяком случае, FreeNAS выглядит сильным драйвером развития для FreeBSD, и заметен явный интерес к развитию ZFS во «фришном» ядре. Что ж, пожелаем удачи коллегам.

Если сравнивать FreeNAS и его предка-бранч NAS4free, то для меня субъективно FreeNAS выглядит сильнее, несмотря на отсутствие RAID5. Есть некое ощущение, которое непросто объяснить словами: сквозь графический интерфейс NAS4free так и веет запахом кода, требующего глубокого рефакторинга («кода с душком»). Так что же это за рефакторинг такой? Вот вам простой пример: в отличие от NAS4free, даже при работе с флэшки FreeNAS может применять изменения в конфигурации без полной перезагрузки системы. И это при том, что корневая система смонтирована в режиме read-only. Для меня это был сильный аргумент. К тому же FreeNAS перешел на хранение конфигурации в РСУБД SQlite, а NAS4free до сих пор использует простой, но не самый надежный формат XML.

RAID5 или не RAID5
Хотя UFS и софтверные RAID-массивы GEOM и не дотягивают по технологичности до ZFS с RAIDZ (на первый взгляд вообще кажется, что это соревнование набора шпал против вантового моста), но популярные режимы RAID0/1/5 в GEOM есть. Однако современный FreeNAS при этом не позволяет создавать тома RAID5, а для совместимости оставлены только простейшие режимы RAID0 (stripe) и RAID1 (зеркало). Почему так? На это, наверное, есть две причины, назовем их упрощенно: механическая и математическая (хотя в шпиндельных дисках они переплетены подобно корпускулярно-волновому дуализму).

Представим себе отказ/замену одного диска в массиве 10Тб спустя два года эксплуатации: процесс реконструкции в течение недели (!) будет мучить уже и так изношенные шпиндели (см. выше Миф о RAID5). Но при таком стрессе старые диски могут не протянуть и трех дней, повалив массив окончательно, вот тогда стресс начнется уже у нас, да еще какой.

Вы спросите: как же так, почему неделя на реконструкцию? Обратим взор на представителей двух поколений Seagate Barracuda (используем материалы http://www.storagereview.com):

Линейка Примерный год Ёмкость Ср. скорость чтения по пластине, Мб/с Полное чтение, ч Реконструкция RAID5
7200.9 2005 500Гб 50 ~02:45 очень долго
7200.14 2012 4Тб 150 ~07:25 запредельно долго
Если ёмкости выросли примерно в 8 раз, то скорости лишь троекратно. Ирония, правда, в том, что априорно мы можем представить тут скорость реконструкции RAID1, и даже такой быстрый вариант на нашем винтажном PCI-контроллере будет не ахти. В массивах же RAID5 скорость вообще определяется математическими способностями процессора, и по разным оценкам составляет порядка суток на каждый Тб данных (увы, ссылок дать не могу, простите).

Но и это еще не все, дорогой читатель. Диски имеют параметр, именуемый Unrecoverable Read Error Rate, который на современных бюджетных моделях SATA составляет 1 сектор на каждые сто триллионов битов. Т.е. примерно из каждых записанных 12Тб диск один раз скажет «прости, хозяин, но выдать обратно нужный сектор совершенно никак невозможно; ошибка чтения». Это методическая ошибка, заложенная производителем и потому теоретически гарантирующая невозможность реконструкции массива RAID5 емкостью более 12Тб на дешевых дисках (справедливости ради отметим, что URE на дисках SAS, как минимум, на порядок меньше, а критический объем, соответственно, больше). Эпитафию RAID5 написал Robin Harris в своей статье Why RAID 5 stops working in 2009.

По итогам выбора железа максимальная совокупная ёмкость наших дисков составляет 20Тб (18TiB), поэтому в очередной раз напомним себе о пути к непрерывности бизнеса через философские практики Крепсондо, вздохнем и дружно помянем RAID5.

Окончательный выбор: разборный массив
Итак, я отказываюсь и от аппаратных RAID (дорого), и от ZFS (дорого) и от софтверного RAID5 (медленно и ненадежно). Выбираю FreeNAS с томами UFS на базе технологий GEOM: просто, надежно и при необходимости ремонтируется, как автомат Калашникова. То, что надо.

Добавим USB флэшку для загрузки системы – шпиндельные диски целиком отведем для данных. Мы не хотим, чтобы торчащую снаружи загрузочную флэшку кто-то случайно выдернул, поэтому выбираем бюджетную флэшку с наименьшими габаритами (как потом выяснилось, это было роковое и необдуманное решение: http://habrahabr.ru/post/214803/).

Из вариантов Stripe и Mirror я выбираю, понятное дело, Mirror (т.е. RAID1). Итоговая дисковая система выглядит как набор из нескольких независимых томов-зеркал. Каждое зеркало собрано из пары дисков 2Тб (ограничение контроллера), инициализируется и монтируется независимо. Максимальный объем онлайн хранимых данных на десяти дисках составит около 10Тб в пяти независимых томах (точнее, 9TiB). Хоть такой дизайн и может показаться несколько неуклюжим, но он действительно оправдан при наших объемах данных и количестве дисков: иначе мы бы получили неразборный монолит с запредельным временем реконструкции при отказах. Добавим сюда один маленький штрих: поскольку используются дешевые потребительские диски, придется при создании томов искусственно занижать объем, чтобы не иметь потом проблем с заменой отказавших дисков новыми (с плавающей около 2Тб емкостью). Оставим в конце технологические «хвосты» для лучшего сна.
О пропускной способности вагона, груженого стриммерными кассетами
С точки зрения архивного хранения не стоит вообще расстраиваться по поводу ёмкости: массив-то у нас разборный. Исчерпав доступный объем хранимых данных на сервере онлайн в томах №№1-5, мы можем вручную отключить самый старый том №1, извлечь его диски, установить два новых диска по 2Тб и инициализировать новый том №6. Старые диски затем можно обуть в USB-конструктив и подключать по требованию бизнеса к тому же серверу FreeNAS, не разбирая при этом весь корпус. Можно их монтировать read-only. При большом желании можно подключить это и к Windows, и к Mac. В любом случае, помните: старый шпиндельный диск лучше по пустякам не трясти, а то от возраста посыплется магнитный песок из гермоблока.

Есть еще интересный сценарий с unionfs: заполненные тома переводить в режим для чтения и подкладывать «вниз» под файловую систему «верхнего» тома, тогда будет иллюзия непрерывности дискового пространства. Правда, unionfs — штука заумная и потому опасная, а вариант с read-only, наверное, единственный более-менее обкатанный.

Все, объемы архивного хранения теперь ограничены объемом шкафа или кейса, куда складываются старые диски. Если этот кейс еще и перемещать в пространстве, то полоса пропускания вообще зашкалит.
Корпусная инженерия
Подумаем немного о первичном охлаждении, ибо диски наши на 7200rpm будут тепленькими. Находим в корпусе место для обдува отсеков 3.5” и с почти хирургическим трудом приспосабливаем туда наш вентилятор Zalman ZM-F1-FDB на антивибрационных резинках, которые приходится тянуть пальцами через тонкие щели корпуса. Черт бы побрал эти потребительские корпуса с их проходами и щелями…

Вспомнил старую комедию. Солдата спрашивают: «Почему так плохо видишь?». Тот отвечает: «Ну, есть одна глазная операция, но ее делают через задний проход, а я туда ни одного мужика не подпущу»… Эксцентрично-зеленый пластик бутылки из-под минеральной воды Карма Дома, торчащий сзади корпуса, уже порядком намозолил глаза. Поэтому разбираем кулер CNPS5700D-Cu, берем с собой воздуховод и идем в продуктовый магазин за покупками. Примерив по очереди бутылки с минеральной водой разных марок, убеждаемся в идеальном совпадении диаметров двухлитровой бутылки Звон Аква с круглой частью воздуховода CNPS5700D-Cu (на одном заводе их отливали что ли?).

Поблагодарим компанию Штука-Школа за столь удачное совпадение, и, проведя, еще пару часов с различными острыми предметами, получаем часть воздуховода сложной формы из прозрачного пластика.

Ставим в кулер новый вентилятор ZM-F1-FDB 80мм, его гидродинамические подшипники обладают сопоставимым ресурсом, но потише звонких шариковых. В последний момент, само собой, выясняется, что отверстие на корпусе находится на полсантиметра выше, чем надо, поэтому добавляем лепестковую юбку из клейкой ленты, идею которой подсказали авиаконструкторы истребителей с изменямым вектором тяги.

Наше изделие действительно чем-то смахивает на отклоняемое сопло, но выглядит уже не так по-панковски.

Наконец, пришло время разобраться с тем самым местом, где мне десять лет назад не удалось разгадать Великий Китайский Инженерный Замысел. Напомню, речь о задней панельке на разъемы ATX, идущей в комплекте с материнской платой, точнее, о невозможности ее установить вот в это гнездо:

Оказывается, ребус вполне решается плоскогубцами, просто разогнем профиль по периметру, сантиметр за сантиметром. Панелька будет прекрасно держаться своими отверстиями на разъемах, а неровности уйдут внутрь корпуса и не нарушат нам инженерную эстетику:

Во избежание эффекта спагетти шнуры SATA прихватываем друг к другу стяжками, ибо макаронным изделиям в серверных корпусах не место. Кабели помечаем, используя маркеры для витой пары. Реостат вентилятора крепим к корпусу на оказавшейся очень к месту незанятой ножке для материнской платы. Старые диски пока стоят в корпусе для лучшей калибровки обдува, но скоро мы от них избавимся.

Руководствуясь опять же соображениями тепловой эффективности, массивы-зеркала из дисков будем собирать хотя бы через один отсек, т.е. так, чтобы диски одного массива не оказались соседями по отсекам и не грели друг друга, особенно на длинных операциях реконструкции. Диски также маркируем, хотя бы номером тома. UPD: лучше еще и серийный номер диска разместить, напечатав его на ленточном термопринтере, а при отсутствии оного просто на полоске бумаги под прозрачной клейкой лентой. Когда дисков больше двух, это бывает очень полезным при спешных и аварийных работах.

Осталось только включить питание, померять температуру и откалибровать реостаты вентиляторов под нагрузкой.
Питание
Про блок питания FSP Group ATX-450PNR отзываются скорее положительно, но недостатком считают (ссылка1, ссылка2) КПД кипятильника и архаичный дизайн в жанре минимализма (отсутствие корректора мощности). Преимущество – надежность (UPD: через полгода к надежности возникли вопросы) и относительно тихий низкооборотный 120мм вентилятор. Пусковая мощность четырех шпинделей ST2000DM001 ожидается порядка 2.5А x 4 x 12В = 120Вт, что в сочетании с холодной архитектурой Pentium 4 без графики должно с запасом влезть в 250Вт.

Примечательно, что на тайваньском сайте FSP Group мне не удалось найти данный блок питания среди продуктов, но магазины в РФ ими явно не бедствовали. Возникло подозрение, что это специально удешевленный OEM-вариант для рынка СНГ, в котором оторвано всё, что только можно за счет низкого КПД. У нас ведь в стране долгие зимы и избыток электроэнергии, которую мы с удовольствием превращаем неэффективными приборами в уютное тепло домов и офисов.

Короче говоря, несмотря на КПД кипятильника, наш блок выдает пока примерно на 200Вт больше, чем требуется, что не может не радовать. Но есть нюанс, о котором мы напишем в следующих частях нашей истории…
Выводы
  1. Непропорциональный рост ёмкостей накопителей практически похоронил проверенные временем вещи типа RAID5.
  2. В борьбе за время реконструкции массива побеждают новые, высокотехнологичные файловые системы, но они реализуемы только на дорогом железе (из-за ECC памяти).
  3. Построение сервера на хламе было и остается риском; в такой ситуации побеждает рациональная простота, граничащая с примитивом (наподобие разборного массива зеркал).
  4. Архаичному железу — винтажные технологии, но в новой «промдизайнерской» упаковке.
Продолжение следует
Читайте в следующих частях: об опыте реальной эксплуатации, отказах, очередном витке корпусной инженерии и прочем системном тюнинге.

UPD:

Все части истории про Ещё один NAS своими руками: часть 1: из того, что было

часть 2: хорошие воспоминания (Флэш-память для загрузки FreeNAS и прочих embedded OS)

часть 3: приключения в старой башне часть 4: призрак Чернобыля
Ссылки
End-to-end Data Integrity for File Systems: A ZFS Case Study by Yupu Zhang, Abhishek Rajimwale, Andrea C. Arpaci-Dusseau, Remzi H. Arpaci-Dusseau (Computer Sciences Department, University of Wisconsin-Madison)

www.netapp.com

www.qnap.com www.synology.com www.openmediavault.org www.openfiler.com aws.amazon.com/glacier www.freebsd.org www.linux.org sqlite.org www.freenas.org www.nas4free.org forums.freenas.org/threads/what-number-of-drives-are-allowed-in-a-raidz-config.158/#post-38835 www.zdnet.com/blog/storage/why-raid-5-stops-working-in-2009/162 www.wikipedia.org/wiki/ZFS wiki.freebsd.org/ZFSTuningGuide doc.freenas.org/index.php/Hardware_Recommendations hardforum.com/showthread.php?t=1689724 www.wikipedia.org/wiki/GEOM www.freebsd.org/cgi/man.cgi?query=geom&sektion=4 www.wikipedia.org/wiki/Unix_File_System www.asrock.com/mb/overview.asp?Model=P4i65G www.lm-sensors.org/ticket/1865 www.fsp-power.ru/product/atx_450pnr www.fsp-group.com.tw article.techlabs.by/print/36_29785.html www.wasp.kz/articles.php?article_id=465 www.computerhope.com/beep.htm www.gigabyte.com/products/product-page.aspx?pid=1648 www.zalman.com/eng/product/Product_Read.php?Idx=266 www.zalman.com/eng/product/Product_Read.php?Idx=410 www.dlink.com/us/en/home-solutions/connect/adapters/dge-530t-dge-530t-32-bit-10-100-1000-base-t-pci-adapter Теги:

habr.com

Как собрать и чем засофтить домашний NAS | CHIP

Для начала небольшое пояснение. NAS — это сокращение, произошедшее из английского языка. Оно означает Network Attached Storage, или свободное сетевое хранилище. Вы можете сохранять на этих дисках фото- или видеофайлы, да и любую другую информацию — это не принципиально. Вы же получаете к ней доступ с любого устройства, будь то телефон, телевизор, игровая консоль или компьютер.

Еще пара слов об оборудовании, которое мы используем для создания нашего самосборного NAS: диски WD Red на 6 ТБ и достаточно простой корпус Synology.

Начинаем сборку NAS

Начнем сборку. Для начала отложим диски в сторону и посмотрим на корпус. Вот в таком виде вы принесете его домой.

Корпус можно открыть с одной стороны, просто сдвинув панель, чтобы добраться до содержимого. Сразу видны разъемы SATA для подключения дисков. В этот корпус могут быть встроены только два диска.

В принципе, можно начинать. Берем один жесткий диск и аккуратно вставляем в слот. Затем так же ставим на место и второй диск. Обратите внимание: разъемы должны совпадать.

Теперь очень важно зафиксировать жесткие диски, закрепив их винтами с обеих сторон: по четыре винта на диск. Это нужно, чтобы не возникало вибрации и диски были крепко зафиксированы в слотах.

Итак, диски мы прикрутили. Ставим на место крышку корпуса и закрепляем ее.

Поворачиваем корпус в исходное положение и закрепляем винтами на задней стенке. NAS собран. Теперь его нужно подключить к сети и к электропитанию. Для этого мы берем обычный сетевой кабель и подключаем в нужный разъем, а затем — к электросети. Идеально, если NAS подключен напрямую к роутеру.

Сейчас я объясню, почему важен доступ к интернету.

Во-первых, программное обеспечение для NAS всегда будет обновлено, что обеспечит вам большую безопасность и сделает интерфейс более функциональным. Во-вторых, это важно для организации групп пользователей. Вы можете создавать учетные записи, расширять или ограничивать их права. Например, можно предоставить пользователю как права записи информации на диск, так и только возможность просмотра данных. Можно скрывать отдельные файлы или же предоставить к ним общий доступ, например, доступ к музыке со смартфона.

А теперь возникает вопрос: зачем вообще нужен NAS и почему нельзя обойтись обычным внешним жестким диском, лежащим где-нибудь в доме. Наш ответ: из-за безопасности хранения данных. Из 12 ТБ на дисках мы эффективно используем только 6 ТБ, но зато всегда имеем актуальную резервную копию.

Вывод: приблизительно 600 евро за такую систему – это довольно большие деньги, но вложение окупается хотя бы уже осознанием надежности хранения данных.

Вопрос софта

Чем же засофтить ваше домашнее хранилище? Конечно, можно просто установить FreeNAS, но можно и поискать альтернативные решения. Если вы не ищите легких путей, наши советы вам обязательно пригодятся.

OpenMediaVault

Альтернатива FreeNAS — OpenMediaVault — основана на Linux Debian. Это программное обеспечение NAS с открытым исходным кодом, поддерживающее стандарты FTP, SFTP, SSH, AFS, SMB и CIFS.

Дополнения: вы можете установить различные дополнительные протоколы и стандарты для расширения своего NAS.

Применение: OpenMedia Vault особенно подходит для домашнего использования.

Сетевые функции: WakeOnLAN, Link Aggregation, а также новый стандарт IPv6.

Мониторинг: для него можно использовать syslog, watchdog, S.M.A.R.T., SNMP (v1 / 2c / 3) или уведомления по электронной почте.

Техническое обслуживание: если ваш NAS работает на OpenMediaVault, то обслуживаться такая система будет через веб-интерфейс.

NAS4free

NAS4free — это также программное обеспечение с открытым исходным кодом. Он основан на FreeBSD и может быть виртуализирован на любом оборудовании. NAS4free  оддерживает стандартные протоколы FTP, SMB, NFS, TFTP и AFP.

Дополнения: вы можете настроить на NAS веб-сервер и размещать там веб-сайты.

Область применения: благодаря опции виртуализации NAS4free подходит как для больших серверов, так и для домашнего использования. Его аппаратная поддержка поистине уникальна.

Сетевые функции: NAS4free поддерживает WakeOnLAN и IPv6.

Мониторинг: у вас есть возможность указать путь, куда будут сохраняться статистические данные. Вы также можете просматривать статистику в реальном времени через интерфейс.

Техническое обслуживание осуществляется через интерфейс.

UnRAID

UnRAID — это программное обеспечение, подходящее для различных приложений. UnRAID предоставляется бесплатно в течение первых 30 дней, после чего вы платите от 59 до 129$. Дешевый базовый пакет (цена: 59$) позволяет использовать шесть подключенных устройств хранения, средний пакет (цена: 89$) — двенадцать устройств. С пакетом Pro (цена: 129$) количество устройств хранения не ограничено. Поддерживается почти любая 64х и 86-разрядная система. UnRAID также предлагает возможность виртуализации.

Дополнения: UnRAID без проблем поддерживает расширение с помощью дополнительных жестких дисков. Также надо отметить очень хорошую поддержку SSD.

Применение: UnRAID больше подходит для профессиональных приложений. Он способен поддерживать очень большие серверы со многими жесткими дисками.

Сетевые функции: UnRAID управляет только памятью, а за сетевые функции должна отвечать соответствующая операционная система.

Мониторинг осуществляется через веб-интерфейс. Техническое обслуживание также через веб-интерфейс.

Читайте также:

Фото: CHIP, компании-проиводители

ichip.ru

NAS своими руками

Даже не могу припомнить, сколько раз по различным причинам я терял нужные или просто интересные данные, которые хотелось хранить вечно: семейное фото и видео, собственные аудиозаписи — результаты подросткового хобби, или сохраненные зарисовки генеалогического дерева, и т.д. Думаю, мало у кого получилось сохранить все, что хотелось. Но пора заняться этим вопросом серьезно. Вы же не хотите, в старости объяснять детям — куда делись свидетельства вашей жизни? В общем, видео в заголовке вам расскажет, зачем вообще нужен NAS.

Если вас устроит NAS на двух дисках в зеркале, и бабла есть в достатке — то не надо ничего изобретать, тупо идем в Ulmart и покупаем WD My Cloud Mirror, например вот такие:

  • WDBZVM0060JWT-EESN (или -RESN), 6ТБ — 20 880 руб
  • WDBZVM0120JWT-EESN, 12ТБ — 28 690 руб

Указанная емкость — это общая емкость уже установленных дисков. Соответственно если вы включите диски в зеркало, чтобы не потерять данные, даже если диск сдохнет — эту емкость надо уполовинить. То есть это модели на 3 терабайта и 6 терабайтов отказоустойчивой емкости.

Если 6 терабайт вам достаточно — то всё, купили WD и радуемся. Кроме стандартных настроек NAS у My Cloud доступны расширения, в виде приложений:

  • aMule — Обмен файлами по протоколу P2P, работает с сетью eDonkey и другими;
  • IceCast — Организация потокового цифрового аудио и видеовещания;
  • Joomla — популярная CMS платформа, для управления контентом сайта;
  • phpBB — Самая популярная CMS для форума;
  • phpMyAdmin — Web-интерфейс к базе данных MySql;
  • SqueezeCenter — Сервер мультимедиа для устройств, воспроизводящих мультимедийные материалы.
  • WordPress — Популярная CMS для блога;
  • Git — Система ревизий для исходного кода приложений, сайтов и т.д.;
  • NZBGet — Кроссплатформенное двоичное средство захвата новостей для файлов NZB;
  • Transmission — Torrent-клиент. Просто необходимое приложение;
  • DVBlink — ПО для записи ТВ-программ на ваш накопитель, требуется использование ресивера;
  • Dropbox — облачное хранилище. WD My Cloud Mirror синхронизируется с учетной записью Dropbox.

Да-да, вы правильно поняли — WD позиционирует свои My Cloud в том числе как энергоэффективные и надежные WEB-сервера для Colocation или для установки дома на безлимитном интернет-подключении.

Если 6 терабайт не хватает, но бабла опять-таки есть в достатке — обращаем свой взор на линейку HP Proliant Microserver известного производителя серверов Харлампий-Панкрат; например, n36l, n40l, n54l, с четырьмя отсеками для дисков. Компактно, разумно по цене (от 12 килорублей), 4 жестких диска, пятый можно вставить вместо ODD, излишнего в NAS. И с помощью небольшого бубна заставить нормально работать предназначенный для ODD SATA порт. Недостатки — далеко не мощный процессор, но для многих сценариев — достаточный.

Выбираем ёмкость дисков (4Тб или 6Тб) из расчета, что их будет четыре, и что доступной для данных будет только половина (вторая половина на избыточность RAID). Для дома для семьи нам SCT Error Recovery Control на дисках нафиг не нужен — поэтому покупаем дешевые и маложрущие диски серии WD Green (или их аналог Hitachi), если же сервак для рабочей группы — SCT нужен (чтобы сбои чтения не сказывались на производительности), потому берем серию WD Red (или опять же ее клон у Hitachi). Разумеется, у зеленых WD не забываем отключать парковку головок фирменной утилитой wdidle3.

Комплектуем наш сервер памятью (для рабочих групп — с контролем четности ECC из расчета 1Гб на каждый 1Тб хранимых данных, но не менее 8Гб, ну а для дома для семьи — 4Гб или даже меньше для непрожорливых конфигураций вроде OpenMediaVault, лучше бы тоже с ECC, но тут как жаба позволит).

Миф о RAID5

Самый распространенный миф, в который я и сам верил до недавнего времени – это то, что второго подряд отказа в массиве на практике не может быть по теории вероятности. А вот и может, да еще как! Смоделируем реальную ситуацию: сервер проработал пару лет, после чего в массиве отказывает диск. Пока ничего страшного, ставим новый диск, и что происходит? Ага, реконструкция массива, т.е. длительная максимальная нагрузка на уже порядком изношенные диски. В такой ситуации отказы очень даже возможны и происходят. Вы не забывайте, что пересборка даже простого зеркала в 4 терабайта занимает около 8 часов мельтешения дисками, а пересборка скромного RAID5 всего терабайт на 9 может занять целые сутки, про более крупные массивы и говорить нечего.

Но это не все. Есть еще заложенная производителем методическая вероятность ошибки чтения, которая при определенных обстоятельствах сейчас уже практически гарантирует, что RAID5 после отказа диска обратно не соберется.

Хуже того. Одинаковые диски имеют РАЗНУЮ ЕМКОСТЬ! Дело в том, что все выпускаемые диски имеют уже обнаруженные на фабрике дефекты, количество которых случайно, и потому фактический доступный размер «гуляет». У бюджетных моделей он гуляет даже в пределах одной партии одинаковых изделий, причем как в большую, так и в меньшую сторону. У меня в наборе из четырех одинаковых дисков номиналом 2Тб два оказались примерно на 2Гб меньше, а другие два – примерно на 400Мб больше номинального объема.

Не поняли, чем это грозит? Если замена отказавшего диска в массиве окажется хоть на один блок короче номинального объема, то деградировавший RAID5-массив может и не собраться.

Поэтому давайте сразу пошлем RAID5 в задницу, и будем просто зеркалить диски, а для надежности раздел на них будем бить на 8 мегабайт меньше реальной емкости диска.

NAS из старого хлама

В принципе, для создания самодельного NAS подойдет почти любой старый компьютер, начиная с Pentium 4 c 512Мб RAM и сетевой картой 100Mbit/s или 1Gb/s «на борту». Просто устанавливаете в него необходимое количество жестких дисков и вперед, к победе светлого сетевого будущего!

Однако тут есть подводные камни. Невозможно сделать надежную систему из сыплющегося хлама. Никакие мирроры дисков вас не спасут от потери данных, если у вас сыплется память или комп сбоит во время работы. Кроме того, не забывайте об энергопотреблении — древние процессоры и чипсеты жрут энергию не по-детски. Поэтому сильно подумайте — надо ли вам такую экономию.

В целом, из старья можно уверенно использовать только корпус и блок питания (если он хороший). Остальное лучше обновить. Начать надо с материнки с большим количеством SATA портов, встроенной графикой и энергоэффективным процессором. К сожалению для многих, недорогие микро-ITX платы с впаянным процессором редко бывают с числом SATA портов больше двух.

Нетривиальное решение

Берем за основу неттоп на процессоре Atom, а в качестве дискового массива используем внешние USB-HDD, подключенные к хабу USB 3.0. Это кажется безумием, но между тем дома вполне работает. Кстати, для двухдисковой конфигурации (зеркала) вам даже хаб не понадобится.

Единственный реальный минус такого решения — сейчас почти все неттопы рассчитаны на 2.5-дюймовые HDD, и внешние диски сделаны на их основе, а у мелких дисков и емкость невелика.

Софт

Олдскульные мазохисты поставят NAS4FREE. Я бы предпочел Linux или даже Win2003 Server (да-да — для дома вполне годное решение, тем более вы же не собираетесь его покупать у Билла Гейтца?).

Оригиналы и те, кто использует слабое железо, могут попробовать OpenMediaVault — он весьма скромен по нагрузке на железо. Эта система построена на Linux Debian 6. Я обычно всем рекомендую ставить OpenMediaVault на USB брелок — чтобы не занимать системой собственно диски с данными. Опять же удобно иметь запасной брелок с копией уже установленной системы — там достаточно буквально 2-4 гигабайт, сейчас такие брелки уже почти мусор.

Все что вам потребуется для установки — скачать инсталляционный iso-образ OpenMediaVault и записать его на компакт-диск. Есть еще вариант установки с usb-брелока. Чтобы наверняка ничего не напутать, лучше во время установки на компе оставить только тот жесткий диск, куда будете устанавливать систему, либо пустой USB-брелок для нее. После установки можно будет подключить все имеющиеся у вас жесткие диски.

Если сеть настроена, то нужно будет определить, откуда скачивать обновления системы. Сначала страну с зеркалом, потом сам источник. Тут же надо будет определить настройки прокси-сервера, если он у вас есть (адрес, имя пользователя, пароль). Если прокси нет — то не надо. После этого ждем 2-3 минуты, и нам будет объявлено, что установка завершена. Комп с установленной системой перезагрузится, после чего можно будет перейти к настройке нашего сетевого хранилища. Подробнее можете смотреть тут — http://macrodmin.ru/2012/03/openmediavault-ustanavlivaem-i-nastraivaem-nas

FreeNAS на базе платформы FreeBSD мне остро не понравился — но у меня вообще с фрёй как-то отношения не сложились. Народ, впрочем, юзает — и ничего. Однако мне много рассказывали про то, как клёво, что FreeNAS монтирует корневую файловую систему флэшки в режиме read-only, а логи пишет в хранилище или в RAM-диск — а потом у корпоративного NAS на этой системе посыпалась именно загрузочная флэшка (причем от SUN), и пресловутый RAID5 встал раком — счастье, что систему ставила пафосная московская фирма «под ключ», и это дерьмо не повисло на мне. С тех пор я делю все россказни про достоинства FreeNAS где-то так на десять.

Вот такие вот расклады.

topru.org

NAS-накопитель своими руками | CHIP

Операционная система FreeNAS запустится на любом персональном компьютере. Если лишнего системного блока с возможностью установки нескольких жестких дисков у вас нет, то соберите новый, следуя нашим рекомендациям.

В качестве основы для системы NAS мы выбрали корпус Prodigy от BitFenix. Он имеет шесть отсеков для установки 3,5-дюймовых жестких дисков. Компактная материнская плата ASRock E350M1 с интегрированным двуядерным центральным процессором обеспечивает достаточную производительность и предоставляет четыре разъема SATA для подключения жестких дисков.

Для использования шести дисков потребуется установить контроллерную плату с двумя портами SATA. С материнской платой совместимы два модуля ОЗУ Kingston HyperX по 4 Гбайт каждый. В качестве блока питания мы выбрали тихую и энергоэффективную модель be quiet Pure Power L8 мощностью 300 Вт, а жесткие диски рекомендуем тихие — такие как, например, WD Red (2 Тбайт).

2. Сборка компонентов

Если точно выполнять указания руководства пользователя к корпусу BitFenix Prodigy, то проблем при сборке компьютера возникнуть не должно. Следует учесть, что блок питания лучше всего установить вентиляционным отверстием вниз, а жесткие диски вставляются в корпус вместе с салазками разъемами вперед.

3. Подключение

Сперва подсоедините к системной плате разъемы кнопки питания и перезагрузки, а также светодиодных индикаторов, так как впоследствии доступ к ним будет существенно затруднен. Подключение винчестеров рекомендуется выполнять с той стороны корпуса, на которой расположены кнопки питания и перезагрузки.

4. Установка FreeNAS на флешку

Распакуйте на ПК с операционной системой Windows образ FreeNAS, а также бесплатную программу Win32 Disk Imager. Для этого воспользуйтесь архиватором 7-Zip, который умеет работать с форматом XZ.

Вставьте флеш-накопитель емкостью не менее 2 Гбайт и запустите Win32 Disk Imager. Откройте файл образа FreeNAS, щелкнув по значку папки и выбрав в пункте «Device» букву флеш-накопителя. Щелчок по «Write» запустит процесс записи образа на флешку. Извлеките накопитель из вашего компьютера и вставьте его в USB-порт собранного вами сетевого хранилища данных.

5. Первая загрузка NAS

Подключите клавиатуру, а также монитор к собранному вами хранилищу NAS и соедините его посредством LAN-кабеля с роутером. Включите NAS и сразу нажмите несколько раз кнопку Del для входа в настройки UEFI.

В пункте «Advanced/Super IO Configuration» измените значение «Serial Port» на «Disabled» — в противном случае FreeNAS не запустится. После этого в пункте «Boot/Boot Option» выберите флеш-накопитель, сохраните настройки и перезагрузите NAS.

После перезагрузки вы увидите текстовое меню и IP-адрес, по которому можно будет получить доступ к веб-интерфейсу FreeNAS.

6. Базовые параметры

Откройте в браузере на своем компьютере веб-интерфейс. В пункте «System/Settings» можно изменить язык на русский. В пункте «Часовой пояс» выберите необходимые настройки. После щелчка по «Сохранить» и нажатия на клавишу F5 загрузится русскоязычный интерфейс.

7. Настройка дисков

Используя кнопку «Хранилище/Управление томами ZFS», можно выполнить распределение дискового пространства. Вначале введите «Название тома», затем щелкните по значку «+» рядом с «Доступные диски». После этого в разделе «Планировка тома» вы увидите подключенные диски. Перетащите круглую серебристую кнопку вверх и вправо, в результате все диски должны расположиться рядом друг с другом. Для максимальной отказоустойчивости выберите в меню «RaidZ2».

8. Создание учетной записи пользователя

В дереве папок щелкните по «Учетная запись/Пользователи/Добавить Пользователь». В пункте «Имя пользователя» и «Полное имя» введите «Guest», кликните рядом с «Домашний каталог» по «Просмотреть» и выберите созданный на предыдущем шаге том.

Активируйте опцию «Отключить вход по паролю» и подтвердите выбор щелчком по «ОК». Кликните вверху по значку «Хранилище» и по созданному ранее тому, затем внизу по значку ключа с диском «Изменение разрешений». В диалоговом окне выберите «Guest» рядом с «Владелец (Пользователь)» и «Владелец (Группа)» и щелкните по «Изменить».

9. Настройка CIFS

Затем создайте в пункте «Общие ресурсы/Windows (CIFS)» новый общий ресурс с любым названием и укажите созданный ранее том в качестве пути. Активируйте «Разрешить гостевой доступ» и «Только гостевой доступ».

Затем щелкните по кнопке «Службы» вверху и по значку гаечного ключа позади «CIFS». Выберите в строке «Модель аутентификации» параметр «Анонимный», введите имя NetBIOS и рабочей группы вашего ПК.

В качестве гостевой учетной записи выберите «Guest» и активируйте опцию «Разрешить пустой пароль» и «Включить домашние каталоги». В пункте «Домашние каталоги» выберите созданный ранее том.

В завершение активируйте CIFS с помощью расположенной вверху кнопки «Службы». Теперь общий сетевой ресурс будет отображаться в проводнике Windows по адресу «\\[NetBIOS-имя FreeNAS]\».

ichip.ru


Смотрите также