Где хранить большие файлы? Собираем домашний сервер

16 сентября 2015 в 18:36

Домашний сервер для работы и не только. Организация рабочего места ленивого инженера

  • Виртуализация

Вспоминая слова одного преподавателя вуза: «Кто такой инженер? Это же лентяй! Вот он лежит на диване, смотрит телевзор. И захотелось ему переключить канал - но вставать то лень! „Ай, ну его, каналы вставать переключать - пойду-ка разработаю пульт дистанционного управления...“. Всегда хотелось сделать что-то интересное и максимально это автоматизировать…

Итак, исходные данные:

0. Работа удаленным инженером-администратором. Поддержка парка серверов/сервисов по части software и hardware.
1. Место дислокации - загородный дом.
2. Гигабитный интернет с резервированием (Просто всегда был рад помочь местным сете-строителям с настройкой и сборкой серверов.)
3. Отностительно надежная инфраструктура - водо-, газо-, электроснабжение.
4. Желание тишины и спокойствия автоматизации для комфортной работы и быта.

Задачи:
1. Удобная организация рабочего места с возможностью оперативного мониторинга.
2. Необходимая функциональность в свете безопасности, быстродействия и широкого спектра задач.
3. Энергоэффективность.
4. Изоляция рабочей среды от потенциальных угроз.

Сначала все и вся было уделом одного обычного ПК средней конфигурации - здесь и работа, и развлечения и веб-сервер. Круглосуточная работа, особенно в жилой комнате ну никак не устраивала ни меня, ни домочадцев. Появилось желание сделать все „раз и надолго“. Были испробованы множество вариантов - несколько ПК для разных задач в разных местах, Remote Desktop к рабочему ноутбуку, во избежание всевозможных переустановок, проблем привязки к оборудованию или операционной системе. Но однажды попробовав поиграться с одной из систем виртуализации, понял - это то что решило бы сразу много проблем. Это случилось как раз во время, когда в ESXi было упразднено множество ограничений в бесплатной версии, да так что теперь гипервизор годился прямо в мини-продакшн, для дома это уже была пушка по воробьям Отлично, начнем-с.

Первые грабли не заставили себя ждать. При переносе штатным инструментом (VMware vCenter Converter Standalone Client) ОС Windows 7 из доживающего свое винчестера ноутбука конечно же был словлен блускрин. Решение - загрузочный диск с любым редактором реестра, активация необходимых драйверов путем правки нужных значений (вариант решения).

Как же было приятно потом „лечить“ и украшать медленную 5-летнюю систему! Был произведен перенос всего медиаконтента, „не очень нужных“ программ, система сжата с 500 до 50 гигабайт. Все было чудесно, но, конечно сразу же захотелось „побыстрее“. Здесь начались размышления по поводу, собственно, серверной части. Было решено построить систему с запасом, максимально использовав комплектующие, которые уже были. Основное требование - бесшумность и производительность.

Итак, корпус - был вот такой: INPC DL36 - прочный, просторный корпус, который отлично подходил под все требования - полноценный размер материнской платы, 3U высота для использования полноценных радиаторов и бесшумного блока питания.

Конфигурация оборудования:


В планах переход на полностью пассивное охлаждение CPU.

Вот как это выглядит на данном этапе:

Вид спереди, диски можно менять не выключая сервер:

Попутно был развеян миф о потребности регулярной перезагрузки Windows:

Итак, сервер собран, далее приступим к повышению надежности в доступных нам пределах. Мною было продумано множество вариантов бесперебойного электропитания дома в целом, и сервера, в частности. От выделенного ИБП с минимально необходимой мощностью для питания сервера и базовых сетевых устройств до полного резервирования всего дома трехфазным ИБП. В итоге проб и ошибок был выбран все же самый адекватный вариант - ИБП средней мощности с запасом для питания критических устройств в течение хотя-бы 12 часов. Таковыми являются газовый котел, собственно, сервер, коммутатор провайдера, роутер, внутренние коммутаторы, видеокамеры, автоматические ворота, дежурное 12В освещение, аварийные розетки в доме и подсобном помещении. Добавление следующего по важности устройства - чайника, насосной станции очень сильно повышает требования к ИБП, поэтому в случае надобности аварийное снабжение переводится на бензиновый генератор. В качестве источника бесперебойного питания применен APC Smart-UPS 1500, в крайнем случае - достаточный для пуска 0.75кВт насосной станции. Аккумуляторный блок собран из 2х120А*ч батарей.

Потребление резервируемых устройств в штатном режиме:

Организация сети. В который раз пришлось на своем опыте убедиться в законе - если по плану необходимо проложить два кабеля - надо закладывать четыре! Даже без систем умного дома. После разнообразных перестановок была применена следующая схема. Для моей реализации сети идеальным роутером оказался, конечно же, MikroTik. Абсолютно все необходимые функции за минимальную стоимость, с минимальным энергопотреблением. Простая настройка локальной сети, безопасности доступа извне, резервирования каналов связи, дополнительных сервисов - устройство класса „один раз разобрался, настроил и забыл“. Функция резервной маломощной точки доступа Wi-Fi, потому как качественная раздача не является основной задачей подобных устройств. В роли главной точки беспроводного доступа был заказан небезызвестный Ruckus - поставил и забыл, проблемы с Wi-Fi прекратились раз и навсегда.

Два аплинка от провайдеров проверяются на доступность по приоритету (distance) - в случае проблем с приоритетным провайдером автоматически происходит переключение на резерв. Решение простое, не самое надежное, но, как правило, достаточное при типичных проблемах сетей в частном секторе - обрывы кабелей/отсутствие электропитания.

1. Основная рабочая система на базе Windows 7, та самая, с трудом и заботой перенесенная со славно поработавшего ноутбука.
2. Отдельная система для ведения финансового учета и проведения переводов - так же, впрочем, перенесенная с нетбука.
3. ОС с софтом для видеонаблюдения. Хотя полностью независимые системы и имеют свои преимущества - но полугодовой опыт использования виртуальной машины для этих целей показал отличную надежность такого решения. Видеонаблюдение было построено на базе камер Hikvision и бесплатного софт-сервера от этого же производителя.
4. Сетевое хранилище для медиаконтента (FreeNAS) - в основном для удобного обмена файлами между устройствами внутри локальной сети и просмотра на фото/видео на телевизоре.
5. Unix сервер, Debian/Ubuntu, без GUI. Как же без простой, безотказной системы под рукой - собрать статистику и вывести показания датчиков на веб-сервер, перекодировать видео с помощью ffmpeg, протестировать скрипты, и т.д.
6. Бонусы - однажды в экстренной ситуации пришлось даже спасать крупный сайт, вытаскивая контент из проблемного рейда, на лету завернув его в виртуальную машину и переместив на временный сервер.

Для взаимодействия с виртуальной средой установлен ПК с 23"" монитором, на котором есть относительно мощная видеокарта для видео/игр, подключение к машинам происходит по RDP либо SSH. Если уж совсем лениво - то с ноутбука, лежа на диване.

После всех настроек, проб и ошибок, наконец-то можно сказать что все работает, как и было запланировано! Казалось бы, стольким мелочам было уделено внимание - но в сумме это дало очень много выигранного времени и средств, а именно на включения, выключения, замены, контроль всего потенциального парка домашних устройств.Теперь можно больше сконцентрироваться на основной деятельности, не переживая об отключениях электричества, падающих, забытых, украденных ноутбуках, посыпавшихся жестких дисках и прочих сюрпризах. Надеюсь что мой опыт будет интересен и, возможно, кого-то так же мотивирует применить свои профессиональные знания для обустройства рабочего места на дому!

23 марта 2014 в 11:43

Делаем сервер своими руками

  • DIY или Сделай сам

Предисловие

Несколько лет разрабатывали с другом проект, для которого в конечном итоге понадобился сервер. И мы задумались: как реализовать нашу идею?
Для начала позвонили местному интернет-провайдеру, чтобы узнать расценки стоимости размещения своего сервера в дата центре. Узнали, оказалось, что стоимость размещения зависит от количества юнитов, из которых состоит сервер. И для себе решили, что для нас идеальным вариантов будет размещения сервера размером в 1U.

Так как бюджет у нас был очень ограничен, мы не могли позволить себе покупку мощного сервера в форм-факторе 1U. У нас возникла идея, а почему бы его не сделать самим?
Сказано-сделано. Сбегали в ближайший компьютерный магазин и купили все комплектующий для обычного компьютера. Ну что ж, самое главное что оставалось сделать - это корпус и впихнуть в него все комплектующие.

Реализация

Для начала необходимо было определиться с размерами и железом, которое будет помещено в корпус. Стандартные размеры нетрудно найти в интернете, главной задачей было впихнуть комплектующие в высоту 43,7 мм., именно столько составляет величина 1U.
Ну… поехали! В нашем городе трудно быстро и дёшево купить серверную турбинку, поэтому куллер решили делать из того что было. Был куплен радиатор и доработан ножовкой по металлу, под нужную высоту.


Вид после распила.

Площадь радиатора была сокращена, поэтому пришлось делать куллер с более мощным потоком воздуха. Ну, и конечно, куда мы без испытаний…? Нужно было проверить интенсивность охлаждения средствами какими у нас были. И так, перед нами три участника: сдвоенный вентилятор, картонная турбинка и рядовой вентилятор для радиатора.

Продолжим!
Будем нагревать радиатор на конфорке, присоединив к нему термодатчик.


К сожалению результатов уже не помним, но эффективнее всего оказалась турбинка, со сдвоенным вентилятором, эту конструкцию и решили использовать, на всякий случай, добавив третий вентилятор для надёжности. Так же решено было использовать гофр для направленного забора потока воздуха от радиатора процессора.

Далее на очереди был обычный 500W ATX блок питания. Для начала мы совершили над ним акт вандализма, спилили радиаторы и отпаяли высокие детали.


Затем вернули всё на свои места, но под другим углом.


Корпус пришлось выкинуть и сварганить новый из нержавейки. Не переживайте, качество ни чуть ни хуже чем у наших собратьев китайцев, всё как надо, даже клеевой пистолет поучаствовал.


Ну и чтоб не ржавело, красим краской из автомобильного баллончика.


И теперь, когда основные части были готовы, осталось снять замеры и начертить чертёж по размерам 650х425. Важным аспектом было расположение элементов сервера таким образом, чтобы он придерживался стандартной системы охлаждения – спереди забор холодного воздуха, сзади отдача тёплого. Поэтому из-за конструкции ATX материнской платы, воздух с процессора пришлось отводить в сторону, а блок питания перенести в переднюю часть сервера. Начертили чертеж корпуса на бумаге.


Дело осталось за малым – изготовить сам корпус. К счастью, у нас нашлись хорошие знакомые со старым добрым листогибом и оцинковкой, которые любезно нам одолжили инструмент и помещение.


И понеслась… Если честно сначала всё выглядело ужасно, даже хотелось бросить эту затею, собственно вот:


В итоге получилась вот такая коробочка, больше похожая на вентиляцию чем на сервер…


На самом деле всё не так страшно, через дорогу был другой цех, где за небольшую сумму можно было покрыть полимером любого цвета. Покрасив корпус, мы скрыли все потёртости и царапины, придав ему приятный вид.


Осталось всё собрать.
С качеством сборки особо не старались, так как это было временное решение, до того как проект начнёт приносить прибыль. На фото видно, как местами применялся клеевой пистолет.


В итоге мы собрали вот такой необычный сервер. В нём есть ещё место под дополнительные жёсткие диски и одну плату расширения (нужно только докупить райзер).

Самое интересное в задней части сервера. Воздух в корпус заходит спереди, а выходит слева от материнской платы, так как подавать напрямую на процессор нам мешает оперативная память и слот питания материнской платы. Передних вентиляторов на один больше, чем слева, это сделано для того, чтобы воздух в пространство с материнской платой нагнетался быстрее чем забирался. В итоге мы охлаждаем радиатор процессора не разрежением, а постоянным потоком воздуха. Для более эффективного охлаждения процессора, склеили гофр соединяющий радиатор и три вентилятора. По бокам стоят менее производительные вентиляторы для оперативной памяти и транзисторов. Ну, и конечно, для чего же приклеена жёлтая полоска? (Кто разбирается в стиле, нас поймёт!) Шутим, конечно. Полоска нужна, чтобы выходящий поток тёплого воздуха с процессора не перебивал поток воздуха с блока питания, так как на блоке питания стоят менее оборотистые вентиляторы. А с данной полоской воздух выходит направленно в заднюю часть корпуса.


Для эффективного охлаждения передняя часть была выполнена в виде решётки, чтобы уменьшить сопротивление воздуха, сделанной и вырезанной из обычной сетки закрепили её с помощью того же клеевого пистолета.
Осталось приобрести салазки и можно устанавливать! Таким образом, мы получили достаточно дешёвый и мощный сервер на базе процессора Athlon II X4 3.0GHz и 8 гб. оперативной памяти.
Себестроимость собранного сервера составила 14 000 руб.

34 нравится голосование
закрыто
спасибо
за ваш голос

Сетевые технологии совершенствуются с каждым годом, и перед многими пользователями встает вопрос о расширении своей сети и внедрения в нее серверов, делающую локальную сеть более производительной и более удобной для использования. Для домашней сети или сети небольшого предприятия покупка специализированного серверного оборудования не самое разумное решение. Оптимальным в финансовом аспекте задачи способом решения данной проблемы будет являться сборка сервера своими руками. Как собрать свой собственный сервер мы и поговорим в этой статье.

На этапе проектирования сервера стоит задуматься о задачах, которые он будет выполнять. Какие же типы серверов существуют? К основным типам можно отнести файловые серверы, серверы баз данных, почтовые серверы, серверы печати, FTP или WEB серверы. В большинстве случаев, для маленькой корпоративной сети или ее сегмента сервер будет выступать в качестве контроллера домена или рабочей группы. По сути, эти типы серверов являются собирательными и несут в себе возможности как по хранению файлов и/или баз данных, так и функции по работе с почтовыми отправлениями, а также по управлению очередью печати сетевого принтера. Нужно отметить, что сборка сервера ничем не отличается от сборки персонального компьютера. Пользователям, знакомым с железом, не составит труда собрать и основу сервера. Отличия же серверов одного от другого, в основном, состоят в наборе программного обеспечения.

Не смотря на то, что аппаратная комплектация сервера мало отличается от комплектности рабочей станции, имеются и свои нюансы. Вследствие того, что на сервер ложится нагрузка по обработке данных большого количества пользователей, конфигурация сервера должна быть более производительной в сравнении с обычным десктопом.

Платформа должна быть максимально производительной. Из процессоров следует выбирать специализированные серверные версии, обладающие высокой скоростью обработки данных. Стоит обратить свой взгляд и на многопроцессорные системы. Оперативной памяти тоже должно быть достаточное количество, чтобы не затруднять работу всей системы. Объем ОЗУ должен быть не менее 8-16 Гб.

Также нужно уделить особое внимание дисковой подсистеме. Необходима установка максимально производительных жестких дисков, а также объединение их в RAID массивы с чередованием, а в случае с файловыми серверами и серверами баз данных еще и с зеркалированием для обеспечения сохранности файлов в случае сбоя. Жесткие диски следует выбирать с интерфейсами SATA или SAS, обеспечивающие высокую пропускную способность до 6 Гбит/сек.

Сетевой адаптер должен иметь достаточную пропускную способность, чтобы не вызывать задержек при обращении к серверу нескольких пользователей одновременно. В некоторых случаях, если, к примеру, сервер используется в качестве шлюза, необходимо установить не один, а 2 сетевых адаптера.

А вот на видеоподсистеме можно очень сильно сэкономить. Так как серверы не выполняют работы по обработке графики, а многие из них вообще не имеют мониторов и управляются удаленно, либо работают в консольном режиме, мощная видеокарта не требуется. Вполне будет достаточно самой простой дискретной или интегрированной видеокарты.

Выбор же программного обеспечения сервера определяется возложенными на него задачами, а также квалификацией обслуживающего персонала. Для домашней сети или сети небольшой организации вполне будет достаточно сетевой версии операционной системы Windows. Для более сложных задач и более квалифицированного обслуживающего персонала, следует присмотреться к POSIX системам, таким как Linux, xBSD и прочим. Данные системы имеют более высокие показатели безопасности и позволяют более тонко настроить сервер, адаптировав его именно под свои задачи.

Чем больше я набираю опыта в администрировании веб-серверов, тем смешнее мне читать то, что пишут в сети о домашнем хостинге. Но самое интересное, что пишут эти мифы те, кто никогда даже не пробовал ставить сервер дома либо вообще ничего об этом не знает. Я отобрал несколько самых распространённых мифов и сейчас их разрушу. После этого дам пошаговое руководство к дальнейшим действиям по постройке своего домашнего веб-сервера.

Для чего нужен домашний web сервер?

Снижение цен на тарифы интернет провайдеров и постоянное увеличение скорости доступа в сеть дают отличную возможность установки web сервера у себя дома. Такой сервер ничем не уступает серверам, расположенным в датацентрах. На нём можно, например, разместить свой блог, сайт или даже магазин да и вообще разместить любой вебсервис. Я знаю случаи, когда на домашнем сервере размещали достаточно крупные коммерческие проекты, всё успешно работало и приносило хороший доход.

Ко всему этому добавлю, что, установив сервер дома, Вы получите огромный опыт в администрировании сервера. С таким опытом Вы впоследствии сможете легко настроить любой сервер, расположенный в датацентре, и Вам не придётся заказывать платную техподдержку.

Домашний сервер - это дорого.

Это самый распространённый миф. В качестве домашнего сервера можно использовать любой компьютер. Например, Вы купили новый, более мощный компьютер, а старый можно превратить в сервер. Но я советую по возможности собирать сервер из новых комплектующих. Можно даже под это дело купить уже собранный системный блок либо неттоп. Для начала этого будет более чем достаточно.

Будут огромные счета за электричество.

Тоже распространённое заблуждение. Тут всё зависит от того, на каких комплектующих Вы собираете свой сервер. Если в основу положено использование материнской платы на базе процессора Intel Atom или ему подобного, то энергопотребление (с двумя sata дисками) будет порядка 50 ватт. В пересчёте на деньги это 60 рублей в месяц. Добавим стоимость статического IP адреса + доступ в интернет (в моём случае это 580 рублей в месяц). Итого получается: 640 рублей в месяц или 7680 рублей в год. Для сравнения… Если Вы будете арендовать в датацентре выделенный сервер с теми же техническими параметрами, то Вам придётся ежемесячно отдавать за него от 1300 рублей.

От сервера много шума, и в комнате его не поставишь

Эта проблема давно не актуальна. Современные комплектующие позволяют собирать полностью бесшумные домашние сервера даже без вентиляторов. В таком случае максимум, что можно услышать, - это шелест жёстких дисков, да и то лишь, если вплотную приложить ухо к корпусу системного блока.

Вот запись звука работы моего сервера, сделанная высокочувствительным микрофоном на расстоянии одного метра от системного блока. При этом в моём сервере имеется два вентилятора охлаждения.

Настроить сервер под силу лишь программисту с большим опытом.

Это тоже миф, хотя он и имеет под собой основание. Дело в том, что в сети есть огромное количество материалов по вопросам администрирования серверов, но нет пошагового руководства для новичков. От этого создаётся впечатление, что всё невероятно сложно. Но это совсем не так. Приведу пример. Вы установили на свой компьютер винду. Затем стали устанавливать необходимый Вам софт и после этого настроили программы под свои нужды.

Вопрос: Вы при этом занимались программированием? Конечно, нет! Вот и с базовой настройкой веб-сервера всё то же самое. Нужно лишь установить необходимый софт и настроить его под свои нужды. А, имея под рукой пошаговую инструкцию, сделать это не составит труда.

Для сервера нужен канал как минимум 100 мегабит

Серьёзное заблуждение. Для сайтов на домашнем хостинге с посещаемостью в 3 - 6 тысяч хостов достаточно и 10 - 15 мегабитного канала.

Ну а если Ваши проекты перерастут эту посещаемость, можно купить канал пошире или переехать на сервер, расположенный в датацентре.

Домашний сервер уязвим, и его сразу взломают

Очень распространённое заблуждение. Я уже писал, что безопасность зависит не от местоположения сервера, а от уровня знаний его администратора. Зачастую домашние сервера имеют защиту серьёзнее, чем шаред хостинг или VDS. К примеру, на большинстве шаредхостингов нет даже элементарной защиты от DoS атак, и в случае атаки Ваш аккаунт просто заблокируют (есть личный опыт). Бывает, что в случае заражения одного сайта на хостинге есть вероятность инфицирования всего сервера. Еще на хостингах редко обновляют или вообще не делают обновлений софта до последних версий, а в старых версиях могут быть дыры... Короче говоря, если грамотно настроить домашний сервер, Вы получите надёжно защищённый веб-сервер, по сравнению с которым любой коммерческий хостинг будет выглядеть дырявым ведром.

С чего начать

Вот Вы взвесили все плюсы и минусы домашнего сервера и решили, что он Вам необходим. Возникает ещё несколько вопросов, первые из которых: с чего начинать и в какой последовательности всё делать? Подготовку, сборку и настройку можно разделить на семь простых шагов.

Узнать у своего интернет провайдера: предоставляет ли он услугу статического IP адреса. А также выяснить: не блокирует ли он порты, например порт 80. А чтобы не было проблем в будущем, лучше напрямую спросить: можно ли поставить на их канал веб-сервер. Моя практика показывает, что большинство адекватных провайдеров лояльно к этому относится и не запрещает использовать подключение в этих целях. Перейти на безлимитный тариф (желательно симметричный). Ширина канала чем больше, тем лучше.

Приобрести все комплектующие, из которых будет собран домашний сервер. После сборки настроить его BIOS на автоматическую загрузку операционной системы после внезапного отключения электроэнергии. Купить роутер и настроить его для работы с сервером, открыв нужные порты . Приобрести источник бесперебойного питания такой мощности, которая обеспечит минимум 15 - 30 и более минут работы Вашего сервера после внезапного отключения электричества в доме.

Скачать операционную систему Debian и сделать загрузочную флешку либо прожечь образ диска на болванку. После этого загрузиться с флешки либо с диска и установить операционную систему, при установке создав программный дисковый массив RAID 1.

Установить на сервер хостинг панель ISPConfig 3 . Затем настроить в этой панели все необходимые службы.

Продолжать самообразование и продвижение сайтов, расположенных на домашнем хостинге. Мифы разбиты. Пошаговое руководство на руках. Ну что ж, приступим к практике!

Введение

Возможно, вы всё же решились и собрались построить свой собственный файловый сервер. Но зачем вообще беспокоиться насчёт выделенного файлового сервера, когда настольные жёсткие диски вашего ПК уже предлагают больше 2 Тбайт пространства? Лично я собрал свой файловый сервер для резервирования данных отдельно от рабочего ПК.

Ещё одна хорошая причина для установки сетевого сервера заключается в облегчении доступа к данным с нескольких компьютеров. Например, если у вас имеется коллекция MP3, и вы хотите слушать музыку из коллекции на HTPC в гостиной комнате, то лучше всего хранить музыку централизованно и прослушивать её по сети.


Модуль Cooler Master 4-in-3 во внешних отсеках корпуса. Он позволил нам использовать на четыре жёстких диска больше, чем стандартно поддерживает корпус. Нажмите на картинку для увеличения.

Конечно, вы можете хранить любую коллекцию файлов на сервере без необходимости копировать многократно ваши данные на несколько систем. Если ваш файловый сервер настроен для использования дискового массива RAID 5 или RAID 6, то он сможет выдержать выход из строя одного жёсткого диска (или даже двух в случае RAID 6) без потери данных - в отличие от информации, хранящейся на единственном жёстком диске настольного ПК.

Почему не NAS?

Существует много различных типов файловых серверов и хранилищ. Самый простой способ хранения данных вне вашего компьютера заключается в использовании внешнего жёсткого диска, который стоит дёшево, работает быстро, а также обеспечивает гибкие возможности подключения. Если ваши данные умещаются на одном жёстком диске, то такой способ будет самым недорогим для резервирования ваших файлов.

Внешние жёсткие диски доступны с разными интерфейсами. Наиболее распространён интерфейс USB 2.0. Он работает не очень быстро (480 Мбит/с), но практически каждый компьютер оснащён портами USB. Ещё один популярный интерфейс - FireWire. Существуют две популярные скорости FireWire: 400 и 800 Мбит/с. Большинство внешних дисков, поддерживающих FireWire, оснащено интерфейсом со скоростью 400 Мбит/с. На практике он оказывается даже быстрее USB. Но, к сожалению, этот интерфейс проигрывает USB по универсальности. Самым современным (и быстрым) интерфейсом для внешних накопителей является eSATA. Он работает на скорости 3 Гбит/с и соответствует при этом производительности внутренних портов SATA; сегодня этот интерфейс даёт большую пропускную способность, чем способен дать любой механический жёсткий диск.


Мой старый файловый сервер. Обычный корпус с хорошим воздушным потоком. Нажмите на картинку для увеличения.

Все эти интерфейсы, благодаря которым накопитель подключается напрямую к компьютеру, являются примером сценария напрямую подключённых хранилищ (direct-attached storage, DAS). Сильные стороны DAS кроются в простоте, производительности и цене. С другой стороны, если основной компьютер выключен, вы не сможете получить доступ к файлам, расположенным на таком хранилище. Ещё одно ограничение следует из прямого подключения к основному компьютеру. Как правило, только этот компьютер сможет обратиться к хранящимся файлам, а если вы попытаетесь предоставить накопитель в общий доступ по сети, то при обращении клиентов к файлам на DAS производительность основного компьютера будет снижаться.

Ограничения напрямую подключённых хранилищ DAS можно обойти, если не подключать хранилище к компьютеру вообще, использовав для этой цели сеть - мы переходим к сетевым хранилищам (network-attached storage, NAS). Если хранилище NAS включено, то вы сможете получить к нему доступ с любого компьютера в сети. Скорее всего, вы будете подключать хранилище через гигабитный сетевой порт (Gigabit Ethernet), которого будет достаточно по скорости для большинства пользователей. Если гигабитного сетевого порта недостаточно, то для ваших задач наверняка потребуется high-end устройство с множеством гигабитных портов, ёмким хранилищем и поддержкой функции объединения портов (teaming).

Хранилища DAS и NAS часто содержат несколько жёстких дисков. Некоторые оснастки позволяют устанавливать пару винчестеров, а некоторые даже ещё больше. Оснастка может поддерживать массивы RAID 0 (чередование, увеличение скорости по сравнению с одним жёстким диском), RAID 1 (зеркалирование, защита от сбоя одного жёсткого диска) или RAID 5 (чередование с избыточностью, увеличивает скорость и защищает от сбоя одного жёсткого диска). Некоторые high-end хранилища могут даже поддерживать массивы RAID 6, которые аналогичны RAID 5, но могут выдерживать выход из строя двух жёстких дисков.

Впрочем, у упомянутых оснасток RAID есть свои ограничения. Стоят они недёшево. Например, хранилище Qnap TS-509 Pro обойдётся в $800 () без жёстких дисков, хотя оно поддерживает массивы RAID 5 и 6. С подобной системой, как и с большинством предварительно сконфигурированных хранилищ, вам придётся использовать предварительно установленное рабочее окружение, которое может быть не таким гибким, как предпочитаемое вами программное обеспечение. Наконец, если некоторые розничные хранилища NAS поддерживают расширение, большинство моделей ограничено одним портом eSATA или парой портов USB.

Что ж, давайте посмотрим, сможет ли обычное компьютерное "железо" достичь тех же целей, что и хранилище NAS.

Конечно, мы имеем в виду другое решение, которое дешевле и обеспечивает большую гибкость: сборка собственного файлового сервера. Причём никаких причин, которые мешали бы вам собрать такой сервер самостоятельно, просто нет. Сборка файлового сервера ничем не отличается от обычного компьютера - точно так же поступают энтузиасты, которые сами собирают свои системы, а не покупают собранные системные блоки в магазине.


Установленный модуль Cooler Master Stacker 4-in-3. Прекрасное устройство, если вы не меняете свои жёсткие диски часто. Нажмите на картинку для увеличения.

Конечно, при сборке файлового сервера придётся принять немало решений. Среди самых важных: какой объём данных вы планируете хранить, какая избыточность вам потребуется, а также сколько жёстких дисков вы планируете использовать. Если вы планируете хранить большие объёмы информации, то мы рекомендуем минимизировать цену одного гигабайта вместо покупки самых ёмких доступных жёстких дисков. Сегодня минимальная стоимость гигабайта наблюдается у жёстких дисков ёмкостью 1,5 Тбайт. Лично мне нравятся массивы RAID 5, поскольку они могут выдержать выход из строя одного жёсткого диска. Если вы планируете использовать больше восьми или десяти жёстких дисков, то лучше собрать несколько массивов RAID 5 на четырёх или пяти винчестерах каждый, либо использовать массивы RAID 6, чтобы защититься от сбоя более одного жёсткого диска.

Корпус


Штатно жёсткие диски устанавливаются в корпус в соответствующие крепления. Обратите внимание на 120-мм нагнетательный вентилятор, обдувающий жёсткие диски. Не менее важно, чтобы передняя панель корпуса пропускала достаточное количество холодного воздуха. Нажмите на картинку для увеличения.

Вам потребуется достаточно крупный корпус, чтобы вместить все ваши жёсткие диски. Впрочем, если вы уже купили слишком маленький корпус, никто не мешает позднее перенести систему в более крупную модель.

Корпус должен обеспечивать достаточное охлаждение жёстких дисков. В принципе, сегодня можно купить разнообразные модели корпусов, удовлетворяющие этому условию. Для первого файлового сервера я взял простой корпус. Он использовал 120-мм вентилятор для охлаждения жёстких дисков спереди, а также предусматривал 120-мм вытяжной вентилятор сзади. К нему я добавил модуль "Cooler Master 4-in-3" с отдельным 120-мм вентилятором для охлаждения жёстких дисков. Этот модуль прекрасно подходит для установки дополнительных винчестеров. Разве что для смены одного жёсткого диска приходится извлекать весь модуль целиком.

Для второго файлового сервера я выбрал две оснастки Supermicro SATA с "горячей" заменой, каждая из которых способна вместить пять жёстких дисков. Они стоят намного дороже модуля Cooler Master, но и предоставляют больше функций. Оснастки Supermicro использовали очень громкий 92-мм вентилятор (который я замедлил с помощью контроллера вентиляторов), поднимали тревогу, если вентилятор остановится или температура поднимется слишком сильно, а также отображали доступ к каждому жёсткому диску. Но, что удобнее всего, оснастка позволяла менять жёсткие диски, не открывая сам корпус, а если операционная система поддерживала "горячую" замену, то и без выключения компьютера.

Сетевой интерфейс


Материнская плата Asus CUR-DLS, два Pentium III 933 и 1,1 Гбайт памяти ECC. Нажмите на картинку для увеличения.

Для файлового сервера не помешает гигабитный сетевой интерфейс Gigabit Ethernet, который ускорит сетевые операции. Не помешает и поддержка jumbo-кадров, если ваш Ethernet-коммутатор и сетевой адаптер буду с ними работать (большинство новых устройств их поддерживают).

Изначально протокол Ethernet предусматривал максимальный размер кадра 1500 байт. Этого было достаточно, когда скорость сети составляла 10 Мбит/с. Когда была представлена гигабитная скорость вместе со стандартом Gigabit Ethernet, служебная информация, связанная с пакетами небольшого размера, стала весьма существенной. Поэтому индустрия де-факто согласилась поддерживать пакеты большего размера - был выбран размер 9000 байт. То есть вы можете передавать такое же количество данных, что и с пакетами стандартного размера, но число пакетов будет в шесть раз меньше, то же самое касается и объёма служебной информации.

На практике вы можете экономить вычислительные ресурсы CPU и повышать пропускную способность с помощью таких jumbo-кадров, если производительность сети является ограничивающим фактором при передаче файлов. Если же ваш коммутатор не поддерживает jumbo-кадры, то пакеты проходить не будут, поэтому данную функцию придётся отключить.

С другой стороны, вы можете купить 8-портовыый коммутатор примерно за $40. Большинство современных материнских плат оснащены поддержкой Gigabit Ethernet "на борту", но если ваша материнская плата не поддерживает гигабитную сеть, то лучше купить сетевую карту PCI-X или PCI Express (PCIe) вместо 32-битной карты PCI. У нас имеется весьма успешный опыт работы с сетевыми картами PCI-X от Intel и Broadcom.

Блок питания


Интерьер корпуса. Конечно, он выглядит не так красиво с четырьмя кабелями PATA, семью жёсткими дисками, приводом DVD и проводами питания. Нажмите на картинку для увеличения.

Внутренние компоненты должны достаточно хорошо охлаждаться. Чем меньше тепла будет создаваться внутри, тем меньше придётся выбрасывать наружу. Поэтому лучше взять экономичные жёсткие диски , которые потребляют меньше энергии, чем стандартные модели. То же самое касается и процессоров - экономичные CPU могут снизить энергопотребление и тепловыделение системы. Мы рекомендуем взять оба варианта.

Кроме того, мы рекомендуем выбрать эффективный блок питания, соответствующий стандарту "80 PLUS". На рынке присутствуют блоки питания стандартов 80+ Bronze (82%) и 80+ Silver (85%) с разумной ценой. Кроме того, важно правильно подобрать мощность блока питания. Жёсткие диски потребляют больше всего энергии во время раскручивания пластин. Хороший контроллер жёстких дисков использует отложенный запуск пластин, чтобы минимизировать этот эффект. Впрочем, мы пока ещё не встречали контроллеры, интегрированные в чипсет, которые бы поддерживали эту функцию.

Оба моих сервера используют блоки питания с эффективностью выше 80%. Первый сервер построен на базе двух 933-МГц процессоров Pentium III, шести 250-Гбайт жёстких дисков и винчестера с операционной системой. Пиковое энергопотребление во время загрузки составляет 214 Вт, а энергопотребление при 100% нагрузке на CPU - 95 Вт. Второй сервер использует два 2,8-ГГц процессора Xeon с пониженным энергопотреблением и шесть 750-Гбайт жёстких дисков плюс винчестер с операционной системой. Пиковое энергопотребление во время загрузки составляет 315 Вт, во время бездействия - 164 Вт, а во время 100% нагрузки на CPU - 260 Вт.

Если у вас не установлено ещё шесть жёстких дисков в массиве или вы не используете очень горячий CPU, то вам не потребуется блок питания с заявленной мощностью выше 400 Вт. Конечно, блок питания должен давать достаточно энергии для различных линий напряжения, которые нужны компьютеру, но покупка модели на 750 Вт и выше станет пустой тратой денег. Да и работать такой блок питания будет менее эффективно, чем 400-Вт модель.

Память

Большинство энтузиастов не очень много времени уделяют надёжности работы памяти. Их больше интересуют тактовые частоты и задержки, которые в данном сценарии менее важны, чем надёжность. Когда данные поступают в файловый сервер или передаются на клиентские компьютеры, они сначала сохраняются в оперативной памяти. Да и данные на диске кэшируются тоже в памяти. Лучшие готовые файловые серверы используют память с коррекцией ошибок (error correcting code, ECC), а самые дешёвые построены на обычной памяти. На мой взгляд, вряд ли имеет смысл собирать высокопроизводительный файловый сервер, и при этом не использовать память ECC.


Карта контроллера Supermicro MV8, вставленная в слот PCI-X. Нажмите на картинку для увеличения.

Память вряд ли можно считать источником постоянных ошибок, но время от времени случайные ошибки могут происходить. По оценкам IBM, у 1 Гбайт памяти случайная ошибка происходит раз в неделю. Причиной подобных ошибок являются альфа-частицы в упаковке памяти и космические лучи. Однако у памяти ECC существует дополнительный механизм, который определяет и исправляет ошибки памяти. Стандартная память ECC может определять все 2-битовые ошибки в 64 битах памяти и исправлять 1-битовые ошибки. Есть контроллеры ECC и более высокого класса, например, которые IBM предлагает с памятью Chipkill.

Ошибки в областях памяти, которые будут перезаписаны перед чтением, либо в неиспользуемых областях памяти проблем не вызывают. Но ошибка памяти, которая каким-либо образом скажется на обработке данных, это уже плохо. Серьёзные серверные материнские платы, например, модели от Tyan и Supermicro, способны фиксировать ошибки памяти в журнале. Менее дорогие материнские платы, такие как Asus CUR-DLS и Asus NCCH-DL в моих серверах, поддерживают память ECC, но не журналируют ошибки памяти.

Есть чипсеты, которые не поддерживают память ECC вообще, и материнские платы на этих чипсетах тоже не будут поддерживать память ECC. Мы рекомендуем использовать только материнские платы с поддержкой ECC и устанавливать в них память ECC. Если вас серьёзно беспокоят ошибки памяти, то лучше всего выбирать материнскую плату с поддержкой технологии IBM Chipkill, которая определяет и исправляет многие многобитовые ошибки и даже может продолжать работу, если один чип памяти даст сбой.

Шины


120-мм вытяжной вентилятор сзади за чёрной решёткой. Нажмите на картинку для увеличения.

Большинство старых материнских плат поддерживают 32-битные слоты PCI, которые подключены к общей шине и совместно используют доступную пропускную способность. Если взглянуть на диаграмму чипсета этих материнских плат, то контроллер Ethernet, контроллеры IDE и SATA - все они подключены к шине PCI. Если сложить пропускную способность дисков и Ethernet, то мы упрёмся в теоретическое ограничение 133 Мбайт/с. Работать наша система, конечно, будет, но всё это приведёт к замедлению файлового сервера.

Существует большое количество старых серверных материнских плат, которые оснащены слотами PCI-X (не путать с PCI Express). Эти слоты более интересны, поскольку они используют шину, которая отделена от 32-битной шины PCI. Если вы установите контроллеры жёстких дисков в слоты PCI-X, то пропускной способности ввода/вывода ничего мешать не будет.

Мой первый файловый сервер использовал материнскую плату Asus CUR-DLS с 64-битными 33-МГц (266 Мбайт/с) слотами PCI-X. Второй файловый сервер был собран на материнской плате Asus NCCH-DL с 64-битными 66-МГц слотами PCI-X, которые поддерживают пропускную способность 533 Мбайт/с - быстрее, чем у шести моих накопителей SATA. Карта контроллера может работать с шиной до 133 МГц, что может дать пропускную способность до 1066 Мбайт/с на новых материнских платах.

Если ваша платформа поддерживает PCI Express, то слоты с количеством линий больше одной окажутся достаточными для домашнего файлового сервера, да и пропускная способность 266 Мбайт/с довольно хороша.

Есть ещё одно потенциальное "узкое место", которое нужно учитывать: соединение между южным и северным мостом на вашей материнской плате. Хотя Asus NCCH-DL оснащена 64-битными 66-МГц слотами PCI-X, связь между мостами осуществляется со скоростью всего 266 Мбайт/с. В теории это должно ограничивать пропускную способность ввода/вывода. К счастью, на практике проблемы с этим возникают редко, да и новые чипсеты обычно поддерживают более высокие скорости интерфейса между мостами.

Контроллер


Оснастки для жёстких дисков Supermicro. Им требуется всего два подключения питания. Я добавил контроллер вентилятора к каждой оснастке, чтобы замедлять скорость вращения. Нажмите на картинку для увеличения.

Многие современные материнские платы оснащаются шестью портами SATA 3 Гбит/с. У старых моделей может быть меньше портов, да и они могут использовать менее скоростной стандарт SATA 1,5 Гбит/с. Так что высока вероятность, что вам придётся докупать в систему карту контроллера.

На рынке можно найти разнообразные карты контроллеров с разными интерфейсами. Что касается новых систем, то наиболее популярны карты с интерфейсом PCI Express. Данный интерфейс обеспечивает значительную пропускную способность, а старый интерфейс PCI-X даёт достаточную пропускную способность для старых систем. Для менее дорогих систем можно использовать 32-битную шину PCI, хотя она будет ограничивать производительность.

Существуют обычные карты-контроллеры накопителей (host bus adapters) и RAID-контроллеры. Если использовать терминологию Linux, то карты RAID можно разделить на две группы: FakeRAID и настоящий RAID. Если карта выполняет вычисления информации избыточности XOR самостоятельно, то её можно считать настоящим RAID-контроллером. Иначе она будет использовать CPU для этих вычислений и программные драйверы.

Наш новый сервер использует карту Supermicro SAT2-MV8 с восемью портами SATA 3 Гбит/с. Это контроллер с интерфейсом PCI-X, который может работать с частотой до 133 МГц. Карта весьма приятная, с хорошей программной поддержкой. Мы выбрали её по той причине, что наша материнская плата не имеет портов SATA 3 Гбит/с, но оснащена слотами PCI-X.

Мы также приобрели простую карту-контроллер HBA Rosewill с четырьмя портами SATA 1,5 Гбит/с. Она использует 32-битный интерфейс PCI, хотя может работать с интерфейсом на 33 и 66 МГц. Карта поддерживает конфигурации JBOD, которые и требуются для программного RAID. Наша плата Asus NCCH-DL оснащена контроллером Promise PDC20319, то есть ещё одним простым HBA, однако он не поддерживает JBOD, поэтому был бесполезен в данном случае.


Мы использовали две PCI-карты Promise PATA. Они распложены на выделенной шине, к которой не подключены другие устройства. Нажмите на картинку для увеличения.

Неплохо также проверить поддержку под Linux вашего контроллера (если вы планируете устанавливать эту систему на ваш файловый сервер). Для этого следует узнать модель контроллера накопителей на карте и проверить поддержку его под Linux. Конечно, если производитель карты предоставляет драйвер под Linux, то вам повезло.

Жёсткие диски

Мы рекомендуем жёсткие диски SATA. Они сегодня доступны в больших ёмкостях, да и стоят весьма доступно. Архитектура SATA относится к типу "точка-точка", то есть пропускную способность интерфейса с другими устройствами делить не придётся. Я собрал свой первый файловый сервер на жёстких дисках с параллельным интерфейсом ATA (PATA), при этом к каждому каналу я подключил два винчестера. Но если один жёсткий диск выйдет из строя, то контроллер, скорее всего, запишет в сбойные диски оба винчестера на канале и повиснет. Если вы купите приличный RAID-контроллер PATA, то он наверняка будет поддерживать по одному жёсткому диску на канал, чтобы предотвратить эту проблему. Конечно, в случае PATA придётся смириться с мешаниной кабелей. Это одна из причин, почему индустрия перешла на интерфейс SATA.

Центральный процессор


Asus NCCH-DL. Два процессора Xeon (SL7HU) с пониженным энергопотреблением работают на 2,6 ГГц. Нажмите на картинку для увеличения.

Для файлового сервера вам вряд ли потребуется суперскоростной CPU. Но неплохой идеей можно считать установку более одного процессора. Один CPU будет нагружен расчётом информации избыточности (необходима для RAID 5), а если же вы выбрали RAID 6, то процессору придётся выполнять ещё больше расчётов, на что потребуется больше ресурсов CPU.

Наш первый файловый сервер использовал два 933-МГц процессора Pentium III. Мы наблюдали 100% загрузку CPU во время перестройки массива RAID, поэтому мы рекомендуем более быстрые процессоры. Второй файловый сервер использовал два 2,8-ГГц процессора Xeon с поддержкой Hyper-Threading, при этом мы так ни разу и не видели, чтобы оба ядра получали 100% загрузку CPU.

2-ГГц двуядерного процессора AMD, скорее всего, будет достаточно. Конечно, новые процессоры работают более эффективно, поэтому если у вас есть под рукой более современная платформа, то вы сможете сэкономить энергию и получить вместе с тем лучшую производительность.

Если бы я покупал новый процессор для файлового сервера сегодня, то наверняка выбрал бы медленный и дешёвый AMD Phenom II. Причина кроется в том, что сам процессор стоит дёшево, материнские платы под него тоже стоят весьма разумно, процессор работает без сильного нагрева, а чипсеты материнских плат, как правило, поддерживают память ECC и Chipkill.


Мой новый файловый сервер на основе Cooler Master Stacker. Спереди можно заметить две оснастки Supermicro SATA c "горячей" заменой, в каждую из которых можно установить до пяти жёстких дисков. Нажмите на картинку для увеличения.

UPS

Независимо от выбранного "железа", вам следует использовать UPS, чтобы система была защищена от сбоев электросети. Можно купить дешёвый UPS, но качественный блок бесперебойного питания окупит себя в долгосрочной перспективе. Как минимум, UPS должен позволить вам выключить файловый сервер стандартным образом до окончания заряда UPS, что требует три-пять минут автономной работы. Ещё приятно и то, что у большинства UPS присутствует защита от перенапряжения в сети.

Цены

Конечно, разброс цен довольно существенный, и в итоге затраты на файловый сервер зависят от требуемого объёма для хранения данных, а также от "железа", которое лежит у вас без дела. Ниже приведена смета типичного файлового сервера энтузиаста.

  • Корпус: $150 за модель, схожую с моим Cooler Master Stacker 810. При выборе учитывайте возможность установки большого количества жёстких дисков.
  • Блок питания: $50 за 350-Вт модель с сертификацией 80 PLUS.
  • Жёсткие диски: шесть 1-Тбайт винчестеров, примерно $80 каждый.
  • Жёсткий диск для операционной системы: бесплатный, если под рукой есть 10-Гбайт накопитель.
  • DVD-привод: $20.
  • Материнская плата: $100 за б/у материнскую плату для установки двух процессоров Opteron с 2-4 Гбайт памяти ECC, если у вас под рукой нет ненужного "железа". Можно начать с материнской платы для двух процессоров Pentium III, которую можно найти за копейки. За новую материнскую плату с гарантией будьте готовы отдать больше $150.
  • Память: $50.
  • CPU: $100.
  • Контроллер SATA: $100.

Итоговая цена составляет около $420-$620 плюс $540 за жёсткие диски. За эти деньги вы получите файловый сервер с 5-Тбайт массивом RAID 5, который можно легко расширить до восьми или большего количества жёстких дисков. Если вы собираете сервер самостоятельно, то наверняка сможете использовать различные старые комплектующие. В результате вы получите сервер дешевле, чем большинство моделей NAS, которые могут вмещать четыре или пять жёстких дисков, ваша система будет работать быстрее, и будет обеспечивать намного лучшую гибкость.

Программное обеспечение


Интерьер нового файлового сервера. Нажмите на картинку для увеличения.

Итак, файловый сервер собран. Для тестов мы рекомендуем использовать Knoppix Linux - систему, которая загружается с CD или DVD. Вы сможете проверить, распознает ли ОС Linux всё ваше "железо". Что касается Windows, то под эту систему практически всегда есть драйверы от производителя, которые достаточно хорошо протестированы. Вместе с тем под Linux предлагают драйверы далеко не все производители, поэтому зачастую приходится использовать драйверы, написанные энтузиастами Linux.

Конечно, более опытные производители предоставляют драйверы под Linux. Например, все беспроводные контроллеры Intel 802.11x снабжаются драйверами напрямую от Intel. Мы рекомендуем брать "железо" тех производителей, кто занимается поддержкой своего оборудования под Linux.

Старое "железо", которому исполнилось несколько лет, практически всегда имеет хорошую поддержку со стороны сообщества Linux. Если в драйверах были обнаружены какие-либо ошибки, то велика вероятность, что они исправлены.

Кроме того, вполне возможно, что самые свежие дистрибутивы Linux будут поддерживать ваше "железо", а чуть более старый дистрибутив Knoppix - не будет. Такая ситуация часто случается с самым новым "железом". В общем, запишите на диск самый свежий дистрибутив Knoppix, укажите в BIOS загрузку с CD, после чего ваш компьютер запустит Knoppix.

Ещё одной полезной возможностью будет загрузочный тест memtest86+. Обычно я запускаю его в течение суток, чтобы убедиться в стабильной работе системы и отсутствии ошибок памяти. Нет никакого смысла устанавливать ОС и программное обеспечение, если система работает нестабильно.

Операционная система


Задняя часть корпуса со 120-мм вытяжным вентилятором. Нажмите на картинку для увеличения.

Существует несколько вариантов выбора операционных систем, которые поддерживают программные массивы RAID, например, ОС Microsoft Windows Server с поддержкой RAID 5. Можно даже настроить Windows XP для поддержки RAID 5 .

Впрочем, мы не рекомендуем Windows по нескольким причинам. Первая: эта система стоит дорого. Цены на Windows Server 2008 начинаются примерно с уровня $999. Ещё одна причина заключается в том, что Windows не даёт таких современных опций по поддержке RAID, как другие операционные системы. Наконец, Windows (по мнению автора) менее безопасная и надёжная ОС, что немаловажно для файловых серверов.

Существует несколько способов оценки надёжности и безопасности, при этом вы можете найти немало отчётов, некоторые из которых финансируются самими производителями. Например, хороший . Хотя он и датирован 2004 годом, основные моменты остаются верными и сегодня. Для 40 лидирующих уязвимостей рейтинг опасности системы Microsoft составил 54,67, а Red Hat Linux - 17,96. Если вы планируете использовать ОС Windows для файлового сервера, то сначала ознакомьтесь с отчётом.

Затем можно выбрать одну из доступных версией BSD: OpenBSD, FreeBSD и другие. Они бесплатные, при этом отличаются разумной надёжностью и безопасностью. Но самым главным недостатком является то, что эти ОС не такие современные, как Linux в отношении поддержки RAID.

ОС OpenSolaris тоже бесплатная, при этом она надёжная и безопасная. Но аппаратная поддержка у этой ОС весьма ограничена. С другой стороны, здесь вы получите ZFS - на сегодня это наиболее продуманная, надёжная и стабильная файловая система. Кроме того, она включает поддержку RAID 5 и RAID 6. Данная ОС не такая популярная, как Linux, но если вы с ней знакомы, то выбор для файлового сервера окажется весьма достойным.

Наконец, есть Linux, которая тоже бесплатная, надёжная и безопасная. У этой ОС замечательная поддержка "железа", присутствует поддержка массивов RAID 5, RAID 6, RAID 10 и практически любых других видов RAID. Linux развивается довольно быстро, новое "железо" практически сразу получает поддержку, да и новые программные функции добавляются регулярно. Когда вы обновляете систему Linux, вам даже не требуется её перегружать, поэтому системы Linux могут непрерывно работать многие месяцы или даже годы.

Существует множество разных дистрибутивов Linux. Некоторые, подобные Red Hat, обеспечивают лучшую долгосрочную поддержку по сравнению с другими дистрибутивами. Другие, подобные Fedora (тоже распространяется Red Hat), нацелены на быструю интеграцию в дистрибутив новых программ. Основное преимущество Ubuntu заключается в дружественности к пользователю, поэтому данный дистрибутив наиболее популярен. Вы можете .

Мы же выбрали Mandriva Linux, поскольку раз в два года выходят новые релизы, поддержка длится несколько лет, да и все необходимые функции в этом дистрибутиве присутствуют. Впрочем, подойдёт любой приличный дистрибутив Linux. Дополнительную документацию можно получить . По ссылке вы найдёте очень хорошую инструкцию по Mandriva, с которой мы рекомендуем ознакомиться перед установкой Linux впервые.




Top