Серверная моей мечты +2




Если говорить о мечтах, они не всегда рациональны. Иногда хочется удовлетворить свою “хотелку” любыми путями, так как избавиться от этой идеи невозможно. Прямо как в фильме Начало: “Идея похожа на вирус, она живуча и крайне заразна. Мельчайшее зёрнышко идеи способно прорасти и либо стать частью тебя, либо уничтожить тебя”.

Кому-то хочется купить Ламборгини, когда он живёт в городе без хороших дорог и скоростных трасс. Кто-то мечтает жить в огромном трехэтажном особняке с сотней комнат, пятью гаражами и комнатой для грязи. Один.

А мне захотелось помечтать об идеальной серверной, где каждый элемент будет работать безупречно, пускай даже некоторые решения будут очень дорогими, а вся идея – это всего лишь полёт фантазии.

Серверная – храм сисадмина 

Трон главного сисадмина.
Трон главного сисадмина.

Многие из вас уже были в серверной, заглядывали туда краем глаза или в крайнем случае видели в фильмах. В кино зачастую серверная выглядит, как кабина пилота космического челнока, но в жизни всё намного прозаичней – под IT-инфраструктуру переоборудуют старую кладовку, ставят туда пару стоек и кондиционер. Но по уму надо проектировать комнату или строить отдельное здание.

Серверное оборудование встаёт в копеечку – сотни тысяч или миллионы рублей. Может показаться, что это много, но по опыту нашего системного архитектора оборудование составляет ≈10% от общих затрат на серверную. Это определяется требованиями бизнеса. Также оно обеспечивает работу бизнес-процессов, а потому к серверным выдвигаются определенные требования и рекомендации.

Например:

  • Повышенное давление, чтобы пыль не попадала внутрь;

  • Резервные источники электропитания: ИБП, дизель-генераторы и т.п.;

  • Уровень пола выше, чем в других помещениях. Используется в серверных, где СКС под фальшполом;

  • Дополнительное кондиционирование воздуха, чтобы поддерживать влажность 40-50% и температуру в пределах 20-25º С.

За всем этим добром надо следить, обновлять, в общем – обслуживать. Для этого компании нанимают сисадминов (одного или нескольких), которые настраивают и проверяют резервирование, обновляют софт, устраняют неполадки, например, бэды на жёстких дисках, следят за безопасностью и многим другим.

Созданием и планированием нашей идеальной серверной комнаты как раз займётся гипотетический сисадмин с неограниченным бюджетом и полномочиями. В общем, он попал в некий сисадминский рай. Ну или ад, тут уж зависит от точки зрения :D

В своих мечтах он, разумеется, не будет планировать, в каких местах штробить стену, чтобы сделать розетки, а сделает упор на свои мечты и концептуальное виденье:

  • В каком помещении расположиться;

  • Как сделать постоянный микроклимат внутри;

  • Как организовать отказоустойчивость всех инженерных систем;

  • Как обеспечить пожарную безопасность, сделать СКУД и многое другое.

Дата-центр — старший брат серверной комнаты

Любой центр обработки данных является по своей сути серверной комнатой на стероидах. Задачи, которые решают ЦОД и серверная, могут пересекаться. Разница в основном в масштабах, бюджете, сертификации и надежности.

При его создании используются комплексные инженерные и IT-решения, а также определенные отраслевые стандарты. Например, американские стандарты TIA-942, TIA/EIA-568-B или европейский EN 50173−5. Почему? Когда мы говорим о ЦОДах, в последнюю очередь хочется получить непредсказуемый результат.

Ну и конечно же размышлений на этот счёт может быть +∞, поэтому дополняйте своими идеями. Уверен, что всем будет интересно.

Классификация

Поскольку спектр решаемых задач огромен, то классификация ЦОДов имеет множество параметров:

  • По целям использования:

    • Корпоративный (наш вариант) – решает задачи владельца или заказчика;

    • Смешанный – решает задачи владельца и арендаторов;

    • Хостинговый – сдаётся в аренду.

  • По размеру и количеству серверов – очень условное разделение (это самостоятельные объекты, а потому помимо серверов есть и всё сопутствующее необходимое оборудование):

    • Микро – де-факто это серверная, чаще всего создаётся в пределах основного помещения компании, вмещает ≈ до 5 серверов;

    • Малые – серверная побольше, может быть в пределах основного помещения или на стороне, вмещает ≈ от 5 до 24 серверов;

    • Средние – ЦОД, чаще всего отдельное здание или помещение, вмещает ≈ от 25 до 100 серверов;

    • Крупные – ЦОД, отдельное здание, вмещает ≈ от 100 и более серверов.

  • По назначению (оба варианта наши):

    • Основной – вся нагрузка на нём;

    • Резервный – берёт на себя нагрузку, когда случается форс-мажор, или нужно обслуживание оборудования основного ЦОДа.

  • По типу построения:

    • Контейнерные – зачастую мобильные ЦОДы, которые размещают в адаптированных грузовых контейнерах;

    • Мобильные – это может быть любой ЦОД, приспособленный для перемещения машинами, поездами, кораблями, самолётами и т.д;

    • Стационарные – ЦОДы, размещённые в здании (или в его части):

      • Здание, возведённое специально под ЦОД;

      • Переоборудованное модернизированное здание;

      • Трэш – самый дешевый вид, размещается в неприспособленных зданиях и помещениях (склад, ангар);

  • По типу размещения на местности: 

    • Надземный – всё понятно, классической ЦОД над землёй;

    • Подземный – шахты, бывшие бункеры, тоннели, подземные хранилища;

    • Плавучий – на каком-либо водоёме, охлаждается также водой.

  • По отказоустойчивости:

Система классификации Uptime Institute (UI) выделяет 4 прогрессивных уровня отказоустойчивости ЦОДов (каждый последующий наследует все предыдущие уровни). UI сертификацию проходят такие компании, как Compass Datacenters, Huawei, DXN и многие другие.

  • Tier I – 99,671% или 1729 минут простоя за год

ЦОД уровня Tier I — это базовый уровень пропускной способности инфраструктуры для поддержки информационных технологий в офисе и за его пределами. Требования для объекта уровня Tier I включают:

  • Источник бесперебойного питания (ИБП) для случаев проседания напряжения, отключений и скачков напряжения;

  • Область для IT-систем;

  • Специализированное охлаждающее оборудование, которое работает не только в рабочее время;

  • Двигатели-генераторы на случай отключения электроэнергии.

Уровень Tier I защищает от ошибок, вызванных человеческим фактором, но не от непредвиденных отказов или перебоев. Дополнительное оборудование включает в себя чиллеры, насосы, модули ИБП и двигатели-генераторы. Объект подлежит полному отключению для профилактического обслуживания и ремонта, при этом невыполнение этого требования увеличивает риск незапланированных перебоев и серьезных последствий из-за сбоя системы.

Назначение: Server’s location.

Применение: размещение некритичных по доступности серверов, таких как системы хранения архивов, резервного копирования, почтовых серверов, системы складского учета, бухгалтерские базы данных, развертывание вспомогательных web-сервисов.

  • Tier II – 99,741% или 1361 минут

Объекты уровня Tier II охватывают компоненты избыточной мощности, обеспечивающие питание и охлаждение, которые гарантируют более высокое качество обслуживания и безопасность при сбоях. К этим компонентам относятся:

  • Двигатели-генераторы;

  • Аккумуляторы;

  • Чиллеры;

  • Охлаждающие установки;

  • Модули ИБП;

  • Насосы;

  • Оборудование для отведения тепла;

  • Топливные баки;

  • Топливные элементы.

Путь к уровню Tier II обеспечивает критическую среду, а компоненты можно удалять без отключения системы. Как и объект уровня Tier I, непредвиденное отключение ЦОД уровня Tier II повлияет на систему.

Назначение: Web и Back Office.

Применение: размещение базовых web-сервисов и сайтов, развертывание служебных бизнес-систем, баз данных и некритических бизнес-приложений, хостинг (включая визуализацию и облачные решения начального уровня); хостинг небольших игровых серверов.

  • Tier III – 99,982% или 95 минут

ЦОД уровня Tier III с возможностью обслуживания без отключения полезной нагрузки (Concurrently Maintainable) оснащается резервными компонентами и несколькими независимыми каналами распределения, обслуживающими IT-нагрузку. В отличие от уровней Tier I и Tier II, эти объекты не требуют остановки в случае технического обслуживания или замены оборудования. Компоненты уровня Tier III добавляются к компонентам Tier II, чтобы любую деталь можно было выключить без воздействия на IT-операции.

Назначение: Business Critical.

Применение: Критические бизнес-приложения и базы данных с требованием высокой доступности, коммерческие SaaS и PaaS сервисы, облачные вычисления и виртуализация среднего уровня; сервисы, обслуживающие торговлю на бирже.

  • Tier IV – 99,995% или 26 минут (выбор нашего гипотетического админа)

ЦОД уровня Tier IV имеет несколько независимых и физически изолированных систем, которые действуют как компоненты избыточной мощности и каналы распределения. Разделение необходимо для предотвращения повреждения обеих систем. Среда не пострадает в связи с проведением запланированных и незапланированных мероприятий. Однако если компоненты избыточной мощности или каналы распределения отключены для технического обслуживания, среда может столкнуться с повышенным риском нарушения в случае сбоя.

Объекты уровня Tier IV добавляют отказоустойчивость (Fault Tolerance) к топологии Tier III. При сбое части оборудования или сбое в канале распределения IT-операции не пострадают. Всё IT-оборудование должно обладать отказоустойчивостью (Fault Tolerant) в части энергоснабжения. ЦОД уровня Tier IV также требуют непрерывного охлаждения (Continuous Cooling) для обеспечения стабильности окружающей среды.

Назначение: Business Continuity.

Применение: Глобальные бизнес-приложения высокой доступности, инфраструктурные решения, глобальные облачные вычисления и облачная виртуализация; инфраструктура банков.

Как вы уже догадались, наш сисадмин в раю будет создавать серверную комнату с оглядкой на стандарты ЦОДов.

Когда уснул и видишь сон об идеальной серверной.
Когда уснул и видишь сон об идеальной серверной.

Идеальная серверная

Создание серверной мечты начинается с выбора помещения. Здесь есть два пути: сделать серверную в уже имеющемся помещении или создать новое с учётом всех нюансов и “хотелок”. Поскольку наш гипотетический сисадмин ничем не ограничен, он выбирает второй путь. Итак:

  • Выбор места.

Серверная будет подальше от вентиляционных шахт, лифтов, подвалов, труб с водой, дренажных систем и любителей потыкать мигающие кнопки. Главный распределительный пункт (ГРП) будет внутри. От окон откажемся, чтобы солнечные лучи не попадали на оборудование, не заползали жучки, проще было поддерживать внутренний микроклимат и не отвлекаться на тополиный пух, жару, июнь на улице. Эх...

  • Учтём нагрузку на перекрытия, чтобы серверы не упали.

Шкаф 42U, загруженный серверами и другим оборудованием, может весить больше тонны. Ширина шкафа – 600 мм, а глубина 800 мм. Получается, что площадь, которую он занимает на полу – 0,48 м². А шкафов может быть несколько. Поэтому наш пол будет выдерживать от 2000 кг/м², чтобы с запасом и наверняка.

  • Сделаем высокие потолки, чтобы вместить фальшпол + стойки высотой в 42U.

Фальшпол возьмем 500 мм + 2000 мм шкаф и запас в 500 мм. Итого нам нужны потолки высотой в 3 метра. 

  • Чистая комната.

Мы отдадим предпочтение белым стенам, полам, потолкам и оборудованию. Плюс яркое освещение. Любая грязь в такой серверной будет видна сразу. Чтобы не допустить попадания пыли внутрь, мы повысим давление. Приточный воздух будет фильтроваться и поступать в большем объеме, чем убывать.

  • Сделаем комнату с гидро и шумоизоляцией

Серверная – это шумное техническое помещение, не рассчитанное на долгое нахождение людей внутри. С шумоизоляцией всё понятно – это толстые стены и дверь с уплотнителями. Потолок же гидроизолируем, чтобы не допустить протечку воды. Сделали один раз и забыли.

  • Подключим 3 интернет-провайдера с SLA.

Для надежности надо минимум 3 магистральных провайдера, так как на практике бывают случаи одновременного отключения сразу нескольких. А для автопереключения нам понадобится собственный диапазон IP, иначе бессмысленно. Ну и SLA, чтобы получать быструю поддержку.

  • Кондиционирование с прецизионным охлаждением и контролем влажности.

Для охлаждения будем использовать межрядные блоки, которые осуществляют теплообмен с серверами. Принцип работы такой: фреоновый контур связан с выносным воздушным охлаждением. Шкаф при этом может быть как закрытым, так и открытым. Подобное охлаждение при небольших габаритах позволяет очень точно задать температуру, относительную влажность, а также вести удобный мониторинг и обслуживание.

Нужные нам параметры возьмём из TIA-942 и будем их придерживаться:

  • Температура по сухому термометру психрометра: от 20-25º С

  • Относительная влажность: от 40% до 50%;

  • Точка росы: не более 21º С ;

  • Скорость изменения: не более 5º С в час.

Разумеется, данные параметры должны поддерживаться во время работы серверов, поэтому и задавать их будем только после включения всего оборудования и штатной нагрузки. При дальнейшей модернизации нужно также не забывать регулировать кондиционирование.

Помимо межрядных блоков организуем расположение шкафов и стоек по перемежающейся схеме, чтобы передняя сторона в каждом ряду была обращена к передней же стороне другого ряда, создавая «горячие» и «холодные» коридоры.

  • Сделаем фальшпол и спрячем под ним СКС

СКС – это структурированная кабельная сеть. Хуже всего в серверной – это хаос и беспорядок. Поэтому проблему решим кардинально, спрятав всё под антистатический фальшпол. Обычный пол может накапливать статический заряд, а если случится разряд, то это может повредить оборудование.

При этом фальшпол даст нам ещё несколько преимуществ:

  • Заземление с медной сеткой;

  • Лёгкий доступ ко всем коммуникациям через люки; 

  • Возможность установить дополнительное охлаждение (если потребуется); 

  • Защита от затопления.

Настройка СКС – это скорее инженерное искусство, в котором есть миллионы нюансов. Наш сисадмин реализует несколько моментов, которые точно хотел бы видеть в своей серверной, но спектр работ этим не ограничится:

  • Ориентирование на стандарты EN 50173, ISO/IEC 11801;

  • Оптическая подсистема на оборудовании класса ОМ4 (высокоскоростное многомодовое оптическое волокно типа 50/125);

  • Медная подсистема восьмой категории CAT 8 (полоса пропускания – от 1 МГц до 2000 МГц);

  • Все патч-корды в медной подсистеме с защитой;

  • Печатная и долговечная маркировка патч-кордов и патч-панелей, чтобы прочитать информацию мог кто угодно;

  • Нумерация розеток и серверной части разводки;

  • Вся маркировка будет проходить по заранее составленной схеме с учётом плана здания;

  • Розетки только качественные и дорогие: чтобы сердечник не болтался, была крышка с защитой от пыли, а обжим витой пары с помощью ударника.

Все вышеописанные меры позволят с комфортом обслуживать серверную, и даже внешний сисадмин быстро разберётся, где, что и как;

  • Пожарная безопасность.

Чтобы серверная нашей мечты не сгорела, нужно сделать грамотную систему пожарной безопасности. Помимо стандартных требований по ГОСТу мы обеспечим дополнительные. Обычные спринклерные системы нам точно не подойдут, так как влага мгновенно уничтожит весь наш труд. Что будем использовать мы?

  • Сделаем мультиканальную аспирационную систему пожарных извещателей (АДПИ) с высокой чувствительностью класса А. Эта система постоянно анализирует воздух в помещении, что позволяет мгновенно реагировать на дым. Можно провести под фальшпол и в каждую стойку или шкаф отдельно;

Применения мультиканального АДПИ для защиты серверных стоек.
Применения мультиканального АДПИ для защиты серверных стоек.
  • Добавим четырехканальные комбинированные датчики дыма, тепла, пламени и газа. Плюс они будут адресными, благодаря этому мы сможем понять, в каком конкретно месте начались проблемы или требуется обслуживание оборудования. Такие датчики фиксируют несколько состояний: “нормальная работа”, “пожар”, “неисправность”, “загрязнение датчика” и другие; 

  • Датчики, обнаружив нестандартную ситуацию, будут отправлять на наши смартфоны или почту сигналы тревоги;

  • Дверь, потолочные перекрытия, стены и перегородки будут из несгораемых материалов и обеспечивать огнестойкость не менее 45 минут;

  • Добавим светозвуковые оповещатели для безопасности людей;

  • Организуем систему автоматического газового пожаротушения.

Выберем инерген, так как он безопасен для людей и не мешает работе электроники.

  • Динамический источник бесперебойного питания.

Мы будем использовать не только несколько городских электросетей, но и установим собственную дизель-генераторную установку (ДГУ) с блекджеком и электромагнитным накопителем кинетической энергии для бесперебойного питания. Свойства такого ДГУ обеспечивают отклик на уровне сотых долей секунды, позволяя не прерывать электропитание.

  • Резервирование всех инженерных систем по схеме 2(N+1)

Для повышения надежности серверной необходимо резервирование компонентов системы. Схемы резервирования обозначают буквой “N” (need), где N – это количество элементов в звене системы. 2(N+1) мы будем использовать везде, в том числе в электропитании, кондиционировании, пожаротушении и т.д. Зачем? Потому что мечтать не вредно :D

Рассмотрим резервирование на примере электропитания:

  • N – это система самого элементарного резервирования, например, ИБП. Для ремонта придётся выключать систему и объяснять бухгалтерии, почему 1С не работает. Вам оно надо?

  • N+1 даёт нам запасной ИБП. Хорошо, но всё еще есть чему выходить из строя. Нам не подходит;

  • 2N более дорогой вариант резервирования, так как требуется больше оборудования, но и надёжность увеличивается. Однако слабое звено всё ещё остаётся, поэтому нам не подходит.

Но если мы зарезервируем электросеть дизельным генератором и сделаем бесшовное переключение на него, то система получается действительно надёжной 

  • Но мы ведь говорим о серверной мечты, так? Поэтому на вооружение возьмём систему 2(N+1). Дополнительно подключимся к еще одной электросети, и продублируем ИБП. Вот теперь можно спать спокойно. Этому серверу больше не нужен герой.

  • СКУД и видеонаблюдение. Руки прочь от моей прелести.

Было бы чертовски обидно учесть столько нюансов и прогореть на человеческом факторе. Кто-то захочет полюбоваться нашей идеальной серверной, зайдёт внутрь, ну а дальше вы и сами знаете. Поэтому нам необходима продвинутая СКУД со следующими параметрами:

  • Доступ в серверную только у избранных;

  • Ограниченное время прохода, чтобы не допустить проход нескольких людей по одному пропуску;

  • Журнал событий: кто открыл, когда, что делал внутри;

  • Контроль состояния двери с оповещением о взломе или незакрытии;

  • Проверка температуры у сотрудников перед проходом. Нечего чихать на дорогое оборудование;

  • Для разблокировки поставим ультразвуковые биометрические сканеры отпечатков пальцев или сканирование сетчатки глаза. Или всё вместе.

  • Запрет на повторный вход, если не был выполнен выход;

  • Контроллер управления замком будет находиться в отдельном узле, а не интегрирован в считыватель. Сам узел разместим внутри серверной. Попробуйте теперь поковыряться в наших проводах снаружи.

Плюс наша система должна поддерживать дополнительные конфиги, например:

  • Ночью доступ только у главного сисадмина;

  • Доступ возможен только при считывании данных нескольких сотрудников: сисадмина и его котика;

  • Разблокировка альтернативным способом (например, другим пальцем или другим глазом), что будет сигналом опасности и разблокировки под принуждением. Оповещение полиции в комплекте.

Мечты сбываются?

Если говорить об отказоустойчивости, удобстве пользования, защищённости и т.д., то наша гипотетическая серверная идеально подойдет для большинства компаний. Остаётся только подобрать конфигурацию серверов под конкретные задачи, установить их, настроить и наслаждаться. 

Да, многое из вышеописанного не потребуется малому и даже среднему бизнесу, так как требует больших финансовых вложений и дорогого обслуживания, а также может не соответствовать специфическим требованиям. Но если убрать из уравнения стоимость, то такую серверную захотели бы многие. На самом деле в конечном итоге ты приходишь к ЦОДу, так как все лучшие решения уже давно придуманы инженерами и системными архитекторами. Но при проектировании серверной администратор не так сильно ограничен стандартизацией, регламентами и прочими жесткими требованиями.

Если же спуститься на землю, то чаще всего развернуться на полную банально не даёт бюджет. Где-то можно сэкономить, где-то сделать альтернативу своими руками. Да, зачастую получается не то, что хотелось. У каждого сисадмина есть привычки, знания и параметры, по которым он настраивает работу серверной. Многие имеют за плечами техническое инженерное образование и эволюционировали из эникейщика в системного администратора, а потому прошли огонь, воду и медные проволоки.

Каждый смотрит с высоты своей стойки, поэтому было бы интересно узнать, какие идеи для “серверной мечты” есть у вас с учётом безграничного бюджета и вечнозелёного светофора на все идеи.




Комментарии (6):