|
Опрос
|
реклама
Быстрый переход
Обзор российской системы инвентаризации «ИТМен»: лучше день потерять, потом за пять минут долететь
05.12.2025 [00:00],
Илья Коваль
«Инферит ИТМен» (ранее iTman Discovery) — это российская система инвентаризации, учёта и контроля IT-инфраструктуры. Решение агрегирует данные из разных источников, нормализует, идентифицирует, обогащает и типизирует их для создания единого источника достоверных данных обо всех IT‑активах организации с автоматизированным обнаружением новых активов и постоянным контролем изменений. Решение включено в реестр отечественного ПО Минцифры (реестровая запись №12289 от 14.12.2021), соответствует требованиям российских регуляторов и фактически применяется с 2011 г. как в коммерческих, так и в государственных структурах. Разработчики отдельно отмечают, что «ИТМен» не является некой надстройкой над какими-либо open source продуктами, а весь код контролируется исключительно ими. Первое и, наверное, самое главное, что нужно отметить, — это то, что «ИТМен» является в первую очередь поставщиком очищенных и достоверных данных, в том числе по API и через готовые коннекторы, для других систем, например CMDB или ITSM/ITAM/SAM. Да, платформа позволяет быстро составить гибкие отчёты в веб-интерфейсе, чтобы пробежаться по ним глазами и принять какое-то решение (или отложить данные для более глубокого анализа), но не стоит воспринимать её как что-то, что не только заметит аномалии, но и сделает некие выводы и само предпримет упреждающие действия без участия человека. Основная задача платформы — инвентаризация, как можно более гибкая, с возможностью настройки под практически любую инфраструктуру, и масштабируемая до сотен тысяч устройств. По оценкам компании, «ИТМен» позволяет оптимизировать затраты на IT-инфраструктуру до 25 % путём выявления неиспользуемых лицензий, автоматизировать до 70 % ручных операций IT и найти неиспользуемые активы. Конечно, «ИТМен» может уведомить и вышестоящий ИБ-инструментарий о появлении (или исчезновении) в обозреваемых системах ПО или «железа», но сделает она это не мгновенно, а постфактум при выгрузке журналов и отчётов. Более того, в изолированных контурах данные вообще могут переноситься не так уж часто, пересекая «воздушный зазор» на физических носителях, т. е. даже вне прямой области видимости. То же касается и, например, геораспределённых сетей. При этом в любом случае собираемые данные шифруются, в том числе по ГОСТ’у, есть возможность принести собственные сертификаты и, что самое главное, настроить работу с данными в соответствии с внутренними политиками безопасности. Непосредственно сама платформа интегрируется с LDAP, а также позволяет создавать группы и пользователей с различными правами и задавать им парольные политики. В будущих релизах обещана более гранулярная выдача прав. Сбор данныхНепосредственно на устройствах, с которых будут собираться данные, рекомендуется заводить отдельные учётные записи с нужными для работы «ИТМен» правами. Это довольно общая формулировка, и она не случайна. Сбором информации занимаются агенты, которые могут передавать данные сразу в «ИТМен» или же через цепочку агентов-посредников. Цепочки полезны и для соблюдения правил безопасности, и просто для распределения нагрузки — например, нет смысла напрямую «гнать» в центральный офис данные со всех агентов филиала. Агенты работают на Linux и Windows и могут собирать данные как локально на тех машинах, где они запущены, так и по сети, в том числе автоматически выявляя новые устройства (но есть и отдельные облегчённые агенты, где вырезана функция сканирования сети). Это могут быть ПК, серверы, МФУ, коммутаторы, ИБП и т. д. Проще говоря, практически всё что угодно, что имеет хоть какой-то сетевой интерфейс и способ общения с внешним миром. И данные собирать можно тоже практически какие угодно, даже базовый список включает десятки пунктов. Ограничением будет не ваша фантазия, а… политики безопасности! Для дискаверинга и инвентаризации по сети используются протоколы ICMP, ARP, LLDP, SNMP (v1, v2, v3), SSDP, DNS, SSH, WinRM, WMI и IPMI. Для последних четырёх, очевидно, нужно иметь удалённый доступ к хостам. Методы аутентификации поддерживаются самые разнообразные. Агенты «знают» все эти протоколы, а возможность их использования ограничена только поддержкой и доступностью нужного протокола со стороны удалённого хоста. Проще говоря, «ИТМен» изначально поддерживает работу в гибридных окружениях. Первичные данные об устройствах организации можно получить и из Active Directory (а также Samba, FreeIPA и LDAP вообще) или SCCM, а потом регулярно обновлять данные оттуда или же полагаться на сетевой дискаверинг. Но данные можно также собирать посредством SQL-запросов (Microsoft SQL и PostgreSQL) и REST API. Последнее, например, позволяет удобно работать с VMware-хостами. Да-да, «ИТМен» умеет работать и с гипервизорами, и с виртуальными машинами, и с контейнерами. За сбор данных отвечают т.н. сенсоры, исполняемые агентами. Сенсоры — это фактически скрипты: PowerShell, Shell, SQL или внутренний скрипт «ИТМен». В одном сенсоре может содержаться несколько скриптов, например для последовательного сбора (или добора) данных или для выполнения разных скриптов в зависимости от заданных условий (И/ИЛИ). Условиями могут быть, к примеру, (не)успешное (не)выполнение предыдущего скрипта с (не)получением данных от него, тип ОС (Windows/Linux), наличие в собранных данных какого-то конкретного значения поля (атрибута) одного из объектов (активов): устройств, ПО, пользователей. «ИТМен» предлагает динамическую модель данных, так что для собираемой сенсорами информации можно создавать собственные поля различных типов, а не полагаться только на встроенные, которые, впрочем, покрывают самые часто используемые типы собираемых данных. Все найденные и вручную добавленные устройства отображаются в специальном разделе, где их можно сгруппировать вручную или по какому-либо свойству, в том числе «раскидать» их по департаментам или филиалам с формированием вложенных подгрупп. У каждого устройства есть системные и настраиваемые поля, для заполнения некоторых из них нужны справочники. Некоторые поля или атрибуты можно заполнить в процессе обогащения данных, но об этом чуть позже. Для каждого устройства формируется карточка, где приведены все собранные о нём данные. В случае ПК/серверов/ВМ это полная аппаратная конфигурация, логические тома, гостевые ОС, сведения о пользователях и последнем входе, список установленного ПО и т. д. А, например, у принтера это будет «пробег» и объём тонера. Но, как и говорилось выше, собирать можно практически всё, что угодно. Непосредственно процесс инвентаризации заключается в формировании задач с их последующим запуском в соответствии с выставленным приоритетом, вручную или с заданной регулярностью/по расписанию. Для каждой задачи выбираются нужные агенты, у каждого из которых видно наименование устройства, на котором он установлен. Агентам для удобства поиска и выбора можно присвоить теги, в том числе при первичной установке. Затем отбираются сенсоры, которые и предоставят данные. Для этих сведений доступна нормализация по справочнику. Например, Microsoft и Microsoft Corp. будут записаны как просто Microsoft, если в справочнике для этого вендора уже заведены различные варианты написания его имени. Поскольку какие-то получаемые данные могут совпадать у нескольких объектов, например одинаковое имя устройств в разных доменах или в разных сетях, либо, наоборот, одно устройство было обнаружено одновременно, скажем, во время сетевой инвентаризации и при опросе службы каталога, на следующем шаге настраивается идентификация, т. е. такое сочетание нескольких полей, которое будет определять уникальность объекта. Наконец, опционально можно сделать обогащение данных — дополнить информацию об объектах, отфильтровав (больше/меньше/(не)содержит и т. д.) выбранные данные полей с предыдущих этапов, в том числе теги агентов. Таким образом, например, можно назначить тип устройства (ноутбук, десктоп и т. д.), определить его расположение (филиал, департамент и т. д.), доступность (слишком долго было офлайн) и т. п. Но в целом формировать критерии можно какие угодно — добавив поле и настроив обогащение, можно упростить поиск, фильтрацию и составление отчётов. Помимо задач инвентаризации есть особый класс задач отслеживания, которые в течение заданного времени с заданной регулярностью получают данные от выбранных сенсоров. Таким образом, например, можно отслеживать время и частоту использования выбранного ПО, а также тех, кто им пользовался. «ИТМен» ведёт историю задач, так что можно посмотреть, какие и когда были выполнены или засбоили в процессе. Работа с даннымиАктивы — устройства, ПО, пользователи — представлены в одноимённом разделе. Именно сюда после инвентаризации попадают все собранные и обработанные сведения, с которыми можно работать в дальнейшем. Для ПО есть ещё одна крайне полезная функция — нормализация и идентификация данных с помощью каталога ПО, где есть сведения о более чем 315 тыс. приложений и служб. Библиотеку ПО (справочник) можно, конечно, наполнять и вручную, если разнообразие приложений не так велико. Но с готовым каталогом намного удобнее. Вообще работа с ПО в «ИТМен» достаточно продумана. Так, например, установка нескольких языковых версий Microsoft Office засчитывается как одна установка. Также помимо сбора установленного ПО предусмотрена инвентаризация исполняемых файлов на устройствах, позволяющая получать дополнительную информацию (версия, описание и путь к исполняемому файлу). И в целом ведётся учёт количества установок. Отдельно формируется список нераспознанного ПО, о котором нет сведений в библиотеке. Более того, «ИТМен» может отслеживать любое запущенное ПО, так что portable-версии тоже не ускользнут от его ока. Также можно задать списки запрещённого и разрешённого для использования на устройствах ПО. Наконец, для пользователей ведётся учёт, на каких устройствах и когда они входили. Активы можно сгруппировать и отфильтровать по тому или иному параметру. Например, собрать воедино все устройства с Windows или определённого производителя. Для более глубокого и регулярного анализа предназначен раздел «Анализ данных». В нем находится конструктор отчётов, позволяющий создавать необходимые подборки, сохранять их в виде своих отчётов и настраивать регулярную отправку на определённую почту. Раздел «Исторические данные» позволяет отследить изменения в исторических данных в заданные даты. Например, можно составить отчёт об установке/удалении того или иного приложения, а для самих устройств можно отследить изменения того или иного параметра. В специальном отчёте «Использование ПО» можно отслеживать длительность и частоту использования приложений и их уникальных пользователей, что полезно при наличии конкурентных лицензий на ПО (для этого можно даже построить наглядные графики). Отчёты имеют табличный формат с настраиваемым отображением столбцов. Внутри отчётов доступны группировка, фильтрация и сортировка. Для отчётов доступна регулярная отправка на почту. Ещё одна важная функция — журналы проверки для регулярного отслеживания выбранных полей (атрибутов) устройств. Для этого используются наборы правил, где каждое правило проверяет соответствие выбранного поля заданному критерию. Дополнительно задаётся уровень критичности: низкий, средний, высокий. На основе одного или нескольких правил формируются задачи проверки, которые исполняются с заданной регулярностью, а затем отправляют результаты на email. При этом можно настроить их так, что при отсутствии изменений отчёт отправляться лишний раз не будет. Всё отчёты складываются в журналы проверки, где с ними можно ознакомиться и потом. Также есть отдельные задачи оповещения, которые будут отслеживать изменения определённых конфигураций устройств и отправлять уведомления на почту или по REST API. И вот как раз здесь в полную силу проявляется вся гибкость модели данных «ИТМен», потому что можно получать уведомления о практически любых изменениях в активах: появилось нежелательное или неизвестное ПО (например, зловред или запрещённый мессенджер); изменилась конфигурация оборудования (накопитель сломался или был украден); в сети появилось неизвестное ранее устройство (кто-то пронёс личный ноутбук или администратор просто забыл поставить агента на новый ПК) или, наоборот, устройства что-то давно не видно в сети; кто-то слишком долго пользуется каким-либо приложением (хотя в его обязанности это не входит) или зачем-то остановил службу антивируса; на компьютерах в бухгалтерии стало заканчиваться свободное место на накопителях, а на сервере с бэкапами его стало подозрительно много; у МФУ заканчивается тонер, у ИБП низкий заряд, а коммутатора что-то не так с портами и т. д. ЗаключениеЕсли вам на секунду показалось, что «ИТМен» — это довольно сложный продукт, то… нет, вам не показалось. Во всяком случае, на то, чтобы разобраться с ним, придётся потратить время. С другой стороны, освоив хотя бы основные функции, можно донастроить функциональность продукта без обращения к вендору. Базовые коробочные версии для инвентаризации и поставки данных в CMDB обойдутся от 632 руб./год за каждое устройство. В стоимость включены гарантийная техподдержка и обновления в течение года (в среднем пять релизов в год). За возможность модифицировать модель данных придётся доплатить. Каталог ПО, позволяющий не вбивать вручную параметры для выявления и определения ПО и пополняемый вендором не только самостоятельно, но и по запросу от клиентов, распространяется по отдельной подписке. При остановке подписки текущая версия каталога сохранится, но без постоянного обновления смысла в этом немного. Расширенная техподдержка, которая в том числе включает видеоконференцсвязь с экспертом, обучение внутренней команды заказчика, моделирование проблемы на стенде и удалённое подключение к инфраструктуре для отладки проблем стоит от 399 руб./год за каждое устройство. Доработка функциональности возможна по запросу. Для средних и крупных предприятий внедрение будет скорее проектной историей с обращением к интегратору, доработкой под специфические задачи и требования и т. п., а не просто покупкой лицензии, которую при желании можно напрямую приобрести у «Инферит». Впрочем, интегратор может выбрать вариант поставки и лицензий, и сертификата на внедрение. В этом случае внедрением занимается «ИТМен», и это, вероятно, самый лучший вариант для сложных развёртываний, т. к. никто не знает свой продукт лучше, чем сами разработчики. При этом «ИТМен» в целом уже учитывает специфику российского рынка, поддерживая отечественные дистрибутивы Linux, СУБД, готовые коннекторы (SimpleOne, BPMSoft, ITSM box и т. п.) и т. д. Ценность «ИТМен» для IT-служб более чем очевидна, но вот экономический эффект заранее предсказать, скорее всего, будет сложно. Реальная польза будет зависеть не от самого продукта, а от качества его внедрения, корректности использования и поддержки всех сценариев в актуальном состоянии. И это как раз тот случай, когда «лучше день потерять, потом за пять минут долететь». А ещё лучше заказать демонстрацию продукта. Обзор нововведений в ALD Pro 3.0.0: всем каталогам каталог
15.10.2025 [00:00],
Игорь Осколков
Программный комплекс ALD Pro (Astra Linux Directory Pro), если говорить официальным языком, — это «набор сетевых служб сервера Astra Linux для организации централизованного управления ИТ-инфраструктурой». А если говорить просто, то это отечественный аналог Microsoft Active Directory (MS AD) или Red Hat Identity Management (IdM), в отношении поддержки Linux-систем даже превосходящий их по возможностям. Важным отличием от ряда конкурирующих продуктов является возможность гибридного развёртывания рядом с MS AD, что открывает путь к поэтапной миграции с зарубежных решений — домен ALD Pro может синхронизировать учётные записи пользователей вместе с их паролями и умеет устанавливать доверительные отношения с имеющимся доменом, который в этом случае отвечает за свои собственные службы, а для пользователей обоих доменов обращения к их службам работают совершенно прозрачно. Второе важное отличие от решений конкурентов — это, по словам создателей, принципиально иной подход к выбору компонентов. Если первые чаще всего используют в качестве основы Samba, которая в большей степени ориентирована на управление Windows-компьютерами, то в ALD Pro за основу взята FreeIPA, которая в умелых руках позволяет сформировать полноценный домен для Linux, учитывающий особенности этой системы. Причём с групповыми политиками для настройки окружения пользователей и компьютеров, которые в поставке по умолчанию у FreeIPA отсутствуют. И если раньше разработчиков ALD Pro можно было обвинить в ориентированности только на один конкретный дистрибутив, имя которого прямо указывается в названии продукта, то теперь это не так. С релизом 3.0.0 появилась возможность ввести в домен ПК под управлением ALT Linux 10.4 и 10.2.1 (сертифицированная версия), РЕД ОС 7.3 и 8, а не только защищённой Astra Linux от 1.7.3 до 1.7.7.UU2 или от 1.8.1 до 1.8.1.UU2. Кроме того, ALD Pro совместим с полусотней различных продуктов, включая даже Microsoft Exchange, и этот список постоянно растёт. В основном речь идёт, конечно, об аутентификации с использованием доменных учётных записей посредством Kerberos V5, что само по себе немало. Для контроллеров домена ALD Pro, правда, всё равно требуется Astra Linux 1.7.6.UU2 или 1.7.7.UU2, причём в редакции «Смоленск», т.е. с максимальным уровнем защищённости (для клиентов такого требования нет). А чтобы можно было попробовать базовые возможности, у ALD Pro 3.0.0 впервые появилась бесплатная редакция Free. Её основные ограничения — можно развернуть только один контроллер домена (плюс доверительные отношения с одним доменом MS AD), получить централизованную аутентификацию для 25 пользователей и управлять групповыми политиками для 25 ПК.
Источник изображения: ALD Pro В целом ALD Pro предоставляет централизованное управление учётными записями пользователей и компьютеров, а также управление конфигурациями систем в домене через применение групповых политик. Посредством последних возможна установка и удаление ПО на машинах, а также использование собственных репозиториев. Для пущего удобства реализовано автоматическое развёртывание ОС на машинах в локальной сети с последующим введением в домен и включением функции удалённого доступа даже в редакции Free. Традиционно имеется управление печатью и общим доступом к файлам в сети предприятия. Базовые сетевые службы представлены собственными серверами DNS, DHCP и NTP. Естественно, доступны мониторинг и журналирование, в том числе с выгрузкой данных сторонним системам обеспечения информационной безопасности. Платформа ALD Pro опирается на проверенное open source ПО: FreeIPA, 389 Directory Server, MIT Kerberos, Bind9, ISC DHCP, NTP, SSSD, CUPS, Samba, Zabbix, Syslog-NG, SaltStack, Reprepro, TFTP + PXE. Чисто гипотетически можно было бы попытаться самостоятельно собрать аналог ALD Pro из этих компонентов (что само по себе титанический труд), но полнофункционального решения из этого не выйдет. Во-первых, вендор изрядно доработал и подогнал друг к другу эти компоненты, и то не везде до сих пор всё идеально гладко. Во-вторых, он же создал и проприетарные составляющие, которые просто так уже не скопируешь. В-третьих, ALD Pro предоставляет единый портал управления, а также дополнительные GUI-утилиты: aldpro-join для присоединения компьютеров под Astra Linux к домену с возможностью обновления пароля компьютера и рядом других востребованных функций и aldpro-setfacl для добавления доменных пользователей и групп в списки доступа на файловом сервере. Сам по себе домен ALD Pro использует ролевую модель управления доступом администраторов к тем или иным параметрам или модулями, т.е. областям действия. Для управления каждым типом объектов каталога задаётся отдельный набор привилегий: чтение (Read), создание (Create/Add), изменение (Modify), удаление (Drop/Delete) или же даются полные права Manage. Роли включают набор заданных (из коробки или вручную) привилегий. Таким образом, можно назначать права доступа администраторов с довольно высокой гранулярностью, в том числе на управление объектами конкретных организационных подразделений. Но этим дело не ограничивается. В Astra Linux реализован мандатный контроль доступа с аудитом посредством отдельной службы PARSEC, да ещё и сертифицированный ФСТЭК, ФСБ и Минобороны России, что позволяет добиться максимального уровня защищённости при работе с «чувствительной» информацией. Это касается как самих хостов, где развёрнут ALD Pro, так и клиентских машин и пользователей, для которых необходимые настройки автоматически применяются в рамках групповых политик. Администраторы (и только они, в отличие от традиционного дискреционного доступа, когда права могут раздавать и обычные пользователи — владельцы файлов) задают уровни и категории конфиденциальности (МКЦ/МРД) и назначают допустимые значения конкретным сотрудникам, для которых при входе применяются разрешённые метки. Мандатный контроль распространяется и на зарегистрированные внешние носители, что позволяет предотвратить утечки (а при необходимости и найти виноватых), а отдельный модуль ядра динамически контролирует целостность системных файлов. В ALD Pro теперь есть централизованная регистрация USB-накопителей (а не на каждой машине по отдельности) в службе каталога, чтобы их можно было монтировать на любом хосте в рамках домена. При регистрации можно задать для таких накопителей дискреционные и мандатные права доступа, что позволяет использовать их без риска утечки данных. Или же полностью запретить монтирование неучтённых накопителей. Да, всё это нужно далеко не всем, но для крупных предприятий КИИ будет большим облегчением наличие единых и воспроизводимых политик доступа, ускорение аттестации и аудита, а также упрощение ввода в строй новых пользователей/машин и минимизация шансов появления проблем из-за ошибок конфигурирования. Кроме того, групповыми политиками теперь можно включить и автомонтирование сетевых томов (своего рода аналог DFS-N). Если мандатный контроль доступа работает только с Astra Linux, то для остальных систем есть два более универсальных механизма. Первый — правила для sudo, которые берутся из каталога (а не из локальных файлов конфигурации). ALD Pro позволяет групповыми политиками ограничить список приложений и сервисов, для выполнения которых требуется временное повышение прав, не лишая пользователей нужных им инструментов, но и не позволяя получить все привилегии суперпользователя. Второй механизм — правила HBAC (Host Based Accees Control), разрешающие заданным пользователям использовать определённые службы на конкретных хостах. Службами в данном случае называются любые приложения, которые используют PAM-стек для авторизации пользователей. Это опять-таки позволяет сделать доступ более гранулярным и централизованно управляемым (для групп пользователей и/или хостов) без ущерба повседневной работе. В документации ALD Pro предлагаются типовые шаблоны для обоих механизмов. Разработчики также рекомендуют отключать локальные учётные записи, оставляя доступ только для доменных пользователей. Впрочем, даже для локальных учётных записей предлагаются дополнительные меры безопасности. Так, теперь групповыми политиками можно включить принудительное периодическое обновление паролей локальных администраторов (опционально этот же пароль будет устанавливаться и для GRUB) и ограничить минимально возможные длину и сложность пароля. Этот аналог LAPS позволяет не беспокоиться о том, что уволенные сотрудники сохранят доступ к системам. Кроме того, в новой версии ALD Pro появилась функция проверки новых паролей на отсутствие запрещённых слов (например, наиболее часто используемых и уязвимых сочетаний). В будущем планируется добавить проверку по базам утёкших паролей, хотя это не совсем тривиальная задача с точки зрения производительности, признают разработчики. Но и в текущем релизе создатели поработали над повышением производительности платформы. Были существенно повышены надёжность и скорость модуля синхронизации, незаменимого во время поэтапной миграции пользователей в процессе импортозамещения. Перенос более 10 тыс. учётных записей осуществляется за два часа, при этом у пользователей остаётся непрерывный доступ к системам по логину-паролю вне зависимости от домена, что важно при миграции. Вендор отдельно отмечает, что синхронизация паролей вынесена в отдельный процесс, а журнал событий разделён на три потока: сервисный, операционный и поток синхронизации. По словам производителя, ALD Pro может масштабироваться более чем до 400 контроллеров и 30 млн. объектов. Чтобы работа с действительно крупными доменами была комфортнее, существенно доработан и портал управления, который теперь без задержек справляется с 300+ тыс. пользователей. Наконец, для ALD Pro 3.0.0 был подготовлен модуль «ACM 1.3.0 Инвентаризация», который отвечает за инвентаризацию парка ПК, их оборудования и ПО, лицензий на ОС Astra Linux. Модуль кардинально упрощает управление инфраструктурой, а на крупных предприятиях может быть и вовсе незаменим. Наконец, отдельного внимания заслуживает утилита aldpro-join. Она значительно упрощает ввод нового компьютера под управлением Astra Linux в домен. От администратора требуются только его логин и пароль да имя нужного домена, а всё остальное утилита сделает сама. Не то чтобы без GUI нельзя обойтись, нет, консольная версия не менее прекрасно справляется со своей работой. Однако для новичков в мире Linux, перешедших из экосистемы Microsoft, это полезное подспорье. Компания в целом организовала различные курсы по обучению и переподготовке Windows-специалистов с последующей сертификацией, чтобы людям было проще провести миграцию на отечественный продукт. Кроме того, «Группа Астра» постоянно совершенствует документацию, в том числе справочные материалы, встроенные непосредственно в обновлённый портал управления ALD Pro. Присоединение к домену aldpro-join
Этим список нововведений не ограничивается — разработчики внесли сотни малых и крупных изменений для повышения производительности и масштабируемости, надёжности и устойчивости, безопасности и удобства, совместимости и открытости к интеграции. Всё ли получилось, всё ли идеально? Нет, так не бывает. Но компания опирается на отзывы и опыт работы с продуктом собственных заказчиков, а перед каждым важным релизом формирует небольшие фокус-группы из реальных пользователей, которым даёт предварительный доступ к новой версии. И уже есть понимание, что будет включено в последующие минорные и мажорные обновления. Но уже сейчас ALD Pro решает две важные проблемы — это поэтапная и по возможности максимально безболезненная миграция с Windows и поддержка действительно крупномасштабных проектов развёртываний с соблюдением всех требований к инфраструктурам КИИ. Мало кто таким сейчас может похвастаться. Intel Xeon 6+ Clearwater Forest: большой плюс для маленьких ядер
13.10.2025 [17:00],
Владимир Мироненко
На прошлой неделе Intel представила первые процессоры семейства Xeon 6+, изготовленные по передовому техпроцессу 18A — Clearwater Forest (CWF), выпуск которых был отложен практически на год. Ожидание того стоило, поскольку компания вывела свою тайловую архитектуру и возможности упаковки на новый уровень. Clearwater Forest включает 12 EMIB-чиплетов (2.5D-упаковка), объединяющих 3 базовых тайла (Active Base, Intel 3) с 2 IO-чиплетами I/O (Intel 7) и 12 вычислительными тайламм с E-ядрами Core (Intel 18A с RibbonFET и PowerVia). Это один из первых чипов, который производится по техпроцессу 18A, обеспечивающему, по словам компании, наилучшую энергоэффективность для основной логики благодаря меньшей ёмкости затвора, а также более высокую плотность ячеек, улучшенную маршрутизацию сигналов и шины питания на задней стороне. Технология 18A также снижает потери питания на 4–5 %. При общем повышении производительности компании удалось остаться в рамках прежнего диапазона TDP от 300 до 500 Вт. Ещё одна особенность Clearwater Forest — Intel AET (Application Energy Telemetry) — новая технология телеметрии энергопотребления приложений, нагрузок и ВМ. В отличие от интерфейса Intel Running Average Power Limit (RAPL), обеспечивающего мониторинг энергопотребления CPU, а также в некоторых сценариях DRAM и интегрированных GPU, с отражением расхода энергии в целом, новая функция позволяет контролировать энергопотребления по каждому приложению. Эта функция помогает разработчикам/администраторам профилировать и масштабировать рабочие нагрузки на процессорах с большим количеством ядер. Также реализована поддержка технологии Intel Turbo Rate Limiter. Clearlwater Forest-AP также является первым процессором массового производства, использующим технологию Foveros Direct3D — это передовое решение для корпусирования, которое объединяет вычислительные и IO-тайлы на базовых тайлах. Foveros Direct 3D имеет расстояние между контактами 9 мкм и использует вертикальное соединение Cu–Cu. Технология реализована в виде активного кремниевого интерпозера с высокой плотностью и низким сопротивлением, обеспечивая производительность ~0,05 пДж/бит. Проще говоря, на передачу данных между тайлами расходуется минимум энергии. I/O-тайл позаимствован у Granite Rapids-AP (6900P). Он содержит восемь блоков ускорителей Intel Quick Assist (QAT), Intel Dynamic Load Balancer (DLB), Intel Data Streaming Accelerator (DSA) и Intel In-Memory Analytics Accelerator (IAA) — суммарно до четырёх ускорителей каждого типа на CPU. I/O-тайл также имеет 48 линий PCIe 5.0 (всего 96 на процессор), 32 линии CXL 2.0 (всего 64) и 96 линий UPI 2.0 (всего 192). Всего доступно шесть UPI-подключений (по 24 ГТ/с), который в 2S-конфигурации дают 576 Гбайт/с между CPU. Базовый тайл оснащён четырьмя контроллерами памяти DDR5-8000 (без поддержки MRDIMM), что в сумме обеспечивает 12 каналов памяти на процессор. Тайл также подключён к общему L3-кешу с 48 Мбайт на вычислительный блок или 192 Мбайт на базовый тайл. Суммарно это даёт 576 Мбайт общего L3-кеша на чип. Формально это существенный прогресс в сравнении с Sierra Forest-AP (6900E), но эти чипы массовыми так и не стали. Вычислительный тайл состоит из шести модулей, по четыре E-ядра Darkmont в каждом (по-прежнему без SMT/HT) — 24 ядра на тайл или 288 ядер на 12 тайлов в составе процессора. Один модуль содержит 4 Мбайт общего L2-кеша, т.е. 24 Мбайт L2-кеша на тайл и 288 Мбайт L2-кеша на процессор. Clearwater Forest используют тот же сокет LGA 7529, что и Xeon 6900P (Granite Rapids-AP) и Xeon 6900E (Sierra Forest-AP). Ожидается и появление более компактных 144-ядерных Clearwater Forest-SP. E-ядра Darkmont — это более «широкая» и быстрая версия предыдущей архитектуры Skymont, использовавшейся в десктопных CPU. По сравнению с Crestmont в Sierra Forest она представляет собой значительное обновление. В Darkmont реализовано девятипоточное декодирование — вместо шестипоточного в Crestmont — с помощью трёх трёхпоточных декодеров и возможность аллокации до 8 инструкций за раз. Ёмкость очереди микроопераций выросла с 64 до 96 записей, а буфера переупорядочивания с 256 до 416 записей. Также имеется увеличенный кеш инструкций объёмом 64 Кбайт, и более точный улучшенный механизм предсказаний ветвлений. При этом работа с L2-кешем ускорена вдвое, до 128 байт/такт, а передача данных между L1-кешами теперь происходит быстрее и более предсказуемо (через L2). Кроме того, усовершенствована предвыборка на всех уровнях кеша. В планировщик можно отдавать 8 инструкций за такт (+60 % по сравнению с предыдущим поколением) и завершать исполнение до 16 операций за такт (вдвое больше). Количество портов исполнения увеличено с 17 до 26. Скалярный движок (Scalar Engine) получил 8 целочисленных вычислительных блока (было 4), 3 блока генерации адресов загрузки и 4 блока генерации адресов сохранения (было 2), а также поддержку подсистемой памяти трёх загрузок и двух сохранений за раз. Векторный движок (Vector Engine) получил 4 блока vector/float store, 2 vector/float и 4 стека vector/float — можно работать с четырьмя 128-байт FMA-операциями, а не двумя. Заявлена поддержка AVX2 с VNNI и INT8. В целом, Darkmont E-Core в платформе Clearwater Forest обеспечивают производительность до 90 % выше, чем 144-ядерный процессор Xeon 6780E (Sierra Forest-SP), а также повышение эффективности на 23 % по всем вариантам нагрузок. Сравнение не вполне корректное, учитывая разницу в количестве ядер. По сравнению с Cascade Lake-SP новая архитектура обеспечивает консолидацию серверов до 8:1 с более низкой совокупной стоимостью владения. Функции безопасности будут включать Intel Software Guard Extensions (SGX) и Intel Trust Domain Extensions (TDX). Архитектура NVIDIA Blackwell Ultra: NVFP4 есть, а FP64 — нет
26.08.2025 [09:19],
Владимир Мироненко
NVIDIA поделилась подробностями об ускорителе Blackwell Ultra, обновлённом и улучшенном варианте NVIDIA Blackwell, представленном более года назад. Blackwell Ultra по-прежнему состоит из двух кристаллов с максимальными размерами в пределах фотолитографической маски, соединённых с помощью интерфейса NVIDIA High-Bandwidth Interface (NV-HBI) с пропускной способностью 10 Тбайт/с. Чип имеет 208 млрд транзисторов, изготовленных по кастомному техпроцессу TSMC 4NP — в 2,6 раза больше, чем NVIDIA Hopper — и с точки зрения ПО выглядит как один ускоритель. Чип имеет 160 потоковых мультипроцессоров (SM), включающих 640 тензорных ядер (Tensor Core) пятого поколения общей с производительностью 15 Пфлопс в вычислениях в фирменном 4-бит формате NVFP4 (без разреженности) и общий L2-кеш с полностью когерентным доступом к памяти. SM объединены в восемь кластеров GPC (Graphics Processing Clusters). Каждый SM представляет собой автономный вычислительный блок, содержащий:
Когда NVIDIA впервые представила тензорные ядра в архитектуре Volta, они фундаментально изменили возможности ускорителей для глубокого обучения, расширяя с каждым новым поколением свои возможности, точность и параллелизм, говорит NVIDIA. Blackwell (Ultra) выводят эту технологию на новый уровень благодаря тензорным ядрам пятого поколения и Transformer Engine второго поколения, обеспечивая более высокую пропускную способность и меньшую задержку как для обычных, так и для разреженных ИИ-вычислений. Новые тензорные ядра тесно интегрированы с 256 Кбайт тензорной памяти (TMEM), оптимизированной для хранения данных близко к вычислительным блокам. Они также поддерживают двухпотоковые блочные MMA-операции, где парные SM взаимодействуют в одной операции MMA, деля операнды и сокращая избыточный трафик памяти. Результатом является более высокая стабильная пропускная способность, более высокая эффективность использования памяти, более быстрое обучение и более эффективный инференс с малыми пакетами данных и высокой интерактивностью. Не менее важным для производительности стало внедрение NVIDIA NVFP4, нового 4-бит формата с плавающей запятой, который сочетает микроблочное масштабирование FP8 (E4M3), применяемое к блокам по 16 значений, и масштабирование FP32 на тензорном уровне, что обеспечивает аппаратное ускорение квантования с заметно более низким уровнем ошибок, чем стандартный FP4. При этом точность практически такая же как FP8 (часто с разницей менее ~1 %), но потребление памяти снижается в 1,8 раза (и до ~3,5 раза по сравнению с FP16). При этом от развития FP64 компания практически отказалась. NVFP4 обеспечивает оптимальный баланс точности, эффективности и производительности для ИИ-инференса, заявляет NVIDIA. «Плотные» NVFP4-вычисления в Blackwell Ultra обеспечивают существенный прирост производительности по сравнению с оригинальным ускорителем Blackwell — с 10 Пфлопс до 15 Пфлопс в NVFP4, то есть в 1,5 раза, или в 7,5 раза по сравнению с NVIDIA Hopper. Это ускорение напрямую влияет на масштаб инференса, обеспечивая большее количество параллельных экземпляров моделей, более быстрое время отклика и снижение затрат на каждый сгенерированный токен. В Blackwell Ultra пропускная способность SFU для ключевых инструкций, используемых в слое внимания (attention layer), удвоена, что обеспечивает до двух раз более быстрые вычисления по сравнению с оригинальными Blackwell. Это улучшение ускоряет внимание как на коротких, так и на длинных последовательностях, но особенно эффективно для рассуждающих моделей с большими контекстными окнами, где softmax-этап, когда определяется наиболее вероятный токен для дальнейшего решения задачи, может стать узким местом по задержке. Таким образом, ускорение работы механизма внимания в Blackwell Ultra уменьшает время до выдачи первого токена в интерактивных приложениях, cнижает вычислительные затраты за счёт сокращения общего количества циклов обработки на запрос и повышает энергоэффективность — больше последовательностей на Вт. В сочетании с NVFP4 новые ускорители позволяют добиться повышения качества многоступенчатых рассуждений и многомодального инференса. Blackwell Ultra получили и улучшенную подсистему памяти — 288 Гбайт HBM3e, наполовину больше, чем в Blackwell (192 Гбайт). Всего используются восемь HBM-стеков и 16 × 512-бит контроллеров (общая разрядность 8192 бит). Пропускная способность осталась прежней — 8 Тбайт/с. Столь большой объём быстрой памяти позволяет целиком разместить в ней крупные модели (300+ млрд параметров), реже обращаться к системной памяти или накопителям, увеличить длину контекста и размер KV-кеша. С точки зрения внешних коммуникаций изменений мало. Blackwell Ultra всё так же полагается в первую очередь на интерконнект NVLink 5 с пропускной способностью 1,8 Тбайт/с (по 900 Гбайт/в каждую сторонц) и возможностью объединения в рамках одного домена до 576 GPU в неблокируемой вычислительной фабрике. Хост-интерфейсы представлены PCIe 6.0 x16 (по 128 Гбайт/с в каждом направлении) и NVLink-C2C с когерентностью памяти (900 Гбайт/с). Blackwell Ultra позволяет создавать более крупные модели, чем Blackwell, и повышать пропускную способность без ущерба для эффективности. Ускоренное выполнение softmax дополнительно повышает скорость реального инференса, увеличивая количество токенов в секунду на пользователя (TPS/пользователь) и одновременно улучшая количество токенов в секунду на МВт (TPS/МВт) в ЦОД. Архитектурные инновации улучшают экономичность ИИ-инференса и переосмысливают возможности проектирования ИИ-фабрик, обеспечивая больше экземпляров моделей, более быстрые отклики и более высокую производительность на 1 МВт по сравнению с любой предыдущей платформой NVIDIA, говорит компания. Суперчип NVIDIA Grace Blackwell Ultra объединяет один Arm-процессор Grace с двумя ускорителями Blackwell Ultra через NVLink‑C2C, обеспечивая NVFP4-производительность c разреженностью до 40 Пфлопс (до 30 Пфлопс без разреженности), а также унифицированную память объёмом 1 Тбайт, сочетающую HBM3E и LPDDR5X. Сетевые адаптеры ConnectX-8 SuperNIC обеспечивают высокоскоростное 800G-подключение. Суперчип NVIDIA Grace Blackwell Ultra является базовым вычислительным компонентом стоечной системы GB300 NVL72, которая объединяет посредством NVLink 5 сразу 36 суперчипов Grace Blackwell (1,1 Эфлопс в FP4 без разреженности). Системы GB300 также выводят управление питанием на новый уровень. Они используют конфигурации с несколькими полками питания для обслуживания и сглаживания синхронных изменений нагрузки ускорителей. Как отметила компания, NVIDIA Blackwell Ultra закладывает основу для создания ИИ-фабрик, позволяя обучать и развёртывать интеллектуальные системы с беспрецедентной масштабируемостью и эффективностью. Благодаря революционным инновациям в области интеграции двух кристаллов, ускорению NVFP4, огромному объёму памяти и передовой технологии интерконнекта, Blackwell Ultra позволяет создавать ИИ-приложения, которые ранее было невозможно создать с вычислительной точки зрения. Curator — и пусть DDoS подождёт
21.08.2025 [00:00],
Игорь Осколков
Шумные соседиDDoS-атаки, к сожалению, стали обыденностью и, кажется, теперь касаются компаний из практически любых отраслей. Не то чтобы их раньше не было — конечно, были, но за последние годы изменились и частота, и характер, и смысл, а скорее даже бессмысленность таких атак. Например, на нас формально самая крупная из последних, но отнюдь не самая неприятная атака — флуд на 10 Гбит/с — была совершена в конце 2021 года. Её отфильтровал хостинг-провайдер, опцию базовой защиты от L3/L4-атак предоставляют практически все хостеры. Однако здесь обычно есть несколько проблем. Во-первых, это «шумные соседи» и политика справедливого использования даже для базового безлимитного подключения. Внешний канал, как правило, общий для всех или как минимум для группы клиентов, поэтому атака на одного из них может повлиять на остальных. А в случае действительно серьёзной угрозы такого клиента попросту отключают от сети. Забегая вперёд, скажем, что именно это с нами случилось. Во-вторых, если покупать у хостера защиту отдельно, то ценник может неприятно удивить. Особенно в случае разовых атак, когда приходится платить за очистку трафика потерабайтно. Кроме того, при совсем уж неудачном стечении обстоятельств могут попросить дополнительные деньги и за волну трафика. Масштаб проблем зависит от тарифов хостинга, особенностей атаки и вашей архитектуры. Наконец, в-третьих, базовая защита от хостера обычно не предусматривает никакого особенного контроля и нормального мониторинга, она нередко работает в одностороннем и уведомительном порядке. А уж хоть какую-то защиту от L7 вообще почти никто не предлагает, только в рамках отдельной услуги, которая, скорее всего, является просто перепродажей чьего-то сервиса. Очевидным решением всех этих проблем является уход непосредственно к специализированному поставщику услуг. Одним из наиболее популярных сервисов является CloudFlare, который за скромные деньги предлагает защиту от DDoS, CDN, WAF и кучу других возможностей. Правда, здесь тоже есть нюансы. Во-первых, далеко не все сервисы нужны каждому, некоторые приятно иметь, но обязательными они не являются. Более того, действительно нужные опции могут оказаться платными и вовсе не безлимитными. Во-вторых, CloudFlare печально известен выставлением астрономических счетов, если посчитает, что вы перебрали с использованием услуг. Ну и в-третьих, с постепенным запретом CloudFlare на территории РФ смысл в нём теряется. Хотя, стоит признать, в целом с CloudFlare работать комфортно. Даже первичная настройка путём переноса DNS-зоны очень проста. ПереездНесмотря на то, что наиболее болезненными являются L7-атаки, количество которых с 2022 года существенно возросло, от классического флуда никто не отказывается. Именно с этим нам и пришлось столкнуться. Если ранее хостинг-провайдер достаточно успешно отбивал такие атаки, то этой зимой его сил не хватило. В один не очень прекрасный выходной день на нас началась атака, которая в пике достигла 2996 Мбит/с и 307405 pps. Менее чем через полчаса хостер справедливо решил, что дальше это терпеть не намерен, и отключил нам сеть. К счастью, атака оказалась не слишком изощрённой, так что переезд на другие IP-адреса временно решил проблему. Длительность атаки установить не удалось, но несколько пробных включений в течение нескольких последующих часов показали, что она продолжалась. Продолжилась она и на следующие сутки. Очевидно, что от перехода под защиту специализированного провайдера отказываться уже никак нельзя. Curator (ранее известный как Qrator Labs) — один из старейших поставщиков таких услуг на рынке. И если раньше казалось, что они нужны только каким-то очень крупным или лакомым для злоумышленников заказчикам, то теперь стало понятно, что пострадать может любая компания, даже такая маленькая и скромная, как наша. Собственно процесс переезда не так уж сложен. Curator присылает довольно подробное письмо с простыми пошаговыми инструкциями для первичной настройки. В нашем случае это несколько веб-сайтов, т. е. Curator выступает в качестве реверс-прокси до наших серверов (апстримов), так что всё свелось к замене A-записей для нужных доменов, созданию сертификатов Let’s Encrypt на стороне Curator с автоматическим обновлением их в последующем и добавлению апстримов, т. е. подключений к нашим собственным серверам (в том числе с TLS и по HTTP/2). Тут же можно настроить вид страниц, которые будут отдаваться Curator при ошибках 502/503/504. Также в приветственном письме рекомендуется перенести апстримы на новые IP, желательно из другой подсети, и заблокировать к ним доступ отовсюду, кроме подсетей самого Curator. В особенности когда переезд происходит под атакой. В интерфейсе есть набор утилит для проверки доступности ваших серверов для узлов Curator (и любого другого IP), проходимого им маршрута и корректности настроек доступа. На уровне апстримов можно устроить балансировку посредством Round robin/IP hash с развесовкой запросов и подключить активную проверку доступности апстрима. Ещё одна приятная мелочь — перенаправление с кодом 301/302/307/308 непосредственно на стороне реверс-прокси с возможностью замены имени хоста и пути. При желании можно принести свои сертификаты и самостоятельно отправлять логи, касающиеся HTTP-трафика, чтобы Curator мог в этом случае также защищать и от некоторых L7-атак. Впрочем, можно и самому управлять доступностью своих ресурсов, наполняя по API белые и чёрные списки IP-адресов с указанием времени действия правил (до суток или навсегда) и опираясь на реальные IP-адреса пользователей, которые отдаёт Curator. Также полезно включить уведомление о превышении заданных порогов (в Мбит/с) для входящего, исходящего и пропущенного трафика, а также количества заблокированных IP-адресов. Однако этим возможности не ограничиваются. Curator может работать как обратный TCP/Websocket-прокси или же просто прикрывать «отдельное» TCP-подключение. Для очень крупных заказчиков предлагается защита AS и доступ к Curator посредством туннелей IPIP или GRE. Кроме того, доступны услуги WAF и защищённого DNS-сервера (с передачей зоны). Всё это, естественно, предоставляется с расширенной аналитикой и превентивной защитой от атак. Сеть самого Curator имеет ёмкость 4 Тбит/с, включает 18 центров фильтрации по всему миру и имеет прямое подключение к Tier-1-операторам. Защита от ботовПомимо защиты от DDoS-атак Curator предлагает и фильтрацию запросов пользователей на своей стороне, в первую очередь для защиты от ботов. Никакой скрытой магии тут нет, всё настраивается самим клиентом, поскольку он лучше знает, каких пользователей пускать, а каких нет. Настройки разделены на две логических части: как фильтровать и кого фильтровать. Для ответа на первый вопрос используются простые правила ЕСЛИ–ТО. В ЕСЛИ включён набор из трёх последовательно применяемых условий: хост (или группа хостов, которая задаётся в этом же разделе), метод (GET, POST и т.д.), путь (после хоста) или URI. Можно задать частичное совпадение для каждого из параметров или и вовсе написать регулярное выражение. В ТО входит набор из трёх основных реакций: принять и выдать проверку — при первом обращении отдать 401, снять посредством JS цифровой отпечаток с браузера и поставить cookie, при необходимости выдав CAPTCHA; принять только с cookie, т. е. где-то на более раннем этапе они уже должны быть поставлены; ничего не делать. Есть отдельная опция для работы с внешним CDN, которым нужен беспрепятственный доступ ко всему контенту. Curator «знает» про Ngenix, Akamai и G-Core, а также поддерживает аутентификацию G2O. Настроенные выше правила применяются ко всему приходящему трафику в соответствии с заданным уровнем распределения проверок, за исключением выбранных стран или регионов и заданных IP-адресов или подсетей. Curator рекомендует проверить работу антибота на небольшом проценте пользователей, постепенно перейдя к тотальной проверке всего трафика. Конкретно для тестирования защиты от ботов можно отдельно задать список IP, для которых проверка будет выполняться всегда, и отключить любые проверки для клиентов с предзаданными HTTP-заголовками. Кроме того, конкретно для защиты обращений не от веб-браузеров (или хотя бы WebView с JS) Curator предлагает задействовать не проверку cookie, которые, например, невозможно поставить при прямом обращении к вашему API из приложения, а проверку хеша, который вычисляется на основе HTTP-заголовков и предзаданного секретного ключа. CDNCDN — относительно новая услуга Curator, но весьма полезная, поскольку помогает быстрее доставлять контент до пользователей и экономить на трафике у своего хостинг-провайдера благодаря кешированию на стороне Curator, конвертации изображений в WebP с заданным уровнем сжатия (но если получившаяся на выходе картинка оказалась больше оригинала, то отдаётся оригинал), поддержке HTTP/2 и сжатия gzip/deflate/brotli. Для видео поддерживается работа с потоками HLS и DASH. Ну и конечно, сам CDN тоже находится под защитой от DDoS. Подключение CDN тоже очень простое — Curator выдаёт домен (точнее, поддомен), который посредством CNAME можно привязать к собственному поддомену (или поддоменам) и, как и выше, выписать на него сертификат Let’s Encrypt прямо в интерфейсе Curator или опять-таки принести свой. Это удобно, поскольку позволяет при необходимости переключиться на другого CDN-провайдера. Управлять временем жизни объектов в кеше CDN можно посредством заголовков expires и cache-control, а если их нет, то время жизни по умолчанию составляет 6 часов. Также можно принудительно отправлять клиентам cache-control: no-cache. CDN умеет и кешировать ответы с ошибками, как глобально, так и для конкретного клиента, чтобы лишний раз не дёргать апстрим. Дополнительно можно задать регулярные выражения для запрета обращения к конкретным URL (будет отдаваться код 404), а заодно включить перенаправление с кодом 301/302/307/308 непосредственно на стороне CDN. К слову, отдавать апстриму реальный IP-адрес клиента тоже можно в отдельном заголовке. GET-параметрами можно обрезать, масштабировать или конвертировать изображения на стороне CDN. Сервис поддерживает работу с JPEG, PNG, TIFF, WebP и AVIF, в том числе конвертацию в эти форматы, но если явно операция конвертации не указана, то при любых манипуляциях с изображениями по умолчанию будет отдаваться JPEG или, если эта опция включена, WebP. В тестовом режиме работает возможность выборочно отключать массовую конвертацию в WebP GET-параметром, например когда она даёт слишком плохие результаты (скриншоты, графики и т.п.) или вовсе не нужна (оригиналы фотографий), но при этом отказываться от неё целиком не хочется. ACL и APIСистема прав доступа стандартная, но удобная — есть несколько готовых групп пользователей, однако можно создать и свои, в том числе вложенные, для большего удобства. В рамках каждой группы задаются правила доступа к разделам, подразделам или отдельным функциям. Всего более 30 позиций, причём для некоторых возможна и более гранулярная настройка, например доступ только к определённым сертификатам. Для каждого из правил доступа можно выбрать политики read, update, create, delete (для последних трёх, очевидно, автоматически включается и read). Для повышения защиты рекомендуется у каждого аккаунта включить двойную аутентификацию (TOTP или ключи доступа), а заодно включить уведомления о важных событиях. Для доступа к API используются токены, которые передаются (строго с HTTPS/TLS/SSL) в отдельном HTTP-заголовке. Для каждого токена можно создать набор из нескольких политик, при необходимости задав доступ только к части принадлежащих клиенту ресурсов. Всего доступно несколько десятков различных API, которые покрывают значительную часть функциональности, доступной в консоли Curator. Целиком построить собственную консоль, конечно, не выйдет, поскольку некоторые второстепенные разделы вроде финансовой документации в API не представлены. Кроме того, Curator не даёт прямого доступа к аналитике, но предоставляет возможность самому собрать в консоли графики по основным метрикам: трафик, запросы, задержка, ошибки и т. п. Наконец, Curator предоставляет и сборный помесячный отчёт с более детальной информацией о том, что вообще происходило с вашими ресурсами. ЗаключениеНи одного существенного инцидента с момента подключения к Curator весной этого года не произошло — и это главное. Это, конечно, не значит, что их не будет в будущем, но во всяком случае переход к Curator даёт чувство защищённости в неспокойные для Рунета времена, а это важно, особенно для онлайн-СМИ, которые должны быть доступны читателям всегда. Собственно переход под защиту Curator от DDoS никаких сложностей не вызвал. CDN же помог почти на порядок сократить отдаваемый серверами трафик. Переезд на CDN сам по себе сложностей тоже не вызвал, однако мы, по-видимому, стали одними из первых пользователей данной услуги, так что кое-что пришлось на ходу уточнять и настраивать. Благо техподдержка у Curator адекватная и быстрая, да и в целом приятная в общении, что встречается не так уж часто. Она же, к слову, помогла разобраться с проблемой, которая Curator вовсе не касается, но которая без переезда была бы выявлена нескоро. Единственное, за что можно пожурить сервис, так это за не совсем полную документацию (это только внешняя, есть ещё внутренний FAQ и справка). С одной стороны, понятно, почему так, — сервис постоянно обновляется, где-то по мелочи, где-то заметно. Это видно даже по демоаккаунту, который даёт общее представление об услугах, но всё же отличается от его актуальной версии, более «прилизанной» и удобной. С другой стороны, задавать какие-то элементарные вопросы техподдержке только потому, что буквально одного предложения или ссылки в документации нет, тоже странно. Безопасный выход в интернет для аэропортов как объектов КИИ: как преодолеть дилемму изоляции и безопасности
22.07.2025 [09:00],
Владимир Мироненко
Объекты критической информационной инфраструктуры (КИИ) подлежат особой защите согласно требованиям законодательства, которым предписывается после включения в реестр объектов КИИ перенос критически важных систем в изолированные (закрытые) контуры, отделённые от интернета. Однако без доступа к внешним ресурсам — государственным порталам, системам отчётности, информационным сервисам — работа современного предприятия невозможна. Поэтому требуется найти технологический баланс, обеспечивающий и соответствие требованиям безопасности, и необходимую для работы компании функциональность систем. В решении этой задачи помогут современные отечественные средства виртуализации, позволяющие создать изолированный контур и обеспечить безопасное подключение к нему. Эти средства должны быть сертифицированы ФСТЭК на соответствие актуальным требованиям безопасности. Рассмотрим задачу и способ её решения на примере одного из самых чувствительных типов объектов КИИ — аэропортов, где нарушение работы ИТ-систем грозит особенно серьёзными последствиями. Изоляция vs функциональностьКак и любой другой объект КИИ, аэропорт должен соответствовать строгим требованиям регуляторов по информационной безопасности. Можно просто полностью перенести все системы в закрытый, изолированный, контур, но тогда без доступа к внешним системам не смогут нормально функционировать службы предприятия:
Конечно, можно просто «пробить дыру» в защитном периметре для выхода в Сеть, но это ставит под угрозу всю инфраструктуру. Поэтому для обеспечения необходимой функциональности предприятия требуются специализированные решения, позволяющие обеспечить безопасную связь изолированного контура с внешними системами без нарушения защиты.
Источник изображений: «Базис» Интерфейс системы управления средой виртуализации Basis Dynamix Standard Виртуальные рабочие столы: мост между изоляцией и функциональностьюСовременные средства виртуализации обеспечивают возможность создать изолированные программные среды, которые могут безопасно взаимодействовать с внешними ресурсами без создания рисков для критической инфраструктуры. Например, решение вендора «Базис», лидера российского рынка виртуализации, предлагает создание виртуальных рабочих столов (VDI) в качестве безопасного «моста» между закрытым контуром и внешним миром Система управления виртуальными рабочими столами Basis WorkplaceОна отвечает за:
Платформа виртуализации Basis Dynamix StandardОна отвечает за создание защищённой изолированной среды и включает:
Как это работает: архитектура безопасностиАрхитектура решения основана на создании демилитаризованной зоны (ДМЗ) между закрытым контуром и интернетом. В ДМЗ размещается диспетчер подключений (брокер), служащий контролируемой точкой доступа к виртуальным рабочим столам, которые находятся в закрытом контуре за пределами ДМЗ, что обеспечивает дополнительный слой безопасности. Из закрытого контура запускается клиентское приложение Basis Workplace, которое устанавливает соединение с диспетчером подключений в ДМЗ, защищённым межсетевыми экранами и обеспечивающим доступ к виртуальным рабочим столам. Благодаря этому виртуальные рабочие столы из закрытого контура имеют контролируемый доступ в интернет через отдельный защищённый канал. Важная особенность архитектуры — применение различных политик безопасности в зависимости от источника подключения. При подключении из защищённого периметра пользователям разрешается использовать буфер обмена, периферийные устройства и USB-накопители. При подключении из внешней сети (например, из домашнего офиса) всё это блокируются для предотвращения утечки данных. Такая многослойная архитектура создает надёжный барьер между критическими системами и внешним миром. Даже если виртуальный рабочий стол будет скомпрометирован, злоумышленники не получат доступа к системам в закрытом контуре, а хранение данных на конечных устройствах пользователей исключено. Что получают пользователи?Виртуальные рабочие столы предоставляют сотрудникам широкие возможности для работы в интернете, но с соблюдением корпоративных политик безопасности. Контроль доступа к веб-ресурсам осуществляется либо на уровне гостевой операционной системы виртуального рабочего стола, либо на уровне шлюзов доступа или прокси-серверов. Это позволяет предоставлять сотрудникам доступ только к необходимым для работы ресурсам и блокировать все потенциально опасные или нежелательные сайты и сервисы. В зависимости от своей роли и должностных обязанностей сотрудники получают только необходимый для работы набор инструментов и доступов, например:
При этом все действия выполняются в изолированной виртуальной среде, физически отделённой от критической инфраструктуры. Скачивание файлов, просмотр веб-страниц, любые потенциально рискованные действия никак не отражаются напрямую на системах в закрытом контуре. Что немаловажно, пользователи, как и раньше, работают с привычными веб-браузерами и другими интернет-приложениями без каких-либо ограничений функциональности. Виртуальный рабочий стол выглядит и функционирует как обычный компьютер с полным набором программ для работы. Работа с электронной подписью и USB-устройствамиПредположим, финансисту необходимо подписать платёжное поручение в интернет-банке с помощью токена электронной подписи. Задача усложняется тем, что компьютер находится в закрытом контуре, а для подписи требуется доступ в интернет. Решение «Базис» устраняет эту проблему с помощью технологии проброса USB-устройств. Сотрудник подключает токен или смарт-карту к устройству доступа (например, ПК) с установленным клиентом Basis Workplace. Устройство доступа может находиться как в защищённом периметре, так и во внешней сети — в зависимости от этого применяются различные политики безопасности. Basis Workplace автоматически делает подключённое устройство доступным на виртуальном рабочем столе, при этом поддерживаются:
Благодаря этому сотрудники могут полноценно работать с системами, требующими строгой аутентификации — будь то государственные порталы, системы отчётности или электронный документооборот — прямо из безопасной среды виртуального рабочего стола. Бесшовный доступ к локальным ресурсамВ случае, если важные документы хранятся на рабочей станции в закрытом контуре, к которой подключены принтеры и другие периферийные устройства, использовать их можно с помощью Basis Workplace, предлагающим два варианта:
КроссплатформенностьРешение «Базис» поддерживает разнообразные операционные системы — как на стороне клиентских устройств (Windows, Альт, Astra Linux, РЕД ОС), так и на виртуальных рабочих столах. Это позволяет внедрить его в любую существующую ИТ-инфраструктуру предприятия без необходимости глобальных изменений. Преимущества для службы информационной безопасностиПредлагаемое «Базисом» решение не только облегчает работу конечных пользователей, но и имеет существенные преимущества для ИБ-специалистов. Прежде всего, архитектура с виртуальными рабочими столами создает эффективный барьер между закрытым контуром и интернетом. Даже если устройство доступа будет скомпрометировано, злоумышленники не получат доступ к критическим системам в закрытом контуре. Это принципиально другой уровень защиты по сравнению с традиционными решениями на основе межсетевых экранов и прокси-серверов. Особое внимание уделяется аудиту и мониторингу. Система ведёт подробные журналы действий пользователей, что позволяет отслеживать, кто, когда и к каким ресурсам получал доступ. Эта информация будет важным подспорьем при расследовании инцидентов и составлении отчётов для регуляторов. При обнаружении подозрительной активности можно будет оперативно отреагировать, вплоть до прекращения сессии пользователя. Также важно то, что Basis Workplace и Basis Dynamix Standard полностью соответствуют требованиям российского законодательства о защите КИИ. Решение «Базиса» обеспечивает надёжную защиту от несанкционированного доступа к значимым объектам, изоляцию сегментов информационной инфраструктуры и контроль действий всех участников. Это значительно упрощает процесс прохождения регуляторных проверок и снижает риски санкций за несоблюдение требований законодательства. Как происходит внедрениеВ «Базисе» разработана прозрачная и эффективная методология внедрения платформы виртуализации, учитывающая специфику объектов КИИ и возможные индивидуальные требования заказчиков. Вначале проводится подробный анализ потребностей, изучается существующая инфраструктура заказчика, проводятся интервью с ключевыми сотрудниками и определяются сценарии использования системы. В итоге формируется список требований к решению, учитывающий как технические аспекты, так и особенности бизнес-процессов предприятия. На этапе проектирования архитектуры интегратор разрабатывает схему решения с учётом всех выявленных особенностей и ограничений инфраструктуры заказчика. Компания также готова рассмотреть и нестандартные требования. Например, можно, в случае необходимости, интегрировать решение с устаревшими, но критически важными системами мониторинга, использующими проприетарные протоколы — такие задачи нередко возникают на промышленных предприятиях. Для этого инженеры разрабатывают специальные «коннекторы», которые позволяют включить эти системы в общий контур безопасности. После утверждения архитектуры вендор разворачивает тестовый стенд — демонстрационную среду, на которой заказчик может оценить работу решения «Базиса» в приближенных к реальным условиях. Это позволяет на ранней стадии выявить возможные проблемы и скорректировать подход к внедрению. Все рутинные операции максимально автоматизированы для ускорения процесса внедрения. От заказчика требуется лишь корректно заполнить «техландшафт» — документ с описанием целевой инфраструктуры. На его основе формируется конфигурация системы, подготавливаются серверы, настраиваются операционные системы и проверяется готовность инфраструктуры. Этап настройки и интеграции включает адаптацию решения к существующей инфраструктуре, настройку компонентов системы и их интеграцию с действующими информационными системами предприятия. Влияние на текущие бизнес-процессы сведено к минимуму — внедрение происходит поэтапно и не нарушает работу критически важных служб. Перед запуском в эксплуатацию проводится комплексное тестирование и аудит безопасности всех компонентов решения. Вендор проверяет функциональность, а интегратор — соответствие требованиям регуляторов. При необходимости выполняется дополнительная настройка средств защиты. После завершения тестирования проводится демонстрация работающего решения. «Базис» собирает обратную связь и при необходимости вносит финальные корректировки. Заключительный этап — запуск решения в промышленную эксплуатацию. В зависимости от требований заказчика вендор может как обеспечить полную передачу компетенций внутренней ИТ-службе, так и взять на себя сопровождение системы в режиме 24/7. Универсальное решение для всех объектов КИИХотя в статье рассмотрено использование платформы виртуализации «Базис» на примере аэропорта, решение может использоваться для любых объектов критической информационной инфраструктуры:
Решение вендора демонстрирует свою эффективность везде, где требуется сочетание высокой безопасности с доступом к внешним ресурсам. Например, банк ВТБ ещё в прошлом году мигрировал с платформы Citrix на Basis Workplace, переведя на новое решение большую часть своих сотрудников. Также успешно реализованы аналогичные проекты по замещению зарубежных VDI-решений и в других крупных российских организациях, в том числе на объектах КИИ. «Базис» — российский лидер в области виртуализацииКомпания «Базис» является ведущим игроком российского рынка виртуализации. Её продукты:
Заключение: безопасность без изоляцииРабота критических систем в закрытом контуре не должна осуществляться в цифровой изоляции. Решение на базе Basis Workplace и Basis Dynamix Standard позволяет выстроить надёжный защищённый мост между закрытым контуром и интернетом, сохраняя высокий уровень безопасности. Вендор понимает специфику работы объектов КИИ и готов помочь найти оптимальный баланс между защищённостью и функциональностью ИТ-инфраструктуры предприятия, поскольку настоящая безопасность — это не изоляция от цифрового мира, а умное управление рисками. Rikor — это база: обзор российской серверной платформы Rikor 7212
27.03.2025 [00:00],
Илья Коваль
Излишним пуризмом в определении «отечественности» страдать не будем — чем большее количество компонентов и этапов производства локализовано, чем короче и прозрачнее цепочка поставок, тем лучше и выгоднее для конечного заказчика. Очевидно, что процессоры, накопители, память и ряд компонентов для материнской платы в России или не производятся, или производятся малыми партиями, что делает их достаточно дорогими. Но вот их монтаж, пайка, тестирование и т. п. целиком и полностью выполняются на собственной производственной площадке «Рикор» в Арзамасе с использованием большого количества современных промышленных роботов. Доставка компонентов занимает некоторое время, но у «Рикор» всегда есть запасы. Общая производительность завода составляет десятки тысяч плат для различных устройств в месяц и несколько тысяч готовых серверных платформ (тоже в месяц). Стоит отдельно подчеркнуть, что мы рассматриваем именно серверную платформу, а не просто готовый сервер, поскольку «Рикор» был и остаётся во многом и OEM/ODM-производителем. Платформы компании лежат в основе множества локальных брендов, хотя компания продаёт и полностью укомплектованные серверы. Так что, если описываемая здесь система покажется подозрительно знакомой, удивляться не стоит — услугами производства «Рикор» пользуются и другие российские компании. Для таких контрактных заказчиков это большой плюс, поскольку сами серверные платформы Rikor входят в реестр Минпромторга РФ и другие перечни отечественных продуктов. Поддержка и сопровождение ведётся, как это обычно и бывает, через партнёрскую сеть. Уже сейчас есть 16 сервисных центров в крупных городах, ещё 10 находятся в стадии валидации. Там есть и подготовленные кадры, и запас основных комплектующих и компонентов платформ. Что локализовано полностью в серверных платформах Rikor, так это корпус. Некоторые другие российские серверные бренды до сих пор заказывают корпуса всё в том же Китае или на Тайване, что сказывается как на стоимости устройств, так и на скорости их поставки. Шасси у платформы Rikor 7212 собственного дизайна, созданное с учётом запросов российских клиентов, а вся металлообработка, включая оцинковку и анодирование, делается в России на роботизированных линиях из российских же материалов, причём действительно качественно. Литьё пластика тоже собственное, что позволяет кастомизировать внешний вид и конструкцию под запросы конечных заказчиков или других брендов. Компания даже несколько раз переделывала пресс-формы, чтобы добиться нужной чистоты и точности получаемых изделий. Таким образом, у «Рикор» имеется выстроенная цепочка поставок, локализация производства (пусть неполная, но более глубокая, чем у других вендоров), опыт разработки серверных (и иных) платформ, сервисные центры, ЗИП’ы и гарантийное обслуживание. Не упомянуто только ПО, но тут как раз всё просто. BIOS/UEFI здесь от AMI с некоторыми модификациями, а прошивка BMC сделана на основе OpenBMC. В планах также создание ПАК под конкретные задачи. Rikor 7212Полностью название платформы звучит как Rikor 7212 gen.3 PROP (2U, 12 × LFF), а бюрократическое наименование у неё — КДБА.466219.021-01. Номер реестровой записи: 7047\\4\\2023. В том же семействе есть ещё модели Rikor 7225 (2U, 25 × SFF) и Rikor 7104 (1U, 4 × LFF). В целом материнская плата, лежащая в основе 7212, может использоваться и в других платформах. Кроме того, «Рикор» готовит ещё несколько вариантов пассивных бэкплейнов: с поддержкой 6 или 12 NVMe-накопителей для передней корзины, а также двух NVMe для задней. Активные бэкплейны тоже будут, но позже. Rikor 7212 заключен в 2U-шасси и предлагает дисковую корзину на 12 LFF-накопителей SAS-3/SATA-3. На переднюю панель вынесены сегментный индикатор на две позиции, кнопки питания/сброса/UID и сопутствующие индикаторы, пара портов USB 3.0 Type-A, а также VGA-выход. Опционально доступна декоративная пластиковая решётка с защёлкой, защищающая доступ к накопителям. Верхняя крышка оснащена защёлкой-фиксатором, под самой крышкой спрятан неприметный датчик вскрытия корпуса. Сзади есть выделенный 1GbE-порт RJ45 для BMC, два USB 3.0 Type-A, VGA-выход, консольный порт DB-9, а также слот OCP 3.0 (2 × PCIe 4.0 x8). Слоты расширения предлагают большое разнообразие конфигураций. Первый x32-райзер (самый левый, если смотреть сзади), подключённый к первому CPU, предлагает три слота x16, что позволяет установить либо одну двусхлотовую FHFL-карту, либо три однослотовых (x16 + x16 или же x16 + x8 + x8). К первому же CPU подключён слот OCP 3.0 и пара SlimSAS-коннекторов (x8 каждый). Точно такие же x32-райзер и пара x8-SlimSAS подключены ко второму CPU. И к нему же идёт и третий малый райзер x16, который предлагает два слота (x16 или x8 + x8) для низкопрофильных карт. Все перечисленные слоты — PCIe 4.0. Нам достался вариант, где за третьим райзером находилась корзинка для двух SFF-накопителей SATA. Их можно использовать, например, для ОС. Особенно если подключить не к двум отдельным SATA-портам, идущим от чипсета (C621A), предлагающего также ещё три MiniSAS-HD (x4), два из которых обслуживаются полупрограммным RAID-контроллером Intel VROC (RSTe), — в сумме 14 портов SATA-3. К чипсету же относится и пара M.2-слотов PCIe 3.0 x2 (M key), которые тоже можно задействовать под «зеркало» для ОС. Если же карты расширения вовсе не нужны, то возможна конфигурация из двух корзин 2 × SFF и ещё двух корзин 2 × LFF. Также на плате есть разъём USB 3.0 Type, колодка для фронтальных USB-портов, гнездо для TPM-модуля, колодка для ключа VROC, коннектор NC-SI, россыпь гнёзд для кабелей питания бэкплейна и карт расширения, а также слот microSD. Последний относится к BMC ASPEED AST 2500, который пока что, увы, может использовать только встроенный сетевой порт, а работать с NIC на картах расширения не умеет. Никаких дополнительных опций вроде мезонина под RAID-контроллер или дополнительных SD-слотов «Рикор» делать не стала, что правильно, поскольку удорожать плату ради не самых популярных опций смысла нет. За охлаждение отвечают шесть (5+1) высокооборотных вентиляторов MX6038ABU1 от Topfan (60 × 60 × 38 мм) с возможность горячей замены как одного вентилятора, так и всего блока целиком. Без горячей замены, в принципе, можно было бы и обойтись, но в «Рикор» решили, что российских реалиях лучше с ней, чем без неё. На процессорах установлены радиаторы Ablecom с теплотрубками — заявлена поддержка CPU с TDP до 270 Вт. Сверху они накрыты пластиковым воздуховодом. О максимально допустимом уровне TDP карт расширения прямо ничего не говорится. Питание обеспечивают два (1+1) CRPS БП мощностью от 1200 Вт. В нашем случае это была пара 1,2-кВт Qdion (ASPOWER) U1A-D11200-DRB-Z класса 80+ Platinum. Ну и последнее — Rikor 7212 рассчитан на установку двух процессоров Intel Xeon Ice Lake-SP (LGA4189) и 32 модулей памяти DDR4-3200 (L)RDIMM суммарным объёмом до 8 Тбайт. Это далеко не самая новая процессорная платформа, зато распространённая и доступная во всех смыслах, а потому популярная. Поэтому Rikor 7212 более чем подходит для серверов общего назначения, простого инференса (при установке GPU) и хранилищ. Знакомство с шасси и сборкой в целом оставило приятное впечатление — всё достаточно продуманно, но без излишеств. Хотя некоторые огрехи всё же есть. Так, в направляющих для блока вентиляторов один из проводов заминается. Впрочем, данный экземпляр был из демофонда, поэтому побывал много где. BIOSBIOS — это, пожалуй, самая трудная для замещения часть платформы. Качественных открытых проектов не сыщешь, так что приходится полагаться на проприетарные решения. В данном случае речь о прошивке AMI. В целом она ничем не отличается от стандартной, которой пользуются множество других вендоров. Все основные опции тут представлены, но опять-таки каких-то излишеств нет. Сдвоенного образа BIOS, кстати, тоже нет, но эту функцию добавят чуть позже. Rikor 7212 BIOS
Для RAID-контроллера — в нашем случае Broadcom MegaRAID SAS 9361-16i — успешно подгрузился option ROM, так что предварительная настройка массивов была сделана именно здесь. Для NIC то ли такой опции в принципе не предусмотрено (адаптеры LR-Link двух видов), то ли ROM’ы не заработали ни в CSM, ни в обычном режиме. Broadcom MegaRAID SAS 9361-16i
OpenBMCА вот для BMC открытые прошивки как раз есть, и здесь используется приятная глазу OpenBMC, к тому же переведённая на русский язык. На главной странице представлены краткие сведения о текущем состоянии сервера, а из отдельных тайлов можно быстро перейти в нужный раздел с более детальной информацией о конкретных компонентах и к настройкам. Из полезных опций отметим наличие не только готовых профилей охлаждения, но и возможность ручной регулировки или корректировки оборотов вентиляторов. Кроме того, хотя прямо об этом нигде не говорится, используется двойной образ прошивки для безопасного обновления оной. Для взаимодействия с платформой доступны Redfish, IPMI 2.0, SNMP. Пользователи и уровни доступа как заводятся локально, так и забираются из LDAP/AD. Есть возможность загрузить свои SSL/TLS-сертификаты. Также доступна отправка уведомлений по почте (SMTP). iKVM представлен встроенным HTML5-клиентом с возможностью открытия в отдельном окне для пущего удобства и записью видео (технически это веб-клиент VNC). Доступно монтирование образов накопителей как непосредственно в веб-интерфейс, так и по HTTPS-адресу. В будущем появится управление настройками карт расширения и обновление их прошивок. В остальном же OpenBMC — это приятный интерфейс OOB-управления платформой. Rikor 7212 OpenBMC
ТестированиеПлатформа досталась нам с двумя процессорами Xeon 4310 — популярный вариант для демофонда, хотя в готовые серверы ставят, как правило, что-то более приличное. Это самые младшие чипы среди стандартных CPU поколения Ice Lake-SP, которые отличаются не только малым количеством ядер, но и поддержкой памяти уровня не выше DDR4-2666. Так что наличие сразу 16 RDIMM-модулей Samsung DDR4-3200 ёмкостью по 16 Гбайт — это, конечно, приятно, но в данном случае избыточно. Также «Рикор» поставила сразу три сетевых адаптера LR-Link: две 10GbE-карты LREC9812BF-2SFP+ на базе Intel X710 и OCP-адаптер LRES3023PT-OCP на базе Intel I350 (1GbE). К RAID-контроллеру Broadcom MegaRAID SAS 9361-16i мы подключили собственные SATA-3 SSD Intel D3-S4520 ёмкостью 1,92 Тбайт каждый. Из трёх таких накопителей был сформирован массив RAID-5 с настройками по умолчанию. В комплекте также шла пара SAS SFF HDD Toshiba, но мы их использовать не стали (хотя и собрали RAID-1). Windows Server 2022 Standard 21H2 (20348) со всеми последними апдейтами была установлена на 240-Гбайт Seagate Enterprise SATA SSD, который разместился в задней дисковой корзинке. В BIOS вручную был отключен CSM, а Secure Boot и ACPI Auto Configuration — включены. Остальные настройки оставлены по умолчанию. В Windows был выбран Performance-профиль питания. В OpenBMC политика охлаждения также была выбрана Performance. Со всеми этими настройками в Geekbench 6.4.0 система получила 1527 баллов в однопоточных тестах и 12060 — в многопоточных. А в CPU-Z 2.14.0 в бенчмарке версии 2017.1 — 386 и 10981 балл соответственно. В SPECworkstation 4.0.0 процессор получил рейтинг 1,39, а вышеупомянутый массив RAID-5 — 0,23. Наконец, в PassMark Performance Test 11.1 процессор заработал 39989 очков, а память — 2691 очко. Впрочем, нас интересуют не абсолютные цифры бенчмарков, а работа с платформой в целом. И здесь никаких особенных вопросов и нареканий нет. Всё стартовало с первого раза, сбоев не было, необычного поведения не замечено. С драйверами конкретно для Windows Server проблем тоже не возникло. Часть устройств заработала сразу, часть потребовала скачать ПО с сайта производителя. А вот за документацию хочется упрекнуть. Точнее, так — инструкция к OpenBMC хорошо сделана и оформлена, а вот документация на материнскую плату косноязычна. Хотя и без неё можно обойтись. ЗаключениеRikor 7212 — это хорошая базовая платформа, на основе которой можно построить и сервер, и СХД, и ПАК. Она использует востребованное на нашем рынке семейство Intel Xeon Ice Lake-SP, доступное и недорогое. То же самое можно сказать и про компоненты для него, от памяти и накопителей до карт расширения. Разработанное компанией шасси предлагает действительно хорошие возможности для расширения, особенно в части дисковой подсистемы. Программная часть в целом удобная, с возможностью кастомизации и заделом на будущее. А на документацию мы уже чуть попеняли. В то же время Rikor 7212 — это именно базовая платформа, а не высокопроизводительный сервер просто в силу того, что даже следующие поколение-два процессоров Intel Xeon существенно быстрее и функциональнее. Другой вопрос, что далеко не всем заказчикам они нужны. Кроме того, важна и локализация производства, скорость поставки готового оборудования и уровень поддержки на территории РФ, что как раз могут предложить не все отечественные вендоры. Так что в целом нам платформа понравилась, а для более серьёзных задач «Рикор» обещает скоро выпустить серверную платформу на основе следующих поколений процессоров. NGFW по-русски: знакомство с межсетевым экраном UserGate C150
26.12.2024 [00:00],
Илья Коваль
Компания UserGate является первым отечественным разработчиком межсетевых экранов нового поколения (NGFW). Она начала свою деятельность в этом направлении 15 лет назад. В настоящий момент она является лидером по доле рынка в России в данном сегменте — только в 2022–2023 гг. было реализовано более 5000 внедрений. Решения успешно используются в крупных государственных и коммерческих структурах как в России, так и за рубежом. Разработчик уделяет особое внимание максимальной локализации своих продуктов. В межсетевых экранах используется собственная операционная система UGOS и реализация таких технологий, как IPS, DPI и антивирус. Непосредственно про рассматриваемый в этой статье UserGate C150 также важно отметить, что дизайн и схемотехника были разработаны специалистами компании, а выпуск устройства проводится на контрактном производстве в Ленинградской области. Для определённых заказчиков важным моментом может быть включение решения в Реестр Минпромторга России и наличие сертификата ФСТЭК России. Модельный рядВ каталоге решений NGFW компании представлены продукты различного класса по производительности и аппаратной конфигурации — начиная с решений для филиалов и IoT и заканчивая моделями для центров обработки данных. Последние способны обрабатывать трафик на скоростях до 200 Гбит/с в режиме межсетевого экрана и 30 Гбит/с с активными функциями контроля приложений и предотвращения вторжений. Также предусмотрена поставка решения в формате виртуальной машины для всех распространенных платформ, что может быть интересно как для малого бизнеса, так и для размещения в облачных сервисах. Для требующих высокой доступности сервисов есть возможность использования устройств в кластерах Active – Passive или Active – Active. Кроме непосредственно NGFW, компания также поставляет специализированные решения для хранения и обработки журналов событий UserGate Log Analyzer и для централизованного управления несколькими устройствами UserGate Management Center. Конечно, есть в портфолио и программный продукт UserGate Client для защиты конечных устройств и обеспечения безопасного доступа к инфраструктуре с реализацией таких актуальных технологий, как EDR, NAC и ZTNA. ЛицензированиеДля связанного с кибербезопасностью оборудования своевременное обновление и полнота баз угроз является одной из ключевых характеристик. И вполне ожидаемо, что этот сервис предоставляется по формату годовой подписки, причем предусмотрены несколько вариантов, что позволяет подобрать оптимальный комплект по требованиям заказчика. Базовый вариант Security Update (SU) включает в себя обновление встроенного ПО, сигнатур системы обнаружения вторжений и сигнатур приложений. Расширение Advanced Threat Protection (ATP) добавляет фильтрацию URL по категориям, фильтрацию URL по спискам, обновление морфологических баз, сервис веб-безопасности. Расширение Mail security позволяет использовать проверку почтового трафика для определения спама. Потоковый антивирус UserGate используется для проверки трафика на вирусы на лету. Для использования двух устройств в режиме кластера также понадобится приобрести одноимённый пакет. Последняя опция — контроль доступа в сеть на уровне межсетевого экрана — необходима при использовании схемы контроля конечных устройств UserGate Client. Добавить новые подписки можно в любой момент. Штрафов при возобновлении оплаты за подписки не предусмотрено. Стоимость подписок также зависит от количества сетевых устройств, трафик которых будет проходить через межсетевой экран. Активация лицензий и обновление списка активных модулей происходит при регистрации устройства, для чего ему необходимо обеспечить интернет-доступ. В дальнейшем статус будет перепроверяться раз в сутки. При работе в закрытом контуре предусмотрена активация через прокси-сервер. В новых версиях прошивки предусмотрена и офлайн-активация лицензии. Сервис, поддержка, помощь при миграцииПоставки межсетевых экранов проводятся по стандартной цепочке производитель → дистрибьютор → интегратор → заказчик. Ценовая политика компании основана на индивидуальном подходе, так что в свободном доступе цен нет. Кроме подписок на обновления, компания предлагает несколько планов технической поддержки. Они различаются оперативностью реагирования, набором услуг и, конечно, стоимостью. Кроме того, есть и разовые услуги, такие как проектирование, внедрение, резервирование аппаратного обеспечения, тренинги и обучения, помощь при миграции с решений других производителей, аудит защищённости сети заказчика, обновление и настройка стороннего оборудования. На портале техподдержки в публичном доступе представлена документация (руководства пользователя по моделям и по возможностям и настройкам ПО) и ответы на часто задаваемые вопросы с группировкой по категориям. При регистрации заказчик получает доступ в личный кабинет, где можно скачивать обновления программного обеспечения и взаимодействовать с поддержкой производителя. Штатный режим обновления прошивки — онлайн с сохранением конфигурации. В случае использования кластера обеспечивается непрерывность работы при обновлении ПО. Комплект поставкиПредоставленная на тест модель UserGate C150 поставляется в стандартной картонной коробке. Внутри устройство защищено вставками из вспененного материала. В комплект поставки входят сам межсетевой экран, внешний блок питания с сетевым кабелем, один патч-корд, кабель для подключения к консоли и листовка с условиями гарантии и ссылками на документацию. Отсылка пользователя на сайт для получения информации об устройстве сегодня более предпочтительна, чем комплектация печатной документацией, поскольку продукты постоянно развиваются. Блок питания от известного бренда Mean Well отдаёт 12 В 5 А и имеет несъёмный кабель длиной 1 м со стандартным круглым штекером. Для подключения к сети питания установлен также стандартный C14 для комплектного кабеля с вилкой Shuko (при необходимости кабель можно поменять на C13-C14 для подключения к ИБП или PDU). Патч-корд категории 5e имеет длину 1 м. Метровый же консольный кабель снабжён разъёмами USB Type-C и USB Type-A. И блок питания, и консольный кабель не являются уникальными для модели, что можно отнести к плюсам, поскольку при необходимости не будет проблем с подбором замены. Внешний видМежсетевой экран выполнен в крепком металлическом корпусе серого цвета и внешне ничем не выделяется в сегменте современного сетевого оборудования. Внутри нет никаких обслуживаемых пользователем компонент, так что корпус опечатан. Высота корпуса стандартная для стоечного оборудования. Однако штатно предусмотрен вариант установки только на резиновых ножках, которые увеличивают фактическую высоту на 7 мм. Опционально компания предлагает специальное крепление, позволяющее установить в серверную стойку на 1U два межсетевых экрана данной модели вместе с блоками питания.
Ширина корпуса составляет 205 мм. На правой стороне находится решётка вентилятора (кстати, от Delta). Забор воздуха для вентиляции производится через решётки на левой боковой стороне корпуса. Глубина корпуса — 185 мм. При этом необходимо добавить ещё минимум 40 мм сзади на подключение питания (если использовать комплектный блок питания с прямым штекером) и примерно столько же спереди для сетевых кабелей. Масса устройства — 1,2 кг. Несмотря на позиционирование для СМБ и филиалов, устройство штатно имеет возможность подключения двух блоков питания, что позволяет реализовать резервирование. Но для этого потребуется докупить ещё один блок питания. Также сзади есть винтовая клемма для подключения заземления. На передней панели устройства, слева, расположен блок из восьми гигабитных портов для медного кабеля. Каждый имеет индикаторы скорости и активности. Далее идут порт USB 3.0 для подключения накопителя, выделенный сетевой порт 100 Мбит/с для OOB-управления, консольный порт USB Type C и четыре многоцветных светодиодных индикатора. Технические характеристикиUserGate C150 имеет аппаратную платформу с восьмиядерным процессором Arm с частотой работы 1,6 ГГц, 16 Гбайт оперативной памяти и SSD на 128 Гбайт для ПО. Решение оборудовано восемью гигабитными портами для медного кабеля для обрабатываемого трафика и одним выделенным портом для управления. Потребляемая мощность устройства не превышает 36 Вт. Диапазон рабочих температур — от 0 до 40°C.
UserGate C150 разработчик рекомендует использовать для обслуживания не более 150 пользователей. Для рассматриваемого типа оборудования реальная производительность существенно зависит от используемых технологий проверки трафика и управления им, и выбор оптимальной модели необходимо проводить с привлечением специалистов и/или пилотного запуска. Существенно изменить что-то по скорости уже не получится — если её не будет хватать, то придётся или отказываться от каких-то проверок, что не всегда допустимо, или менять модель на более производительную. Возможности провести обновление с компенсацией за заменяемое устройство и переносом подписок нет. Возможности встроенного программного обеспеченияДля первоначального подключения и настройки есть сразу три варианта — можно использовать консольный порт, который эмулирует через USB традиционный последовательный интерфейс, можно подключиться к выделенному порту управления с доступом по ssh или же использовать port0 и веб-интерфейс. Первые два консольных варианта применяются преимущественно для настройки IP-адресов с последующим переходом к третьему способу доступа через браузер. Кстати, веб-интерфейс работает на нестандартном порту 8001 и по https. В целом первые шаги традиционны для данного оборудования: выбираем язык (есть русский и английский), часовой пояс (важно для корректной работы связанных с временем сервисов), принимаем условия лицензионного соглашения, задаём пароль главного администратора. Далее будет необходимо обеспечить устройству выход в интернет для проведения регистрации. Основной вариант ручного взаимодействия с устройством — веб-интерфейс в любом современном браузере. Для реализации определённых сценариев может быть полезно наличие REST API для работы с устройством. Например, можно самостоятельно реализовать регистрацию пользователей. Для мониторинга текущего состояния устройства используются две панели. Одна показывает ситуацию с точки зрения сетевой нагрузки, включая статус портов, загрузку процессора и оперативной памяти, трафик по портам, интенсивность запросов DNS и HTTP, статистику VPN-подключений. Вторая отражает данные по системам безопасности — пользователи, приложения, домены, атаки и так далее. Более подробные инструменты мониторинга и диагностики собраны в одноимённом разделе. Здесь можно посмотреть текущие сессии, таблицу маршрутизации, подключения пользователей по VPN. Для диагностики предусмотрены как традиционные инструменты ping, traceroute и DNS Loockup, так и более сложные — захват пакетов, проверка прохождения трафика по правилам, проверка работы LLDP. В этом же разделе настраиваются правила оповещений (поддерживается SMTP и SMPP) и протокол SNMP. Большое внимание уделено журналированию работы устройства. При этом можно настроить отправку событий на другие системы по syslog, FTP или SSH. В правилах пересылки выбираются требуемые журналы, формат сообщений и расписание. Не забыта и такая важная функция, как автоматическое составление отчётов. В списке шаблонов представлено более 100 готовых вариантов. Среди них — отчёты по трафику, доменам, приложениям, пользователям, атакам. Меню настроек устройства насчитывает более шестидесяти страниц, так что рекомендуется провести обучение специалистов компании, если планируется использовать собственных сотрудников для обслуживания межсетевого экрана. В первом разделе представлены общие настройки, такие как время, служебные доменные имена, модули, обновления и так далее. Обратим внимание на возможность настройки входа в веб-интерфейс не только по паролю, но и по сертификату. В целом аутентификация администраторов может работать как с локальными аккаунтами, так и через внешний сервис LDAP. При этом можно иметь и несколько различных профилей (ролей) для них с разными доступами и правами. Также полезными будут встроенные средства резервного копирования конфигурации на внешние серверы. Конечно, есть и страница управления сертификатами, используемыми как для доступа к устройству, так и для работы функции инспекции SSL. По сетевым настройкам здесь есть востребованные в сегменте возможности — можно создавать дополнительные интерфейсы (в частности VLAN, мост, бонд, VPN, VXLAN), распределять их по зонам, настраивать маршрутизацию через шлюзы. Предусмотрены функции серверов DHCP и DNS. Для более производительных моделей может быть интересна возможность организации независимых виртуальных маршрутизаторов. Для работы с аккаунтами пользователей и групп в дополнение к локальным аккаунтам предусмотрена интеграция с каталогами AD, LDAP, RADIUS и другими. Есть возможность входа через Captive-портал и поддержка MFA (TOTP, электронная почта, SMS). Для обработки трафика есть две группы политик. Первая относится непосредственно к сетевым уровням — задаются правила для традиционного межсетевого экрана, правила маршрутизации (поддерживается как статическая маршрутизация, так и динамические протоколы RIP, OSPF, BGP и другие) и трансляции адресов, а также управления полосой пропускания. Дополнительно здесь же реализованы функции балансировщика нагрузки по протоколам TCP/UDP и через обратный прокси. Политики безопасности уже относятся к более высоким уровням сетевого обмена. Фильтрация контента работает с наиболее распространенным сегодня веб-трафиком. В его правилах можно использовать категории URL из обновляемой базы, а также фильтровать контент с использованием морфологии. Как и в других аналогичных решениях, для упрощения настройки сервисов и политик используется технология объектов (в терминологии производителя — библиотек). В частности, это касается сетевых адресов, сервисов, профилей, приложений, типов контента, расписаний и так далее. При этом часть из них может быть встроенными и с автоматическим обновлением от вендора. Веб-безопасность позволяет ограничить использование браузера по времени, автоматически блокировать рекламу и социальные сети, а также использовать безопасный поиск. Устройство умеет инспектировать трафик и в некоторых типах туннелей, что повышает общий уровень защиты. Решение поддерживает как традиционный межсетевой экран уровня L3/L4, так и возможность обнаружения приложений на уровне L7. Обновляемая база сигнатур приложений позволяет строить правила для строгого контроля работы пользователей и сервисов. На момент подготовки материала в списке было представлено более 1700 программ (полный список доступен на сайте разработчика). С учётом повсеместного шифрования трафика SSL (для сайтов, электронной почты и других сервисов) в межсетевом экране не обойтись без функции его расшифровки и проверки. Однако это может мешать работе некоторых приложений, а также создаёт высокую нагрузку. Так что администратор может создать специальные правила для исключения доверенных источников из проверки. Отдельно отметим здесь поддержку алгоритмов ГОСТ. Предусмотрены и специальные настройки для протокола SSH, включая блокировку SFTP и выполнения команд. Аналогичным образом настраиваются и правила работы системы обнаружения вторжений — с учётом зон, адресов и сервисов. Сценарии позволяют более гибко настраивать работу устройства благодаря автоматизации определённых действий. В качестве примера разработчики приводят схему, когда для пользователя ограничивается полоса пропускания при обнаружении запуска им определённых приложений. Обработка почтового трафика включает в себя защиту от спама как по спискам DNSBL, так и встроенным агентом. Дополнительно предусмотрена возможность пересылки трафика на внешние сервера ICAP, например для проверки системой DLP. Две последние страницы в этом разделе — настройка системы защиты от DoS. В правилах указываются источник, получатель, пользователь, расписание и другие параметры. А в профиле уже назначаются пороги уведомлений и отбрасывания пакетов для SYN, UDP и ICMP. Можно также ограничить сверху общее число сессий. Для реализации удалённого доступа к защищённым сервисам используется технология порталов, на которых можно опубликовать ресурсы различных типов и протоколов. В этом же разделе настраиваются правила и серверы обратных прокси. Объединение локальных сетей или подключение удалённых пользователей может осуществляться с использованием технологий VPN на базе протокола IPSec. Есть несколько предустановленных профилей, что упрощает подключение к оборудованию других производителей. ЗаключениеОбеспечение сетевой безопасности сегодня является одной из важных задач для ИТ-подразделений организаций. Решения UserGate предоставляют администраторам широкие возможности по управлению трафиком, контролю доступа и защите локальных сетей и конечных устройств от современных угроз. С точки зрения сетевого администрирования здесь есть все актуальные для данного сегмента технологии. При этом продукты обеспечиваются регулярными обновлениями баз и сигнатур, а также имеют встроенные средства для автоматизации реакции на события информационной безопасности. Модельный ряд межсетевых экранов нового поколения UserGate позволяет подобрать устройство под любой уровень нагрузки. Напомним также, что продукты могут функционировать не только в автономном режиме, но и быть включены в экосистему кибербезопасности для более эффективной и разносторонней защиты всех компонентов ИТ-инфраструктуры. В плюсы решений отнесём также поддержку отечественных стандартов, наличие сертификатов от контролирующих организаций и включение в реестры российской продукции. От ВМ и облака до K8S и DevOps: обзор российской экосистемы виртуализации и контейнеризации «Базис»
04.12.2024 [00:00],
Игорь Осколков
За последние несколько лет российский рынок виртуализации серьезно изменился: после ухода зарубежных компаний — в первую очередь, VMware, чьи решения занимали более 80 % рынка — у отечественных разработчиков появилась возможность занять освободившееся пространство. Этим попытались воспользоваться десятки компаний, но о существовании большей их части напоминают только строчки в реестре отечественного ПО от Минцифры. Сделать систему виртуализации относительно несложно, даже студенту старших курсов под силу создать на базе открытого ПО простенький гипервизор с минимальной обвязкой. Создать гибкую, масштабируемую, безопасную и управляемую платформу виртуализации — то есть именно то, что требуется бизнесу и крупным структурам, включая государственные — невероятно сложно. И даже если начинать всё не с нуля, а взять за основу какой-то открытый общедоступный проект, вся ответственность за сопровождение, развитие и доработку под нужды заказчиков всё равно ложится на разработчика. Именно поэтому крупных игроков на этом рынке не очень много. В России же есть своя специфика. После ухода западных игроков и отлучения их клиентов от технической поддержки и обновлений остро стоит вопрос перехода на отечественные решения, которые должны по возможности не отставать по функциональности и надёжности от уже привычных виртуальных сред, иметь развитую поддержку и обходиться не в заоблачные суммы, а в ряде случаев ещё и давать возможность создавать аттестованные системы. Это ещё сильнее сокращает выбор. В итоге тех, кто готов всерьез заместить на рынке иностранные решения, можно пересчитать по пальцам, и в этом году одним из наиболее активных игроков был «Базис». Компания выпустила значимые обновления флагманских продуктов своей экосистемы, представила рынку несколько примечательный кейсов — в частности, с Газпромбанком и ВТБ, — и по итогам исследования аналитического агентства «ТМТ консалтинг» российского рынка виртуализации была признана крупнейшим игроком по доле рынка. Что же предлагает «Базис»? Импортонезависимую экосистему, флагманские решения которой обеспечивают классическую виртуализацию — от простых развёртываний и VDI до целых геораспределённых облаков, — а также ряд целевых решений для работы с Kubernetes-кластерами, построения DevOps-конвейера, резервного копирования. Перечисленное дополняют сертифицированные ФСТЭК средства защиты виртуальных сред, инструменты миграции и репликации данных, а также сервисы внедрения и поддержки. Об основных особенностях, архитектуре и возможностях экосистемы «Базиса» и пойдёт речь. Basis DynamixПервым флагманским решением экосистемы компании является Basis Dynamix, который представлен в трёх конфигурациях: Standard, Enterprise и Cloud Control. Все они являются модульными и различаются набором компонентов и возможностей. Архитектура платформы включает несколько «слоёв»: управление, вычисления, хранение и сеть. Они при необходимости масштабируются независимо друг от друга. Общим компонентом всех конфигураций Dynamix является vCore, а сертифицированных конфигураций — еще и Virtual Security. vCore предоставляет функции гипервизора I типа со всем необходимым окружением для реализации функций платформы, о которых будет сказано ниже. В старших конфигурациях помимо vCore допускается использование сертифицированной ОС. Программное решение Virtual Security отвечает за доверенную загрузку ВМ, контроль целостности и изоляции, регистрацию и аудит событий безопасности, управление доступом по ролевой модели, идентификацию и аутентификацию пользователей. Он нужен в первую очередь для создания защищённых решений. Аппаратно же инфраструктура делится на:
Все они объединены коммутаторами в сеть данных и в сеть управления. Последняя, например, включает и IPMI/BMC-порты всех узлов. При наличии достаточных аппаратных ресурсов нетрудно сформировать и отказоустойчивую HA-конфигурацию. Более того, возможно и формирование геораспределённых облаков, растянутых на несколько удалённых площадок. Из важных нововведений в мажорном релизе, в рамках которого было представлено четвёртое поколение Basis Dynamix можно отметить несколько функций. Так, платформа теперь знает о NUMA-системах, что важно при размещении виртуальных машин, т.к. обращаться к памяти соседнего CPU может быть дорого с точки зрения производительности. Ещё одна полезная опция, CPU Pinning, позволяет привязать ВМ к ядрам или процессорам так, что вся нагрузка будет выполняться именно на них, не попадая и не перемещаясь на другие ядра или CPU. Из ВМ можно сформировать Affinity-группу, которая будет (или не будет) пытаться работать на одном узле. Есть и возможность управления переподпиской для узла и ресурсных групп. Также появилась опция поддержки больших страниц памяти Huge Pages (2 Мбайт или 1 Гбайт) и проброс в ВМ виртуальных функций (VF) для сетевых адаптеров с SR-IOV. Впрочем, есть и проброс PCIe-устройств, в том числе GPU. Можно выделить один vGPU на каждую ВМ. С физическими хранилищами платформа общается либо нативно (через драйвер или API), полностью управляя всем жизненным циклом LUN’ов на СХД, либо через универсальную прослойку. Внутри LUN’ов формируются группы виртуальных дисков, а сами диски могут быть загрузочными, для хранения данных или образами. Есть функции резервного копирования дисков и моментальных снимков ВМ. Наконец, за сетевую функциональность отвечают виртуальные маршрутизаторы и балансировщики нагрузки, а сами сети делятся в первую очередь на внешние (физические) и внутренние (для взаимодействия внутри платформы). Также есть полезная сущность в виде группы с плавающим IP-адресом (нескольким ВМ может быть присвоен один IP). Все вышеперечисленные объекты — ВМ, диски/образы, сети, балансировщики, vGPU, проброшенные PCI-устройства, VF и т.д. — формируются в так называемые ресурсные группы, для которых можно задать уровень переподписки и квоты по суммарному количеству vCPU и IP-адресов, объёму RAM и виртуальных томов, которые будут доступны для создания ВМ в рамках группы, а также дать или запретить доступ к некоторым функциями гипервизора. Кроме того, можно запретить создание выбранных объектов в рамках группы. В рамках ресурсной группы возможно создание т.н. базовых служб, т.е. одной или нескольких групп полностью идентичных ВМ, развёртываемых, запускаемых и управляемых одновременно. Это удобно для быстрого развёртывания или обновления заданного комплекта сервисов или приложений и может стать основой, например, для PaaS. В составе платформы уже есть готовый шаблон для создания Kubernetes-кластеров, но вообще конкретно для этой задачи компания предлагает отдельное решение Digital Energy, о котором ниже. Каждая ресурсная группа принадлежит к одному т.н. аккаунту, самому верхнему объекту в иерархии платформы. Аккаунт может включать несколько ресурсных групп, для которых также задаются ограничения на создание объектов, включаются функции гипервизора, определяются коэффициент переподписки и квоты. Но также здесь ограничивается и доступ к виртуальным дискам и образам. К аккаунту привязываются пулы хранения, сети и группы плавающих IP. И к нему же привязываются пользователи и администраторы, которые заводятся локально или же приходят по LDAP или OpenID Connect (SSO тоже можно организовать). Доступна двухфакторная аутентификация посредством TOTP и SMS. Для пользователей, как обычно, задаются права доступа к объектам и REST API посредством ACL. И раз уже упомянули про API, то надо сказать, что здесь их довольно много. Это позволяет автоматизировать часть операций или более гибко управлять ими, создавать пайплайны для обслуживания платформы и т.д. Кроме того, доступна и поддержка Terraform/OpenTofu/Ansible и в принципе возможна реализация подхода IaC (Infrastructure as Code), формирование CI/CD-окружений и т.д. В максимальной конфигурации Cloud Control, которая рассчитана уже на развёртывание полнофункционального облака (в том числе публичного) на базе нескольких ЦОД и с широким ассортиментом IaaS/PaaS/SaaS и окружений/сервисов, появляется возможность самообслуживания (развёртывание в несколько кликов готовых инфраструктур, от ВМ до виртуальных ЦОД), биллинг, автоматизация бизнес-процессов, формирование отчётности и т.п. Отличия Dynamix Standard, Enterprise и Cloud Control кроются в первую очередь именно в возможностях масштабирования и функциональности, а также в политике лицензирования и возможности сертификации ФСТЭК. Конфигурация Standard рассчитана на небольшие компании или филиалы. Она умеет работать только с vCore, не поддерживает управление Kubernetes и предлагает более упрощённую в сравнении с другими конфигурациями среду управления vControl. Лицензируется Standard по количеству двухсокетных узлов. Конфигурация Enterprise ориентирована на крупные организации с частными корпоративными облаками, в том числе для госслужб и КИИ. Именно в ней реализована вся описанная выше ключевая функциональность и есть более гибкое управление всем программно-аппаратным комплексом. Лицензируется она по суммарному объёму RAM, поскольку это единственный ресурс, для которого сделать переподписку без ущерба чему-либо не представляется возможным, и по «сырой» ёмкости узлов хранения. Также оплачивается возможность нативной работы с совместимыми внешними хранилищами. Наконец, конфигурация Cloud Control лицензируется по сокетам. Её в принципе можно рассматривать как расширение Enterprise-версии, актуальное для облачных провайдеров. Разработчик готов адаптировать Enterprise-платформу под нужды конкретного заказчика и сам, строго говоря, использует её в качестве основы для двух других решений. Но об этом мы поговорим чуть ниже, а пока рассмотрим два важных комплементарных продукта: Virtual Security и Virtual Protect. Basis Virtual SecurityBasis Virtual Security — это решение для защиты систем виртуализации и облачных платформ, у которого есть сертификация ФСТЭК и которое предназначено для создания аттестованных систем. Строго говоря, решение совместимо не только с продуктами «Базис», но и с другими системами виртуализации на базе KVM/QEMU. А сейчас компания и вовсе готовит более специализированные сборки Dynamix с Virtual Security, т.е. отдельные среды виртуализации с заданной функциональностью и набором опций защиты. Под защитой понимается в первую очередь контроль изоляции и доступа, проверка целостности и журналирование событий безопасности (с возможностью экспорта во внешние системы), но не, например, антивирус или система обнаружения вторжений, для которых требуются сторонние продукты. Basis Virtual Security включает агенты, которые устанавливаются непосредственно на вычислительные узлы. Они постоянно отслеживают состояние аппаратной части, ВМ и гипервизора, а также осуществляют мониторинг всего общения на сетевом и канальном уровнях (для обеспечения подлинности соединений), взаимодействия ВМ с данными, внешним миром и между собой. Для ВМ ведётся подсчёт и сравнение контрольных сумм файлов конфигурации, виртуального BIOS/UEFI и исполняемых файлов гостевой ОС, а также выбранных файлов/путей в гостевой ОС. Причём делается это и во время создания/запуска ВМ, и во время работы/миграции. Также учитывается, какие программные компоненты вообще могут запускаться. Кроме того, в случае развёртывания Virtual Security в сертифицированной ОС доступна проверка цифровых подписей программных модулей внутри неё (например, вендорских). Наконец, обеспечивается контроль доступа к API защищаемых систем и к СУБД Postgres Pro. Ещё одна функция Basis Virtual Security — это управление пользователями, их идентификация и аутентификация, распределение прав доступа к объектам, действиям и параметрам, сегментирование виртуальной инфраструктуры на уровне пользователей и ВМ на логическом (выбранные ВМ) и физическом уровне (выбранные вычислительные узлы), а также резервное копирование конфигурации виртуальной инфраструктуры. Для удобства работы доступен SSO с поддержкой LDAP (в том числе федеративных и с Kerberos) и OpenID Connect. Более того, доступна даже интеграция с ЕСИА. Всё это значительно упрощает работу с множеством пользователей и позволяет, например, наладить централизованное управление паролями и аккаунтами (в том числе и неактивными). Для дополнительной защиты входа есть двухфакторная аутентификация с использованием OTP или токенов. Basis Virtual ProtectBasis Dynamix предоставляет базовые возможности по защите данных вроде мгновенных снимков ВМ или резервного копирования виртуальных дисков, но этого может быть недостаточно. Посредством API платформы можно гибко настроить собственную систему резервного копирования, но гораздо проще воспользоваться готовым решением. Basis Virtual Protect как раз и предназначено для регулярного резервного копирования и восстановления кластеров Kubernetes, ВМ, отдельных дисков ВМ и файлов/директорий внутри ВМ на платформе Dynamix, а также управления жизненным циклом резервных копий. Решение можно развернуть в виде кластера Kubernetes, на сервере или в ВМ. Для кластеров Kubernetes доступно сохранение конфигурации кластера, самого кластера целиком или отдельных пространств имён, меток, ресурсов, включая PV-тома (для них делаются снимки), или групп ресурсов. Созданные резервные копии сжимаются и отправляются в любое S3-хранилище. Собственно говоря, помимо просто резервирования механизм позволяет перенести или клонировать кластеры внутри облачной платформы или организовать переезд на другую платформу. Для работы с ВМ на узлы гипервизора устанавливается отдельный модуль ядра. В случае Dynamix список ВМ подтягивается автоматически. Для ВМ доступен выбор дисков, которые будут копироваться, причём после создания одной полной копии возможно инкрементальное копирование. Хранятся копии во внешнем NFS-хранилище или в собственном хранилище Dynamix. Как и с кластерами, резервные копии можно использовать для клонирования или миграции ВМ. Для резервирования файлов или директорий внутри ВМ устанавливается отдельный агент. Virtual Protect позволяет задать пользователей и группы пользователей с ролевой моделью доступа. При этом само решение подключается к аккаунтам Dynamix. Наконец, планировщик позволяет задавать расписание для создания резервных копий, давая возможность выбрать дни недели и время. Для части операций, например, для создания резервных копий блочных устройств ВМ, восстановления из резервной копии, создания расписания резервного копирования, Virtual Protect предоставляет API. Лицензируется решение по объёму защищаемых данных, кластерам Kubernetes и виртуальным дискам. Basis Digital EnergyКак и было упомянуто выше, Basis Digital Energy — это как раз пример того, что можно сделать самостоятельно на платформе Dynamix Enterprise, но проще получить полностью готовое Dev(Sec)Ops-окружение для непрерывной разработки и развёртывания (CI/CD), удобного управления Kubernetes-кластерами и мониторинга — пиши, собирай, тестируй, внедряй, масштабируй. В общем, данное коробочное решение можно назвать K8s PaaS. На практике же Basis Digital Energy позволяет в несколько кликов развернуть кластер, состоящий из постоянно пополняющегося списка провязанных между собой приложений и инструментов, среди которых есть GitLab, Jenkins, Istio, HashiCorp Vault, Nexus, Harbor, Monit и т.д. А для максимального удобства можно рядышком развернуть корпоративный чат, таск-трекер, установить плагины в IDE и т.п. При этом решение самостоятельно отслеживает установку, обновление и работу всех компонентов и инструментов и выявляет возможные проблемы, заранее предупреждая о них. Основное преимущество Basis Digital Energy — это простота работы с окружением и отход от рутинных задач, не связанных напрямую с разработкой, а также возможность наиболее полно использовать имеющиеся аппаратные ресурсы. Решение в целом можно использовать с любым провайдером Kubernetes-кластеров, но конкретно с Dynamix Enterprise оно интегрировано лучше всего — как раз в выбранных ресурсных группах привязанных аккаунтов и происходит вся инфраструктурная «магия». Digital Energy позволяет завести пользователей и группы пользователей с ролевой моделью доступа, а также задействовать возможности Virtual Security для управления и защиты доступа и Virtual Protect для резервного копирования. Basis WorkplaceBasis Workplace — второе флагманское решение экосистемы «Базис», которое предлагает полноценную VDI-платформу, позволяющую безопасно подключаться к виртуальным рабочим столам, терминальным серверам, отдельным приложениям или физическим ПК под управлением Windows или Linux с клиентов под управлением опять-таки Windows или Linux (причём в любых комбинациях) по протоколам VNC, RDP и RX (Etersoft). При этом доступны поддержка GPU (актуально, например, для CAD/CAE), обмен файлами с клиентом и общий буфер обмена, кроссплатформенная печать, а также проброс USB (например, ключей или веб-камер), смарт-карт/токенов (ESMART Token ГОСТ, Рутокен ЭЦП 2.0, eToken, JaCarta) и аудио (и вход, и выход). Basis Workplace предлагает довольно гибкую систему управления пользователями и их группами, но доступна и интеграция с внешними LDAP-серверами (в том числе со множеством доменов), включая Active Directory, FreeIPA, OpenLDAP, ALD Pro и SambaDC, а также работа с пулами ресурсов VMware, Openstack и «Р-Виртуализация». Но, конечно, наилучшая интеграция доступна именно с Basis Dynamix или vCore. Архитектурно платформа состоит из бэкенда, диспетчера подключений, агента для гостевых систем и клиента. Для первых двух компонентов возможно множественное развёртывание, что обеспечивает горизонтальное масштабирование платформы — разработчик говорит об обслуживании 16 тыс. подключений! Также доступно HA-развёртывание на нескольких хостах и даже формирование геораспределённой VDI-инфраструктуры. Клиенты подключаются не напрямую к ресурсам, а через диспетчер подключений. Это одновременно и дополнительный уровень защиты, и балансировка нагрузки. Для аутентификации пользователей можно использовать логин-пароль и/или X.509-сертификат (на смарт-карте или токене) или их сочетание, а также логин/пароль + OTP. Доступен даже сквозной вход: аутентификация в Workplace по сертификату на смарт-карте с последующей авторизацией в гостевой ОС (только Linux) по паролю с той же смарт-карты. Причём управлять паролем на смарт-карте в этом случае можно непосредственно из Workplace. Кроме того, в систему заводятся и устройства доступа (ПК, ноутбук, тонкий клиент), для которых при первом подключении генерируется уникальный HWID на основе ID основного «железа». При попытке замены, например, накопителя Workplace просто не допустит устройство. Для паролей пользователей можно указать срок действия, включить принудительную смену при первом входе, задать словарь (какие символы допустимы), а также количество попыток ввода неверного пароля до автоматической блокировки пользователя. Пользователей можно объединить в группы для удобства распределения прав. Кроме того, Workplace позволяет объединять в отдельные локальные группы пользователей из внешних каталогов, над которыми прямого контроля у администратора Workplace нет. Для администраторов, к слову, тоже предусмотрено несколько ролей с различными правами доступа. Виртуальные рабочие столы формируются на базе заранее созданных пулов ресурсов (ресурсных групп) vCore, VMware, Openstack и «Р-Виртуализация». Есть три типа рабочих столов: персонализированные, сессионные и физические. Персонализированные создаются на основе индивидуальных шаблонов (образов виртуальных дисков) с уникальной конфигурацией под конкретные задачи. Такие рабочие столы закрепляются за каждым пользователем, а при завершении их работы все внесённые изменения сохраняются. Полуавтоматический пул рабочих столов формируется из одного-единственного шаблона. Рабочие столы точно так же закрепляются за конкретными пользователями и сохраняют состояние при завершении работы. К сессионным рабочим столам, тоже создаваемым из единого шаблона, будут иметь доступ все пользователи пула, а изменения рабочего стола при завершении работы могут как сохраняться, так и не сохраняться в зависимости от настроек самого пула. Для сессионного пула есть опция создания столов на базе легковесных копий виртуального диска исходного шаблона. Для такого пула также доступен горячий резерв, то есть заранее созданные рабочие столы, доступные для подключения пользователей. Ещё одна опция — закрепление за пользователем определённого IP внутренней виртуальной сети, что может быть полезно для управления доступом к другим ресурсам по сети. Для пулов отдельно задаётся тайм-аут неактивности пользователя, после которого он будет отключён от рабочего стола, и тайм-аут выключения стола (для экономии ресурсов). Также можно ограничить доступ к определённым функциям (аудио, печать, буфер обмена и т.д.), причём по отдельности для подключений из внутренней корпоративной сети и извне. Рабочие столы можно переносить между пулами, а вот миграция между хостами делается уже силами платформы виртуализации. Есть и очевидные ограничения вроде невозможности переноса стола, привязанного к GPU, на хост без GPU. Пулы терминальных серверов (Windows и Linux) имеют в целом примерно те же параметры и возможности, что и пулы рабочих столов. На терминальных серверах разворачиваются серверы приложений и публикуются необходимые приложения, которые также объединяются в пулы. К последним и подключаются конечные пользователи. Такой подход упрощает администрирование и позволяет повысить эффективность использования ресурсов, если набор приложений не очень большой и типовой для конкретной организации. Наконец, пулы физических рабочих столов формируются из физических ПК или рабочих станций под управлением Windows, введённых в домен AD и снабжённых агентом Workplace. Для них доступны все те же опции и ограничения, что и для виртуальных рабочих столов. Это опять-таки повышает защиту и уровень контроля над инфраструктурой, упрощает мониторинг действий пользователей и аудит. Лицензируется Workplace по конкурентным терминальным сессиям и по рабочим столам (персональным или конкурентным) + понадобится лицензия на Dynamix Standard для развёртывания инфраструктуры. Basis Workplace SecurityРешение Basis Workplace Security нужно для дополнительной защиты доступа к рабочим столам, локальным и терминальным приложениям, виртуальным и физическим машинам и иным объектам защищаемой инфраструктуры путём формирования контуров безопасности. Решение состоит из двух компонентов: сервера безопасности, который целиком отслеживает и контролирует работу клиентских систем, и собственно клиентских терминалов. Терминал формируется путём установки защищённой ОС на базе Linux на устройство пользователя (с доверенной загрузкой) или же её запуска с Live-USB. При этом администратором удалённо контролируется целостность самого терминала и его ПО, сетевая активность и доступ к периферийным устройствам (например, съёмным накопителям и принтерам). На терминале также можно организовать локальные, изолированные друг от друга контуры безопасности для запуска отдельных приложений или рабочих столов. Практически это реализуется формированием контейнеров и контролем за информационными потоками, в том числе сетевыми интерфейсами. Это позволяет, к примеру, организовать в рамках одного рабочего места и «нормальное» окружение с доступом в Интернет, работой с локальными файлами и т.д., и защищённый доступ к внутренним ресурсам организации так, чтобы перенести данные из них вовне было невозможно. Терминалы напрямую или через VPN подключаются к серверу или кластеру серверов безопасности Basis Workplace Security. На серверах заводятся контуры безопасности и их группы, устройства пользователей, сами пользователи и их группы — любые два объекта данных типов можно связать друг с другом. Доступна интеграция с внешними LDAP-каталогами, а также двухфакторная аутентификация по сертификату на смарт-карте/токену и паролю. Для пользователей задаются правила формирования пароля и срок их жизни, длительность сессий и т.п. Сервер безопасности помимо собственно контроля доступа также ведёт детальную запись действий пользователей и событий безопасности. Лицензируется Workplace Security по конкурентным терминальным сессиям. Basis Migration Assistant и Basis GuardBasis Migration Assistant и Basis Guard разрабатываются внешними командами, но адаптированы и интегрированы с экосистемой Basis. Migration Assistant предназначен для автоматизированной миграции нагрузок или целой инфраструктуры между физическими и/или облачными платформами и системами виртуализации, в том числе зарубежными, без остановки работы. Guard, в свою очередь, предлагает асинхронную репликацию виртуальной инфраструктуры на резервную площадку, а также запуск нагрузок (ВМ) на ней в случае сбоя основной площадки. ЗаключениеВ экосистему «Базис» входит практически весь спектр инструментов, нужных для построения современной виртуальной инфраструктуры. К исключениям можно отнести, например, инструменты построения программно-определяемых сетей, редко встречающиеся на российском рынке, но они уже в работе, и выпуск бета-версии SDN от «Базиса» ожидается в этом году. Вопрос компетентной технической поддержки заказчика на всех этапах — слабое место большинства российских вендоров. «Базис» решает этот вопрос с помощью подразделения Professional Services, оказывающего услуги консалтинга, помощь в миграции и развёртывании комплексных инфраструктур, сопровождение продуктов экосистемы и т.д. Как результат, у компании уже есть более 700 клиентов, и их количество постоянно растёт. Среди наиболее громких проектов — миграция в экосистему «Базис» Газпромбанка, Ростелекома и, главное, ГосТеха. На платформе компании уже развёрнуто более 120 ИС и ГИС, десятки тысяч виртуальных рабочих столов и сотни тысяч ВМ. Кроме того, на продуктах экосистемы «Базис» российские производители, такие как «Скала^р», создают программно-аппаратные комплексы (ПАК), оптимизированные под высокие нагрузки. Попробовать решения «Базиса» может любая компания — достаточно оставить заявку на тест-драйв — однако полностью оценить все возможности экосистемы сможет именно крупный бизнес. Эпичная эволюция: AMD EPYC Turin получили до 192 ядер Zen 5c и до 128 ядер Zen 5
14.10.2024 [00:00],
Алексей Степин
AMD продемонстрировала преимущества чиплетной компоновки ещё в первом поколении EPYC (Naples), однако в следующих поколениях гомогенная компоновка сменилась гетерогенной, с отдельным чиплетом, отвечающим за все нужды, связанные с операциями ввода-вывода. Так было в Rome, так было в Milan, Genoa и Bergamo, а теперь пришло время посмотреть, что же изменилось в анонсированных буквально на днях EPYC 9005 (Turin), и хватит ли этого, чтобы ещё раз закрепить звание лидера в области создания многоядерных серверных решений. В первую очередь это, конечно же, пришествие в серию EPYC пятого поколения вычислительной архитектуры Zen, некоторое время назад уже дебютировавшей в процессорах AMD Ryzen потребительского класса. Как известно, в Zen 5 AMD неплохо поработала над увеличением эффективности — показатель IPC (число исполняемых за такт инструкций) вырос примерно на 17 %. За этим кроются довольно серьёзные изменения в микроархитектуре, носящие, впрочем, эволюционный характер. Ядро Zen 5 получило новый блок предсказания ветвлений, унифицированный планировщик, блоки выборки и декодирования инструкций были разделены на два кластера для оптимизации SMT (любопытно сравнить с подходом Intel, движущейся к отказу от SMT вообще). Ускорен и увеличен в объёме кеш первого уровня, подросли в объёме таблицы трансляции адресов, да и сама вычислительная часть расширилась с ростом числа поддерживаемых инструкций. В частности, в Zen 5 реализована полноценная поддержка AVX-512 с честной 512-бит обработкой данных. Но вернёмся именно к новым EPYC 9005. Первенство Intel Xeon 6 (Granite Rapids и Sierra Forest) по количеству ядер продлилось крайне недолго: AMD вновь вернула себе лидерство, руководствуясь простой формулой: 50 % прироста в числе ядер + на 25 % увеличенный теплопакет + переход к архитектуре Zen 5/5c при сохранении совместимости с существующей аппаратной экосистемой. Как и EPYC предыдущего поколения (Genoa и Bergamo), новые процессоры Turin используют разъём SP5 (LGA-6096), рассчитанный на 12-канальную подсистему памяти и 128 линий PCI Express 5.0. В случае двухпроцессорной компоновки системной платы часть из последних задействуется для межпроцессорной коммуникации. Интересно, что на этот раз отдельное имя для высокоплотного варианта процессора не используется: версии EPYC 9005 действительно имеют разную компоновку CCD-чиплетов с ядрами Zen 5 и Zen 5c, а также разные идентификаторы модели (00-0Fh и 10h-1Fh соответственно), но кодовое имя у них одно, хотя встречается и вариант Turin Dense. Опубликованные ранее сведения о 16 восьмиядерных чиплетах для классической версии и 12 шестнадцатиядерных чиплетах для высокоплотного варианта Turin подтвердились. Чиплеты действительно сгруппированы по четыре и три блока (квадранта) соответственно. Сами чиплеты переведены на техпроцессы TSMC 4 и 3 нм, что и позволило добиться очередного по счёту прироста в числе ядер. По этому показателю высокоплотная версия Turin даже преодолела 128-ядерный барьер, что для x86-процессора происходит впервые. Внутренняя структура CCX имеет существенные различия: по сути, CCX определяется единым разделом кеша L3, а он у вариантов на базе Zen 5 и Zen 5c одинаковый и имеет ёмкость 32 Мбайт. Иными словами, каждое ядро Zen5c потенциально располагает меньшим количеством кеша (2 Мбайт против 4), но такова плата за более плотную компоновку. ![]() Блок IOD (I/O Die) по-прежнему один, хотя и серьёзно переработанный для поддержки большего числа подключаемых CCD. Подключение осуществляется посредством GMI3-линков, которые работают на частоте 1,8 ГГц. Они вдвое быстрее GMI2, использовавшихся в серии процессоров EPYC 7003. Имеется два режима работы: GMI3-Narrow для конфигураций с 12 и 16 чиплетами и GMI3-Wide для процессоров, у которых активно только 8 CCD (пропускная способность от CCD к IOD возрастает вдвое). Четыре xGMI-линка могут использоваться для обмена данными со вторым процессором в случае 2S-конфигурации. Новый IOD обеспечивает гибкие возможности в плане бифуркации линий SerDes и назначения им специфических функций. ![]() Модуль IOD обеспечивает Turin поддержку 128 линий PCI Express 5.0 в однопроцессорном режиме и до 160 — в двухпроцессорном. Четыре x16-линка могут использоваться как 64 линии CXL 2.0 (Type 1, 2, 3) и до 32 IO-линий могут быть сконфигурированы в качестве интерфейсов SATA. Последний интерфейс сегодня стремительно теряет актуальность, и его поддержка реализована AMD в основном для внутриплатформенной совместимости. AMD также постаралась максимизировать эффективность работы подсистем ввода-вывода в принципе, понимая всю важность каналов, связывающих CPU со всевозможными ускорителями в эпоху ИИ и LLM. EPYC 9005 в полной мере поддерживают DMA и P2P-соединения, при этом не забыта и безопасность: реализовано шифрование PCIe-трафика в рамках SEV-SNP. Также интерес представляет технология SDCI, позволяющая I/O-устройствам писать данные прямо в кеш-иерархию, минуя DRAM, что снижает нагрузку на подсистему памяти и потенциально увеличивает эффективность обмена данными между процессором и ускорителями. В процессорах Xeon 6 Intel серьёзно обошла AMD по параметрам подсистем памяти: даже Sierra Forest получили поддержку DDR5-6400 (5200 при 2DPC), а Granite Rapids даже поддерживают новомодные MRDIMM DDR5-8800, причём при 12 каналах. Процессоры AMD EPYC были ограничены поддержкой DDR5-4800 в лучшем случае, пусть и при аналогичном количестве каналов. Но пришествие Turin восстанавливает практический паритет: каналов памяти по-прежнему 12, однако платформа теперь поддерживает DDR5-6000, а для некоторых кастомных платформ AMD собирается разрешить поддержку DDR5-6400. Экзотику вроде MCRDIMM/MRDIMM в текущем виде EPYC 9005 не поддерживает. Вместо этого компания планирует наделить будущие EPYC поддержкой нового стандарта памяти, как только он будет ратифицирован JEDEC. Впрочем, и без учёта возросших частот, которые сами по себе могли бы обеспечить 20–25 % прирост пропускной способности, нововведений хватает: новые контроллеры памяти существенно эффективнее старых, они поддерживают модули с коррекцией ошибок x80 и x72, умеют выполнять повторную попытку чтения UECC, поддерживают 3DS RDIMM суммарным объёмом 6 Тбайт на процессор. Пиковая пропускная способность при этом может достигать 576 Гбайт/с, что выше показателя NVIDIA Grace (72 ядра, 500 Гбайт/с), но ниже, нежели у сдвоенного Grace Superchip (144 ядра, 1 Тбайт/с). Латентность при этом отнюдь не выросла и составляет примерно те же 110 нс, что и у контроллеров памяти в EPYC предыдущего поколения, работающих с модулями DDR5-4800. Как уже упоминалось, в EPYC 9005 полностью реализована поддержка CXL 2.0 для всех трёх существующих типов устройств, но упор сделан на работу с устройствами Type 3 в качестве расширителей RAM. Предусмотрены поддержка уровней иерархии, возможность комбинирования CXL-устройств в общий NUMA-домен, функции QoS с разделением полос пропускания для DRAM и CXL-памяти и т.д. AMD постаралась обеспечить как можно более высокую производительность CXL при минимальных задержках, но насколько хорошо работают эти нововведения в сравнении с, к примеру, Xeon Granite Rapids, могут показать лишь тесты. Если речь зашла о NUMA, нельзя не упомянуть, что EPYC 9005 могут работать в разных режимах в зависимости от значения NUMA Nodes Per Socket (NPS) в BIOS. Значение 0 в двухсокетной системе означает монолитную конфигурацию с одним доменом NUMA на всю систему. Память при этом работает в режиме чередования (interleaving) как единое адресное пространство. Оба процессора имеют равный доступ ко всей памяти и всем физически подключенным устройствам PCIe/CXL. Значение 1 даёт два домена, 2 делит каждый процессор на два домена, а 4 представляет каждый «квадрант» процессора как отдельный NUMA-домен, включающий 4 CCD у Zen 5 и по 3 CCD у Zen 5c. Выбор настройки зависит от сценария использования и конкретики используемого ПО. Также следует отметить расширенный набор средств обеспечения надёжности и стабильности работы (RAS). К уже реализованным в предыдущем поколении EPYC добавилась удаленная обработка ошибок через выделенный канал (out of band error management) и автоматическая подмена сбойных ячеек DRAM на резервные рабочие. Список поддерживаемых возможностей RAS широк. В отличие от Intel, AMD представила сразу 27 моделей EPYC 9005, с количеством ядер от 8 до 192. Следует сразу отметить, что новые техпроцессы и усовершенствованная архитектура очень позитивно сказалась на частотной формуле EPYC: если ранее частота в турборежиме редко переваливала за отметку 4 ГГц, то у EPYC 9005 это в порядке вещей. Исключением являются лишь модели с ядрами Zen 5c, но даже для них этот параметр составляет 3,7 ГГц, чему сопутствуют и соответствующие теплопакеты в 320–500 Вт. Отметим, что в последнем случае требуется обновление подсистем питания платформы, так как прежде максимальный TDP не превышал 400 Вт. Новая серия EPYC по-прежнему включает отдельные модели, рассчитанные на работу в однопроцессорных системах, они имеют в названии суффикс «Р». Суффиксом «F» отмечены модели с расширенной частотной формулой, в которой нижний предел составляет не менее 3,1 ГГц, а верхний приближается к отметке 5 ГГц. Эти процессоры также располагают максимальным объёмом кеша L3. В совокупности с частотами это делает EPYC 9005F оптимальным выбором для сценариев с поядерным лицензированием ПО. В сети уже опубликованы первые результаты тестов новых серверных процессоров AMD: к примеру, обозреватели с ресурса Phoronix успели провести тесты сразу трёх новинок — EPYC 9755 (128 ядер Zen 5, 4,1 ГГц турбо), 9575F (64 ядра Zen 5, 5 ГГц турбо) и 9965 (192 ядра Zen 5c, 3,7 ГГц турбо). Результаты впечатляют: сочетание Zen 5 в серверной ипостаси с повышенными тактовыми частотами сделали своё дело и новинки AMD плотно оккупировали первые места практически во всех номинациях.
Источник: Phoronix Кое-где, например, в тесте OpenSSL, отлично проявил себя Turin Dense (EPYC 9965), ведь он опережает Intel Xeon 6700E не только по количеству ядер (192 против 144), но и при этом сами ядра, несмотря на плотностную оптимизацию, являют собой полноценную реализацию Zen 5, а не упрощённую версию «большой архитектуры», как в случае с Е-ядрами Intel. По итогу три первых места принадлежат решениям AMD, и лишь на четвёртое место смогла претендовать система с Xeon 6980P, оснащённая высокоскоростными модулями MRDIMM-8800. Она же, оснащённая обычной DDR5-6400, смогла достойно выступить лишь против одиночного EPYC 9755. Для двухпроцессорной системы с EPYC 9755 отрыв от аналогичной платформы на базе Granite Rapids составил в среднем 40 %. Что касается высокоплотного EPYC 9965, то он на 45 % оторвался от двухпроцессорной сборки на базе флагманских EPYC 9754 Bergamo, несмотря на меньшее количество ядер (192 против 256). Сказалась новая архитектура и серьёзный прирост по тактовым частотам. С энергопотреблением у новинок AMD, конечно, дела обстоят не столь впечатляюще, как у Intel Xeon 6700E (Sierra Forest), но и ненамного хуже, а EPYC 9755, несмотря на монструозный теплопакет в 500 Вт, всё же оказался экономичнее Xeon 6980P. Его потолок энергопотребления действительно составил 500 Ватт, в то время как флагман Intel в пике потреблял почти 550 Вт. При этом карта Intel бита даже там, где «синие» всегда были непобедимы — теперь и у AMD есть полноценная поддержка AVX-512, равно как и 192-ядерный ответ 144-ядерному Xeon 6700E. Капиталовложения для перевода инфраструктуры с EPYC четвёртого поколения на пятое при этом могут быть относительно невелики. В большинстве случаев задача ограничивается прошивкой нового BIOS и заменой самих процессоров. Производители серверного оборудования встретили новинки AMD с энтузиазмом и, по всей видимости, доля компании на серверном рынке будет расти и далее. Из козырей, остающихся на руках Intel на данный момент, можно назвать лишь наличие специфических блоков ускорителей, а также поддержку расширений матричной математики AMX. В некоторых сценариях, например, в серверах для телекоммуникаций это поможет Xeon удержать позиции, но в большинстве других нагрузок EPYC Turin смотрятся намного выигрышнее. Тем более что стоят новые серверные процессоры AMD заметно дешевле решений Intel. Рановато будет: обзор маршрутизатора Banana Pi BPI-R4 и тесты Wi-FI 7
10.10.2024 [00:00],
Валерий Косихин
SOHO-маршрутизатор — утилитарный предмет, о характеристиках которого если и задумываются, то обычно в аппаратном контексте: поддерживаемая версия Wi-Fi, количество антенн, качество сигнала и пропускная способность. Операционную систему, установленную производителем, принимают как данность. Но хотя программное обеспечение тоже развивается, если поставить во главу угла богатство возможностей, свободу настройки и гарантию длительных обновлений, ОС с открытым исходным кодом порой выигрывает у вендорской прошивки. Увы, даже OpenWrt — самое популярное и всеядное решение такого рода — поддерживает не каждый маршрутизатор, особенно если речь идет о свежих моделях. В этом случае резонно выбирать «железо» под нужное ПО, а не наоборот, и тогда взгляд переходит с черных пластиковых коробок на мини-ПК и одноплатные компьютеры. Среди них Banana Pi BPI-R4 занимает особое место благодаря адаптеру Wi-Fi 7 (802.11be), и альтернативных вариантов для OpenWrt пока просто не существует. В то же время это первый и пока единственный продукт на платформе MediaTek Filogic 880. SinoVoip и MediaTek разработали его совместно. Технические характеристики, ценыВ отличие от готовых маршрутизаторов, Banana Pi BPI-R4 — своего рода материнская плата будущего маршрутизатора. А значит, чтобы получить полностью функционирующую систему, все ее составляющие придется купить по отдельности и собрать воедино своими руками. Выбор комплектующих определяет и возможности маршрутизатора, и предстоящие затраты. В основе платформы Filogic 880 лежит процессор MediaTek MT7988A с четырьмя ядрами ARM Corex-A73, которые работают на частоте 1,8 ГГц, а также блоками аппаратного ускорения таких функций, как NAT, VLAN, QoS и туннели PPTP/L2TP. SoC пользуется 4 Гбайт оперативной памяти DDR4. Набортные накопители представлены чипом SPI-NAND объемом 128 Мбайт и 8 Гбайт памяти eMMC. Устройство также имеет считыватель карт microSD, несколько внутренних разъемов PCIe 3.0 (в том числе для NVMe SSD) и работает с периферией по интерфейсу USB 3.2 Gen 1 (USB 3.0). Титульной особенностью BPI-R4 являются два 10GbE-порта SFP+. Еще четыре порта RJ45 (8p8c), подключенные к интегрированному в SoC коммутатору, ограничены скоростью 1GbE. Для WAN-соединения можно использовать как SFP+, так и RJ45. Плата продается за 9 787 руб. в магазине SinoVoip на AliExpress. Добавьте недорогой кулер, по желанию — корпус, и ее уже можно использовать в качестве маршрутизатора или файлового сервера, только без Wi-Fi. Да, беспроводной адаптер — это тоже отдельный компонент, но самое интересное начинается именно тогда, когда BPI-R4 работает в тандеме с дочерней картой BPI-R4-NIC-BE14. Последняя представляет собой трехдиапазонный модуль с формулой MIMO 3×3:3 на частотах 5 и 6 ГГц и поддерживает ключевое нововведение Wi-Fi 7 — ширину канала 320 МГц в диапазоне 6 ГГц, которая увеличивает теоретическую скорость передачи данных в два раза по сравнению с предыдущим стандартом, Wi-Fi 6E. Еще одна прорывная функция Wi-Fi 7 — MLO — позволяет комбинировать пропускную способность нескольких диапазонов в соединении с одним устройством. Наконец, при очень высоком качестве сигнала Wi-Fi 7 переходит на модуляцию 4096-QAM, которая сама по себе дает прирост скорости еще на 20 %. Как следствие, в идеальных условиях BPI-R4-NIC-BE14 развивает совокупную канальную скорость в трех диапазонах вплоть до 13,7 Гбит/с (маркетинговый класс BE14000), а если отталкиваться от клиентских адаптеров с двумя потоками, то речь идет о 5 765 Мбит/с в диапазоне 6 ГГц.
Полный комплект BPI-R4 с беспроводной картой, корпусом, системой охлаждения и антеннами в настоящий момент стоит 20 896 руб. без учета доставки. Внушительная сумма для такого устройства, как SOHO-маршрутизатор. Но все зависит от того, с чем сравнивать, ведь готовые аналоги с поддержкой Wi-Fi 7 и хотя бы одним портом 10GbE у ASUS или Netgear стоят больше $500, не говоря уже о сложностях покупки в России. Впрочем, очаровываться дешевизной тоже не советуем. Брендовый маршрутизатор работает из коробки, а BPI-R4 — это полуфабрикат, программное обеспечение которого целиком держится на усилиях энтузиастов. Разницу в цене придется отдать трудом, быть может, не в качестве разработчика, но тестировщика — определенно. В официальной документации устройство так и называется — development board. Поэтому, если у вас нет хотя бы начального понимания сетевых технологий, опыта работы с Linux и избытка свободного времени, но хочется испробовать Wi-Fi 7, лучше задумайтесь о покупке готовых решений. Плата BPI-R4 и модуль Wi-Fi 7Компьютер собран на компактной печатной плате размером 148 × 100,5 мм и поставляется в трех версиях. Стандартная несет два порта SFP+, в другой LAN-порт SFP+ поменяли на RJ45 2.5GbE, в третьей он поддерживает PoE (на вход питания). Класс PoE не указан, но максимальная мощность PoE-модуля составляет 30 Вт. Теоретически порты SFP+ готовы принять трансиверы любой среды (витая пара или оптоволокно) и ONU/ONT для PON cо скоростью передачи данных от 1 до 10 Гбит/с, но на практике все не так просто. Во-первых, BPI-R4 нужно, чтобы трансивер давал сигнал о присутствии без питания, а некоторые этого не делают (как, например, MikroTik S+RJ10). Во-вторых, не исключена программная идиосинкразия уже на уровне ОС. Лучше заранее проконсультироваться с форумом Banana Pi или купить заведомо подходящие трансиверы у SinoVoip. Что не должно вызвать проблем, так это пассивные DAC. Судя по отзывам пользователей, отлично работает и большинство медных либо оптических трансиверов 1/2.5GbE. Хуже всего обстоят дела с поддержкой модулей PON. Чип MT7988A имеет четыре линии PCIe 3.0, распределенные по разъемам M.2 и PCI-E. Разъем M.2 B-key на лицевой поверхности PCB, который также подключен к концентратору USB 3.2, предназначен для модема 4G/5G. На нижней стороне находится разъем M.2 M-key и крепежные отверстия для SSD различной длины — вплоть до 80 мм. Одна линия PCI Express 3.0 имеет пропускную способность 8 ГТ/с и не даст файловому серверу работать на скорости 10GbE-сети, но это все равно лучше, чем 5 Гбит/с внешнего порта USB 3.2 Gen 1 (USB 3.0). Однако стоит иметь в виду, что если на планке SSD форм-фактора M.2 2280 чипы распаяны с двух сторон, то корректному монтажу помешает высокий SMD-индуктор — в таком случае нельзя закручивать винт до конца, иначе SSD деформируется. Есть и другая проблема: к разъему M.2 зачем-то подвели шину I2C, поэтому установка некоторых SSD способна вызвать массу неприятностей, в первую очередь отключение портов SFP+. Заверим, что этого не происходит с Intel SSD 760p, но в противном случае придется выпаять резисторы R228 и R230 рядом с разъемом, которые можно найти по электрической схеме с сайта SinoVoip или фотографии на форуме. В будущих партиях BPI-R4 их уже изначально не будет. Вместо SSD разъем M.2 можно занять и другими устройствами. BPI-R4 официально поддерживает контроллер USB 3.2 Gen 1 (USB 3.0) на чипе ASMedia ASM2142 и SATA-контроллер JMicron JMB585. USB-плате и SATA-накопителям нужно дополнительное питание, но эту функцию берет на себя разъем с контактами 5 и 12 В. Также есть разъем для подключения активного кулера с PWM. Наконец, есть разъем для батареи RTC. BPI-R4 поддерживает загрузку ОС как со встроенной памяти eMMC либо NAND, так и с карты microSD — источник меняется переключателем. Правда, SD и eMMC привязаны к общему контроллеру SoC, поэтому для установки ОС на eMMC придется сперва загрузиться с NAND. Возможность загрузки с SSD технически существует, но еще не реализована в связи с отсутствием NVMe-драйвера для U-boot. Есть и разъем последовательного интерфейса UART для доступа к консоли, а также 26 контактов GPIO. Если исключить PoE, питание на плату поступает через бочковой или соседний штыревой разъем с диапазоном напряжения от 12 до 19 В. Другой вариант — USB Type-C, который берет 20 В по стандарту Power Delivery. Производитель утверждает, что энергопотребление BPI-R4 без дополнительных устройств не превышает 10 Вт, но советует использовать источник питания помощнее для работы с модулем Wi-Fi 7. В магазине SinoVoip есть лишь блок питания 12 В / 2 А, поэтому выбор ложится на плечи покупателя. К паре разъемов mini PCI-E присоединяются модули Wi-Fi или еще два сотовых модема. Последняя конфигурация необычна, но заранее продумана, ведь каждому модему выделен собственный слот nano-SIM. Маршрутизатор допускает установку сторонних беспроводных адаптеров, лишь бы нашелся драйвер, но задуман как единое устройство с картой BPI-R4-NIC-BE14 на контроллере MediaTek MT7995AV и PHY-чипах MT7976CN и MT7977IAN, без дискретных усилителей. Последняя занимает сразу два слота mini PCI-E (а значит, две линии PCIe 3.0) и питается от напряжения 12 В. Для mini PCI-E это нестандартное напряжение, поэтому его нужно активировать переключателем. BPI-R4-NIC-BE14 имеет три разъема для антенн на частоте 6 ГГц и еще три, которыми точки в диапазоне 2,4 и 5 ГГц пользуются одновременно. ![]() SinoVoip и MediaTek изначально собирались выпустить более развитую плату с 14 антеннами и поддержкой MIMO 4×5 (BPI-R4-NIC-BE19), которая изображена на первой блок-схеме, но ее пришлось отложить на будущее. Впрочем, клиентские адаптеры с поддержкой даже трех пространственных потоков — большая редкость. Такие точки доступа полностью раскрываются лишь в активной многопользовательской среде. Корпус и антенныSinoVoip предлагает два корпуса для BPI-R4 — акриловый и алюминиевый, который вы можете лицезреть на фотографиях. Шасси имеет очень скромные габариты по сравнению со многими домашними маршрутизаторами (159 × 104 × 41 мм) и, несмотря на индустриальный внешний вид, изготовлено очень качественно. Для всех индикаторов, кнопок и внешних интерфейсов (включая UART и переключатель загрузочных устройств) сделали аккуратные отверстия. Лотки SIM-карт также подходят к корпусу с идеальной точностью, но SinoVoip не советует вставлять их в разъемы пустыми из-за опасности повреждения контактов. К корпусу прилагаются силиконовые ножки и винты для крепления платы маршрутизатора. А вот никакие средства вертикального монтажа на стену или перфорированную панель не предусмотрены. Корпус служит радиатором для карты BPI-R4-NIC-BE14, которая продается с термопрокладками, заранее приклеенными к микросхемам. Но толщины прокладок не хватает, чтобы заполнить зазор между чипами и днищем корпуса (примерно 2,5 мм), поэтому лучше сразу поменять их на подходящие. Или, на худой конец, сделать толще, сдавив по периметру. Если вы будете использовать SSD, не забудьте и о термопрокладке для него. Для охлаждения MediaTek MT7988A и чипов RAM мы выбрали фирменный кулер с PWM-управлением скоростью вентилятора. Работает он практически бесшумно. Корзины SFP+ охлаждаются по остаточному принципу, но это проблема лишь для некоторых «медных» 10G-трансиверов, которые лучше не использовать в таких условиях. Пожалуй, единственная претензия к металлическому корпусу состоит в том, как тесно он охватывает плату BPI-R4 по бокам. Пигтейлы антенн сложно подвести к плате Wi-Fi, даже если это кабель диаметром 1,13 мм. RG178 (самый толстый коаксиальный кабель под разъем U.FL/IPEX) тоже проходит, но уже впритык. Всего на боках корпуса есть 14 отверстий для разъемов SMA — с расчетом на грядущую плату BPI-R4-NIC-BE19. В магазине SinoVoip можно приобрести набор из шести антенн и пигтейлов для BPI-R4. Насколько хороши радиохарактеристики антенн, сказать не можем, ведь у них нет никакого технического паспорта. Отметим лишь то, что единственная 6 ГГц-антенна (либо трехдиапазонная) с открытым описанием и результатами испытаний может стоить столько же, сколько весь этот комплект целиком. Программное обеспечениеBPI-R4 поставляется с копией OpenWrt, установленной на чип NAND. У нас она по какой-то причине не загрузилась, но не беда, ведь ОС можно (и по большому счету нужно) развернуть самостоятельно на SD-карте, eMMC или NAND. Что касается выбора системы, то, хотя сама платформа BPI-R4 не накладывает особых ограничений, реалистичным вариантом является только Linux. Работа над FreeBSD пока не дошла даже до успешной загрузки, не говоря уже о драйверах всех устройств MediaTek. SinoVoip предлагает готовые образы на основе OpenWrt, Ubuntu 22.04, 24.04, а также Debian 11 и 12. Фирменная сборка OpenWrt содержит проприетарный драйвер беспроводного чипа MediaTek, который поддерживает все заманчивые функции Wi-Fi 7, включая ширину канала 320 МГц на частоте 6 ГГц и MLO. Две другие точки доступа (2,4 и 5 ГГц) также могут работать в режиме IEEE 802.11be, но с соответствующими ограничениями полосы пропускания. Меню настройки радиомодулей содержит огромное количество параметров, которые в стандартном интерфейсе OpenWrt недоступны и меняются только через конфигурационные файлы. SinoVoip добавила в сборку массу опционального ПО: SMB-сервер, клиенты VPN, SOCKS-Proxy и т. д. И все же эта версия ОС является лишь демонстрацией возможностей BPI-R4 и плохо подходит для повседневной эксплуатации, поскольку основана на устаревшей версии OpenWrt 21.02, а значит, не дает установить новые пакеты через opkg. Надеяться на обновление из первых рук не стоит. SinoVoip сделала «железо», а дальше вы в свободном плавании. И еще один момент: SD-карту обязательно нужно забить нулями перед записью официальной OpenWrt — иначе будут ошибки. К счастью, актуальная OpenWrt поддерживает BPI-R4 на уровне snapshot (нестабильные ежедневные сборки) и включает драйвер MediaTek MT7995/MT7996 с открытым исходным кодом, а ход работы освещается на форуме OpenWrt. Последние сборки уже достигли лучшей производительности Wi-Fi, чем OpenWrt с закрытым драйвером, поэтому именно их мы использовали во всех бенчмарках. Однако ряд функций платформы Filogic 880 еще недоступен. В частности, отсутствует RSS/LRO для агрегации входящих пакетов, отчего трафик, адресованный BPI-R, ограничен скоростью 4,6 Гбит/с. Не действует аппаратная инкапсуляция туннелей, аппаратный QoS, криптографический ускоритель EIP-197 (а значит, IPsec, TLS и DTLS в «железе»), а на стороне Wi-Fi —модуляция 4096-QAM и MLO. WED (Wireless Ethernet Dispatch) позволяет разгрузить ядра SoC при передаче трафика между проводной сетью и Wi-Fi и может быть активирована вручную наряду с аппаратным ускорением NAT, но в наших тестах не оказала заметного влияния на пропускную способность. Энергопотребление и температураХотя производитель рекомендует использовать более мощный источник питания, чем 12 В / 2 А, для BPI-R4 с дочерней картой Wi-Fi 7, в действительности энергопотребление устройства намного меньше. При питании комплекта BPI-R4 и BPI-R4-NIC-BE14 через бочковой разъем с напряжением 12 В мультиметр зарегистрировал ток 0,7 А (то есть 8,4 Вт), когда устройство бездействует. Маршрутизация через туннель L2TP с большой нагрузкой на ядра SoC увеличила ток всего лишь до 0,75 А (9 Вт). Максимальную величину в 1 А (12 Вт) мы получили при дуплексной передаче данных в диапазоне 6 ГГц. Естественно, результат был бы совсем иным, если бы мы дополнили систему прожорливыми компонентами — такими как SSD или 10G-трансиверы. Например, среднее энергопотребление, которое указывают создатели устройства в протоколе внутренних испытаний при использовании карты Wi-Fi 7 и «медного» трансивера 10BASE-T, составляет 21,6, а пиковое — 23,9 Вт. Фирменный алюминиевый кулер с PWM-вентилятором удерживает температуру MediaTek MT7988A в пределах 53 °С при длительной нагрузке, а вот охлаждению карты Wi-Fi нужно уделить повышенное внимание. Температура PHY-чипов не превышает 62–68 °С, но это после смены штатных термопрокладок на GELID GP-Extreme подходящей толщины. Результаты тестирования: проводная сетьДля тестов использовался компьютер с процессором Ryzen 9 7950X3D и двухпортовой сетевой картой Intel X540-T2. Порты SFP+ на маршрутизаторе BPI-R4 соединялись DAC с коммутатором MikroTik CRS305-1G-4S+IN, а при помощи 10-гигабитных трансиверов MikroTik S+RJ10 мы перешли на короткие патч-корды UTP Cat 6. Сети WAN и LAN изолированы друг от друга на коммутаторе. Каждый порт Intel X540-T2 проброшен через PCI Passthrough к собственной виртуальной машине в Proxmox VE 8.2. Системой на стороне WAN является Ubuntu 24.04 с сервером ACCEL-PPP. На стороне LAN — также Ubuntu 24.04. Каждой ВМ выделено 4 ядра CPU и 8 Гбайт оперативной памяти. Измерение пропускной способности между двумя ВМ выполнено утилитой iPerf 3. OpenWRT на BPI-R4 в данный момент не позволяет задать MTU выше чем 2030. Мы оставили значение по умолчанию — 1500. В настройках маршрутизатора было включено аппаратное ускорение NAT, а также Packet Steering для распределения транзитного трафика по четырем ядрам SoC. В режиме простого маршрутизатора с NAT пропускная способность BPI-R4 стремится к 10 Гбит/с и мало отличается от тех величин, которые мы получили в контрольном тесте при прямом соединении портов X540-T2. Ощутимо меньшую скорость обеспечивает подключение PPPoE, но, когда счет идет на несколько Гбит/с, не исключено, что узким местом стало ПО на серверной стороне.
BPI-R4 продемонстрировал выдающееся быстродействие туннелей PPTP и L2TP — вплоть до 2 Гбит/с и выше, хотя отдельные результаты широко варьируют в зависимости от избранного протокола и метода шифрования. Не хуже L2TP работают и потребительские протоколы при условии многопоточной оптимизации. В этой задаче устройству очень пригодились четыре процессорных ядра, как показывает скриншот ниже, ведь инкапсуляцию трафика и криптографию система пока осуществляет программно, без специализированной логики SoC. ![]() Результаты тестирования: Wi-FiПрежде чем мы обсудим работу BPI-R4 в беспроводной сети, надо рассказать о том, как поживает клиентская инфраструктура Wi-Fi 7. Из сетевых карт с поддержкой EHT320 покупателям доступны три модели: Intel BE200 (и ее CNVio-разновидность BE201), Qualcomm NCM865, а также MediaTek MT7927. Последнюю начали устанавливать на материнские платы, но ее еще трудно купить в рознице. А вот с Intel BE200 и Qualcomm NCM865 мы поработали на практике и можем поделиться впечатлениями. BE200 является самым распространенным и дешевым вариантом (голая карта без адаптера и антенн продается на AliExpress за сумму немногим больше 1,5 тыс. руб.), но вместе с тем и самым ограниченным. Начнем с того, что, пусть BE200 имеет стандартный интерфейс PCIe, а не проприетарный CNVio, устройство не работает в системах AMD с разъемом AM4 или AM5. Мы не нашли в интернете ни одной истории успеха и сами не сумели запустить BE200 на плате Asus ROG Crosshair X670E Hero с последней прошивкой. А главное, даже владельцам чистокровных интеловских систем в России (и не только) не гарантирован доступ к диапазону 6 ГГц и, следовательно, ширине канала 320 МГц. Дело в том, что BE200 (а также AX210 для стандарта Wi-Fi 6E) использует технологию LAR/DRS, чтобы понять, в какой стране находится компьютер, и открыть частоты, разрешенные местным законодательством. Но кроме того, LAR/DRS должна найти сертификат региона в UEFI. К несчастью для россиян, хотя диапазон 5,9–6,4 ГГц уже давно выделен под гражданские нужды, производители материнских плат и лэптопов забыли о необходимости добавить в прошивку нужный сертификат. Возможно, бывают счастливые исключения из этого правила — мы будем рады узнать о них от читателей. В противном случае есть грязный способ обмануть LAR/DRS. Алгоритм определяет регион по большинству точек доступа с открытым SSID, поэтому нужно создать на маршрутизаторе столько виртуальных AP (в любом диапазоне) с кодом нужного региона, чтобы перевесить соседские сети. Тогда BE200 подумает, что находится, к примеру, в США. Эстетически решение отвратительно, но спам точек доступа хотя бы происходит на одном канале и минимально засоряет эфир, а жители частных домов вообще могут без него обойтись. Увы, даже тогда, когда BE200 обнаружил сеть 6 ГГц, нам не удалось подружить его с BPI-R4. После подключения к точке доступа IEEE 802.11be адаптер сбрасывает прием до 6 Мбит/с, и таким он остается. Некоторые пользователи на форуме OpenWrt говорят о совершенно нормальной работе и скоростях вплоть до 2,8 Гбит/с, но нам пришлось поставить крест на BE200 и обратиться к альтернативному варианту от Qualcomm. NCM865 лишен ограничений, свойственных BE200, однако за этот модуль придется отдать на AliExpress не меньше 4 801 руб. Другой недостаток NCM865, помимо высокой цены, — ленивое обновление драйверов. Последняя версия в каталоге Windows (3.1.0.1323) датирована 10 августа, и у нее есть неприятная особенность: очень часто адаптер не может установить соединение 802.11be и откатывается до 802.11ax. Драйвер версии 3.1.0.1262 от 21 мая не имеет такой проблемы, поэтому именно его мы использовали в тестах. Впрочем, не стоит забывать, что в нашей ситуации самой подозрительной частью системы является программное обеспечение BPI-R4, а не беспроводных адаптеров. Первые пользователи Wi-Fi 7 могут рассчитывать на то, что эфир 5,9–6,4 ГГц будет свободен от чужих точек доступа. Маршрутизатор автоматически установил канал 57, но мы получили чуть лучшие результаты на основном канале 65. В обоих случаях система выбирает Center Frequency Index 63 (см. таблицу каналов), то есть пропускная полоса EHT320 распространяется с 6 105 до 6 425 МГц, аккурат подходя к верхней границе гражданского диапазона. Тестирование было выполнено при использовании шифрования WPA3 на расстоянии 3 м между маршрутизатором и клиентским NIC в прямой видимости, а результатом стала пропускная способность вплоть до 2,5 Гбит/с. Такие числа далеки от теоретической скорости передачи данных 5 765 Мбит/с, но уже впечатляют, особенно если сделать скидку на новизну технологии и сырое ПО. Также заметим, что в ходе испытаний MSC Index на прием и передачу колебался от 8 до 10, а это при двух пространственных потоках означает максимальную канальную скорость 4 324 Мбит/с (см. таблицу MCS). Только MSC 12–13 позволяет задействовать модуляцию 4096-QAM, но настолько качественный сигнал не получить без дорогостоящих антенн. Более доступным способом увеличить пропускную способность является MLO. Жаль, что функция еще не поддерживается открытым драйвером MediaTek. В фирменной сборке OpenWrt от SinoVoip она есть, но не дает никакого прироста пропускной способности (по крайней мере с адаптером Qualcomm). На частоте 6 ГГц в режиме HE160 (802.11ax) скорость достигла 1,3 Гбит/с, но это еще нельзя считать поводом для гордости, учитывая сравнительно короткую дистанцию связи и пустой частотный диапазон.
В нижней части диапазона 5 ГГц, напротив, существует интерференция со стороны других точек доступа. Пусть в России доступны каналы от 132 до 169, из них нельзя сформировать непрерывную полосу 160 МГц, поэтому тест пришлось выполнить на основном канале 56. К счастью, это не помешало добиться скорости 1,22 Гбит/с, которая в данном случае скорее характеризует чистоту эфира, нежели связку «точка доступа — клиент». Но у нее есть ценное практическое значение, ведь только избранные пользователи могут похвастаться домашним WAN-каналом шире 1 Гбит/с, а миграция клиентских устройств на частоту 6 ГГц — дело небыстрое. Диапазон 2,4 ГГц в большинстве жилищ давно переполнен, но важен тем, что он способен обеспечить непрерывность покрытия на крупной площади. Для этой задачи использовать каналы шириной 40 МГц нерационально, и все же мы выполнили такой бенчмарк, получив достойный результат вплоть до 330 Мбит/с. Во всех дуплексных тестах прием у BPI-R4 резко преобладает над передачей, что расходится с результатами внутреннего тестирования SinoVoip и точечными контрольными тестами, которые мы провели на официальной сборке OpenWrt. Спишем этот артефакт на издержки открытого драйвера MediaTek. Напоследок коснемся работы в Linux, хотя подробного освещения эта тема не заслуживает. В Ubuntu 24.04 и бета-версии 24.10 с ядром 6.11 пропускная способность Qualcomm СNCM865 уперлась в 1 Гбит/с, а у Intel BE200 есть все старые проблемы и одна новая: сеть 6 ГГц появляется в графическом интерфейсе только после принудительного сканирования командой «iw dev <имя_интерфейса> scan». Результаты тестирования: SMB и iSCSIОтсутствие RSS и LRO режет скорость входящего трафика, но даже в задаче чтения с Intel SSD 760p файловый сервер выдал с проводным подключением лишь 451 Мбайт/с — меньше половины теоретического максимума одной линии PCIe 3.0. При подключении по Wi-Fi 7 скорости последовательного чтения и записи с QD 8 явно ограничены каналом связи, а дополнительная латентность ударила по тестам с короткой очередью команд. Впрочем, если выполнить бенчмарк SSD непосредственно на BPI-R4 с помощью fio, то оказывается, что Intel 760p не любит чтение блоками 1 Мбайт — от этого наверняка страдает и производительность файлового сервера. Скорость чтения блоками 128 Кбайт равна 812 Мбайт/с, но такой размер не идеален уже для протокола SMB. fio, последовательное чтение/запись (128 Кбайт, QD 8) fio, последовательное чтение/запись (1 Мбайт, QD 8) С передачей мелких блоков намного лучше справляется iSCSI. Это мы проверили с помощью штатного инициатора Windows 11, на LUN был создан раздел NTFS. Заодно резко выросла скорость линейного чтения, а вот записи — уменьшилась. Результаты могли быть и лучше с MTU 9000, но полновесные jumbo-кадры включить пока нельзя. iSCSI, 10GbE ВыводыBanana Pi BPI-R4 объединяет в компактном форм-факторе передовые для домашнего маршрутизатора технологии — 10-гигабитную проводную сеть и Wi-Fi 7, но, в отличие от решений под известными торговыми марками, изначально рассчитан на открытые ОС, да и стоит несоизмеримо меньше. В этом его сила и одновременно слабость, потому что OpenWrt еще далека от того, чтобы полностью раскрыть возможности платформы Filogic 880, и здесь, к сожалению, многое зависит не только от усилий сообщества, но и от желания MediaTek работать над открытыми драйверами. Сейчас отдельные устройства — маршрутизатор, который легко собрать на базе x86 с pfSense или той же OpenWrt, коммутатор и «глупая» точка доступа Wi-Fi 7 — выполняют свои функции лучше. Впрочем, SinoVoip не претендует на широкий рынок. BPI-R4 — продукт для разработчиков и энтузиастов, который уже стабильно работает в качестве маршрутизатора, а поддержка Wi-Fi 7 за считаные недели поднялась с нуля до скоростей выше 2 Гбит/с. Клиентской экосистеме нового стандарта нужно избавиться от своих проблем — к тому времени, глядишь, созреет и BPI-R4. Догнать, но не перегнать: Intel Xeon 6900P (Granite Rapids) получили 128 ядер и 504 Мбайт L3-кеша
26.09.2024 [00:00],
Алексей Степин
Эпоха отставания Intel в количестве ядер у серверных процессоров, открытая дебютом AMD EPYC 7002 Rome пять лет назад, постепенно уходит в прошлое. Ещё летом компания представила чипы Xeon 6700E (Sierra Forest) со 144 ядрами. Но если Sierra Forest ещё можно было условно считать не совсем «настоящими» Xeon из-за использования исключительно энергоэффективных Е-ядер без SMT, которым противостоят 128-ядерные AMD EPYC Bergamo на базе Zen4c с SMT, то с анонсом Xeon 6900P этого сделать уже не получится. Встречаем Granite Rapids-AP c 128 полновесными P-ядрами! Многое об архитектуре и возможностях Granite Rapids было известно ещё в момент анонса Sierra Forest, но сейчас речь пойдёт о полноценном семействе, в котором на старте представлено пять моделей процессоров с числом ядер от 72 до 128. В этом старшая новинка не уступает даже будущим 128-ядерным AMD EPYC Turin Dense на базе Zen 5, анонс которых вот-вот состоится. Благодаря использованию сложных и высокопроизводительных ядер у Intel теперь есть возможность заявить о 2,1-кратном превосходстве над 96-ядерным флагманским AMD EPYC Genoa в нагрузке OpenFOAM, а за счёт поддержки AMX и характерных для ИИ форматов вычислений, таких как FP16, в инференс-сценарии ResNet50 превосходство составляет 5,5 раза. Intel весьма радикально подходит к вопросу «Великого Разделения», чётко разграничивая оптимальные сферы применения для процессоров с P-ядрами и E-ядрами, хотя с точки зрения ПО разница не столь велика и фактически упирается в отсутствие у E-ядер полноценной поддержки AVX-512 и AMX, что отчасти компенсируется продвинутой реализацией AVX. Тем не менее, Xeon со смешанной конфигурацией компания выпускать в обозримое время не планирует. Отметим также, что Р-ядра лучше подойдут в тех случаях, когда требуется максимальная производительность в пересчёте на поток, что особенно актуально для приложений с поядерным лицензированием. Новая серия Xeon 6900P может похвастаться ядрами Redwood Cove с поддержкой SMT (HT), что дает 512 потоков на систему с двумя процессорами, а 12-канальный контроллер памяти призван догнать и перегнать по производительности подсистемы памяти, реализованные AMD. Он работает с модулями DDR5-6400, но поддержка MRDIMM позволяет говорить и о скорости 8800 МТ/с. Ядра включают два блока исполнения набора инструкций AVX-512. Кеш первого уровня состоит из 64 Кбайт для инструкций и 48 Кбайт для данных. Декодер рассчитан на обработку 8 инструкций за такт, такова же пропускная способность конвейера в обработке микроопераций. Сам движок внеочередного исполнения вдвое производительнее того, что реализован в Sierra Forest, и вмещает 512 инструкций. Впечатляют и объёмы кешей верхнего уровня: каждое ядро Redwood Cove имеет собственный кеш L2 объёмом 2 Мбайт, а размер общего кеша L3 достигает 504 Мбайт — больше могут предложить только AMD EPYC Genoa-X c 3D V-Cache. В двухпроцессорной конфигурации это даёт свыше 1 Гбайт кеша, что наверняка пригодится в HPC и ИИ-сценариях. Каждый процессор Xeon 6900P имеет 96 линий PCI Express 5.0 с поддержкой CXL 2.0, причём всех типов устройств — Type I, II и III. За межпроцессорное общение отвечает сразу шесть линий UPI с пропускной способностью 24 ГТ/с. Процессоры используют так называемый «большой разъём» (big socket) LGA 7529. Позже Xeon 6 с Р-ядрами будут выпущены и для «малого разъёма» LGA 4710, используемого сейчас чипами Sierra Forest, но случится это не ранее I квартала 2025 года. Это будут решения с меньшим количеством ядер (до 86) и восьмиканальной подсистемой памяти. Тогда же будут освоены и решения с Е-ядрами на LGA 7529, а пока Sierra Forest и Granite Rapids существуют исключительно в рамках своих платформ. Компоновка у Xeon 6900P, разумеется, чиплетная, что также освещалось в обзоре Xeon 6700. Однако теперь мы знаем больше: на презентации новинок Intel показала, что чиплеты с P-ядрами будут двух размерностей: LCC (low core count), ограниченный 16 ядрами, и более крупный HCC (high core count), содержащий уже до 48 ядер. Конфигурация XCC (eXtreme core count) формируется компоновкой двух или трёх чиплетов HCC. Именно последний вариант с тремя тайлами используют все пять моделей Xeon 6900P. По сути, о Xeon 6900P можно говорить как о NUMA-системе с тремя узлами. Поскольку контроллеры DDR5 расположены в процессорных, а не I/O-чиплетах как у AMD, поддержка разных режимов кластеризации позволяет в некоторых сценариях выиграть в латентности доступа к памяти, а значит, и в производительности. Таких режимов у Xeon 6900P два — HEX и SNC3. Последний реализует сценарий «каждый чиплет обращается к своим DDR-контроллерам». Интересно, что использована конфигурация с двумя тайлами по 43 активных ядра в каждом, тогда как третий имеет лишь 42 активных ядра. Сделано это, разумеется, для 128-ядерности, но гипотетически ничто не мешало Intel активировать больше ядер и получить чип, обгоняющий EPYC по количеству ядер. Причина, надо полагать, в энергетических аппетитах новинок, которые и со 128 ядрами требуют уже полкиловатта. Картина латентности при межъядерном взаимодействии у Xeon 6900P специфическая. Общение ядер, принадлежащих крайним чиплетам, не отличается низкими задержками, что закономерно. Можно с уверенность предсказывать несколько более высокие задержки при работе среднего чиплета с внешними устройствами, поскольку I/O-чиплеты расположены буквально по краям CPU. Чипы, как уже неоднократно отмечалось, более монолитны в реализации, нежели у AMD: чиплеты сшиваются посредством EMIB и используют универсальную модульную меш-сеть. Производятся вычислительные тайлы с использованием техпроцесса Intel 3 в то время как I/O-чиплеты используют более дешёвый и массовый процесс Intel 7. В отличие от аналогичного модуля в AMD EPYC, они отвечают лишь за реализацию интерфейсов UPI/PCIe/CXL и общение с акселераторами DSA/IAA/QAT/DLB. Открывает новый модельный ряд 72-ядерный Xeon 6960P, который можно назвать своеобразным ответом Intel на NVIDIA Grace (72 ядра в GH200, 144 ядра в Grace Superchip). Впрочем, за всё приходится платить, и в данном случае расплата — возросший до 500 Вт теплопакет. Лишь у модели 6952P с низкой базовой частотой он чуть ниже и составляет 400 Вт. В остальном 6900P весьма похожи, они даже имеют одинаковую в турборежиме частоту, равную 3,9 ГГц для одного ядра и 3,7 ГГц для всех ядер. В настоящий момент это выше показателей AMD EPYC Genoa схожей «ядерности». Все варианты имеют по четыре активных ускорителя каждого типа, 12 каналов памяти, шесть линий UPI и 96 линий PCIe 5.0. О памяти стоит сказать отдельно. Рост количества каналов и объёма памяти идёт гораздо медленнее, чем рост количества ядер. Это особенно актуально в свете бума ИИ-технологий, которые по своей природе весьма охочи до памяти. Назрела проблема и со скоростями: хотя отчасти она скрашивается переходом на DDR5, но даже Sierra Forest поддерживает лишь DDR5-6400. В Granite Rapids-AP такая память тоже поддерживается, но перспективнее выглядит умение работать с модулями MRDIMM-8800. Внешне модули MRDIMM (и MCR DIMM) напоминают обычные регистровые модули DDR5, однако использование дополнительного буфера позволяет новым модулям работать в режиме считывания из двух рангов сразу, вместо одного в обычных DIMM. Стоит сказать, что JEDEC лишь планирует к публикации спецификации MRDIMM. Пока преимущество на стороне Intel, но о массовости нового типа памяти говорить рано. Есть вероятность, что реализации поддержки этой памяти со стороны AMD будет отличаться.
Источник: Phoronix Что касается производительности в целом, то первые результаты также уже имеются: в тестах, проведённых ресурсом Phoronix, платформа, оснащённая двумя флагманскими Xeon 6980P, уверенно заняла первое место, опередив двухпроцессорные сборки с AMD EPYC 9754, 9684X и 9654. Согласно цифрам, приведённым самой Intel, превосходство шестого поколения Xeon над пятым (Emerald Rapids) 2-3x в чистой производительности, а в пересчёте на ватт составляет от 1,44x до 2,16x в зависимости от типа и характера нагрузки. Стоит отметить, что несмотря на возросший теплопакет, энергоэффективность Xeon 6900P тоже выросла: при типовой 40-% загрузке сервера новые процессоры обеспечивают в 1,9 раза большую производительность на Вт, нежели предыдущее поколение Xeon. В сравнении с решениями AMD с сопоставимым количеством ядер (EPYC 9754 и 9654, 128 и 96 ядер, соответственно) Xeon 6980P быстрее в 1,2–3,21 раза, причем меньше всего преимущество проявляется в работе с целочисленными данными, и заметно больше — в вычислениях с плавающей запятой, а также в тестах подсистемы памяти. Подведём промежуточные итоги. В своё время AMD удалось вырваться вперёд в сфере создания многоядерных серверных процессоров именно благодаря перехода на чиплетную компоновку. В немалой степени триумфу «красных» способствовал и затянувшийся до неприличия процесс внедрения 10-нм технологии у Intel. В итоге целых пять лет у EPYC успешно росло количество ядер в то время как «синие», упорно держась за монолитность кристалла, были ещё и ограничены параметрами техпроцесса. Это никак не позволяло уверенно перешагнуть отметку в 64 ядра. Лишь в Sapphire Rapids удалось реализовать вариант чиплетной компоновки. Хотя она с самого начала и использовала более низкоуровневый принцип сшивки чиплетов, вплоть до последнего использовался не самый удачный гомогенный вариант с большими универсальными чиплетами. И только в поколении Xeon 6 дебютировал гетерогенный вариант с вынесенной в отдельные чиплеты I/O-частью, что в сочетании с освоенными тонкими техпроцессами позволил совершить Intel рывок, сокративший отставание от AMD. Теперь у Intel есть не только козырь в виде высокопроизводительной архитектуры и специфических блоков-ускорителей, но и просто «большие» Xeon, способные на равных поспорить с EPYC в количестве ядер. Ситуация интересна ещё и тем, что уже 10 октября AMD готовится официально представить новые EPYC Turin Dense на базе Zen 5, которые тоже получат 128 ядер. Но AMD готовит не только их, но и 192-ядерные EPYC на базе Zen 5c. А как мы знаем, иногда количество превалирует над качеством. Многоядерный лес: подробности об Intel Xeon 6700E (Sierra Forest)
10.06.2024 [10:10],
Алексей Степин
Отставание Intel по количеству процессорных ядер до текущего момента насчитывало уже несколько лет. Компания безнадёжно проигрывала бой за боем — сперва AMD с её EPYC, успешно преодолевшим отметку 64 ядра, а затем и разработчикам серверных процессоров на базе Arm, таким как Ampere Computing. Прекрасно осознавая эту неблагоприятную ситуацию, компания взялась за разработку Sierra Forest. Впервые анонс этих CPU состоялся более года назад, но лишь на прошлой неделе Intel наконец-то представила это решение в виде готового «кремния». Новые процессоры входят в семейство Xeon 6, что соответствует отказу от бренда Scalable.
Источник здесь и далее: Intel via ServeTheHome Формально у Intel когда-то были действительно массивные многоядерные чипы. Речь, конечно, про давно умершие Xeon Phi, где благодаря SMT4 удалось довести количество одновременно выполняемых потоков до 244. Но это всё-таки были ускорители, а не процессоры общего назначения. Интересно, что активно используя гетерогенную архитектуру в настольных и мобильных процессорах, Intel решила чётко разделить серверные чипы именно по типам используемых ядер ещё два года назад. Если в фундамент Sapphire, Emerald и Granite Rapids легли исключительно высокопроизводительные, но относительно сложные и горячие P-ядра, то основой Sierra Forest было решено сделать только простые, но максимально энергоэффективные E-ядра. Вкупе с переходом от техпроцесса Intel 7 к Intel 3 это позволило нарастить количество самих ядер до 144, а в перспективе и до 288, что хорошо отвечает потребностям современных гиперскейлеров и провайдеров крупных облачных сервисов. Они заинтересованы в масштабируемости, поскольку та позволяет нарастить клиентскую базу, а значит, и увеличить доходы сравнительно «малой кровью». Кроме того, сценарии с использованием ИИ часто благоволят именно многоядерным решениям, была бы поддержка соответствующих форматов вычислений. Всё это у Sierra Forest есть. В основе новых E-ядер лежит микроархитектура Crestmont (Sierra Glenn), в которой реализованы достаточно развитые подсистемы фронт- и бэкэнда с довольно солидными кешами инструкций (64 Кбайт) и данных (32 Кбайт) на ядро и разделяемым кешем L2 на каждые четыре ядра. Сдвоенный внеочередной декодер способен обрабатывать шесть инструкций, а конвейер — столько же микроопераций за такт. Увеличена глубина истории механизма предсказания ветвлений. Всё это позволяет говорить о производительности до 16 FP32-Флопс за такт. Преследуя достижение максимальной энергоэффективности новых решений, от поддержки AVX-512 и AMX в Sierra Forest компания отказалась, однако расширенный вариант AVX2 есть: ядра имеют два 128-битных порта для выполнения SIMD-инструкций, в том числе с поддержкой AVX-IFMA и AVX-DOT-PROD-INT8, инструкций CMPccXADD, LAM и LASS, а также форматов INT8, FP16 и BF16. Дополняют картину развитые средства обеспечения безопасности — шифрование с длиной ключа до 2048 бит, технология доверенных доменов TDX, расширения SGX, технология безопасной виртуализации VT-rp и аппаратная защита от эксплойтов CET. Компоновка у Sierra Forest, разумеется, тайловая. Базовый «кирпичик» включает в себя до 4 ядер, 4 Мбайт кеша L2 и кусок кеша последнего уровня (LLC) объёмом 3 Мбайт. Блок ввода-вывода отвечает за поддержку интерфейсов PCIe 5.0 (до 88 линий, есть поддержка CXL 2.0, в том числе Type 3) и UPI 2.0 (4 линии, 24 ГТ/с). В однопроцессорных системах I/O-подсистема может быть переконфигурирована, что даёт до 136 линий PCIe. Как и у моделей с P-ядрами, поддерживаются аппаратные ускорители DSA, IAA, QAT и DLB. Но их количество зависит от конкретной модели процессора. Отдельно располагаются контроллеры памяти, их у новинки восемь. Поддерживаются модули DDR5-6400, совокупная пропускная способность — 460 Гбайт/с. Сшивка базовых блоков выполнена с помощью модульной меш-сети, а на уровне тайлов с помощью EMIB. Таким образом, с точки зрения любой системы и прикладного ПО процессоры Sierra Forest монолитны. Оптимизации по части энергоэффективности вкупе с техпроцессом Intel 3 позволяют говорить о 144 ядрах с общим теплопакетом 330 Вт. И это серьёзный шаг вперёд для Intel, позволяющий говорить о практически трёхкратном превосходстве над предыдущими поколениями Xeon и достижении хоть какого-то паритета с AMD по этому показателю. У 128-ядерного EPYC Bergamo TDP достигает 360 Вт. Впрочем, новейшие Turin Dense на базе 3-нм техпроцесса помогут вернуть «красным» лидерство, уж по количеству ядер на сокет точно. Согласно новой схеме наименований, процессоры Sierra Forest относятся к серии Xeon 6700E. Изначально она включает семь моделей, имеющих от 64 до 144 ядер с базовой частотой в пределах 1,8–2,4 ГГц и турбо-частотой в пределах 2,6–3,2 ГГц. У двух старших вариантов объём кеша LLC составляет 108 Мбайт, у остальных он равен 96 Мбайт. Все модели, за исключением Xeon 6731E, рассчитаны на работу в двухпроцессорных конфигурациях, что дает до 288 ядер на платформу. Сама платформа использует новый разъём LGA 4710. Что касается ценовой политики, то она не совсем однозначна. Рекомендованные цены стартуют с отметки $2749 за 64-ядерную модель, но 64-ядерные процессоры AMD с актуальной архитектурой стоят от $4950 (EPYC 8534P). В максимальной же конфигурации цены похожи — $11350 за флагманскую модель против $11900 за EPYC 9754. В теории процессоры выглядят многообещающе, особенно в сравнении с предыдущими попытками Intel догнать по количеству ядер AMD. Так, по энергоэффективности Xeon 6700 превосходят Cascade Lake-SP в 2,6 раза, а производительность в пересчёте на стойку выросла в 4,2 раза, говорит компания. Тем не менее, теория проверяется только практикой, и специалисты Phoronix уже успели провести полноценное тестирование Xeon 6700. В их руки попали две старшие модели процессоров, 144-ядерные Xeon 6766E и Xeon 6780E. По мнению Phoronix, ближайшим аналогом флагманских Sierra Forest являются 128-ядерные AMD EPYC 9754 с ядрами Zen 4c. Но решение AMD поддерживает SMT, что даёт до 256 потоков, имеет развитую 12-канальную подсистему памяти, хотя и только DDR5-4800, и более ёмкий кеш (256 против 108 Мбайт). Но специализированных ускорителей у EPYC нет. Зато схожи частотные и энергетические характеристики: 2,25–3,1 ГГц при TDP 360 Вт против 330 Вт у флагманского Sierra Forest.
Источник: Phoronix Детально ознакомиться с обзором можно на сайте Phoronix, но стоит отметить, что в ряде случаев процессоры Sierra Forest выступили удачнее оппонента и практически догнали Xeon Max 9468, а в области энергопотребления уступили лишь моделям AMD EPYC 8004. В единичных нагрузках новинка несущественно отстаёт даже от EPYC 9684X. В среднем 2P-платформа Xeon 6780E оказалась примерно на 5 % быстрее Xeon Platinum 8592+ при 70 % от энергопотребления, но заметно уступила паре AMD EPYC 9754. Однако имеется весомое «но» — практически во всех случаях Xeon 6700 показали лучшую энергоэффективность, уступив лишь EPYC 8004, априори отстающим по количеству ядер. ![]() Но это ещё не всё: действительно серьёзными соперниками и Sierra Forest, и Bergamo являются многоядерные Arm-процессоры. Так что Phoronix сравнил новинки с пусть не самой новой, но всё ещё актуальной платформой на базе Ampere Altra Max M128-30: 7-нм техпроцесс, 128 ядер Armv8.2+ c 1 Мбайт L2-кеша для каждого и общий L3-кеш объёмом 32 Мбайт. Подсистема памяти хотя и восьмиканальная, но использует лишь DDR4-3200. Зато тактовая частота составляет устойчивые 3 ГГц при максимальном теплопакете 250 Вт. Блоков векторных инструкций здесь два, они имеют разрядность 128 бит, но это всё же NEON, хотя есть поддержка форматов вычислений с пониженной точностью, включая INT8.
Источник: Phoronix Чуда, впрочем, не случилось — система Ampere по средней производительности с треском проиграла современным CPU и от AMD, и от Intel. Однако по средней же энергоэффективности она уступает только Siena. Проблема в том, что прирост потребляемой мощности в случае Ampere не конвертируется линейно в такой же прирост производительности. Однако у данного решения Ampere есть другой плюс — оно практически втрое дешевле флагманского Sierra Forest, если смотреть на рыночные цены. При этом надо помнить, что гиперскейлерам любые компоненты достаются по совсем другим ценам, нежели рекомендованные или розничные. Ampere же тем временем готовит гораздо более интересные AmpereOne: 3 нм, 256 ядер, 12 каналов DDR5. Серверы на базе Intel Xeon 6700E
Тем не менее, 6700E показали великолепный для Intel результат и заинтересовали индустрию — ряд производителей серверного оборудования уже представили свои решения на базе Sierra Forest в одно- и двухпроцессорном варианте. В I квартале 2025 года Intel планирует выпустить 288-ядерную версию Sierra Forest (6900E) с 12-канальной памятью. А в III квартале компания пополнит арсенал процессорами Xeon 6900P (Granite Rapids) на базе P-ядер Redwood Cove, количество которых планируется довести до 128. Тем интереснее будет битва с новыми решениями AMD и многоядерными процессорам Arm. Импортозамещение с нулевым бюджетом: обзор бесплатных российских систем бизнес-аналитики
07.06.2024 [00:00],
Андрей Крупин
Интерес корпоративного сектора к аналитическим платформам обусловлен несколькими факторами. Во-первых, такие системы позволяют обрабатывать большие объёмы данных из различных источников и визуализировать их для оценки состояния бизнеса и принятия взвешенных управленческих решений. Во-вторых, благодаря возможностям выявления причинно-следственных связей между различными показателями, BI-инструменты помогают оптимизировать рабочие процессы в самых разных сферах деятельности, будь то управление финансами, маркетинг, торговля, логистика, производство или предоставление услуг. Наконец, подобного рода продукты отличаются высокой эффективностью и, по заверениям экспертов, окупаются максимум за полгода. Это третья причина, по которой всё больше организаций делают выбор в пользу программных комплексов Business Intelligence. С уходом из РФ западных IT-игроков российский рынок BI-платформ кардинально изменился: пустующую нишу активно занимают отечественные разработчики, а возросшие риски использования зарубежных продуктов в условиях санкций вынуждают компании пересматривать приоритеты и заниматься импортозамещением ПО. Мы решили не оставаться в стороне от наметившихся в корпоративной среде тенденций и собрали подборку бесплатных российских систем Business Intelligence, которые могут помочь индивидуальным предпринимателям и малому бизнесу добиться существенной экономии при реализации проектов по переходу на отечественный софт. «Форсайт. Аналитическая платформа». Персональная версия
Программный комплекс, предназначенный для формирования отчётности, управления бизнес-процессами, моделирования и прогнозирования показателей, визуализации и оперативного анализа данных, а также создания бизнес-приложений для решения конкретных задач. В составе «Форсайт. Аналитическая платформа» представлено множество инструментов: от средств интерактивного анализа до конструктора сложноформатируемых отчётов, ориентированных на печать. Доступен выбор типов визуализации: от простых (таблицы, карты, диаграммы) до сложных (Bubble chart, Tree Map и проч.). При этом выделять и добавлять данные и исключать их из анализа можно непосредственно на диаграмме или карте. В числе отличительных особенностей «Форсайт. Аналитическая платформа» стоит отметить наличие средств расширенной аналитики, обеспечивающих валидацию и кластеризацию данных, поиск исключений и ключевых факторов, а также анализ ассоциаций и решение прочих задач с использованием библиотеки статистических и эконометрических методов. Бесплатный вариант BI-платформы содержит все инструменты и расширения флагманского продукта, кроме надстроек для Microsoft Office. Также в дистрибутиве с системой представлен репозиторий c примерами выполнения типовых задач и разработки бизнес-приложений. Персональная версия доступна только в виде настольного приложения, не ограничена по времени использования и предназначена для работы с полным набором функциональных возможностей исключительно в рамках локальной базы данных (SQLite). Взаимодействие с прочими системами управления базами данных (PostgreSQL, Oracle Database, Microsoft SQL Server, Teradata) недоступно, многопользовательский режим работы не поддерживается. Сохранение объектов репозитория и создаваемых проектов возможно только на персональном компьютере пользователя в локальной базе данных. Analytic Workspace Free
Аналитическая cloud-платформа, созданная с прицелом на тех, кто «перерос» Microsoft Excel и присматривается к аналогичным, но более функциональным решениям для обработки данных. Взаимодействие с Analytic Workspace предполагает выполнение четырёх шагов: подключение источников данных, построение логической модели, создание виджетов и настройку аналитической панели. При этом в качестве источников могут использоваться базы данных (Oracle Database, Clickhouse, MySQL, Microsoft SQL, Greenplum, PostgreSQL, Vertica, MariaDB, MongoDB, Red Database, Firebird, OData, «1C»), файлы и архивы с файлами (.xls, .xlsx, .json, .txt, .csv, .xml, .tsv, .xlsb, .ods, .odf, .jsonl), внутреннее хранилище Analytic Workspace на базе Clickhouse и подключаемые посредством API веб-сервисы. Также доступна функция добавления пользовательских JDBC-коннекторов. Analytic Workspace предлагает 26 вариантов встроенных визуальных элементов и возможность создания собственных виджетов с использованием HTML, CSS и JavaScript. Доступна интеграция с библиотекой Apache ECharts, предоставляющей свободный доступ более чем к 400 элементам визуализации данных. Для решения сложных задач в BI-системе реализованы средства прогнозной аналитики на основе машинного обучения. Free-версия облачного сервиса Analytic Workspace лишена поддержки многопользовательского режима и имеет ряд ограничений: в системе возможно создание только десяти логических моделей и подключение не более 12 источников данных. Объём загружаемой информации из каждого источника лимитирован пятьюдесятью мегабайтами, предельный объём каждой модели не может превышать 524 Мбайт. Loginom Community Edition
Аналитическая платформа уровня Low-code, которая позволяет проводить анализ данных любого уровня сложности без знаний основ программирования. Loginom поддерживает интеграцию с различными источниками, предобработку и консолидацию данных, разведочный анализ, моделирование и прогнозирование, а также визуализацию и интерпретацию данных. Результаты можно просмотреть в самой системе или экспортировать в сторонние платформы Business Intelligence. Таким образом, программный комплекс Loginom может использоваться как для создания автономных аналитических решений, так и для разработки модулей, интегрируемых со сторонними BI-системами. Включённые в состав продукта аналитические инструменты поддерживают многомерное представление данных в формате так называемых OLAP-кубов, позволяют проводить быструю проверку гипотез и находить в исходном наборе данных дублирующие и противоречивые записи. Также сообщается о поддержке кластеров данных и алгоритмов машинного обучения. Loginom Community Edition поддерживает импорт из популярных источников данных, таких как СУБД MySQL, Oracle Database, PostgreSQ, Firebird. SQLite и др., приложения Excel и «1C», а также экспорт в ClickHouse, Tableau и XML. Кроме того, в бесплатной версии BI-системы доступны подключение к REST-сервисам и обработка до 16 Тбайт информации. Из ограничений отметим отсутствие инструментов коллективной работы и возможность использования продукта только в личных целях. Modus BI Cloud (бета-версия)
Аналитическая cloud-платформа, позволяющая собирать и визуализировать данные из различных источников, создавать отчётность и формировать прогнозы в целях принятия эффективных управленческих решений и мониторинга критически важной для бизнеса информации. Поддерживает работу с Excel-файлами, таблицами Google Sheets, СУБД ClickHouse, PostgreSQL, Vertica, Microsoft SQL Server, базами данных «1C». Modus BI Cloud имеет широкие возможности интерактивного анализа и визуализации, что позволяет представить данные в виде, удобном для принятия решений. Гибкие настройки фильтрации, агрегации, детализации (Drill-Down, Drill-Up и Drill-Throughthrough) данных предоставляют пользователю возможность просматривать различные срезы аналитики, интерактивно сужать и расширять область анализа, получать как агрегированные, так и детальные данные для проверки гипотез и предположений. Всего в системе насчитывается более тридцати видов визуализации. Поддерживается работа с геокартами. Адаптивная вёрстка отчётов позволяет настроенным отчётам подстраиваться под разрешение экрана и адекватно отображаться как на компьютерных мониторах, так и на мобильных устройствах. Modus BI Cloud доступен бесплатно в бета-версии, но представляет собой полнофункциональное решение. В скором времени компания-разработчик планирует выпустить коммерческий релиз продукта и ввести несколько тарифных планов с учётом специфики организаций SMB-сегмента. Возможно (но далеко не факт), что в линейке тарифов найдётся место предложению с бесплатным доступом к системе бизнес-аналитики, пусть и с урезанным набором функций. Yandex DataLens
Cloud-платформа, позволяющая подключаться к различным источникам, описывать модели данных, выполнять аналитические вычисления, строить графики и визуализации, собирать дашборды и обеспечивать коллективный доступ к аналитике. Yandex DataLens умеет извлекать данные из файлов форматов CSV, TXT и Excel. Также поддерживается интеграция с сервисами Google Sheets и «Яндекс Документы», программными комплексами «1С» и «Битрикс24», СУБД ClickHouse, MySQL, PostgreSQL, MS SQL Server, Oracle Database, YDB, Greenplum и всевозможными сервисами «Яндекса». Взаимодействие с BI-системой осуществляется в рамках четырёх сущностей — «Подключение», «Датасет», «Чарт» и «Дашборд», которые обеспечивают полный цикл работы с данными. Можно создавать объекты сущностей самостоятельно, а также использовать готовые решения из DataLens Marketplace. Бесплатная версия сервиса предлагается в рамках тарифа Community. Она не имеет ограничений на количество пользователей и объём обрабатываемых данных и включает всю базовую функциональность: аналитические вычисления и SQL, интерактивные дашборды, конструктор чартов, средства моделирования данных, ролевую модель прав доступа, аутентификацию с Yandex ID/360, стандартную поддержку. Платформа соответствует требованиям ФЗ-152 «О персональных данных» и индустриальным стандартам. Исходный код DataLens доступен по лицензии Apache 2.0. По мнению аналитиков, в настоящий момент российский рынок систем класса Business Intelligence активно трансформируется, но отечественным разработчикам пока так и не удалось потеснить зарубежные решения, которые продолжают обеспечивать потребность в аналитике приблизительно для 70 % компаний в РФ. Ожидается, что расстановка сил в этом IT-сегменте кардинально изменится в текущем 2024 году, когда у многих крупных заказчиков закончится действие лицензий на софт иностранных вендоров, и организациям так или иначе придётся мигрировать на российское ПО. В перспективе преимущество будет у разработчиков, которые в условиях конкурентной среды смогут выстроить качественную службу клиентского сервиса, предложат оптимальное соотношение цены и качества программного продукта, а также широкие функциональные возможности визуальной аналитики, полагают эксперты. Борьба за место под солнцем определённо будет нешуточной, и радует то, что в выигрыше так или иначе останутся потребители, то есть мы с вами. Без права на утечку: обзор 10 российских DLP-систем
11.04.2024 [00:00],
Андрей Крупин
Об актуальности DLP-систем свидетельствуют аналитические исследования экспертов в сфере информационной безопасности. Так, согласно сведениям «Солар», только за прошедший год в публичный доступ попали данные 420 российских организаций. Это означает, что каждый день в России происходила как минимум одна утечка данных. При этом общий объём раскрытых данных превысил 100 Тбайт. Чаще всего под прицел киберпреступников попадали предприятия из IT-отрасли, сферы услуг, ретейла и финансов. Основная масса инцидентов пришлась на утечки внутренней документации компаний и различного рода структурированной информации — баз данных клиентов, сотрудников, пользователей веб-сайтов и сервисов.
Распределение утечек по отраслям (по данным центра мониторинга внешних цифровых угроз Solar AURA ГК «Солар» за 2023 год) Непростую ситуацию с утечками данных в РФ подтверждает экспертно-аналитический центр InfoWatch, зафиксировавший в 2023 году не только резкий рост количества утёкших персональных данных (1,12 млрд скомпрометированных записей, что почти на 60 % выше уровня 2022 года), но и смещение вектора атак киберпреступников в сторону предприятий малого бизнеса, не имеющих достаточных материальных, финансовых и организационных ресурсов для поддержания безопасности корпоративной IT-инфраструктуры. Более того, всё чаще в атаках на отечественные компании стали принимать участие хактивисты — злоумышленники, которыми движет не жажда наживы, а стремление скомпрометировать как можно больше данных по политическим мотивам. Такое положение дел подчёркивает серьёзность трудностей, с которыми сталкиваются российские организации, и важность защиты информационных активов, обеспечить которую способны системы предотвращения утечек данных (Data Leak Prevention, DLP). При этом надо понимать, что DLP — это лишь один из рубежей IT-обороны. Принцип работы DLP-систем заключается в постоянном мониторинге перемещения корпоративных данных, анализе их содержимого и блокировке файлов с конфиденциальными сведениями в соответствии с заданными политиками. Программные комплексы такого рода позволяют контролировать всевозможные каналы передачи данных, коммуникации сотрудников и выполняемые ими действия на рабочих местах. При этом на карандаш берутся все информационные потоки — как циркулирующие внутри корпоративной сети, так и выходящие за её периметр. Такой подход позволяет предотвращать утечки данных вследствие халатности сотрудников или злонамеренных действий инсайдеров, а также проводить расследование инцидентов. Ниже перечислены некоторые известные DLP-решения отечественных разработчиков, дано описание ключевых функций, а также указаны стоимость и наличие демо-версии. Все эти решения отвечают современным корпоративным стандартам, зарегистрированы в реестре российского программного обеспечения и подходят для задач импортозамещения. InfoWatch Traffic Monitor
Визитной карточкой программного комплекса являются запатентованные технологии контентного анализа и обработки больших объёмов данных с помощью искусственного интеллекта (ИИ). InfoWatch Traffic Monitor автоматически классифицирует информационные потоки компании, раскладывая их по полочкам — категориям и терминам, на основе которых производится гибкая настройка политик безопасности. Поддерживается возможность как использования готовых баз контентной фильтрации, оптимизированных под конкретную отрасль, так и создания собственных. DLP-система умеет детектировать персональные данные (например, паспортные сведения, адреса электронной почты, номера телефонов и т.д.), финансовую информацию (ОГРН, БИК, номера кредитных карт, банковских счетов и т.д.), а также внутренние документы, содержащие формализованные данные и созданные по определённому шаблону (договоры, заполненные бланки, чертежи и т.д.). Поддерживаются технологии оптического распознавания символов (OCR), контроль процессов печати и сканирования документов, мониторинг использования сотрудниками съёмных накопителей и копирования файлов с рабочих станций посредством Bluetooth. Список контролируемых InfoWatch Traffic Monitor каналов передачи данных довольно внушителен — от электронной почты, мессенджеров, облачных хранилищ, онлайн-сервисов, USB-устройств, сканеров, принтеров и МФУ до рабочих станций Windows и серверов Linux (поддержка macOS не заявлена). Благодаря модулю Device Monitor возможен мониторинг мобильных устройств на базе Android и iOS. Также реализована поддержка терминальных сред и тонких клиентов Citrix XenApp и Microsoft RDP. Для заказчиков, предъявляющих особые требования к обеспечению безопасности корпоративной IT-инфраструктуры, предусмотрены версии DLP-системы, сертифицированные по требованиям ФСТЭК и Минобороны России.
LanAgent Enterprise DLP
Оповещает о нарушениях заданных правил безопасности и подозрительных действиях пользователей в корпоративной сети. Умеет перехватывать сообщения и анализировать переписку сотрудников в мессенджерах Viber, WhatsApp, Telegram, Jabber, социальных сетях, приложении Skype и по электронной почте. Продукт оснащён инструментами поиска нарушений политик безопасности при обмене документами, разграничения доступа к файлам, USB-накопителям и сетевым ресурсам, а также средствами предотвращения копирования защищаемой информации в буфер обмена ОС и её отправки на печать. Предусмотрен «Режим конфиденциального документа» — можно задать каталог, информация в котором считается конфиденциальной. Внутри этого каталога пользователи могут работать с документами, но их невозможно переместить за пределы защищаемой директории, в том числе нельзя выгрузить на почту или файлообменник.
По набору функций LanAgent Enterprise DLP относится скорее к инструментам пассивного, нежели активного контроля за утечками данных LanAgent Enterprise DLP лишён поддержки технологий OCR, а значит, не способен фиксировать инциденты с передачей конфиденциальных данных в графических файлах. Также ничего не сообщается об инструментах блокирования чувствительной информации в используемых сотрудниками средствах коммуникации — доступны только оповещения о нарушениях. Что касается агентских модулей, то их можно установить на рабочие станции с Windows любых версий (включая устаревшие XP/Vista/7/8/8.1) и Linux.
SecureTower
Мониторинг максимального числа коммуникационных каналов, будь то электронная почта, мессенджеры, социальные сети, веб-активность, облачные и сетевые хранилища, сетевые и локальные принтеры, IP-телефония, USB-устройства, буфер обмена. Поддерживается анализ текстовых файлов и отправляемого текста (с учётом морфологических особенностей языка), изображений, голосовых сообщений и звонков. При этом блокировка чувствительных данных может осуществляться по меткам, цифровым отпечаткам, поисковым словарям, регулярным выражениям и при создании скриншотов. После анализа перехваченных данных, если есть нарушение правил безопасности, система автоматически уведомляет ИБ-службы об инциденте и блокирует движение данных. SecureTower контролирует и запоминает все действия на компьютерах сотрудников, ведёт архив бизнес-коммуникаций на случай умышленного удаления важной информации и посредством встроенного в систему модуля анализа рисков User Behavior Analytics (UBA) отслеживает аномальные и потенциально опасные для организации изменения в поведении персонала. Поддерживается мониторинг рабочих станций под управлением Windows, Linux, macOS. При расследовании инцидентов в SecureTower формируются дела, в которых можно фиксировать ход расследований, определять фигурантов дела, а после завершения расследования сделать отчёт для руководителей. Собранные данные могут быть использованы в суде в качестве доказательной базы. Безопасность и надёжность DLP-системы подтверждена сертификатом ФСТЭК России.
Solar Dozor
Контроль любых каналов передачи данных, наличие агентских модулей для Windows/Linux/macOS, возможность перехвата критичных данных по цифровым отпечаткам, идентификаторам, графическим шаблонам и анализу поведения пользователей (UBA). Благодаря поддержке превентивных мер защиты Solar Dozor обеспечивает блокирование утечек в режиме реального времени. Также разработчиком отмечаются такие функции, как ведение архива коммуникаций, составление досье на сотрудников, запись рабочего стола и звука с микрофона для сбора доказательной базы, построение карты корпоративной сети, мониторинг локальных и облачных хранилищ, рефильтрация почтовых архивов в целях выявления пропущенных ранее утечек, использование средств лингвистического анализа данных и нейросетей для обработки графических файлов. Отдельный акцент делается на возможности работы Solar Dozor в составе инфраструктуры виртуальных рабочих мест (VDI). По заверениям разработчика, Solar Dozor поддерживает работу в геораспределённом режиме и способен удовлетворить потребности организации любого масштаба. Отдельные инсталляции программного комплекса в филиалах могут объединяться в общую DLP-систему с помощью модуля MultiDozor. Таким образом можно совместить работу служб ИБ в филиалах и общий контроль над безопасностью из штаб-квартиры. Доступно централизованное управление агентами, анализом поведения пользователей, сканированием локальных и облачных хранилищ. Отсутствие в продукте уязвимостей и недекларированных возможностей подтверждено сертификатом ФСТЭК России.
Staffcop Enterprise
Мониторинг пользовательской активности на рабочих местах и подключаемого к компьютерам оборудования; перехват SIP-телефонии, сетевой активности приложений, отправляемых на печать и в облачные сервисы документов, терминальных Linux-сессий, сообщений и вложений, пересылаемых посредством электронной почты и мессенджеров; блокировка действий пользователей с файлами на основе заданных правил, контента и встроенных в файлы меток, передачи информации посредством буфера обмена, доступа к веб-ресурсам на основе белых-чёрных списков, а также носителей информации при превышении объёма передаваемых данных. Staffcop Enterprise поддерживает распознавание графических файлов (ОCR), полнотекстовый поиск с учётом морфологии, регистра, регулярных выражений и количественных совпадений, запись фото и видео с веб-камеры компьютера с возможностью распознавания лиц сотрудников, транскрибирование (расшифровку) перехваченных аудиозаписей. Предусмотрены возможности контроля привилегированных пользователей и использования кластерной архитектуры. Агентские модули представлены в редакциях для Windows, Linux и macOS. Доступна сертифицированная ФСТЭК России версия Staffcop Enterprise.
Zecurion DLPРазработчик: Zecurion Контроль более 50 каналов передачи данных и около 450 поддерживаемых форматов файлов, автоматическая обработка событий с выявлением опасных инцидентов, возможность объединения событий в цепочки и выявления нарушителей, архивирование всех действий персонала, работа в сетях различного масштаба (до 200 тыс. активных сотрудников). Важной особенностью Zecurion DLP является возможность предотвращения утечек в режиме реального времени не только по ограниченному набору каналов и технологий анализа, но и по всему перечню поддерживаемых методов детектирования. При этом блокировка, как заверяет разработчик, происходит практически мгновенно, а в случае особо важных сотрудников и данных можно настроить режим карантина — отправку данных на ручную проверку службой безопасности. В активе Zecurion DLP также представлены Screen Photo Detector для защиты от утечек через фотографирование экрана на смартфон, Staff Control для контроля рабочего времени сотрудников, IRP-модуль для внутреннего расследования инцидентов и управления ИБ-отделом компании, Risk Score для риск-менеджмента в информационной безопасности. Поддерживаются Windows и Linux. Имеется сертификат ФСТЭК России.
«Гарда предприятие»
Контроль всех основных каналов коммуникаций на рабочих местах (Windows, Linux, macOS) и в сети организации: съёмных носителей, печати, веб-трафика (сайты, социальные сети), мессенджеров (Skype for Business, Viber, Telegram и т. д.), телефонии (VoIP, SIP, SDP, H.323, MGCP, SKINNY, Megaco/H.248), облачных и локальных хранилищ, корпоративной почты (SMTP, POP3, IMAP, MAPI) и внешних почтовых сервисов. Поддерживаются перехват клавиатурного ввода, чертежей (AutoCAD, SolidWorks, «Компас»), сканов и фотографий документов (паспорт РФ, водительское удостоверение, банковская карта и т. д.), а также документов с печатями. Блокировка недопустимых действий осуществляется автоматически в соответствии с настроенными политиками безопасности. Встроенные в «Гарда предприятие» средства ретроспективного анализа позволяют выявлять действия персонала, предшествовавшие инциденту, находить взаимосвязи между сотрудниками и выстраивать маршруты распространения информации от первой коммуникации до момента передачи за пределы организации. Программный комплекс может применяться в территориально-распределённых компаниях и холдинговых структурах с развитой филиальной сетью.
«Кибер Протего»
Контроль устройств под управлением Windows, Linux, macOS и виртуальных рабочих столов на базе VDI-платформ Microsoft, Citrix Systems, VMware, Oracle с возможностью фильтрации данных в режиме реального времени. Поддерживаются детальное протоколирование, теневое копирование и различные технологии анализа содержимого: поиск по ключевым словам с применением морфологического анализа, по комплексным шаблонам регулярных выражений, проверка расширенных свойств документов и файлов, сигнатур типов файлов, анализ по цифровым отпечаткам с поддержкой классификации образцов Встроенный модуль OCR делает возможным извлечение текста из изображений и его анализ. Модуль мониторинга действий пользователей (User Activity Monitor, UAM) позволяет расширить доказательную базу при расследовании инцидентов информационной безопасности, а также упростить процессы выявления подозрительного поведения пользователей. DLP-система «Кибер Протего» обеспечивает возможность видеозаписи экрана и записи нажатий клавиш, а также протоколирование сведений о запущенных процессах и приложениях. При этом фиксация включается по заданным событиям, причём с записью как до, так и после наступления определённого события. Так можно получить видеозапись экрана при попытке передачи конфиденциального документа, подключении внешнего накопителя и т. д. В ситуациях, когда контролируемый компьютер находится вне корпоративной сети и связь между сервером и агентом невозможна, защищённый от вмешательства пользователя агент «Кибер Протего» обеспечивает все функции защиты, заданные в DLP-политике — от контроля доступа до контентной фильтрации, и сохраняет сгенерированные события и теневые копии до восстановления связи с сервером. Таким образом реализована работа агента вне зависимости от доступности сервера управления
«СёрчИнформ Контур информационной безопасности (КИБ)»
Контроль пользовательских активностей в локальной сети, интернете, мессенджерах, почтовых клиентах, облачных сервисах и на рабочих местах под управлением Windows, Linux, macOS. Помимо «классических» технологий анализа перехваченных данных (морфология, словари, регулярные выражения, цифровые отпечатки, OCR) доступны детектирование текстов, близких по смыслу с эталоном, и поиск изображений, похожих на эталон, а также поиск по аудио- или видеозаписям действий сотрудников. Поддерживаются функции сохранения перехваченной информации в архив и блокирования трафика с конфиденциальными сведениями. В продукте насчитывается свыше 250 политик безопасности, учитывающих специфику работы предприятий различных сфер деятельности. Имеется сертификат ФСТЭК России. «СёрчИнформ КИБ» позволяет производить аудио- и видеозапись действий пользователя, фиксировать любые действия с файлами или папками, журналами аудита, устройствами или ПО. Инструменты пристального наблюдения позволяют восстанавливать цепочки событий и устанавливать всех причастных к нарушениям. В программный комплекс также встроена возможность оценки продуктивности работы сотрудников.
«Стахановец»
Обеспечивает контроль над корпоративной информацией путём мониторинга свыше 20 каналов коммуникаций и протоколов передачи данных. Система автоматически анализирует действия сотрудников более чем по 40 параметрам и в случае обнаружения нарушений отправляет оповещение службе безопасности компании, а также блокирует передачу конфиденциальных данных. Поддерживаются функции маркирования документов (в том числе с использованием скрытых водяных знаков), распознавания лиц, перехвата разговоров персонала и преобразования речи в текст, построения графа связей сотрудников, мониторинга их местонахождения и защиты от фотографирования экрана. Отчёты DLP-системы «Стахановец» позволяют проводить расследование инцидентов и нарушения политик. Беспрерывное логирование сохраняет историю поведения сотрудников для формирования доказательной базы. Поддерживается работа с клиентскими устройствами под управлением Windows любых версий (включая устаревшие XP/Vista/7/8/8.1), Linux, macOS и Android. Также в активе программного комплекса имеется сертификат ФСТЭК России.
Сводная таблица
ЗаключениеСитуация с утечками данных в России остаётся напряжённой, что подтверждается не только количеством утечек конфиденциальной информации, но и масштабом скомпрометированных данных. Такое положение дел лишний раз подчёркивает актуальность упомянутых в обзоре DLP-систем и необходимость их повсеместного использования в корпоративной среде. Все они схожи по функциональным возможностям, но есть нюансы, на которые мы постарались обратить внимание, и которые могут помочь при выборе того или иного защитного решения. Важно понимать, что любая утечка данных чревата репутационными и финансовыми издержками для бизнеса. О серьёзности последствий свидетельствует принятый Госдумой в первом чтении закон об оборотных штрафах за утечки. Согласно обсуждаемым поправкам в Кодекс Российской Федерации об административных правонарушениях, штраф составит от 3 млн до 15 млн руб. в зависимости от размера утёкшей в сеть базы. За повторные утечки компании могут назначить оборотный штраф от 0,1 % до 3 % выручки за календарный год или за часть текущего года, в пределах от 15 млн до 500 млн руб. Ожидается, что подобные меры по ужесточению ответственности за нарушения в сфере обработки конфиденциальных данных заставят организации усилить защиту своих информационных активов и поспособствуют улучшению ситуации в этой области. Итоги-2023 от ServerNews: ИИ везде, ИИ повсюду
13.02.2024 [00:00],
Игорь Осколков
В ушедшем году IT-индустрия окончательно оправилась от пандемии и явно постаралась ускоренными темпами нагнать упущенное. Вспомним самые интересные анонсы, сделки и события не только 2023 года, но и начала 2024-го. Как раз подоспели квартальные и годовые отчёты компаний, исследования и прогнозы аналитиков, а также анонсы, которые компании не успели сделать до рождественских и новогодних праздников.
CPUНа анонсы процессоров год выдался на удивление богатым. Начнём с того, что Intel умудрилась выпустить сразу два поколения Xeon Scalable: Sapphire Rapids и Emerald Rapids. Однако в заслугу это ставить ей затруднительно. Напротив, выход первых изрядно задержался, а вторые можно охарактеризовать скорее как работу над ошибками, благо платформа Eagle Stream для них едина. Так и не сумев и, возможно, даже не думая догнать AMD по количеству ядер (64 шт. всё ещё предел для «синих»), Intel сделала ставку на расширение возможностей CPU специализированными ускорителями, чем ещё больше запутала потенциальных клиентов. Экстремальным вариантом можно считать Xeon EE, в которых есть ускоритель обработки... 5G-трафика! Особняком стоят уникальные процессоры Intel Xeon Max — всё те же Sapphire Rapids, но с 64 Гбайт HBM2e-памяти на борту, для которых наличие внешней DDR5 для работы не является обязательным (и такие системы уже есть). Но они дороги, рассчитаны на узкий сегмент и хорошо показывают себя в некоторых нагрузках HPC и ИИ. Первое массовое внедрение Max — это пресловутый суперкомпьютер Aurora, который попал-таки в последний рейтинг TOP500, но полностью свои возможности пока не раскрыл. Не исключено, что в будущем компания подобные процессоры выпускать более не будет. Для рабочих станций Intel выпустила Xeon W-2400/3400, а для различного рода индустриальных, сетевых, периферийных и просто маломощных систем — Xeon D-1800/2800 и Xeon E-2400, на смену которым со временем придут Granite Rapids-D. Семейство Atom пополнили чипы C1100 (Arizona Beach). AMD, конечно же, без дела тоже не сидела, выпустив в 2023 году Ryzen Threadripper 7000 для рабочих станций и целый ворох разнородных процессоров для задач попроще: EPYC Embedded 9004, Ryzen Embedded 5000 и 7000, а также замечательные EPYC Siena 8004 (с малыми ядрами Zen4c). Главная же борьба будет идти на совсем других фронтах. AMD в ушедшем году представила EPYC Genoa-X 9x84X и Bergamo 97x4. Первые, как видно из названия, являются Genoa с 3D V-Cache, и такое сочетание даёт до 96 ядер и 1152 Мбайт L3-кеша на процессор. А вот Bergamo — совсем другая история. Эти процессоры имеют до 128 ядер Zen4c, которые по ISA полностью совпадают с обычными Zen4, но сами по себе попроще, медленнее, а оттого значительно компактнее. Ориентированы они на облака и гиперскейлеров, которым важна плотность размещения вычислительных ресурсов. До конца 2024 года появится семейство EPYC Turin с ядрами Zen5(c). И Bergamo, и Genoa-X благодаря большему количеству ядер во многих нагрузках успешно конкурируют и с обычными Sapphire Rapids, и с Xeon Max. В Turin же, как ожидается, будет уже до 128 ядер Zen5 или 192 ядер Zen5c, да и 3D V-Cache не оставят за бортом. Чем будет отвечать Intel? Granite Rapids и Sierra Forest на базе P- и E-ядер соответственно, изготовленными по техпроцессу Intel 3. Первые, как считается, получат порядка 120 ядер, а вторые — 144 на первом этапе и 288 на втором. Нюанс в том, что ISA у них будет отличаться, поэтому даже нынешние Bergamo могут в итоге оказаться производительнее. Важно и то, что Intel всё глубже осваивает тайловую (чиплетную) компоновку и даже отделила IO-тайлы от вычислительных, хотя контроллеры памяти всё равно привязаны к последним. Доля AMD на рынке серверных процессоров, по словам главы компании, ещё летом перевалила за 25 %, так что Intel придётся побороться. Но не только с AMD, а ещё и с армией Arm-процессоров, которых «красные» вообще-то тоже опасаются. Глава Oracle и вовсе заявил, что решения Intel x86 в серверном сегменте теряют актуальность. Правда, не стоит забывать, что Oracle сделала ставку на Arm, вложившись в своё время в Ampere Computing, которая представила 192-ядерные процессоры AmpereOne. Oracle портировала свою флагманскую СУБД на Arm-архитектуру и завершила миграцию всех своих облачных сервисов на Arm-процессоры. Exadata перевели с Intel Xeon на AMD EPYC, но переезд на Arm, вероятно, и здесь не за горами. Softbank около года назад сообщила, что Arm захватила 5 % облачного рынка. Но, как считается, 40 % всех Arm-серверов мира приходится на Китай, который отказывается от западных решений, в том числе поддерживая стартапы вроде Borui Jingxin. Но и более зрелые местные компании даже в условиях санкций не стоят на месте. На другом берегу океана дела тоже идут неплохо. Так, AWS представила уже четвёртое поколение процессоров Graviton, добравшееся до 96 ядер. Microsoft представила 128-ядерный Arm-процессор Cobalt 100 собственной разработки, созданный на базе Arm Neoverse Compute Subsystem (CSS). По слухам, Google тоже разрабатывает Arm-процессоры Maple и Cypress. В 2024 году должны появиться первые европейские процессоры SiPearl Rhea для суперкомпьютеров. Fujitsu обещает представить к 2027 году 150-ядерный серверный Arm-процессор MONAKA. Это будут универсальные CPU в отличие от A64FX, имеющих HBM2-память. Индия, напротив, добавила к своему 96-ядерному первенцу AUM сразу 96 Гбайт HBM3. Он фактически состоит из двух 48-ядерных чиплетов, объединённых 64 линиями PCIe 5.0 (≈ 252 Гбайт/с). Похожая компоновка у NVIDIA Grace Superchip: два 72-ядерных чиплета (в сумме 144 Arm-ядра), 900-Гбайт/с шина NVLInk между ними + 960 Гбайт LPDRR5X. Процессоры обещают быть не хуже CPU AMD и Intel, но намного энергоэффективнее. В мире больших чипов RISC-V тоже было интересно. Ventana анонсировала второе поколение чипов Veyron V2. Они по-прежнему могут иметь до 192 ядер, но теперь компания предлагает своего рода конструктор из шести UCIe-тайлов, часть которых может быть представлена специализированными ускорителями. Ступенькой ниже находятся 64-ядерные китайские процессоры SOPHGO SOPHON SG2042. Примечательно, что SOPHGO использует ядра SiFive. Так что США не прочь ограничить использование RISC-V недружественным разработчикам, но как это сделать, если учесть открытость архитектуры, большой вопрос. Ассоциация RISC-V International, которая ранее как раз из-за опасений чего-нибудь эдакого сменила штатовскую прописку на швейцарскую, задумалась о стандартизации серверных чипов RISC-V. К слову, российская YADRO, которой принадлежит Syntacore, входящая в состав правления RISC-V International, отказалась от развития POWER-платформ как раз в пользу RISC-V. В Китае, конечно, тоже развивают RISC-V, но, что удивительно, там же разработали и новый POWER-процессор, благо архитектура уже несколько лет как стала открытой. Сама IBM в 2023 году представила только младшие варианты мейнфреймов z16 и LinuxONE Rockhopper 4. Впрочем, в Китае хватает и собственной экзотики вроде 32-ядерных Loongson 3D5000 или 384-ядерных Sunway SW26010 Pro. Последние ближе к ускорителям, как и японские 4096-ядерные процессоры PEZY-SC3. Совсем уж необычно выглядит экспериментальный RISC-процессор от Intel, созданный для DARPA: 8 ядер, 528 потоков и интегрированная фотоника от Ayar Labs. А вот процессор Tachyum Prodigy пока никак не выглядит, поскольку в кремнии, судя по всему, не существует, что не помешало разработчикам увеличить количество ядер с 128 до 192 и даже пообещать 8-Зфлопс машину на их основе. Отдельно стоит упомянуть и удивительный стартап Oxide Computer, который, по его же словам, намерен переизобрести облако. Это вылилось в создание интегрированной программно-аппаратной платформы в виде готовой стойки, разработанной с нуля, хотя и на базе стандартных компонентов. Компания избавилась от UEFI, сделала сетевую фабрику, создала собственный вариант BMC и RoT, переработала гипервизор и оснастила всё это удобным интерфейсом управления, не забыв выложить в open source практически все наработки. Ускорители и APUВ принципе этот раздел можно было бы назвать «NVIDIA и остальные», поскольку безусловным лидером рынка стали именно решения «зелёных», которые всё ещё страшно дефицитны и на которых компания изрядно заработала. В конце прошлого года Dell призналась, что сроки поставок H100 растянулись минимум на девять месяцев. Однако виной всему политика самой NVIDIA. Традиционных серверных вендоров она оставила за бортом, и даже большая тройка облаков, которая в целом была не очень готова к буму генеративного ИИ (далее для краткости просто ИИ), оказалась чуть обделена вниманием. Одними из первых H100 получили провайдеры второго-третьего эшелона, а то и вовсе нишевые или совсем маленькие игроки. Всё это привело к росту странноватых облачных провайдеров, готовых предложить доступ к ускорителям по кратно меньшим ценам, чем крупные игроки, но в то же время не способных предоставить весь спектр сопутствующих облачных решений, а подчас и вовсе формирующих физическую инфраструктуру под конкретного клиента или проект. Иными словами, живы они только из-за дефицита и в перспективе ближайших лет могут и вовсе сгинуть, если не выстроят привлекательный для заказчиков программно-аппаратный стек. Среди подобных компаний особо выделяются CoreWeave и Lambda Labs, которые получили сравнительно крупные партии H100 и услугами которых, по слухам, вынуждена пользоваться Microsoft (и вполне официально — инфраструктурой Oracle). К первой NVIDIA, судя по всему, испытывает особую любовь, поскольку вложилась в неё и прямо, и опосредованно и задействовала её инфраструктуру в публичных бенчмарках. Этого CoreWeave оказалось мало, поэтому она взяла в долг $2,3 млрд под залог имеющихся ускорителей, чтобы... купить ещё больше ускорителей! Microsoft ещё летом прямо говорила, что дефицит ИИ-ускорителей является для неё фактором риска. Так что компания сделала стратегический ход, создав собственный ИИ-ускоритель Maia 100 (Athena), причём с солидным транзисторным бюджетом. Таким образом Microsoft присоединилась к AWS, у которой есть уже два поколения ускорителей Trainium и Inferentia (для обучения и инференса соответственно), и к Google, которая в ушедшем году представила сразу два варианта пятого поколения фирменных ИИ-чипов: TPU v5p и TPU v5e. Параллельно Microsoft ищет LLM попроще и подешевле в эксплуатации, чем применяемые ей повсеместно модели OpenAI, в которую редмондская корпорация инвестировала немало средств и ресурсов. Вообще говоря, роль ПО на фоне дефицита железа становится всё важнее и важнее. Практически вся индустрия полагается на экосистему CUDA, которую NVIDIA развивала 15 лет. Intel прямо говорит, что с этой гегемонией пора покончить, причём инструмент-то в лице oneAPI у неё вроде бы есть, но потеснить «зелёных» ей это не очень помогает. Единственный на текущий момент достойный конкурент H100 из тех, для кого публично даются результаты бенчмарков, — Intel Habana Gaudi2 — наращивает производительность как раз благодаря оптимизации софта. А ускорители Max 1550 Intel предпочитает сравнивать с A100. Сейчас «синие» готовят ускорители Gaudi3, которые должны выйти в этом году, а от серии Greco было решено отказаться, равно как и от Rialto Bridge. В 2025 году Intel обещает представить чиплетные (тайловые) ускорители Falcon Shores, среди которых APU (XPU) не будет. Таким образом, самыми продвинутыми с точки зрения компоновки остаются представленные в конце прошлого года AMD Instinct MI300: «чистый» ускоритель MI300X и гибридный самодостаточный APU MI300A с x86-ядрами. MI300X, согласно тестам самой AMD, быстрее H100, из-за чего между компаниями возникла даже небольшая онлайн-перепалка. Но главным всё равно остаётся софт. MosaicML, известная оптимизациями для ускоренного обучения моделей, смогла почти безболезненно для конечного пользователя перенести этот процесс с ускорителей NVIDIA на ускорители AMD. Lamini и вовсе полагается исключительно на решения AMD и первой же получила MI300X. Сама AMD добилась интеграции ROCm в PyTorch 2.0 и OpenAI Triton 3.0. Всё это открывает ей путь к карману крупных компаний. Но бороться с NVIDIA будет непросто. Последняя уже представила ускорители H200 и APU GH200 Grace Hopper (H200 + 72-ядерный Arm-процессор), а также суперускоритель GH200 NVL32 (32 шт. GH200 с NVLink) и (мы уже сбились, какой по счёту) самый мощный в мире ИИ-суперкомпьютер Project Ceiba. Кроме того, компания представила в 2023 году ускорители L4 и H100 NVL, а также L40S, который до некоторой степени может заменить A100. В 2024 году NVIDIA обещала представить B40, B100, GB200 и GB200NVL на новой архитектуре. Несколько смазали успех NVIDIA очередные антикитайские санкции со стороны США. Урезанные версии ускорителей H800 и A800 экспортным правилам более не соответствуют, так что уже выпущенные чипы частично направили на создание ускорителей попроще для западных рынков, а часть достанется Индии. Для Китая NVIDIA подготовила ещё более урезанные ускорители H20, L20 и L2, но они, похоже, потенциальных покупателей не заинтересовали. Кто-то успел запастись старыми вариантами, кто-то переделывает игровые GPU (тут, к слову, есть и альтернативный подход), кто-то обратился к локальным поставщикам. Huawei выпустила загадочный ускоритель Ascend 910B, который непонятно чем именно отличается от 910-й модели. Свои ускорители представили Moore Threads, Metax и другие. А в целом китайские разработчики решили объединить усилия, чтобы создать в стране собственную ИИ-экосистему. Свои версии ускорителей для Поднебесной также подготовили AMD и Intel, а вот Graphcore, которой и так не очень хорошо, пришлось свернуть бизнес в КНР. Вообще говоря, из давних независимых разработчиков «больших» ИИ-ускорителей лучше всех дела, похоже, обстоят у Cerebras, которая раскритиковала NVIDIA как раз за выпуск специализированных версий ускорителей. Потом, правда, выяснилось, что компания G42, которая и выделила Cerebras средства на создание действительно крупных ИИ-кластеров Condor Galaxy, сама неравнодушна к Пекину. Groq новых чипов не выпустила, а старые предлагает задействовать для инференса. SambaNova представила ускоритель SN40L, но среди крупных публичных заказчиков у неё опять Лос-Аламос, т. е. госструктура с бюджетными деньгами. Среди новичков на рынке можно выделить D-Matrix, которая использует вычисления в памяти, и Lightelligence, опирающуюся на фотонику. Lightmatter, ставшая «единорогом», похоже, будет зарабатывать вовсе не на своих фотонных ИИ-чипах, а на чиплетном интерконнекте. Отличилась Южная Корея, которая стремится к технологической независимости, — здесь представлены чипы Rebellions, Sapeon и совместная разработка Samsung и Naver. Последняя пострадала от дефицита ускорителей «зелёных». Из экзотики можно вспомнить нейроморфный ИИ-процессор IBM NorthPole. Российский NM Quad от НТЦ «Модуль» тоже в каком-то смысле экзотика. А вот уникальные NEC SX-Aurora развиваться более не будут.
Источник изображения: Meta✴✴ При этом наиболее ожесточённая борьба развернётся в области ускорителей вовсе не для обучения, а для инференса. С «большими» вендорами как раз всё понятно, а вот создать эффективный чип, особенно для работы на периферии, программную экосистему для него и убедить потенциальных заказчиков, что он лучше всех, — дело непростое. Так, Esperanto, явно метившая в Meta✴✴ со своим 1000-ядерным ускорителем, второе поколение своих RISC-V-чипов сделает более универсальным. Но винить Esperanto не стоит, поскольку Meta✴✴ сама запуталась в своих желаниях — собственный ИИ-ускоритель MTIA v1 (Meta✴✴ Training and Inference Accelerator) она, как выяснилось, разработала ещё в 2020 году, и тоже на базе RISC-V. Он создавался для работы с рекомендательными системами и на поверку оказался не слишком эффективен. Проще говоря, для генеративного ИИ MTIA не подходит. Два года назад Meta✴✴ пошла на нетипичный для неё шаг, заказав ИИ-суперкомпьютер и хранилище к нему на стороне. Теперь же она до конца года будет иметь аж 350 тыс. NVIDIA H100. Чтобы переварить такое количество ускорителей, ей пришлось сделать всего ничего — поменять архитектуру ЦОД. Более того, компания намерена внедрять и MI300, и новое поколение собственных ускорителей Artemis. ЦОД и охлаждениеИ перед Meta✴✴, и перед остальными гиперскейлерами и операторами ЦОД в связи с массовым внедрением генеративного ИИ и высокоплотных аппаратных платформ для него остро встал вопрос питания и охлаждения. В 2023 году сразу несколько операторов предложили 300 кВт на стойку: Aligned, CyrusOne и Stack. У Digital Realty предложение скромнее, всего-то 70 кВт, зато география шире. А Equinix просто сказала, что готова к массовому внедрению СЖО. Involta и вовсе собралась брать деньги только за подведённую мощность или фактическое энергопотребление, а там хоть танк с иммерсионным охлаждением ставь. Вообще о СЖО много говорилось в прошлом году, и всё чаще о погружном, которое хоть и не слишком удобное в практическом отношении, зато всё ещё самое эффективное. В реальности, конечно, скорее стоит ожидать гибридных схем. Тема охлаждения связана с двумя другими. Это, во-первых, водоснабжение, с которым тоже всё не так просто. А во-вторых, утилизация «мусорного» тепла, которое обычно предлагается использовать для отопления, хотя это не везде нужно и далеко не всегда экономически обоснованно. Подводные и прибрежные ЦОД, в общем-то, тоже решают именно проблему охлаждения. А охлаждать будет что — энергопотребление ЦОД, как ожидается, вырастет вдвое в ближайшие годы. Гиперскейлеры особенно резко нарастят ёмкость, причём они заранее арендуют ещё не построенные мощности. Электроэнергия тем временем дорожает, а её нехватка тормозит развитие рынка. К традиционным источникам возобновляемой энергии помаленьку добавляются проекты по освоению геотермальной и атомной. Более того, операторам всё труднее повышать энергоэффективность и экологичность ЦОД, чего от них всё чаще требуют государства и общественность. Да-да, речь всё так же про тепло, воду и энергию. Как бы то ни было, благодаря ИИ рынок ЦОД будет расти, во многом из-за гиперскейлеров и провайдеров колокации. При этом структура закупок уже поменялась — в штучном выражении поставки серверов упали, тогда как в денежном выросли. И дело не только в том, что теперь чаще приобретаются дорогие ИИ-системы, но и в том, что старые «обычные» серверы порой служат уже по семь лет и менять их не собираются. Российский рынок ЦОД в 2023 году тоже вырос, хотя не так сильно, как мог бы. Спрос на дата-центры растёт, причём не только в Центральном регионе. Впрочем, Uptime Institute довольно осторожен в своих прогнозах. Да, влияние ИИ на индустрию будет сильным, но неравномерным. Гиперскейлеры в скором времени опять изменят ландшафт рынка, оттеснив провайдеров колокации. Больно ударит по всей индустрии повсеместное введение правил, касающихся энергоэффективности и устойчивого развития. И СЖО эти проблемы с ходу не решат, поскольку внедряются слишком медленно и слишком поздно. Но есть надежда на общее повышение эффективности работы ЦОД благодаря активному внедрению ПО для мониторинга и управления инфраструктурой. Память и хранилищеГромче всех о себе в прошлом году заявила Pure Storage, предсказавшая скорую и стремительную смерть HDD. Да, поставки жёстких дисков сокращаются, хотя ёмкость продолжает понемногу расти, и вся большая тройка производителей который квартал показывает если не падение, то переменные успехи. Однако эксперты с Pure Storage не согласны. Пока что цена гигабайта у HDD меньше, чем у SSD, и для тех задач, где скорость не так критична, они подходят. Интерфейсы, соответственно, пока тоже особо не эволюционируют (STA вообще присоседилась к SNIA), а там, глядишь, перейдут на NVMe/CXL или на то, что гиперскейлеры сочтут более удобным. Seagate уже в этом году представила HAMR-платформу Mozaic3+ для 30-Тбайт накопителей и готовит решения на 40 и 50 Тбайт. Есть, конечно, некоторые сложности при внедрении столь ёмких дисков. Western Digital от конкурента явно отстаёт — в 2023 году она представила свои первые двухактуаторные HDD, а максимальную ёмкость накопителей довела только до 28 Тбайт (ePMR с SMR), а с CMR упёрлась в 24 Тбайт. Toshiba и вовсе добралась лишь до 22 Тбайт. При всём этом LTO чувствуют себя совсем неплохо, а «сырая» ёмкость проприетарных JF-картриджей IBM достигла 50 Тбайт (эффективная 150 Тбайт). В SSD проприетарные решения тоже опережают массовые. Всё та же Pure Storage представила 75-Тбайт DFM-модули, а через пару лет собирается довести их ёмкость до 300 Тбайт. Они как раз и должны избавить рынок от HDD, которые не справятся с наплывом ИИ. Samsung пока работает над 256-Тбайт SSD, а вот Solidigm уже начала продажи 61,44-Тбайт NVMe SSD. И это безоговорочная победа над жёсткими дисками с точки зрения ёмкости. Естественно, этого удалось добиться благодаря применению QLC, но и форм-фактор (E1.L) тоже сыграл роль. Попутно отметим, что EDSFF потихоньку становится нормой в новых платформах, но U.2 до вытеснения пока далеко. На смену почившим Optane было предложено сразу несколько накопителей с SLC/MLC-памятью: не названные пока модели Kioxia на базе XL-FLASH второго поколения, Micron XTR и Solidigm P5810. На самом деле флеш-память в них та же, что везде, но работает она в одно- или двухбитовом режиме. O PLC в 2024 году никто из производителей особо не заикался, они пока предпочитают наращивать количество слоёв: 321 у SK hynix, по 232 у Micron и YMTC, 218 у Kioxia/WD. Samsung вот-вот начнёт массовое производство 280-слойной 3D NAND и уже готовит 430-слойную. Однако одной ёмкостью сыт не будешь, хорошо бы ещё повысить скорость. И не только обращений к хранилищу, но и обработки данных. Так, Scaleflux обновила вычислительные SSD, оптимизировав их для ИИ. Консорциум NVM Express вслед за SNIA добавил в стандарт поддержку вычислительных хранилищ. Pliops обновила свои карты XDP, ускоряющие работу с СУБД, и готовит новое поколение. Они же могут обслуживать и RAID из NVMe SSD, как и решения Graid, которая представила совсем простенький SupremeRAID SR-1001 для восьми SSD. Graid, напомним, фактически использует младшие ускорители NVIDIA. Аналогичного подхода придерживалась и Nyriad, но успешной компания не стала. ИИ (что, опять?) должен подстегнуть и развитие CXL. В 2023 году о себе заявили сразу несколько стартапов: Enfabrica, Panmnesia и Unifabrix. Более опытные игроки тоже не сидели без дела. И все они пытаются создавать терабайтные пулы памяти. Благо CXL-модулей становится всё больше — к Samsung, снова опередившей всех, и Micron присоединилась ADATA. CXL даже проникает в интерконнекты. Как внутричиповые, так и внешние. SNIA же успела подготовить новый стандарт работы с памятью, который как раз опирается на CXL. Micron, Samsung и SK hynix последовательно заявили, что они создали самую быструю память HBM3e, которая пойдёт в ИИ-ускорители образца 2024–2025 гг. Общий объём отгрузок HBM увеличится вдвое. Но и обычная память тоже развивается. Micron, например, анонсировала 128-Гбайт RDIMM-модули DDR5-8000. «Небинарные» чипы DDR5, к слову, набирают популярность, и таких предложений всё больше. Дальнейшее повышение ёмкости пока под вопросом. NEO Semiconductor предлагает «трёхмерную» 3D X-RAM, которая пока существует лишь на бумаге. Более практичная AMD в пику Intel с MCR DIMM предлагает MRDIMM. Оба варианта фактически объединяют два модуля DDR5 в одной планке. Сети и интерконнектВ 2023 году Ethernet исполнилось 50 лет — самое время создать новый стандарт Ultra Ethernet для HPC и ИИ! На самом деле авторы этого стандарта фактически дружат против NVIDIA, которая, став лидером в ИИ-решениях, продвигает и свои сетевые продукты. От «зелёных» в этом году стоит ждать анонса InfiniBand XDR (800G), а в 2023 году компания с запозданием представила 400GbE/800GbE-платформу Spectrum-X и SuperNIC (DPU в другом обличье). Естественно, всё это, как заявляет NVIDIA, оптимизировано для ИИ, за что её и ругают конкуренты. Свои 800GbE-коммутаторы предлагают Marvell, Cisco и Broadcom. У последней есть даже два новых ASIC для ИИ и с ИИ. Omni-Path в исполнении Cornelis Networks пока остановился на 400G. NVIDIA одержала победу и в совсем уж неожиданном месте — Nebulon, один из пионеров концепции DPU (тогда ещё для хранилищ), отказалась от собственных чипов в пользу BlueField-3. Кажется, последней, кто ещё делает упор на СХД (но тоже для ИИ, конечно) в своих DPU, осталась Kalray. Остальные рассматривают и продвигают DPU как IPU, то есть решения не только и не столько для работы с данными, сколько меняющие подход к инфраструктуре в целом. Microsoft даже предлагает протестировать свои DPU MANA то ли полностью собственной разработки, то ли на базе Pensando или Fungible. Axiado предлагает пойти ещё дальше, взвалив на плечи созданных ею TCU (Trusted Control/Compute Unit) не только работу с виртуализацией, сетью и хранилищем, но и защиту с управлением всем сервером целиком при содействии… правильно, ИИ! У NVIDIA есть ещё один козырь — шина NVLink выбралась за пределы узла, кроме того, она быстрее всех других имеющихся интерконнектов. Хоть какую-то альтернативу в скором времени должна представить AMD, готовая слегка «приоткрыть» шину Infinity Fabric, которая базируется на PCIe. Как минимум для Broadcom, объявившей о поддержке XGMI в следующем поколении своих PCIe-свитчей. Со временем, быть может, появятся и отдельные XGMI-адаптеры. Прямо сейчас посредством «голого» PCIe объединять множество (буквально тысячи) ускорителей и узлов готова только GigaIO. И так удачно совпало, что и PCIe 6.0 на подходе, и оптическим вариантом PCI Express тоже уже занимаются. Всё это пригодится не столько для Infinity Fabric, сколько для CXL. Собственно говоря, именно для CXL такой оптический интерконнект Photowave представила Lightelligence. При этом Google уже использует оптические коммутаторы с MEMS-переключателями в своих ИИ-кластерах. Meta✴✴ же опробовала вариант попроще, приставив к патч-панели роборуку. HPC и суперкомпьютерыПрактически все анонсы новых машин в ушедшем году так или иначе упоминали ИИ. В этом нет ничего предосудительного, поскольку ИИ-инструменты вполне успешно дополняют традиционные расчёты. Но некоторым вендорам удержаться трудно, поэтому флопсы они считают как попало. Грубо говоря, почти любой условно классический суперкомпьютер с ускорителями, ориентированный на FP64-расчёты, можно использовать и для ИИ-нагрузок, но обратное не всегда верно — ИИ-суперкомпьютер с фантастической FP16-производительнстью для традиционных расчётов использовать обычно нет смысла, а иногда и попросту нельзя (если он построен на узкоспециализированных чипах вроде Cerebras или Gaudi). Поэтому, когда, например, NVIDIA говорит об очередном самом мощном в мире суперкомпьютере, речь обычно идёт всё же про ИИ, если не оговаривается обратное. Если же опираться на классический рейтинг TOP500, то в нём более двух лет подряд лидирует первая в мире экзафлопсная система Frontier, которая собрала, наверное, все шишки, но позволила наладить процесс создания систем такого класса. Здесь, как обычно, следует оговориться, что в TOP500 попадают только те системы, владельцы которых пожелали это сделать, и что официальный Китай уже не первый год в этот рейтинг заявки не подаёт.
Источник изображения: Nebius Вероятно, такого же подхода стоит ждать и от России, поскольку часть активов перестала быть российской. Но и про российские машины в условиях постоянного санкционного давления разумно лишний раз не распространяться. Хотя уникальные решения как раз имеются. Такие как универсальная HPC-платформа «РСК Экзастрим» с пиковой плотностью более 570 кВт на шкаф. Но не подаются в TOP500 и другие. Например, Tesla владеет одним из мощнейших в мире кластеров, который наверняка вошёл бы в десятку лидеров рейтинга. Но компания не захотела делать бенчмарки, она занята созданием ИИ-суперкомпьютера Dojo на собственных чипах D1. Впрочем, в последней редакции TOP500 было несколько важных изменений. Туда наконец попали две многострадальные машины: Aurora и MareNostrum-5. Aurora вообще-то является 2-Эфлопс суперкомпьютером, но довести её до ума вовремя не успели. Противостоять ей будет El Capitan, тоже на 2 Эфлопс. Ещё один значимый новичок рейтинга — облачный суперкомпьютер Microsoft Azure Eagle. Это не первая облачная машина в принципе, но первая с действительно постоянной конфигурацией — кластер сформировали и протестировали буквально за несколько дней до сдачи в эксплуатацию. Eagle наглядно показал, насколько тонка стала грань между суперкомпьютером в облаке и облаком в суперкомпьютере. Год наступивший обещает быть интересным. Уже в январе итальянская Eni похвасталась 600-Пфлопс машиной HPC6. Первым же европейским экзафлопсным суперкомпьютером должен стать JUPITER. Эта модульная (во всех смыслах) система на первом этапе получит два блока. Один на базе гибридных чипов NVIDIA GH200, второй — на базе европейских процессоров SiPearl Rhea. И в обоих случаях речь идёт об Arm-платформе! Великобритания тоже хочет экзафлопсную машину, но это будет уже в 2025 году. В этом году она получит системы Isambard AI и Isambard 3. Первая мощна, но не слишком интересна в том смысле, что машин на базе GH200 будет уйма. А вот вторая полагается исключительно на Arm-процессоры Grace SuperChip без ускорителей и обещает стать одной из самых энергоэффективных в мире. Рынок HPC в целом растёт и меняется. По данным Hyperion Research, на промежутке 2022–2027 гг. CAGR (совокупный среднегодовой темп прироста) всего on-premise-рынка HPC, куда входят железо, ПО и сервисы, составит 7,4 %. А вот для облачных HPC-нагрузок CAGR cоставит аж 18,1 %, причём в 2022–2023 гг. этот показатель и вовсе достиг 22,6 %. Проще говоря, HPC-задачи всё чаще запускают в облаках. Основным драйвером опять-таки является ИИ, инвестиции провайдеров (см. Eagle выше) и лучшее понимание того, какие задачи переносить в облако и как. Среди других факторов традиционно называются экономическая эффективность, гибкость, масштабируемость и доступ к новейшему оборудованию (в случае РФ скорее отсутствие такого у малых игроков). У облаков есть и ещё один неожиданный козырь — наличие квантовых компьютеров. К ним, как ожидает Hyperion Research, в 2025 году половина пользователей будет иметь как раз облачный доступ. А основными задачами станут моделирование и симуляции, оптимизация и… снова ИИ. Тогда же объём рынка, по предварительным оценкам, вырастет с текущих $770 млн до $1,2 млрд. Для сравнения — объём on-premise-рынка HPC в 2023 году составит $16,5 млрд. Ключевыми препятствиями на пути внедрения квантовых вычислений называют сложность их интеграции с имеющейся IT-инфраструктурой и убедительной демонстрации окупаемости. По данным IQM, инвестиции в квантовые технологии в 2023 году упали вдвое — деньги «украл» ИИ. Но квантовой зимы не будет, лишь небольшое похолодание. ИИ подтолкнул и без того нараставшее использование ускорителей. И проблемы, с которыми столкнулись ЦОД при повышении плотности вычислений, суперкомпьютерные центры не обошли, даже несмотря на гораздо более богатый опыт. Крупные машины требуют уже не один десяток мегаватт, что не всегда хорошо сочетается с экоустойчивостью. HPC-центры заинтересованы в глубокой телеметрии нагрузок, что может привести к интересным эффектам. Например, пользователь может согласиться на более длительное выполнение задачи просто потому, что теперь с него берут деньги не за машинное время, а за фактическое энергопотребление. Или задуматься, есть ли вообще смысл портировать код на GPU или дешевле сразу уйти в облако. Сделки и событияСделка 2023 года — это, вне всяких сомнений, покупка VMware за $69 млрд. После завершения сделки Broadcom рьяно принялась за дело: отказалась от бессрочных лицензий в пользу подписок, закрыла полсотни продуктов и редакций и фактически разрушила партнёрскую сеть VMware. Broadcom оправдывает эти действия несправедливым преимуществом для Dell и других крупных вендоров, но пострадает от её действий в первую очередь малый и средний бизнес. Естественно, что компания также намерена побыстрее отбить затраты на покупку, как это было в своё время с Symantec. Вторая по величине сделка — покупка Splunk за $28 млрд — должна быть закрыта до конца этого года, в противном случае Cisco ждёт выплата одной только неустойки в размере $1,5 млрд. IBM отметилась покупками Apptio ($4,6 млрд) и пары платформ Software AG (€2,13 млрд) — всё для развития облака и ИИ. Micro Focus была продана за $5,8 млрд, а Alteryx за $4,4 млрд. Приобретение MosaiML (см. выше) за $1,3 млрд на фоне остальных сделок смотрится скромно, но для Databricks, оценка которой уже перевалила за $40 млрд, это важная инвестиция в будущее ИИ-решений. Первой же крупной сделкой, объявленной в 2024 году, является запланированное HPE поглощение Juniper Networks за $14 млрд. А ещё SUSE в 2024-м снова может стать частной компанией. Действия Intel однозначно попадут в учебники будущего. Только в 2023 году она избавилась от коммутаторов и трансиверов, серверов и NUC (а это не только офисные и игровые ПК), а также FPGA-подразделения PSG, которое было сформировано после покупки Altera за $16,7 млрд в 2017 году. Впрочем, PSG на манер Mobileye выделено в независимую структуру с сохранением контрольного пакета за Intel. Компания надеется привлечь инвесторов и со временем выйти на IPO. Поведение Atos, вероятно, тоже попадёт в учебники. Весной 2023 года она предусмотрительно выделила часть активов в свежесозданную компанию Eviden. Сама Atos находится не в лучшем состоянии и пытается продать некоторые подразделения, чтобы поправить своё финансовое положение. Разве что о существенном сокращении персонала компания не объявляла, хотя подобные новости в 2023 году стали рутиной. IBM, отчитавшись о том, что приобретение Red Hat за $34 млрд полностью окупилось, вероятно, решила слегка надавить на последнюю. Летом 2023 года Red Hat изменила политику доступа к исходному коду Red Hat Enterpise Linux (RHEL), оставив публичный доступ только к репозиториям CentOS Stream. Проще говоря, запретила создавать клоны RHEL, которые стали набирать популярность после отказа от «классической» CentOS, о чём Red Hat недвусмысленно и заявила. Юридически такой шаг вполне законен, но сообщество и крупные игроки резко раскритиковали компанию. В результате AlmaLinux отказалась от развития клона RHEL, а CIQ, Oracle и SUSE создали ассоциацию OpenELA, которая будет предоставлять исходный код и инструменты для создания downstream-сборок, совместимых с RHEL. В конце концов оказалось, что Red Hat навредила сама себе. Российский рынокГК Softline вернулась на биржу, что, как считается, подтолкнёт и других игроков к IPO. Например, ГК «Астра» уже вышла на биржу, а Selectel, несколько поменявшая структуру владения, только готовится к IPO. YADRO вроде бы тоже не прочь стать публичной, да и ГК «Аквариус» также рассматривает такую возможность. «Росатом» закрыл самую крупную на российском рынке ЦОД сделку, отдав 23,8 млрд руб. за 35-МВт площадку TIER IV, что позволит ему улучшить позиции на растущем, несмотря на все санкции, российском рынке ЦОД. Он же приобрёл половину Kraftway, предположительно за 5 млрд руб. Первой крупной сделкой 2024 года стало отделение российского «Яндекса», которое обошлось в 475 млрд руб. В целом российский IT-рынок растёт и развивается, но по-прежнему зачастую речь идёт об импортозамещении. С софтом всё не так уж плохо, за исключением ряда категорий вроде ERP или некоторых ИБ-решений, а также случаев закупок в обход санкций или даже пиратства. Затраты компаний на ПО бьют рекорды, а госкомпании и вовсе обязаны перейти на отечественный софт до конца года. Вместе с тем объём инвестиций в сфере ПО резко сократился, крупные компании продолжают скупать игроков поменьше, а избыток конкурирующих друг с другом решений остался. Хотя бы цены договорились резко не повышать, уже хорошо. ИИ в России тоже активно развивается. К концу 2023 года каждая пятая крупная российская компания уже применяла генеративный ИИ, причём все они полагались на решения OpenAI, а среди отечественных ИИ-инструментов предпочитали решения «Яндекса» и «Сбера». Экономический эффект от внедрения ИИ, как заявляют официальные лица, составляет около 1 трлн руб., а к концу десятилетия он вырастет на порядок. Более того, использование ИИ в некоторых проектах станет обязательным условием для получения государственных субсидий. С «железом» по понятным причинам всё сложнее, чем с софтом. Стоимость российских процессоров выросла, а в качестве альтернативы им предлагаются китайские. Вместе с тем большинство российских компаний продолжают использовать зарубежные серверы. Даже отечественные вендоры считают, что на восстановление серверного рынка уйдёт несколько лет, а без господдержки не обойтись. При этом нельзя не отметить, что в России в 2023 году появилось крупное производство серверов — OpenYard. Телеком-рынок в России по чуть-чуть, но продолжает расти. В 2023 году заработала система «Антифрод», началось создание большой системы защиты от DDoS-атак, зарегулировали хостинг (а несговорчивых оштрафовали), призвали поскорее отказаться от зарубежных VPN и подключиться к Национальной системе доменных имён (НСДИ). И даже предложили обеспечить в стране запуск полного цикла производства оптоволокна. В общем, принят целый ряд мер по повышению устойчивости и безопасности Рунета. ЗаключениеТема генеративного ИИ будет эволюционировать и в 2024 году, но несколько по-иному. Эту технологию ждёт демократизация и переход от количественного развития к качественному. В прошлом году уже были случаи, когда LLM, созданная весной, к зиме становилась попросту неэффективной и дорогой в эксплуатации. Смешные на первый взгляд, но грустные по своей сути скрины переписок с ботами на крупных сайтах или карточки товаров тоже видели многие. ИИ станет более дисциплинированным и поможет максимизировать экономический эффект от имеющихся у компаний данных, но для этого нужна планомерная оценка рисков и уровня доверия к ИИ, его защищённости и безопасности в самом широком смысле, в том числе, например, регулярная аттестация моделей. Всё потому, что ИИ будет глубже и шире проникать во все сферы деятельности. Это и разработка, для которой придётся выстроить новые платформы, и расширение возможностей всех остальных сотрудников, даже неквалифицированных. Gartner предсказывает интересные эффекты вроде расширения гиперперсонализированной работы с клиентами или роста автономных ботов, которые самостоятельно находят необходимые товары и услуги, подбирают подходящего поставщика и даже торгуются. Компаниям, да и частным пользователям явно придётся по вкусу автоматизация и оптимизация любой работы, если она сделана быстро и корректно. ИИ поможет добиться и устойчивого развития, за ширмой которого нередко скрывается возможность банально сэкономить. Правда, сам ИИ с его энергетическими запросами особенно экоустойчивым пока не назовёшь. ИИ также сыграет роль и щита, и меча в кибербезопасности. Причём ещё не ясно, где он больше преуспеет, но риск атак будет всё выше и выше. В общем, технологический ландшафт генеративный ИИ если не перекроит, то изменит заметно. Причём мы видим только самое начало изменений. Сами же компании, как предсказывают аналитики, в сложившейся обстановке будут пытаться сохранить устойчивость, аккуратно оценивая инвестиции, просчитывая риски, сохраняя накопленное и оптимизируя всё, что только можно. Возможно, даже с помощью ИИ. А технологии для этого появятся, вот увидите. Главной же ценностью были и останутся люди! Работа над ошибками: подробности об Intel Xeon Emerald Rapids
31.12.2023 [03:00],
Алексей Степин
В декабре корпорация Intel анонсировала новые решения под брендом Xeon. Главной «звездой» анонса стали процессоры Emerald Rapids — Xeon Scalable пятого поколения, которые идут на смену четвёртому поколению Sapphire Rapids. Это во многом существенный апгрейд, хотя Emerald Rapids являются скорее «разминкой» перед выходом Granite Rapids. При этом платформа у Sapphire Rapids и Emerald Rapids одна и та же — Eagle Stream. Кроме того, Emerald'ы станут последними процессорами в рамках текущего подхода компании, поскольку на смену им идут сразу две серии CPU с E- и P-ядрами: Sierra Forest и Granite Rapids. Есть и другие нюансы. Так, например, пятое поколение Xeon включает несколько CPU, фактически относящихся к серии Sapphire Rapids. При этом в некоторых аспектах Emerald Rapids не дотягивают до Sapphire Rapids, поскольку среди них нет Max-процессоров и нет поддержки 4- и 8-сокетных систем. КомпоновкаIntel в своей презентации сделала упор на развитие ИИ-технологий и специфических ускорителей. С одной стороны, такой подход нельзя назвать новым — уже очень давно отставая от AMD по количеству ядер в сегменте серверных решений, Intel вынуждена отвечать асимметрично, упирая на дальнейшее расширение существующих наборов инструкций, таких как AVX-512, и на внедрение новых, таких как AMX, а также отдельных блоков для узких задач. В пятом поколении Xeon Scalable ситуацию с количеством ядер Intel удалось подтянуть — в серии Emerald Rapids есть и 64-ядерные модели. Но AMD-то опять успела уйти вперёд в количественном отношении с 96-ядерными процессорами EPYC Genoa, представленными более года назад. При этом AMD даже дала некоторую фору Intel, но последней это не особо-то и помогло. Количественные показатели новых Xeon Scalable компания подтянула заметно: общий прирост производительности в сравнении с Sapphire Rapids по данным Intel составляет 21 %, а в инференс-сценариях — аж на 42 %. Для достижения столь серьёзного прироста Emerald Rapids, в числе прочего, получили поддержку памяти DDR5-5600 и увеличенный до 320 Мбайт кеш последнего уровня (LLC). Для обеспечения гибкости в конфигурации серверных подсистем памяти заявлена поддержка устройств CXL 1.1 Type 1/2/3. Компания по-прежнему использует несколько разных типов компоновки, в отличие от AMD, жонглирующей одинаковыми «кубиками». Во флагманских моделях Emerald Rapids с числом ядер до 64 применяется компоновка XCC с двумя тайлами, в то время как в моделях с числом ядер до 32 применена более простая монолитная компоновка (MCC). Имеется также малоядерная, но энергоэффективная компоновка EE LCC, где количество ядер не превышает 20. Все ядра — Raptor Cove P-класса. Фактически это чуть подтянутые Golden Cove с переработанной архитектурой кешей и небольшим приростом IPC. Это довольно серьёзный шаг вперёд в сравнении с Sapphire Rapids, где для старших моделей Intel была вынуждена использовать компоновку с четырьмя тайлами. Переработана и геометрия интерконнекта: ранее четыре тайла соединялись друг с другом посредством четырёх же мостиков EMIB, а теперь на два тайла приходится три мостика, что в теории должно положительно сказываться на производительности в случае активной пересылки данных между кластерами ядер в разных тайлах. Также на четверть возросла производительность межпроцессорного интерфейса UPI, с 16 ГТ/с до 20 ГТ/с. Вкупе с более скоростной подсистемой памяти и возросшим LLC это даёт соответствующий эффект при полном сохранении платформенной совместимости: Emerald Rapids может работать в существующих платформах, рассчитанных на Sapphire Rapids. Потребуется только обновление BIOS и замена направляющей пластиковой рамки. Следует также отметить, что интерконнект был серьёзно оптимизирован именно с точки зрения энергопотребления, что позволило достичь 1,34-кратного превосходства в удельной производительности. Обновлённый комплекс более тонко оперирует частотами и имеет несколько новых режимов энергосбережения, таких как active idle mode и optimized power mode. Эффект от этого наиболее ярко выражен в режимах с низкой нагрузкой (порядка 30–40 % разницы) и позволяет снизить энергопотребление на величину до 110 Вт на процессор. Повышенния экономичности и производительности не удалось бы добиться без переработки управления тактовыми частотами в турборежимах, которых теперь пять вместо четырёх. Новые процессоры могут более гибко регулировать частоты при активном использовании AVX-512 или AMX. По сути, Intel исправила ошибку, за которую критиковали первые поколения Xeon Scalable — серьёзную просадку частоты при использовании AVX-512, способную съедать заметную часть прироста производительности. Модельный рядВсего Intel в пятом поколении представила 32 модели процессоров Xeon Scalable, однако только 27 из них являются «истинными» Emerald Rapids. Ещё пять процессоров — Xeon Gold 6554S, Xeon Bronze 3508U, Xeon Silver 4509Y, Xeon Silver 4510 и Xeon Silver 4510T — технически относятся к поколению Sapphire Rapids. Впрочем, относительно первого CPU в этом списке офсайт Intel ясности не даёт. Все процессоры производятся с использованием одного того же техпроцесса Intel 7 (10 нм ESF). Ценовые рамки здесь скромнее, нежели в предыдущем поколении, но не стоит забывать, что речь идёт только о чипах для двухсокетных систем, в то время как в серии Sapphire Rapids были представлены и варианты для четырёх- и восьмисокетных систем. При взгляде на модельный ряд Emerald Rapids бросается в глаза серьёзная дифференциация моделей по объёму кеша: в списке имеются модели как с большим объёмом LLC, от 160 до 320 Мбайт, так и версии, оснащённые лишь 22,5–60 Мбайт кеша, что более характерно для Xeon Scalable предыдущих поколений. Серьёзно варьируются и доступные блоки ускорителей. Сама Intel называет такую стратегию гибкой и дающей потребителям возможность выбора, но некоторые рамки, установленные компанией, выглядят неочевидно. В первую очередь это касается «игр» с поддержкой быстрой памяти. Да, EPYC Genoa ограничены DDR5-4800, но, во-первых, у решений AMD 12-канальный контроллер против 8-канального у Emerald Rapids, а во-вторых, эти параметры одинаковы для всего модельного ряда EPYC 9004. У Intel же мы видим прямо противоположный подход. Хотя для Emerald Rapids и заявлена поддержка DDR5-5600, фактически менее четверти анонсированных CPU поддерживают соответствующую память, причём такая поддержка есть даже не у всех моделей Platinum. Особенно странно это смотрится в сегментах 5G/Networked Optimized и Cloud. Модели Xeon Gold вообще ограничены поддержкой DDR5-5200. Кроме того, ни одна из флагманских моделей Emerald Rapids, поддерживающих DDR5-5600, не имеет полного набора акселераторов. Есть небольшие изменения в схеме наименования CPU — Emerald Rapids получила достаточно стройную систему суффиксов, описывающих основную сферу применения того или иного процессора. Что касается теплопакета, то его рамки, в основном, ограничены цифрой 350 Вт. Лишь одна модель, Xeon Platinum 8593Q, то есть 64-ядерный вариант с турбо-частотой 3,0 ГГц для всех ядер, ориентированный на работу в связке с СЖО, имеет базовый TDP на уровне 385 Вт. ПроизводительностьIntel приводит официальные данные о производительности и энергоэффективности Emerald Rapids, однако делает это в несколько странной манере. От лица пятого поколения выступает флагманский 64-ядерный Xeon Platinum 8592+, однако сравнивается он почему-то с разными моделями четвёртого поколения, что вносит серьёзную путаницу. В тестах Web, Data Services и AI выступает 56-ядерный Xeon Platinum 8480+, в сегменте HPC выбран 60-ядерный Xeon Platinum 8490H, изначально разработанный для 4S и 8S-систем и несравнимый с двухсокетными Emerald Rapids по цене. В сетевых тестах (Network) и вовсе участвует 52-ядерный Xeon Platinum 8592+. Конечно, в таком свете 64-ядерный флагман пятого поколения будет смотреться выгодно, с учётом его более быстрой памяти и объёмного кеша LLC, но почему-то Intel не рискнула сравнить его с Xeon Max с набортной памятью HBM2e. Известно, что в поколении Emerald Rapids таких процессоров не будет, но и вариант на базе Sapphire Rapids мог бы оказаться опасным соперником, особенно в задачах класса HPC и при работе с объёмными LLM. А вот пристальное внимание к вопросам латентности выглядит совершенно оправданно: благодаря новой компоновке, использующей два тайла с тремя EMIB-каналами против четырёх тайлов у Sapphire Rapids, где диагональные относительно друг друга тайлы должны были связываться друг с другом через лишнюю «остановку», задержки удалось существенно снизить. NUMA-режимы SNC4 и Quad теперь по понятной причине не поддерживаются даже для XCC-компоновки, где по умолчанию включён режим SNC2. Одним из достаточно важных нововведений в Emerald Rapids является аппаратная поддержка расширений TDX (Trust Domain Extensions). Фактически это новый режим работы процессора, т.н. SEAM (Secure Arbitration Mode), в котором виртуальная машина может быть полностью изолирована от всего, что происходит вне доверенного домена. Шифрование содержимого памяти такого домена выполняется аппаратно, поэтому штраф производительности минимален, а итоговая производительность ВМ оказывается всё равно выше, нежели на процессорах без поддержки TDX. Intel также очень активно рекламирует наличие специфических акселераторов, поскольку их использование при должной поддержке со стороны ПО позволяет порой достичь 10-кратного выигрыша в производительности и особенно в энергоэффективности. Отдельное внимание уделено тестам в различных ИИ-сценариях. Превосходство Xeon Platinum 8592+ над Xeon Platinum 8480+ полностью закономерно: новинка имеет больше ядер, более чем в три раза объёмный кеш LLC, более тонко управляет турбо-частотами и работает с более быстрой памятью. Вряд ли Emerald Rapids будет активно использоваться при обучении нейросетей, поскольку это удел ускорителей. А вот в инференс-системах прирост скорости может оказаться весьма к месту. Причины говорить о более низком энергопотреблении Emerald Rapids в режимах простоя и малой нагрузки у Intel есть. Это в основном заслуга новой двухтайловой компоновки, которая должна решить проблему с крайне высоким потреблением в таких режимах, характерную для Sapphire Rapids. Для двухпроцессорного сервера разница может достигать 200–220 Вт, но на практике новые решения демонстрируют выигрыш в 160–180 Вт, что, впрочем, тоже неплохо.
Источник: Phoronix Тесты Phoronix показали, что платформа с двумя 64-ядерными Intel Xeon Platinum 8592+ почти на четверть опередила пару 60-ядерных Platinum 8490H и оказалась близкой к двум 64-ядерным AMD EPYC 9554. А вот влияние памяти DDR5-5600 на производительность оказалось не слишком большим и в среднем составило менее 2 %. Разумеется, в определённых типах нагрузок преимущество очевидно, но и стоит более продвинутая DDR5-5600 пока что заметно больше, чем DDR5-4800. Выигрыш в экономичности также зафиксирован, хотя и не столь существенный, как обещает Intel. Проверка нового режима Optimized Power Mode в BIOS показала, что по умолчанию данный режим не используется, а его активация действительно позволяет серьёзно снизить энергопотребление Emerald Rapids в режимах средней и малой загрузки. При этом обеспечивается общая производительность на уровне 93 % от той, которая была получена с отключенным режимом оптимизации питания, хотя результаты сильно варьируются в зависимости от характера конкретной нагрузки. ЗаключениеEmerald Rapids — несомненно заметный шаг вперёд для Intel. Наконец-то преодолён своего рода «психологическиий барьер» в количестве ядер, и, хотя AMD по этому параметру вновь успела уйти вперед, появление 64-ядерных Xeon важно для Intel. Особенно с учётом серьёзной работы над ошибками: Emerald Rapids получили более эффективную двухтайловую компоновку с меньшей латентностью и большей межтайловой пропускной способностью. По сути, в этом поколении количественно подтянуты все основные подсистемы: UPI, DDR5, LLC. Это позволяет Emerald Rapids конкурировать с соответствующими моделями AMD EPYC. Сохранена и платформенная совместимость с Sapphire Rapids, хотя далеко не факт, что все платформы успели пройти валидацию на работу с более быстрой памятью. Однако в поколении Emerald Rapids Intel вовсе не собирается соревноваться с AMD в количестве процессорных ядер. Одна из главных целей Emerald Rapids — легкий апгрейд имеющихся систем на базе Sapphire Rapids, позволяющий получить серьёзный прирост производительности относительно малой ценой, а также снижение TCO при модернизации инфраструктур третьего и более ранних поколений Xeon Scalable. Intel активно продвигает концепцию акселераторов, приводя цифры, позволяющие сравнить стоимость владения инфраструктур на базе Xeon Scalable первого, третьего и пятого поколений, как при развёртывании, так и при модернизации. Денежная экономия получается внушительная, однако в процессе планирования такой модернизации или закупки новых серверов для ЦОД следует учитывать, что оснащённость акселераторами у разных моделей Emerald Rapids очень разная. Потребуется тщательный анализ с учётом планируемых сценариев и нагрузок, поскольку иначе уникальные возможности Emerald Rapids могут пропасть даром. В то же время, решения AMD такого тщательного планирования не требуют, поскольку обладают идентичным набором возможностей по всему модельному ряду, а заодно могут предложить повышенную вычислительную плотность ввиду большего максимального числа ядер на процессорный разъём. AMD Instinct MI300: новый взгляд на ускорители
14.12.2023 [00:00],
Алексей Степин
УпаковкаС инженерно-технической точки зрения MI300 развивает идеи, заложенные ещё в серии MI200. Но упаковка и конструкция продуктов в поколении CDNA3 стала значительно более сложной и продвинутой. С появлением MI300, наконец, можно говорить о по-настоящему гетерогенной архитектуре, активно использующей как горизонтальную, так и вертикальную интеграцию модулей. Достигнуто это благодаря применению технологий упаковки, использующих продвинутую подложку-интерпозер CoWoS. Чип может содержать до восьми модулей ускорителей (XCD) и четыре модуля ввода-вывода (IOD), включающих системную инфраструктуру и объединяющих чиплеты в единое целое посредством интерконнекта Infinity Fabric. Модули IOD отвечают и за взаимодействие с восемью сборками высокопроизводительной памяти HBM3. Все 12 модулей работают как единое целое с программной точки зрения и насчитывают совокупно до 153 млрд транзисторов. Итоговая сборка сравнима по сложности с Ponte Vecchio. Непосредственно на интерпозере размещаются модули IOD и сборки HBM3, а уже поверх IOD устанавливаются вычислительные чиплеты. Они соединяются с нижележащими чиплетами посредством технологии, отработанной AMD в решениях с 3D V-Cache. Площадки Bond Pad Via (BPV) в нижней части XCD точно совмещаются с посадочными местами на вершине IOD, куда выведены пронизывающие кристалл по вертикали TSV-соединения. Любопытно, что верхние чиплеты могут устанавливаться в двух положениях: обычном и развёрнутыми на 180°. MI300 существует в двух ипостасях: «чистый» ускоритель MI300X, который включает восемь XCD, и гибрид MI300A, где есть шесть модулей XCD, дополненных тремя модулями CCD, которые в сумме дают 24 x86-ядра Zen 4. Чиплетов во втором случае уже 13, но транзисторов несколько меньше (146 млрд), поскольку ядра Zen проще XCD. Вместимость кеша Infinity Cache в обоих случаях составляет 256 Мбайт. Не меняется и конфигурация сборок HBM3, лишь их объём, составляющий либо 16, либо 24 Гбайт на блок. Теплопакет у новинок AMD примерно одинаков: 750 Вт у MI300X в конструктиве OAM и 760 Вт у гибридного MI300A, больше похожего на обычный EPYC Genoa. Модули XCD в архитектуре CDNA 3 меньше аналогичных «строительных блоков» CDNA 2. Они содержат меньше исполнительных блоков (CU), но это позволяет компоновать решения MI300 более гибко, так что в итоге общее количество CU может достигать 304, что на 40 % больше аналогичного показателя MI250X. Часть ресурсов в XCD общая для всех CU: планировщик, аппаратный организатор очередей, 4 Мбайт кеша L2. Также здесь имеется четыре движка Asynchronous Compute Engines (ACE), обслуживающих 40 CU. По умолчанию активно только 38 CU. Два отключены для увеличения выхода годных кристаллов, но вполне вероятно, что для особо требовательных заказчиков будут отобраны 40-блочные кристаллы. В CDNA3 AMD полностью переработало архитектуру памяти, начиная с кешей L2 и заканчивая переходом на HBM3. Это позволило избежать потенциально узких мест: так, пропускная способность L2 в XCD достигает 51,6 Тбайт/с, Infinity Cache может передавать данные на скорости 17,2 Тбайт/с, и он же общается со сборками HBM3 на скорости до 5,3 Тбайт/с. В случае с MI300A унифицированная архитектура памяти позволяет избежать «длинных путей» при обмене данными между CPU и GPU — HBM-пул у APU единый, к нему равноправно может обращаться любой из компонентов ускорителя, будь то XCD или CCD. Это существенно отличается от более гетерогенного подхода NVIDIA в GH200. СпецификацииСпецификации MI300A и MI300X достаточно близки: как уже было сказано, обе новинки основаны на архитектуре CDNA3 и, по сути, отличаются только заменой двух вычислительных модулей XCD у MI300A на три модуля с процессорными ядрами x86 общего назначения да менее ёмкими сборками HBM3. Оба чипа производятся на мощностях TSMC с использованием 5-нм техпроцесса (6-нм для модулей IOD), оба имеют по восемь сборок HBM3 с одинаковой пропускной способностью в районе 5,3 Тбайт/с, но сами сборки неодинаковы — у стандартного ускорителя объём набортной памяти составляет 192 Гбайт, в то время как у APU лишь 128 Гбайт. Коммуникационные возможности модулей IOD сконфигурированы по-разному. У MI300X каждый из них «смотрит в мир» семью линиями Infinity Fabric, что в числе прочего делает легко реализуемой топологию с восемью ускорителями без применения дополнительных средств коммутации. Оставшиеся линии сконфигурированы как порты PCI Express 5.0 x16. И это важное отличие от NVIDIA H100, где требуются чипы NVSwitch, которые вообще-то холодными не назовёшь. Более универсальный MI300A имеет лишь четыре линии Infinity Fabric на IOD, остальные линии сконфигурированы в виде четырёх портов PCIe 5.0. Это вполне логично, поскольку APU предстоит общаться с большим числом периферийных устройств, как у MI300X PCIe служит лишь для связи с хост-процессором. С другой стороны, для MI300X идеальная конфигурация, когда на каждый ускоритель приходится один сетевой интерфейс, не оставляет возможностей для подключения накопителей без использования PCIe-коммутатора. Максимальная тактовая частота XCD у обоих вариантов составляет 2,35 ГГц. Но в силу того, что общее количество потоковых процессоров и матричных ядер у чипов разное — 19456/126 и 14592/912 соответственно — отличается и производительность. Но даже MI300A в векторном и матричном режимах FP32/64, по словам AMD, примерно вдвое быстрее NVIDIA H100 SXM, а в ИИ-режимах пониженной точности не уступает последнему. MI300X, имеющий на 2 модуля XCD больше, пропорционально быстрее. В целом, складывается ощущение, что MI300 в отличие от H100 изначально проектировался для FP64-нагрузок. Как видно из сравнения характеристик MI300X и NVIDIA H100 SXM, первенство AMD вполне закономерно: здесь и больший объём более быстрой памяти, и серьёзный выигрыш во всех вычислительных режимах, от INT8 до FP64. Небезынтересно и сравнение на уровне платформ, ведь в распоряжении NVIDIA есть платформа HGX H100, также использующая восемь ускорителей на узел. В первую очередь, бросается в глаза серьёзный выигрыш в объёме локальной памяти, почти в 2,5 раза — и здесь преимущество AMD очевидно, поскольку объёмы используемых в обучении ИИ-моделей растут день ото дня и 1,5 Тбайт памяти HBM3 лишними явно не окажутся. Именно за счёт объёма памяти выигрыш AMD может оказаться существеннее, особенно в задачах инференса. Также стоит отметить, что по параметрам систем интерконнекта обе платформы весьма близки и явного лидерства не прослеживается. Тем не менее, нельзя не отметить, что, во-первых, это собственные тесты AMD, к которым у NVIDIA уже появились претензии, а во-вторых, NVIDIA в скором времени выпустит ускорители H200 (141 Гбайт HBM3e с ПСП 4,8 Тбайт/с) и GH200 (624 Гбайт HBM3e + LPDDR5x, ПСП 4,9 Тбайт/с). AMD ответила на претензии NVIDIA — MI300X всё равно быстрее H100 в инференсе. У MI300A ситуация не менее интересная, если сравнивать эту новинку с H100. Новый APU позиционируется AMD в качестве «строительного блока» для HPC-систем нового поколения. В нагрузках, характерных для мира HPC, важна как подсистема памяти, где у AMD вновь первенство, так и производительность в режимах FP32 и FP64. И здесь даже чисто теоретически у MI300A имеется двукратное преимущество перед H100, который, к тому же не умеет работать в режиме матричных вычислений FP32. В реальных задачах выигрыш может быть выше именно за счёт новой архитектуры памяти. В стандартном примере OpenFOAM motorbike новый APU опередил H100 в четыре раза, работая при этом с теплопакетом 550 Вт против 700 Вт у NVIDIA. И даже при сравнении MI300A в режиме TDP 760 Вт энергоэффективность демонстрируется вдвое более высокая, нежели может показать ускоритель NVIDIA. Поэтому можно смело сказать, что новые суперкомпьютеры на базе AMD MI300A будут не только быстрыми, но и экономичными. Архитектура CDNA3Общая структура кристаллов XCD уже описана выше, пора «нырнуть» глубже. Каждое исполнительное устройство (CU) в составе XCD представляет собой законченный многопоточный процессор с планировщиком, L1-кешем 32 Кбайт и областью Local Data Share (LDS). Последняя служит для более эффективного обмена данными между вычислительными ядрами в пределах XCD и лучшей загруженности этих ядер. Каждые два блока CU имеют общий восьмиканальный множественно-ассоциативный кеш инструкций объёмом 64 Кбайт, что вдвое выше, нежели в CDNA2. Таков же объём LDS. Размер линии кеша вырос вдвое, с 64 до 128 байт. Соответственно была расширена и шина запроса из кеша данных L2, а значит, вдвое выросла пропускная способность в этой точке. Сами ядра архитектурно похожи на ядра CDNA2, однако конструкция была существенно переработана в целях обеспечения более эффективного параллелизма на всех уровнях. В ряде случаев производительность при выполнении векторных или матричных операций удалось поднять вдвое или даже вчетверо. Но самым главным нововведением в CDNA3, пожалуй, следует считать обновление матричных ядер, призванных максимально эффективно работать с типами данных, характерных для ИИ-нагрузок. Они поддерживают как FP16 и BF16, характерные для режима обучения, так и INT8, активно использующийся в инференс-режиме. В сравнении с MI250X новые матричные ядра MI300 почти в 3,5 раза быстрее в первом случае и в 6,8 — во втором. В режимах FP32 и FP64 выигрыш меньше, но всё равно составляет до 1,7 раз. Кроме того, MI300 получил поддержку новых типов данных: FP8 и TF32. Последний представляет собой нечто средние между FP16 и BF16, и позволяет заменить FP32 при обучении без потерь точности, обеспечив при этом более высокую производительность. Кроме того, такой режим лишён определённых недостатков FP16 и BF16: первый не очень хорош для больших языковых моделей (LLM), а у BF16 мантиссы может не хватить для некоторых систем машинного зрения. Режим FP8 введён с целью достижения максимальной производительности при минимальной заполненности памяти. CDNA3 поддерживает два варианта этого режима, описанных в спецификациях OCP 8-bit Floating Point: E5M2 для обучения и E4M3 для инференса. В таком режиме может быть достигнута производительность в 16 раз выше, нежели в режиме FP32. Наконец, в матричных ядрах появилась эффективная поддержка разреженных данных (sparse data), что позволяет вдвое поднять формальную производительность на реальных данных. При этом появление поддержки разреженных вычислений вносит некоторую сумятицу при сравнении с другими чипами, чем уже воспользовались некоторые вендоры. Представляет интерес и новая иерархия подсистем памяти. В CDNA3 она была полностью переработана в сравнении CDNA2, дабы более полно раскрыть потенциал гетерогенной чиплетной архитектуры MI300 и обеспечить автоматическую когерентность кешей, начиная с уровня L2. Роль последнего из-за внедрения Infinity Cache в качестве кеша последнего уровня изменилась. Ряд функций работы с памятью был перенесён из L2 в Infinity Cache, а сам кеш L2 переработан, чтобы лучше справляться с наплывом разнообразных потоков данных, поддерживая при этом их изоляцию от трафика поддержания когерентности. По сути, L2 является «точкой обмена» — именно через L2-кеш идёт всё общение XCD с остальными блоками. L2-кеш работает в режиме write-back и имеет объём 4 Мбайт. При этом он 16-канальный и множественно-ассоциативный, а каждый из каналов может независимо обращаться к 256-Кбайт блоку, что важно, поскольку кеш делится между всеми 38 CU, входящими в состав XCD. Возможно одновременное чтение из кеша по четырём запросам от разных CU за такт линиями по 128 байт. При записи объём на линию вдвое меньше, то есть 64 байта на канал на такт, но также поддерживается один запрос к Infinity Cache. Когерентность L2 поддерживается в пределах XCD, а Infinity Cache использует snoop-фильтр таким образом, чтобы все запросы на когерентность от соседних XCD не перегружали и без того активно используемые разделы L2. Infinity Cache в MI300 может содержать обычно не кешируемые структуры данных, такие, например, как IO-буфера. Производительность при этом достигает 17,2 Тбайт/с, то есть находится на уровне, характерном для L2-кешей решений предыдущего поколения. Этот кеш также 16-канальный множественно-ассоциативный. Он связан со сборками HBM сразу 16 параллельными каналами шириной 64 байта каждый. На четыре кристалла IOD приходится восемь сборок HBM3, то есть суммарно 128 каналов. Как уже упоминалось, сборки HBM3 могут иметь ёмкость 16 или 24 Гбайт, а формируемый ими пул памяти является унифицированным для XCD и CCD в случае MI300A. Технически массив XCD может быть разделён на виртуальные GPU, что немаловажно для облачных сценариев, но может выступать и как единый большой GPU. Гранулярность разбиения, впрочем, разная: восемь разделов для MI300X, но лишь три для MI300A, то есть по два XCD на каждый из трёх CCD. Разделяемым может быть и ресурс сборок HBM, но только при условии, что количество разделов памяти не превышает количество собственно разделов GPU. Новые решения AMD полностью поддерживают изоляцию разделов и предоставляют SR-IOV. Разделение работает на уровне ОС, драйвер ускорителя служит клиентом для менеджера памяти операционной системы. Что касается общения с внешним миром, то каждый кристалл IOD содержит два линка Infinity Fabric по 16 линий в каждом: всего в составе MI300X доступно восемь каналов по 16 линий, из них семь предназначены для связи с другими чипами в составе OAM-шасси на восемь чипов, а восьмой конфигурируется в качестве PCI Express 5.0 и служит для общения с периферией. Такая конструкция идеально вписывается в стандарт OCP Universal Base Board (UBB). У APU MI300A топология несколько иная. В рамках четырёхпроцессорной системы каждый чип связан с соседями посредством двух линков Infinity Fabric с пропускной способностью 256 Гбайт/с, а часть ресурсов IF используется для организации портов PCIe 5.0 x16, разъёмов M.2 и прочей периферии. Такой вариант предпочтителен для организации универсальных процессорных узлов для задач HPC, ведь он будет включать в себя не только 912 CU с архитектурой CDNA3, но и 96 процессорных ядер Zen 4. XGMI как ответ на NVLinkНесмотря на то, что архитектура и конструкция MI300X позволяет создавать вычислительные узлы с восемью OAM-модулями ускорителей, встаёт вопрос: насколько новая архитектура AMD готова к масштабированию на более высоких уровнях? В основном AMD возлагает надежды на Ethernet/Slingshot или иной интерконнект с интерфейсом PCIe 5.0. Но теперь у неё есть ответ и на NVIDIA NVLink 4. Последний NVIDIA уже приспособила для GH200 NVL32 — наборного ускорителя размером с целую стойку. Infinity Fabric базируется на PCI Express, но при этом может работать практически на любом уровне, от соединения чиплетов в составе процессоров и ускорителей AMD до межсокетного интерконнекта. При необходимости шина легко конфигурируется в PCIe 5.0 и CXL. Это упрощает создание коммутаторов более высокого уровня, чем и займётся Broadcom, объявившая о поддержке XGMI и Infinity Fabric в следующем поколении своих PCIe-свитчей. Ожидается, что будут созданы и сетевые адаптеры с поддержкой XGMI. Таким образом, при построении ИИ-кластера на базе MI300 появится возможность избежать потерь эффективности при передаче данных в достаточно длинной цепочке «CPU-GPU/PCIe/RDMA-Ethernet». Связка «XGMI-XGMI» в таком случае весьма интересна, особенно в масштабных задачах обучения ИИ. Так что XGMI-интерконнект на уровне стойки и кластера выглядит многообещающе. GigaIO уже готова создавать облака из тысяч MI300X. ROCm 6 и экосистема ПОВ деле использования ускорителей, особенно в больших масштабах, вопрос наличия удобного и популярного ПО для работы является критическим и в значительной мере определяет успех платформы. Ранее AMD пыталась опираться на открытые стандарты и решения, а также модульность, что, по замыслу компании, должно было привлечь новых разработчиков и сформировать полноценную экосистему. Политику компания не поменяла — практически все компоненты грядущей платформы ROCm 6 используют открытые лицензии, от драйверов до компиляторов и комплекта HPC- и ИИ-библиотек. Необходимая документация к ROCm доступна на сайте AMD, а для компонентов доступны и соответствующие репозитории с открытым кодом. А вот общий подход AMD, наконец, изменила, вложившись в развитие ПО и заключив за последний год массу новых партнёрств. Первой ласточкой стала интеграция с PyTorch, а затем с Lamini и MosaicML. Во время анонса MI300 было объявлено о поддержке OpenAI Triton, а вчера компания сообщила о совместной работе с ONNX. В шестой версии ROCm были серьёзно оптимизированы все компоненты, от ядра системы до библиотек инференса. В сочетании с новыми ускорителями MI300X это позволяет AMD говорить о восьмикратном преимуществе над платформой MI250 с ROCm 5. Экосистема, совместимая с новыми решениями AMD, уже довольно внушительна и продолжает расти, хотя до программной платформы NVIDIA ей пока далеко. Внимание к MI300 и CDNA3 в целом у рынка достаточно высоко, в список заинтересованных компаний входят как ведущие производители серверного и сетевого оборудования, так и крупные софтверные гиганты, включая Microsoft или Oracle, а также провайдеры ЦОД и облачных услуг. Ускорители Instinct MI300X поставляются заказчикам уже сейчас, массово производятся и гибридные процессоры MI300A, уже успевшие прописаться в суперкомпьютере El Capitan. Судя по всему, MI300 ждёт удачная судьба — у новинок AMD есть все необходимые качества, чтобы завоевать достойное место под солнцем на рынке ИИ и HPC. Компания рассчитывает поставить 400 тыс. ускорителей в следующем году. Впрочем, рынок, остро нуждающийся в ускорителях NVIDIA, похоже, готов поглотить любые объёмы альтернативных ускорителей, лишь бы сроки поставок не были столь пугающими. Кто-то вообще вынужден обходиться CPU. Назад в будущее: обзор б/у сервера Dell PowerEdge 730
07.09.2023 [00:00],
SN Team
Однако новая реальность диктует свои правила. Все крупные вендоры официально поставки и обслуживание своего оборудования в РФ прекратили, а самые ответственные даже заблокировали доступ к собственным сайтам. Есть, конечно, обходные пути, но за дополнительные деньги, время, а иногда и нервы. Вместе с тем в РФ уже давно существует рынок б/у-систем, к которому по трезвом размышлении и было решено обратиться. Да, такое оборудование не самое новое (во всех смыслах), но зато выбор и доступность его достаточно велики, да и проблем с запчастями и иными комплектующими обычно нет. Основные опасения вызывает надёжность таких систем, которую нам и предстоит выяснить на собственном опыте. Но в общем случае подобное оборудование скупается у какого-нибудь крупного потребителя, который проводит регулярный массированный апгрейд инфраструктуры. ![]() Так что и работает это оборудование, как правило, в надлежащих условиях, и проверку с заменой при необходимости отдельных узлов перед поставкой новому клиенту тоже проходит. Некоторые ещё упоминают экологичность, что тоже верно в том смысле, что электронных отходов будет гораздо меньше при повторном использовании. Но вот по итоговой энергоэффективности старые серверы соперничать с новыми вряд ли могут. Впрочем, это далеко не всегда критично. Ещё одна важная особенность — в зависимости от производителя и возраста конкретного сервера разнится срок сопровождения платформы. То есть частота и оперативность выхода прошивок, ПО, драйверов и т. д. Это важно и для безопасности, и для корректности работы, и для доступа к новым функциям. Крупные «белые» вендоры нередко выпускают критические обновления даже после официального окончания поддержки платформы, но вот на прочие апдейты рассчитывать не стоит. ![]() Про производительность отдельно не говорим — под каждую задачу нужна своя конфигурация. А вот что действительно стоит уточнить, так это вопрос совместимости. Речь как об интеграции в имеющуюся инфраструктуру, так и о списке поддерживаемых платформой компонентов, и о программной составляющей, и о возможности апгрейда в будущем. В любом случае призываем аккуратно просчитать все возможности, выгоды и риски перед тем, как решиться или не решиться на покупку б/у-оборудования. Новый старый серверМы же остановились на компании Galt Systems, которая выяснила требования и предпочтения и предложила на выбор несколько конфигураций, скорректировав по ходу общения некоторые параметры машины и проконсультировав по ряду вопросов. В итоге выбор пал на платформу Dell PowerEdge 730: 2 × Intel Xeon E5-2695 v4 (18C/36T, 2,1/3,2 ГГц, L3-кеш 45 Мбайт, TDP 120 Вт, FCLGA2011-3), 24 × DIMM DDR4, SFF-корзина на 16 накопителей SAS-3/SATA-3, RAID-контроллер PERC H730, 2 × БП 495 Вт, 4 × 1GbE (RJ-45). Стоит такая базовая конфигурация 122 350 руб. (стоимость может меняться в связи с колебаниями курса валют). Конкретный набор опций и стоимость лучше уточнять непосредственно перед покупкой, но порядок цен понятен. Galt Systems закупает оборудование из крупных дата-центров Европы и США, то есть оно содержалось и эксплуатировалось в адекватных условиях. Перед закупкой у поставщика в обязательном порядке запрашивается фото, а при поступлении на склад оборудование проверяется визуально и программно в различных тестах. В целом, компания, по её словам, имеет широкую сеть поставщиков в Европе, США, Китае и России. На складе компании доступно более 2000 наименований серверных комплектующих, а также сетевое оборудование. Конкретную конфигурацию или комплектующие можно подобрать из того, что есть в наличии, или же заказать отдельно. Перед отправкой заказчику оборудование подвергается осмотру и нагрузочному тестированию с отправкой логов и видео по его желанию. На системы и комплектующие с сокетом LGA1366/2011 стандартная гарантия составляет 1 год, а на платформы с сокетом LGA2011-3/3647 — 3 года. Гарантию можно продлить до 5 лет. У Galt Systems есть собственный сервисный центр. Компания обещает, что среагирует на обращение в течение часа. При необходимости специалисты компании могут самостоятельно забрать неисправное оборудование. Dell PowerEdge R730В нашем случае конфигурация включала корзину на 8 накопителей с лотками для них, два блока питания мощностью 750 Вт каждый, рельсы и салазки, сетевые порты RJ45 2 × 1GbE (Intel I350) + 2 × 10GbE (Intel X540), 8 × 32 Гбайт DDR4-2400 ECC Registered (Micron), PERC H730P Mini (2 Гбайт + BBU; 8 портов; RAID0/1/5/10/50/60, Non-RAID/HBA). Для тестов ко всему этому были добавлены наши базовые накопители Intel/Solidigm D3-S4510 (1,92 Тбайт SATA SSD) в количестве шести штук: два в зеркале (под ОС) и четыре в RAID5. Вот эту машину и рассмотрим, тем более что ранее публично доступных обзоров серверов Dell такого класса у нас не было в принципе. Ссылку на официальное описание продукта на всякий случай дадим, но Dell давно запретила доступ к своему сайт с территории РФ, так что можно воспользоваться альтернативным источником. Но если говорить коротко, то Dell PowerEdge 730 — это универсальный двухсокетный 2U-сервер (стандартной глубины) на базе чипсета серии Intel C610 для CPU Intel Xeon E5-2600 v3/v4 (Haswell-EP/Broadwell-EP). Процессоры эти далеко не новы: например, у них нет поддержки AVX-512 и некоторых других более современных наборов инструкций. Максимальный объём памяти — 3 Тбайт DDR4-2400 в 24 DIMM. Поддерживаются четырёхранговые LRDIMM объёмом 64/128 Гбайт, которыми как раз и можно набрать максимум DRAM для двух CPU, а также 8/16/32-Гбайт двухранговые RDIMM и 4/8-Гбайт одноранговые RDIMM. В случае 2DPC/3DPC возможно снижение до 1866/2133 MT/s. Дисковые корзины и бекплейны SAS-3/SATA-3 представлены в конфигурациях SFF x8/x16 и LFF x8 с поддержкой горячей замены накопителей. В виде мини-плат, не занимающих PCIe-слот, доступны RAID-контроллеры HS130 (софт)/H330/H730(P). А вот PERC H830 имеется только в виде PCIe-адаптера. Увы, все эти контроллеры оснащены BBU с аккумулятором, за состоянием которого придётся следить. Есть ещё несколько дополнительных опций, которые могут быть доступны не всегда. В первую очередь это IDSDM — внутренний модуль для двух SDXC-карт (запись на обе, чтение с одной), который можно использовать, например, для загрузчика, гипервизора или как ещё одно устройство хранения. Только надо учитывать, что работают они через USB 3.0. При этом на плате есть и обычный порт Type-A такого же стандарта. Наконец, на передней панели есть ещё один SD-ридер для функции vFlash, которая позволяет монтировать сохранённые на карточки образы, применять заранее заданную конфигурацию (XML) и т. д. Слоты IDSDM и vFlash не поддерживают горячую замену. Интегрированный сетевой адаптер предлагается в трёх вариантах: 4 × 1GbE RJ45, 2 × 1GbE RJ45 + 2 × 10GbE RJ45, 2 × 1GbE RJ45 + 2 × 10GbE SFP+, 4 × 10GbE SFP+ (конкретные вендоры зависят от модели NDC). Все остальные карты расширения устанавливаются в слоты PCIe, которых тут немало. При наличии всех трёх райзеров по умолчанию доступны три x8-слота для низкопрофильных карт, а также три слота x8 и один слот x16 для FHFL-карт. Также есть опция с двумя слотами x16. Физически же все слоты имеют исполнение x16. Поддерживается только PCIe 3.0. И в этом как раз существенный недостаток старой платформы — даже если вы захотите установить какой-нибудь современный контроллер, адаптер или ускоритель, то ему может не хватить пропускной способности шины. ![]() Кроме того, есть определённые лимиты по питанию и охлаждению: до двух двухслотовых 300-Вт ускорителей (для второго используется альтернативный райзер) или четырёх 150-Вт карт с пассивным охлаждением. А ещё для их установки необходимо наличие обоих процессоров (причём с TDP до 120 Вт), блоки питания мощностью 1100 Вт, а внешняя температура не должна быть выше +30 °C (против обычных «от +10 до +35 °C»). Охлаждается платформа шестью вентиляторами с возможностью горячей замены. Доступны три профиля охлаждения, но также можно вручную скорректировать минимальную скорость вращения и сдвиг скорости относительно базовых значений (в процентах) + задать предельную температуру на выходе из шасси. ![]() Блоки питания бывают мощностью 495, 750 и 1100 Вт. Все поддерживают на входе 100–240 В AC (DC-варианты рассматривать не будем) и PFC. БП могут работать как параллельно, так и подстраховывая друг друга. Они, как и вентиляторы, имеют характерную оранжевую окраску некоторых элементов, которая указывает на возможность горячей замены. Голубым же цветом помечены компоненты, которые можно демонтировать только в выключенном состоянии сервера. В целом и внутри, и снаружи шасси всё организовано интуитивно понятно. На передней панели есть индикатор текущего состояния сервера, кнопка питания со встроенным индикатором, утопленная кнопка NMI и кнопка/индикатор идентификации сервера, которая так же нужна для перехода к BIOS в случае проблем с загрузкой и сброса iDRAC. Первые две можно отключить в настройках, а для третьей можно запретить функцию сброса. Рядом находятся VGA-выход, упомянутый выше SD-слот vFlash и пара портов USB 2.0 Type-A, один из которых можно задействовать для iDRAC Direct (фактически при подключении на хосте становится доступен сетевой интерфейс). Лотки накопителей снабжены двумя индикаторами: состояния и активности. Ими тоже можно помигать для идентификации дисков или массивов. ![]() А ещё тут есть однострочный монохромный LCD-экранчик с подсветкой и три кнопки для навигации. На нём можно просмотреть IPv4/IPv6/MAC-адрес iDRAC, сервисный тег, инвентарный тег, текущий уровень энергопотребления и температуру воздуха на входе, имя хоста, модель сервера или вручную заданную строку, а также сообщения об ошибках и наличие активных подключений к IP-KVM. Также, если это разрешено в настройках, кнопками можно выбрать режим DHCP или Static IP, задав в последнем случае параметры IP-подключения и DNS. Про совсем специфические опции вроде ленточного накопителя, оптического привода, uSATA-накопители или NFC-доступа Quick Sync говорить не будем. На задней панели есть кнопка идентификации системы, VGA-выход, два порта USB 3.0 Type-A, последовательный порт, четвёрка Ethernet-портов интегрированного сетевого контроллера (см. выше), а также выделенный порт для iDRAC. Ну и два блока питания c индикаторами состояния. Тут же есть очень удобная ручка, которая делает шасси более ухватистым. И в целом Dell PowerEdge R730 можно смело назвать весьма продуманным и удобным. BIOS и Lifecycle ManagerСистемные настройки, доступные после старта системы, охватывают не только BIOS, но и ряд параметров iDRAC, а также конфигураторы набортных устройств, в данном случае представленных сетевыми адаптерами и RAID-контроллером. Непосредственно в BIOS параметров на самом деле не так чтобы много, но всё самое необходимое есть. Из дополнительных полезных опций есть возможность отключения кнопок питания и NMI, а также USB-портов, алгоритм поведения при потере питания, настройка бифуркации слотов PCIe и т.д. Есть также ряд настроек, связанных с работой памяти и процессора. По умолчанию используется профиль DAPC (производительность на ватт), в котором сервер сам определяет оптимальные параметры работы. Часть других профилей открывает доступ к массе разнообразных настроек, но если нет ясного понимания, за что они отвечают, то лучше их и не трогать. Собственно говоря, в нашем случае всё было оставлено по умолчанию, кроме переключения на UEFI и включения Secure Boot. BIOS Dell PowerEdge R730
В настройках сетевых контроллеров, в общем, тоже нет ничего необычного. Из дополнительных опций тут есть поддержка iSCSI и FCoE (PXE, конечно, тоже есть). А вот RAID-контроллер предоставляет массу опций, из которых, пожалуй, стоит обратить внимание только на кеширование. Контроллер умеет работать с SSD и поддерживает SED. Кроме того, есть мастер создания массивов общего назначения или под конкретные нагрузки, которым мы и воспользовались для формирования с настройками по умолчанию RAID1 из двух SSD и RAID5 — из четырёх оставшихся. Dell PERC H730P Mini
Наконец, есть ещё одна удобная встроенная утилита Lifecycle Manager. Она, как можно понять из названия, предназначена для управления жизненным циклом сервера. И именно с неё можно начинать знакомство с системой, хотя и необязательно. Утилита позволяет обновить (и откатить) прошивки, просмотреть исходную и текущую конфигурацию оборудования и все связанные с этим логи, протестировать все компоненты, а также предлагает несколько мастеров для быстрой настройки системы и разворачивания ОС (но уже устаревших). NDC Dell PowerEdge R730
Lifecycle Manager Dell PowerEdge R730
Заодно в ней можно экспортировать информацию об оборудовании и состоянии системы, импортировать/экспортировать профиль (для быстрого разворачивания однотипных конфигураций), а также сбросить все параметры к заводским установкам для утилизации или повторного использования сервера. Так что можно в любой момент посмотреть, что происходило с его компонентами. Кроме того, у каждой системы есть сервисный тег, по которому на сайте Dell можно узнать об обращениях в рамках контракта на поддержку и быстро найти всю документацию и ПО. iDRAC8Одним из важных, если не определяющим, фактором является не только и не столько аппаратная начинка, механическая конструкция платформы или её расширяемость, сколько удобство управления и эксплуатации. Dell предлагает систему Integrated Dell Remote Access Controller. В нашем случае это iDRAC8. Опять-таки, не самый новый вариант, но для повседневных задач достаточный. Самое главное тут вот что — имеется существенная разница между лицензиями Basic, которая предоставляется по умолчанию, и Enterprise. Именно последняя даёт наиболее полную функциональность. Настройки iDRAC8 Dell PowerEdge R730
Наиболее полезные функции Enterprise-версии включают iKVM-консоль вместе с возможностью удалённого монтирования образов и VNC-доступом, полноценную поддержку vFlash, запись экрана при сбое и загрузке, некоторые виды графиков и уведомлений, интеграцию с AD/LDPA, быстрое сохранение/восстановление конфигурации. Есть и совсем странные ограничения вроде отсутствия поддержки NTP и удалённого syslog в Basic-версии. В общем, для наибольшего удобства лучше приобрести лицензию Enterprise, которую и рассмотрим ниже. Настройки (веб) iDRAC8 Dell PowerEdge R730
Работа с iDRAC8 осуществляется с помощью веб-интерфейса (можно установить свои TLS-сертификаты) или же консольного доступа RACADM, локально или удалённо. В первом случае доступ организован через виртуальный (USB) или физический NIC, а при наличии в ОС драйвера и агента в iDRAC отправляются дополнительные сведения и сообщения о некоторых событиях. Кроме того, есть доступ по Telnet и SSH, а также поддержка SNMP v3, Redfish, IPMI over LAN и SOL. Для Android и iOS также есть утилита OpenManage Mobile. Локально доступно добавление до 16 пользователей. Каждому даётся один из трёх уровней доступа IPMI (администратор, оператор, пользователь), выбранные права для самого iDRAC и загрузка ключей SSH (и смарт-карты при наличии). Есть и упомянутая выше поддержка AD/LDAP. Всего этого вполне достаточно и для собственно администрирования, и мониторинга. Сессии других пользователей при наличии можно принудительно завершить. А в iKVM-консоли также есть общий чат. Для доступа к собственно iDRAC настраиваются IPv4/IPv6-адреса, причём возможен вариант как с выделенным портом, так и с использованием одного из тех, что даёт интегрированный сетевой контроллер. Предусмотрена возможность переключения на запасной порт и фильтрации по IP (фактически запрет на доступ отовсюду, кроме заданной подсети). Из необычных опций — загрузка конфигурации по сети и её применение при старте системы. Есть ещё функция автообновления ПО с CIFS/NFS/(T)FTP/HTTP(S)-ресурса, но она уже не очень актуальна. Структура самого веб-интерфейса iDRAC8 чуточку нелогична — часть функций явно добавили позже в ближайший похожий по смыслу подраздел. Тем не менее разобраться в нём просто. Остановимся только на ключевых возможностях, а с остальными можно поверхностно ознакомиться с помощью многочисленных скриншотов. На главной странице собраны общие сведения о состоянии сервера, его подсистем, а также логи и рабочие заметки, в которые попадают сведения о подключении посредством OMM. Тут же можно посмотреть на превью iKVM-консоли и запустить её. В соседних вкладках можно просмотреть детальное описание установленных компонентов, сведения о подключённых сетевых образах и vFlash, а также очередь задач. Вся страница (как и многие другие здесь) пестрит ссылками, благодаря которым можно быстро «провалиться» к нужным параметру, подразделу или сведениям. Количество наблюдаемых параметров системы составляет несколько десятков штук. Они разбиты на шесть категорий и три уровня важности: информирование, предупреждение, критическое значение. Для каждого из них можно настроить отдельное уведомление или отправку сообщения посредством IPMI, SNMP, E-Mail и Redfish. Для ряда событий можно настроить автоматическое действие: отключение сервера, перезагрузка или сброс по питанию. Отдельные графики предусмотрены для наблюдения за текущими уровнем загрузки системы, её энергопотреблением и температурой. iDRAC8 Dell PowerEdge R730
Для удалённого управления сервером есть iKVM-консоль, к счастью, в виде HTML5-приложения. Впрочем, для желающих поностальгировать (скорее, помучиться) есть и Java-версия консоли, и даже ActiveX. VNC-сервер тоже имеется, но он полезен, пожалуй, только при доступе с мобильного устройства — в OMM есть быстрый вызов клиента. Количество одновременных iKVM-сессий не может превышать шести, при этом участникам доступен общий чат. Естественно, есть поддержка удалённого монтирования образов. Dell PERC H730P Mini (веб)
Наконец, отдельный раздел посвящён работе с RAID-контроллером. Доступные параметры, в целом, примерно те же, что есть в системных настройках при старте сервера, но в вебе их несколько больше. Кроме того, здесь всё гораздо нагляднее, что добавляет удобства и при работе с массивом, и при просмотре состояния контроллера, бэкплейна и накопителей. ТестированиеДля небольшого теста на сервер была установлена ОС Windows Server 2022 Standard 21H2. Ничего подсовывать во время установки не потребовалось, а с сайта Dell пришлось скачать лишь пяток пакетов драйверов и ПО. Часть, похоже, вообще подтянулась через Windows Update. В целом никаких существенных инцидентов за почти месяц работы с системой не было. В Geekbench 5 система набрала в одно- и многопоточном тестах 424 и 16269 баллов соответственно, в Geekbench 6 — 634 и 6009. В CPU-Z (2017.1 x64) аналогично 401 и 8210 баллов. В SPECWorkstation 3.1 дисковая подсистема получила рейтинг 0,81, а для CPU в силу невозможности провести полноценное тестирование из-за отсутствия драйверов с поддержкой нужной версии OpenGL для встроенного адаптера Matrox G200eR приведём отдельные результаты: 7zip 1.54, Blender 4.49, Convolution 17.88, fsi 5.48, handbrake 2.73, LuxRender 10.09, octave 0.52, python36 0.9. ЗаключениеНепосредственно к работоспособности сервера никаких претензий за время нашего тестирования не возникло. Однако посмотрим, что будет через год, и по возможности обновим материал. Общее впечатление от машины тоже положительное. Возможностей платформы вполне достаточно даже по современным меркам, а по удобству и управляемости она не хуже многих более современных решений классом пониже. Да, придётся смириться, что программные обновления для неё если и будут выходить, то теперь уже крайне редко, а возможности аппаратного апгрейда не всегда очевидны. С точки зрения голой производительности вся система, конечно же, заметно уступает более новым решениям. Но тут, как и говорилось выше, всё зависит от конкретных задач. А вот по стоимости и доступности б/у-решение однозначно выигрывает. И речь не только о шасси, но и о комплектующих. В нашем случае только память и накопители оказались сравнимы по стоимости со всем остальным «железом». Удалось ли в итоге сэкономить? Однозначно да. Стоит ли бояться б/у-серверов? Можно уверенно сказать, что нет, но только если вы нашли хорошего и надёжного во всех смыслах поставщика. Приобрести сервер можно по ссылке Итоги 2022 года: дайджест от ServerNews
03.02.2023 [00:00],
Игорь Осколков
…Где рельсы вылезали из кармана страны.Группа «Мумий Тролль», «Владивосток 2000» APUНачнём с самого интересного, с APU, то есть с чипов, объединяющих в своём составе CPU, ускоритель и набортную память. Это не совсем корректный термин, но более привычный. Так вот, в этой области было два главных анонса, от AMD и NVIDIA. В серии Instinct в этом году появятся гибридные MI300, объединяющие 24 ядра Zen 4, ускоритель CDNA 3 и 128 Гбайт общей для обоих вычислительных блоков памяти HBM3. Чип будет дорогим, не массовым и ориентированным на HPC-нагрузки. Он, в частности, станет основой грядущего суперкомпьютера El Capitan с производительностью в 2 экзафлопс. У NVIDIA чуть иной подход — чипы Grace Hopper объединят, как легко догадаться по названию, процессорную часть Grace (половинка Superchip) и ускорительную часть Hopper (H100), чуть подробнее о которых рассказано ниже. Оба чиплета имеют собственную память, но, как и в случае MI300, память будет в той или иной степени общей для всех компонентов (а вот как это будет реализовано на практике, узнаем позже), что позволит не перемещать лишний раз данные между вычислителями разного типа. Главное, впрочем, что и AMD, и NVIDIA представили новые интерконнекты, которые и позволяют объединить разнородные чиплеты и IP-блоки, собирая как из конструктора SoC с заданной функциональностью. Называются новые интерконнекты Infinity Architecture 4 и NVLink-C2C. Intel, по-видимому, делает ставку на UCIe и в следующем году планирует представить гибридные чипы Falcon Shores, столь же гибко сочетающие x86-ядра и блоки Intel Xe. Интерконнект и памятьЭтот раздел неслучайно идёт сразу за APU — по двум причинам. Во-первых, как уже давно и неоднократно говорилось, в индустрии сейчас вообще-то нет особых проблем непосредственно с вычислениями, но есть проблема с эффективной доставкой данных на всех уровнях и масштабированием. APU как раз пытаются решить её, хотя и замыкаясь в себе. Во-вторых, грань и граница между интерконнектом внутри узла и за его пределами становятся всё тоньше. Дальше всех в практическом отношении продвинулась NVIDIA, поскольку NVLink 4 позволяет провязать сразу 256 ускорителей в составе «умной» фабрики, хотя масштабирование выше всё же требует Infiniband. На физическом уровне все дружно двигаются в сторону интегрированной кремниевой фотоники. Над решениями на уровне межчиповых (и далее) соединений работают, например, Ayar Labs, OpenLight и Intel. Причём две последние компании трудятся над полностью интегрированными решениями, включающими и лазеры. Lightmatter пошла дальше, а точнее глубже, и предложила объединять оптическими соединениями чиплеты внутри чипов. Впрочем, основной проблемой будет не само по себе создание подобных решений, а их удешевление для массового производства. На логическом уровне разброда и шатания уже нет — CXL однозначно победил. Консорциум последовательно вобрал наработки Gen-Z и OpenCAPI (включая OMI), договорился с JEDEC и представил третью версию спецификации, ориентированную в первую очередь на масштабирование. Основой для CXL и в целом для внутриузловых коммуникаций по-прежнему является шина PCIe. Фактически внедрение CXL активно началось с появления PCIe 5.0 в массовых платформах, но задел на будущее уже есть — летом 2022 года PCI-SIG анонсировал PCI Express 7.0. На первом этапе внедрения основным применением CXL станут экспандеры, которые тем не менее позволят экономически эффективно добирать необходимый объём памяти, пусть и с потерей производительности: до уровня стандартных DDR5-4800 и тем более самых быстрых DDR5 MCR DIMM они не дотянут. Ещё одним способом экономии на памяти (если её много не надо) станет использование «небинарных» чипов. Альтернативный подход заключается не в попытке принести как можно больше памяти к вычислителю, а во внедрении вычислителей непосредственно в память. CXL-память — нативную или в виде адаптеров — предлагают Astera Labs, Microchip, Montage Technology, Samsung и SK hynix. А «умные» CXL-пулы продвигают, например, Tanzanite и Unifabrix. CXL также позволяет создавать любопытные гибриды вроде Memory-Semantic SSD. Фактически CXL в целом ряде задач, где важен объём, а не персистентность, сделал ненужным и Optane PMem, которая окончательно уходит со сцены. Возможно, именно в этом состоит одна из причин полного отказа Intel от 3D XPoint. Хотя сама по себе память типа SCM вряд ли умрёт. CPU2022 год начался с анонса большого числа продуктов на базе отечественных Arm-процессоров Baikal-S, которые, равно как и свежие «Эльбрусы», должны были пойти в серию в 2022 году. В результате санкций TSMC не только отказалась выпускать данные CPU, но и уже произведённые партии в Россию не поставила. Однако если в случае с российскими процессорами понятно, кого винить, то в случае с удивительными (давно ли вам в последний раз обещали CPU, который втрое быстрее AMD EPYC 7763 и NVIDIA H100?) чипами Prodigy (128 ядер, 5,7 ГГц, 950 Вт), их разработчик, словацкая компания Tachyum, винит кого угодно, но только не себя. Поставки первых реальных чипов перенесены на первое полугодие 2023-го, но есть сомнения, что компания сдержит обещания. А вот Intel не отрицает свою вину в более чем годовой задержке выхода Xeon Sapphire Rapids (SPR), в результате которой она даже умудрилась подставить NVIDIA. Зато с ними ситуация теперь наверняка будет как с советскими креповыми носками, то есть как минимум по доступности эти чипы у EPYC будут выигрывать. Ну и в некоторых других технических аспектах тоже, но всё равно сравнивать 60 ядер SPR с 96 ядрами (теперь и с AVX-512) у EPYC Genoa как-то даже неудобно, не говоря уж об официальных ценах. Впрочем, правила нынче диктуют гиперскейлеры, так что AMD, склонившая на свою сторону Meta✴✴, денег, может, много и не заработает, но долю рынка у Intel, которая закончила год с существенными потерями, отъест, даже несмотря на оптимистичные прогнозы в отношении Arm. Строго говоря, выход Genoa тоже задержался, что позволило сделать важные улучшения. Но это проблемой не стало, поскольку AMD изначально и не создавала соперника Sapphire Rapids. Intel же, не сумев догнать конкурента по числу ядер, пошла по иному пути, напичкав процессоры ускорителями для различных типов нагрузок, активируемых по запросу и за отдельную плату (On-Demand, ранее SDSi). Вот только схема эта получилась очень запутанной, а про работу самого механизма активации на практике сведений пока нет. Единственным светлым пятном в новом поколении Xeon является отдельная серия Max с набортной HBM2e-памятью, которая должна достойно конкурировать с EPYC Milan-X в HPC-нагрузках. Но AMD, которой EPYC в прошлом году существенно помогли, уже в этом году пообещала выпустить Genoa-X, Siena и Bergamo. Последние будут ориентированы на гиперскейлеров. Intel для них готовит чипы Sierra Forest, но они выйдут вместе с Granite Rapids только в следующем году, а в этом компания намерена представить Emerald Rapids, которые будут делить платформу с Sapphire Rapids. Китайская серверная x86-экзотика представлена чипами Zhaoxin Kaisheng KH-40000, а также Montage Jintide 4-го поколения (доработанные Sapphire Rapids). Из «малых» чипов стоит отметить появление Intel Xeon Ice Lake-D и Ryzen Embedded V3000. В стане Arm тоже произошло немало интересного. Так, NVIDIA представила 144-ядерные Grace Superchip на базе новых ядер Neoverse V2 (Demeter), несущие на борту сразу 960 Гбайт LPDDR5x-памяти и укладывающиеся при этом в 500 Вт TDP. Сама Arm после срыва сделки с NVIDIA занялась странным. И речь не про экспериментальный сверхбезопасный процессор Morello, а про про иск к Qualcomm, возжелавшей использовать наработки поглощённой Nuvia для возврата на серверный рынок. Это не первая попытка Qualcomm на этом поприще — более подробную историческую справку читайте в обзоре процессора Altra от Ampere Computing. Последняя, к слову, в этом году представит новое поколение своих CPU. Вообще для Ampere 2022 год был крайне удачным в плане развития экосистемы и доступности — она представила не один десяток платформ, в том числе в облаках. Но главное облако в мире, AWS, продолжает развивать собственную серию Arm-процессоров, которая пополнилась чипом Graviton3E, оптимизированным для HPC-задач. Так что, возможно, Джим Келлер был прав, назвав глупостью отказ AMD от развития серверных Arm-процессоров. Архитектура RISC-V в ушедшем году отметилась в основном всякими маломощными решениями, даже Intel временно проявила активность в этом направлении, не забывая, однако, и про более серьёзные HPC-решения. Но были и два ярких момента. Во-первых, Google призналась, что использует ядра SiFive совместно со своими ускорителями (тот же подход развивает Евросоюз). Во-вторых, Ventana анонсировала Veyron V1, первый по-настоящему серверный RISC-V-процессор аж на 192 ядра с частотой 3,6 ГГц. Как на ещё одну «домашнюю» архитектуру для CPU общего назначения, на RISC-V внимательно смотрит и Китай, у которого уже есть LoongArch, представленная нынче 32-ядерными Loongson. УскорителиMI300 от AMD, как и говорилось в самом начале, это APU, а вот собирается ли компания представить негибридный ускоритель — неизвестно. Зато AMD сообщила о подготовке платформы XDNA на базе FPGA. NVIDIA же представила как APU, так и «просто ускорители» H100 (Hopper). Intel выпустила подзадержавшиеся Ponte Vecchio под брендом Max и начала готовить наследника — Rialto Bridge. Также компания представила Agilex M и сообщила о подготовке других, более современных FPGA Agilex. Большая тройка также представила или анонсировала и ряд условно малых универсальных ускорителей. В области исключительно ИИ-решений картинка поживее. Были представлены большие ИИ-комплексы вроде SambaNova DataScale SN30 или Tesla Dojo (D1). Показали себя новые игроки: Moffet и Sapeon (оба для инференс-задач), Biren (весьма мощные решения) и Untether AI (1,5 тысячи ядер RISC-V). Опытные вендоры тоже без дела не сидели — Intel анонсировала Habana Gaudi2 и Greco, а Graphcore рассказала про новые BOW IPU и представила особую версию ускорителя для рынков Китая и Сингапура. Сделано это было неслучайно — США фактически запретили поставку мощных ускорителей в Китай и Россию. Критерием мощности, то есть производительности, в данном случае стали не флопсы, а скорость обмена данными, которая не должна превышать 600 Гбайт/с, что соответствует уровню NVLink в NVIDIA A100. Ограничение скорости не позволяет эффективно масштабировать нагрузки, объединяя несколько ускорителей. Естественно, производители тут же нашли выход. Так, китайская Biren, которую ненадолго отлучили от TSMC, подкорректировала характеристики своего продукта, а NVIDIA выпустила A800, урезанную версию A100. Из экзотических решений можно вспомнить фотонные ИИ-ускорители Luminous Computing и Salience Labs, а также российский суперкомпьютер «Тераграф» с уникальной архитектурой и обещания Ceremorphic создать по-настоящему универсальный процессор, отобрав лавры у упомянутой выше Tachyum. В области нейроморфных систем нельзя не упомянуть выпуск плат BrainChip и Intel Kapoho Point, а также российские чипы «Алтай». К ускорителям в определённом смысле можно отнести и квантовые компьютеры, которыми, как и отдельными ИИ-кластерами, всё чаще планируется дополнять традиционные суперкомпьютеры. Практически все разработчики систем квантовых вычислений стремятся прямо или опосредованно предоставить облачный доступ и облегчить интеграцию с традиционными вычислениями. Рынок ещё молод, но серьёзных потрясений (ни хороших, ни плохих) в ближайшем будущем ждать не стоит. На рынке HPC, который является одним из ключевых потребителей любых ускорителей, к слову, тоже. DPUРодоначальник идеи DPU (Data Processing Units), то есть AWS, в ушедшем году представил уже пятое поколение Nitro. Alibaba Cloud тоже решила разработать собственные решения под названием CIPU, а Google, как и планировалось, начала внедрять IPU — они в 2024 году должны дорасти до 400G, а ещё через пару лет освоить и 800G. Meta✴✴ открыто свои предпочтения не называет, но переманила к себе руководителя разработки IPU. Microsoft же просто поглотила стартап Fungible, одного из пионеров DPU, у которого начались проблемы и который, по слухам, безуспешно пытался продаться Meta✴✴. От NVIDIA в ушедшем году особенно важных новостей в этой сфере не было, но компания явно готовится к массовому запуску BlueField-3. Pensando, будучи уже в составе AMD, представила гибридную 400G-платформу Exotic и уже готовит 400G/800G-решения Giglio и Salina, которые появятся в течение двух лет. Для AMD это вообще одна из самых удачных сделок, завершающих формирование «трёх сокетов». У Chelsio тоже вышли 400G-продукты, седьмое поколение Terminator. Да и в целом индустрия постепенно осваивает 400G и 800G, дополняемые если уж не DPU, то хотя бы SmartNIC. Но главное, пожалуй, что в 2022 году поддержка DPU появилась у VMware, а в рамках Linux Foundation запущен проект Open Programmable Infrastructure (ONI), целью которого является разработка открытых программных стандартов для DPU, IPU и SmartNIC. ХранилищеПомодельно рассматривать все новинки нет смысла, их слишком много, хотя среди них были отдельные жемчужины вроде 26-Тбайт SMR-накопителя от Western Digital или обновлённых Seagate MACH.2 и WD Ultrastar DC HS760 с двумя актуаторами. Но в целом можно отметить, что поставки HDD заметно упали, в том числе из-за роста их ёмкости. Однако внедрение NAND с 200+ слоями и освоение QLC обострило конкуренцию между SSD и HDD, да и в целом резкий рост пророчат только NVMe. И да, новым SSD, вполне возможно, понадобится активное охлаждение. А вот NVMe HDD мы не дождались, но уже есть обходные решения на уровне СХД. Вечно живыми остаются и развиваются ленточные накопители и оптические диски. В области хранилищ любопытно использование GPU — соответствующие обновления представили, к примеру, GRAID и Nyriad, а вскоре к ним, похоже, присоединится VAST Data. Специализированные ускорители для СХД показала MaxLinear. А Intel неожиданно решила прекратить поддержку VROC, но затем резко передумала. Она же выпустила и последние Optane SSD. Но есть и позитивные моменты — с появлением Sapphire Rapids сразу несколько крупных вендоров представили массовые платформы с поддержкой EDSFF, в основном E1.S и E3.S. В прошлом году разработчики также показали различные прототипы и решения в области SmartSSD — Macronix анонсировала «умную» NAND FortiX, LANL и SK hynix протестировали KV-SSD, а Samsung в дополнение к упомянутому выше гибриду Memory-Semantic SSD показала сразу два накопителя, с FPGA Xilinx и тысячеядерным Esperanto ET-SoC-1. Видимо, это направление действительно перспективно, раз даже SNIA выпустила первую версию стандарта вычислительных накопителей. Напоследок отметим уход со сцены важного когда-то игрока — Pavilion Data, которая некогда одной из первых создала сверхбыстрые NVMe-oF СХД, прекратила существование. ЦОДКрупнейшей закрытой сделкой формально стала продажа оператора Switch за $11 млрд (если не считать начатой ещё в 2021 году $15-млрд сделки с CyrusOne), а вот вторая по величине сделка — продажа Global Switch за $10 млрд — зашла в тупик. По объёму сделок 2022 год ($48 млрд) чуть-чуть не дотянул до 2021-го ($49 млрд), да и операторы с гиперскейлерами слегка притормозили развитие. Meta✴✴ даже приостановила строительство ряда кампусов для полной переработки архитектуры своих ЦОД с упором на ИИ и СЖО. А большая тройка облаков начала 2023 год с массовых увольнений и пересмотра политики дальнейшего развития. Intel отказалась от $700-млн лаборатории по развитию решений для ЦОД.
Источник: Uptime Institute Uptime Institute ожидает замедления темпов миграции в публичные облака, а кто-то уже говорит и о «репатриации» нагрузок. Но в целом рост индустрии сохраняется, хотя проблем меньше не становится: число сбоев не упало (опять пожары), энергоэффективность не растёт который год, местами (особенно в Ирландии, Нидерландах и Сингапуре) наблюдается энергетический кризис (Microsoft пожаловалась, что затраты на электричество оказались на $800 млн выше предполагаемых). Отдельной строкой идут экологические проблемы и новые инициативы регуляторов вроде попыток принудительной отдачи избыточного тепла в системы отопления. На фоне аномальной жары острее стали и вопросы водопотребления дата-центров, которое напрямую связано с охлаждением, в том числе с попытками внедрить СЖО — а без них, по-видимому, в обозримом будущем уже не обойтись. Equinix и Meta✴✴, тем не менее, решили поднять температуру в машинных залах ради экономии средств. Особняком на рынке стоит Северная Вирджиния, которая по-прежнему обгоняет по ёмкости сверхкрупных дата-центров и Европу, и Китай. От ЦОД местные жители устали настолько, что готовы судиться с властями. ЗаключениеВ условиях, как это принято сейчас говорить, не называя вещи своими именами, сложившейся геополитической обстановки Россия оказалась несколько оторвана от мировых тенденций. Большая часть года прошла под двумя тегами: санкции и импортозамещение (по ссылкам информация не только про Россию, но и про Китай). Немалая часть зарубежных IT-компаний покинула Россию, хотя подход к этому процессу был совершенно разным, а кто-то даже и не собирался уходить. Одни действительно окончательно ушли, избавившись тем или иным образом от активов. Другие ушли лишь формально, либо продав или передав местные подразделения в руки локальных менеджеров, нередко с припиской в договоре о приоритетном праве возврата в родное лоно в случае ослабления давления, либо вообще ограничившись общими словами и туманными формулировками на официальных сайтах. Не обошлось и без казусов, когда сразу несколько новоявленных компаний называли себя официальными наследниками и преемниками одного и того же вендора. Часть не ушла, а резко переориентировалась, например отказавшись от продаж, но сохранив разработку. Кроме того, были и зеркальные действия — ныне крупные международные компании с российскими корнями тоже отделили местные подразделения от глобальных. Заодно часть из них поменяла официальных владельцев, которые попали под санкции. Ещё одна черта — крупные российские игроки стали скупать компании поменьше, причём из областей, далеко не всегда связанных с их основным видом деятельности. Некоторые устроили настоящую охоту за специалистами и целыми командами из ушедших компаний. Но основная проблема сейчас — это не резко снизившиеся поставки оборудования и компонентов, поскольку параллельный импорт худо-бедно работает, порождая удивительные предложения вроде 2U-серверов с 20 процессорами или вызывая резкий рост облаков. Нет, просто «неожиданно» выяснилось, что Россия сильно зависима от иностранного ПО, без которого аппаратура бесполезна. А параллельно произошёл отток разработчиков и иных IT-специалистов — пример Deutsche Bank один из ярких, но далеко не единственный. Ожидается, что госпрограммы станут основным драйвером импортозамещения, особенно в области информационной безопасности. Но это же усилит и зависимость разработчиков от государства, это совсем иной рынок. Так что хорошо бы в первую очередь думать о людях и не совершать необдуманных поступков, тогда и с последствиями бороться не придётся. Чтобы ничего не пропустить в новом году, подпишитесь на нас в Twitter, Telegram, LinkedIn, Google News или Zen. Не до Jira, быть бы живу: обзор отечественных систем управления проектами
27.10.2022 [00:00],
Валерий Коржов
Российские компании ИТ-отрасли почувствовали на себе санкции иностранных государств в виде ограничения доступности и технической поддержки некоторых продуктов, которые используются для разработки программных решений. В частности, полностью ушли из России или временно прекратили работу в нашей стране такие софтверные гиганты, как Adobe, Atlassian, Autodesk, AWS, Canonical, EPAM, SAS, Figma, IBM, JetBrains, Microsoft, Miro, SAP и многие другие. Естественно, это потребовало от российских разработчиков пересмотра набора базовых элементов для своих систем и перехода на отечественные решения. В этой статье мы расскажем об альтернативах, позволяющих заместить один из самых востребованных в IT-секторе продуктов, — Atlassian Jira, платформу управления проектами разработки ПО. Самый JiraСледует отметить, что Jira — продукт модульный, и поэтому может использоваться для решения самых разнообразных задач. Изначально, еще в 2002 году, Jira создавалась в качестве замены проекта с открытым кодом Bugzilla и во многом повторяла его архитектуру. Однако если Bugzilla так и остался инструментом только для отслеживания и исправления ошибок в программном обеспечении, то Jira, благодаря модульности архитектуры и запуску в 2012 году магазина расширений Atlassian Marketplace, превратилась в инструмент более высокого уровня, который можно использовать для управления проектами разработки, для организации технической поддержки и даже для управления коммуникациями с клиентом.
Изображение: Atlassian В частности, в Jira появилась такая функциональность, как канбан- и scrum-доски с возможностью проведения спринтов, диаграммы Ганта и множество других инструментов, которые используются в системах управления проектами по методологии Agile. Jira стала популярна у разработчиков, которые как раз и пользовались всеми указанными компонентами и создали на ее основе удобные для них системы управления ИТ-проектами — именно их замену и хотелось бы обсудить в рамках данной статьи. При оценке возможностей отечественных аналогов Jira будем учитывать не только основную функциональность ядра по управлению исправлениями в программном обеспечении, но и дополнительные расширения. Например, если посмотреть на список продуктов, который предлагает сайт «Переходим.РФ» для замены Jira, то в нем можно обнаружить следующие варианты:
Видно, что в этом списке есть в том числе и средство коммуникации внутри команд, и инструмент автоматизации управления/сопровождения ИТ-систем, и Low-code-платформа. Естественно, эта функциональность с помощью различных модулей так или иначе была реализована и в Jira, хотя основная масса внедрений этой платформы все-таки связана с управлением командами разработки программного обеспечения. Поэтому и сконцентрируем внимание именно на этой части функциональных возможностей Jira. Понятно, что и для разработчиков функциональность Jira была достаточно широкой, однако не всегда очевидно, насколько те или иные возможности решения востребованы клиентами. Естественно, отечественные аналоги не всегда полностью реализуют все функции Jira, однако потребности большинства разработчиков они удовлетворить могут. Поэтому мы отобрали в наш обзор те продукты, которые реализуют базовые подходы методологии agile: канбан- и scrum-доски, построение и анализ спринтов, работу с диаграммой Ганта, контроль задач и времени их исполнения, а также формирование отчетов. Кроме того, логично обратить внимание на миграцию с Jira — эта функциональность есть у некоторых российских продуктов, и она может быть полезна при импортозамещении. Jira-заменителиК уже упоминавшимся выше решениям — «Битрикс24», Naumen Project Ruler, Kaiten, Yandex Tracker, ADVANTA и Moo.Team — мы также решили добавить еще и «Аспро.Agile», Redmine, EvaProject. Следует отметить, что все продукты, попавшие в этот обзор, реализуют основные элементы методологии agile, поэтому сравнивать мы их будем в том числе по тарифной политике и варианту использования — большинство реализованы в виде облачного сервиса и позволяют просто подключаться из браузера без необходимости установки каких-то программных компонентов в свою инфраструктуру. Однако некоторые имеют еще и мобильное приложение, причем как для Android, так и для iOS. Есть и варианты использования в виде клиентов для настольных операционных систем: Windows, Linux или Mac OS. Дополнительными критериями для отбора будет наличие программного обеспечения в реестре отечественного ПО, который поддерживается Минцифры — это важно для устойчивости к санкциям. Поскольку мы рассматриваем варианты миграции с уже работающей Jira, то еще одним параметром является наличие встроенных механизмов переноса данных из Jira. «Битрикс24»
«Битрикс» — это комплексная платформа для разработки веб-приложений. Первой появилась CMS-система «1С-Битрикс: Управление сайтом», впоследствии к ней добавился сервис «Битрикс24», который сейчас поддерживается и активно развивается калининградской компанией «1С-Битрикс» путем добавления модулей, которые создают сами разработчики. Фактически функциональность «Битрикс24» куда шире, чем у Jira. Кроме того, как и в случае с Jira, набор функций «Битрикс24» можно расширить модулями из магазина приложений платформы. В частности, Битрикс24 имеет все необходимое для создания CRM с инструментами автоматизации, кол-трекингом и множеством других функций корпоративной автоматизации. Кроме необходимых элементов для agile-разработки сервис имеет свой корпоративный мессенджер, ленту новостей и модуль Jira Migration для переноса данных из соответствующей системы.
Изображение: «Битрикс24» «Аспро.Agile»
У данного облачного сервиса есть бесплатный тестовый вариант для 3 пользователей. В состав сервиса входят все компоненты agile, а к ним добавляется встроенный мессенджер и база знаний. Продукт является частью более общего сервиса «Аспро.Клауд», который был разработан в прошлом году с нуля. Он представляет собой пакет интегрированного облачного программного обеспечения для бизнеса, куда входят CRM, управление agile-проектами, корпоративный мессенджер и многое другое. Особенностью бизнес-модели является оплата за команду, а не за каждого отдельного сотрудника, поэтому и тарифы нужно воспринимать соответствующе. Разработчики этого решения предусмотрели прямой импорт из Jira.
Изображение: «Аспро.Agile» Redmine
Redmine — бесплатное и открытое серверное веб-приложение для управления проектами и задачами (в том числе для отслеживания ошибок). Redmine распространяется под лицензией GNU GPL 2.0, но это не гарантирует, что разработчики не будут чинить препятствий пользователям из России. В списке компаний, остановивших свою деятельность в России, который приведен в самом начале материала, можно заметить в том числе и компании, занимающиеся открытым ПО: Canonical, Qt, Red Hat, SUSE. По некоторым признакам ядро разработчиков Redmine прохладно относится к пользователям из России, что может вызвать трудности в сопровождении продукта и решении проблем. Поэтому при его использовании важно иметь собственные компетенции в сопровождении как базовой платформы Ruby-on-Rails, так и приложений на ее основе.
Изображение: Redmine Если же есть площадка, где можно развернуть продукт и его сопровождать, то он поддерживает необходимый набор инструментов для agile-разработки, в том числе благодаря плагинам — платным и бесплатным. Он позволяет вести несколько проектов, организовать гибкую систему доступа, основанную на LDAP-ролях, обмениваться новостями, документами и файлами, настроить оповещение об изменениях с помощью RSS и e-mail. Важно, что продукт позволяет вести международные проекты, поскольку имеет многоязычный интерфейс. Так как среди поддерживаемых СУБД, необходимых для работы Redmine, есть PostgresSQL, то российские пользователи могут самостоятельно поддерживать собственную установку Redmine. Naumen Project Ruler
Naumen Project Ruler — модуль большого комплексного решения для проектного управления и автоматизации работы команд, в который интегрированы инструменты поддержки принятия решений на каждом этапе. Продукт работает на базе платформы, разработанной екатеринбургской компанией Naumen, поэтому требует ее развертывания на предприятии. Приобрести его как сервис из облака не получится. Тем не менее agile-функциональность у него есть: канбан-доски и поддержка Scrum, диаграмма Ганта, планирование ресурсов с учетом сервисной нагрузки. Однако область применения платформы в целом намного шире, чем просто agile, и поэтому он интегрируется и с CRM, и с кол-центром, и еще с множеством других корпоративных компонентов, разработанных Naumen. Компания присутствует на рынке давно и создала много самых разнообразных продуктов. Понятно, что переходить на этот инструмент с Jira имеет смысл только в том случае, когда нужна более широкая функциональность: CRM, ITSM или корпоративное управление проектами.
Изображение: Naumen Kaiten
Kaiten — это классический веб-сервис. Есть и бесплатная тестовая версия с ограниченным набором функций. Среди фишек стоит отметить интеграцию с почтой и блокировку задач, запрет на параллельное выполнение. На бесплатном тарифе нет ограничения по количеству сотрудников, так что можно запросто потестировать платформу. Правда, основные agile-элементы — scrum, канбан и учет времени — доступны только в версии Pro. Оплата за каждого пользователя хорошо подойдет проектным командам, в которых стадии разработки требуют разного набора специалистов.
Изображение: Kaiten Yandex Tracker
Это часть платформы Yandex Cloud, в открытый доступ она была выпущена еще в 2017 году. Платформа предлагает необходимые инструменты для работы по методологии agile. Из дополнительных особенностей следует отметить покер-планирование, фильтры и теги для поиска задач, а также интеграцию с другими сервисами Yandex Cloud. Впрочем, «Яндекс» — заметная международная компания, поэтому существует вероятность наложения на нее финансовых санкций. На доступности сервиса в России это вряд ли скажется, а вот для международных проектов могут возникнуть проблемы. Изображение: «Яндекс» Moo.Team
Moo.Team — это сервис управления разработкой ПО, который объединяет трекер задач, базу знаний, систему учета рабочего времени, инструменты управления командой и взаимодействия с клиентами в одном веб-интерфейсе. Сейчас в системе реализованы дашборды, куда сводится информация о происходящих в проектах событиях; карточки учета сотрудников с возможностью оценки нагрузки на каждого из них; проекты, в которые собираются сведения о мониторинге активности сотрудников; правила доступа, управление идентификацией и учет рабочего времени; задачи с их распределением по канбан- и scrum-доскам. Тарификация достаточно гибкая, поскольку можно выбрать нужное количество сотрудников и проектов, а также задать нужный объем облачного хранилища. Проект разрабатывается молодой веб-студией из Краснодара, что позволяет надеяться на быстрое добавление новых функций в случае необходимости.
Изображение: Moo.Team EvaProject
EvaProject — это сервис, предназначенный для управления компанией, проектами и задачами всех отделов, который входит в более общий пакет сервисов EvaTeam. Он разработан для того, чтобы удовлетворять требованиям всех отделов производителя программного обеспечения от разработчиков до бухгалтеров. В нем есть необходимые элементы для agile-разработки с возможностью построения дорожных карт и обмена информацией. Продукт активно рекламируется. В частности, в выдаче «Яндекса» по запросам, связанным с Jira, регулярно встречаются ссылки на этот проект, что позволяет надеяться на его активное развитие и выполнение «хотелок» новых клиентов.
Изображение: EvaProject ADVANTA
ADVANTA — российская система управления портфелями, программами, проектами, мероприятиями и задачами. Разработчик позиционирует ее как «проектную ERP-систему», поскольку она покрывает все процессы проектного управления, автоматизирует работу всех участников проектной деятельности, позволяет планировать и контролировать ресурсы проектов. Также платформа занимается управлением трудовыми ресурсами, позволяет проводить анализ загрузки подразделений и балансировать нагрузку, обеспечивает онлайн-коммуникации и организует живую ленту событий и многое другое. Разработана она достаточно давно, но сейчас ее развитие несколько замедлилось.
Изображение: ADVANTA В то же время часть привычных для agile-разработчика функций может быть не реализована. Например, в базовом сервисе нет канбан-досок, хотя основные элементы scrum — работа со спринтами (управление бэклогом и другие) все-таки есть. При современном развитии технологий дописать недостающие элементы управления, если будет хороший заказчик, вполне реально, но пойдет ли на это разработчик — не очень понятно. При этом функциональность системы гораздо шире и для проектов по разработке ПО она может быть избыточна. ЗаключениеВ целом, видно, что российским разработчикам можно не так уж бояться ухода с нашего рынка Atlassian и прекращения поддержки Jira. В России уже разработано достаточно собственных продуктов и сервисов, которые позволяют организовать работу с программным обеспечением и управление проектами и командами порой ничуть не хуже, чем с Jira. Причем некоторые компании даже готовы помогать в переходе на их продукт, а, возможно, и оперативно доделают нужные функции, которые необходимы конкретному клиенту. При этом надо учитывать, что процесс миграции далеко не во всех случаях будет быстрым и безболезненным, а на доводку рабочих процессов в новой системе потребуется потратить некоторые ресурсы. Тем не менее, переезд рано или поздно всё равно придется сделать. Никакой малины: обзор одноплатных микрокомпьютеров Firefly Station P2, Hardkernel ODROID-N2+ и Radxa ROCK Pi 4A
05.04.2022 [00:00],
Илья Коваль
Когда говорят «одноплатный (микро-)компьютер» или просто «одноплатник», на ум большинству сразу приходят Raspberry Pi. Первой «малинке» в этом году исполнится 10 лет, и это уже давно не просто серия продуктов с 40-млн тиражом, вокруг которой сложилась экосистема программных и аппаратных решений, а целое явление. Выход Raspberry Pi привёл не только к тому, что гранды индустрии были вынуждены пересматривать свои серии продуктов, но и к появлению целой плеяды конкурентов. Тем не менее и тогда, и сейчас принципы создания очередного поколения «малинок» остаются прежними — это должен быть максимально дешёвый микрокомпьютер. Поэтому создателям приходится идти на компромиссы и постоянно экономить. При этом любая дополнительная обвязка, без которой трудно обойтись в реальных задачах, особенно для коммерческих применений, часто нивелирует низкую стоимость самой платы и усложняет итоговое решение. И вот тут-то на сцену выходят другие производители, которые всё это время не сидели сложа руки, а создавали альтернативы столь популярной «малинке». И надо сказать, небезуспешно. Кто-то старался ещё больше удешевить конечный продукт, не экономя, однако, на спичках. Кто-то на цену оглядывался в меньшей степени, стараясь создать всё ещё доступный, но гораздо более привлекательный продукт. А кто-то пошёл по пути интеграции и создания практически полностью готовых к работе решений. Наконец, у этих альтернативных решений есть ещё одно неоспоримое достоинство, крайне важное для любых мало-мальски серьёзных проектов, где нужны не одна-две платы, а десятки, сотни или даже тысячи, — это доступность! С конца прошлого года на Raspberry Pi начался резкий рост цен и дефицит. В Европе за самую популярную модель 4B с 4 Гбайт памяти в среднем просят порядка €100, а за 8-Гбайт версию цена поднималась и до €150. Энтузиасты даже создали трекер доступности «малинок», который, правда, показывает наличие в продаже всего двух 2-Гбайт моделей.
Мириться с таким положением дел решительно нельзя, поэтому рассмотрим три альтернативы Raspberry Pi, примерно подпадающие под описанные выше пути развития: Firefly Station P2, Radxa ROCK Pi 4A и Hardkernel ODROID-N2+. Все с 4 Гбайт оперативной памяти, чтобы их можно было сравнить всё с той же «малинкой» версии 4B в некоторых тестах. Firefly Station P2Station P2 относится к категории законченных решений. Да, внутри у него модуль Firefly ROC-RK3568-PC, но это уже полноценный микроПК, упакованный в металлический корпус. Все необходимые порты и разъёмы выведены наружу, есть даже кнопки питания и сброса (спрятана на дне 3,5-мм стереоразъёма), а также индикатор. То есть модификаций со стороны аппаратной части не предполагается, поскольку, например, никаких GPIO не выведено — есть разве что выход интерфейсов RS485/RS232 (через порт RJ-45) + порт USB-C (для OTG). Более того, у устройства весьма приличная комплектация: пара антенн на 5 dBbi (Wi-Fi 6 + Bluetooth 5.0), HDMI-кабель (тип D, 2.0a, вывод до 4K@60), кабель USB Type-C и набор для монтажа накопителя. Именно подсистема хранения данных — сильная сторона Firefly Station P2. У мини-ПК есть слот microSD, поддержка eMMC-модулей (до 128 Гбайт), слот M.2 2242/2280 для NVMe SSD (PCIe 3.0) и даже место для 7-мм SATA-3 SSD/HDD. Для питания нужен внешний БП (9–24 В, до 24 Вт). Из не упомянутых выше интерфейсов есть пара 1GbE-портов (RJ-45), два USB 2.0 и один USB 3.0 Type-A, один USB-C (OTG) и собственно HDMI 2.0a. Обслуживает всё это добро современный, но, пожалуй, не самый быстрый чипсет Rockchip RK3568. У него четыре ядра Cortex-A55 с частотой до 2 ГГц и GPU Mali-G52 (2EE), дополненный NPU (0,8 Топс на INT8) и неплохим видеокодеком, которые предлагает декодеров до 4K@60 для H.265/H.264/VP9 + энкодер до Full HD@100 для H.265/H.264. Дополняют картину 2, 4 или 8 Гбайт LPDDR4-памяти (частота не уточняется). Собственно говоря, сама Firefly позиционирует Station P2 в первую очередь как медиацентр или мини-ПК для гиков. Но его вполне можно использовать в качестве IoT-шлюза, NVR, простых сценариев digital signage и так далее. Он может работать при температуре от -10 до +60 °C, а корпус у него не сильно больше самой платы (138 × 77,5 × 19,9 мм) и к тому же играет ещё и роль радиатора. А подготовка системы к работе максимально упрощена — образ можно «залить» с помощью microSD или через OTG + есть опциональный загрузчик для выбора ОС. Конкретно для Firefly Station P2 разработчик предлагает полностью готовые образы Ubuntu 18.04/20.04, Android 11, OpenWRT и LEDE, а также неофициальные сборки Android TV, Armbian, EmuELEC, FreeBSD и Manjaro. Но для самой платы, лежащей в основе микро-ПК, также есть Buildroot, RTLinux и OpenHarmony. Для разработчиков есть хорошая документация и FAQ, DT- и заголовочные файлы, утилиты и инструкции по сборке, некоторые исходники и SDK (в том числе для NPU). Ну и стоит отметить хорошие сборки Ubuntu 20.04 и Station OS. В общем, Firefly постаралась, чтобы всё работало «из коробки». Отдельно стоит сказать пару слов про фирменную Station OS — это несколько доработанная версия Android 11 с собственной оболочкой, ориентированной как на раз на развлечения. Есть утилита для быстрой настройки некоторых параметров, несколько магазинов приложений (поддержка Google Play заявлена, но установить его не удалось), мобильное приложение для использования в качестве ПДУ, поддержка некоторых привычных клавиатурных комбинаций, а также собственная система обновления прошивки. Конкретно для StationPC есть и своя Wiki. Radxa ROCK Pi 4AROCK Pi 4 наиболее близок к продуктам Raspberry Pi по форм-фактору — это классический компактный (85 × 54 × 17 мм) одноплатник — и по цене. Существенная разница состоит в том, что у Radxa эксклюзивные условия на поставки чипов Rockchip, поэтому дефицита компонентов она не испытывает, что положительно сказывается на доступности и, соответственно, на реальной, а не «бумажной» цене плат. То есть Radxa ROCK Pi 4 сейчас в среднем дешевле и его гораздо проще купить. ROCK Pi 4 представлен в трёх модификациях c индексами A, B и C. Последние две отличаются наличием встроенных модулей Wi-Fi 5 и Bluetooth 5.0 и опциональной поддержкой PoE (посредством HAT) на единственном 1GbE-порте (RJ-45), а у модели C также есть дополнительный выход Mini DP 1.2 (2K@60) и фиксированный объём памяти, тогда как у A и B есть только HDMI 2.0 (тип D, 4K@60) и MIPI DSI (2 линии, 480p), которые могут работать одновременно. Объём памяти составляет 1, 2 или те же 4 Гбайт LPDDR-3200. В принципе, есть более специфичная Core-версия (SoM), а также модификация Plus с предустановленной eMMC-памятью и u.FL-коннекторами для внешних антенн. Да, не в пример «малинке» у всех обычных моделей ROCK Pi 4 A/B/C имеется поддержка microSD (до 128 Гбайт), M.2 2280 NVMe SSD (PCIe 2.1 x2/x4, M Key, до 2 Тбайт, нужен переходник) и модулей eMMC 5.1 (до 128 Гбайт). И точно так же не в пример ей ROCK Pi 4 намного менее требователен к кабелям и источнику питания, которое подаётся через порт USB-С от БП с поддержкой PD 2.0 или QC 3.0/2.0 (18 Вт). В наличии имеются сразу четыре порта USB Type-A, по два версии 3.0 и 2.0. Один из портов USB 3.0 может работать в режиме OTG (5 В, 1,45 A), для чего есть отдельный аппаратный переключатель. Для всех остальных портов общий бюджет по току составляет 3 А, то есть с подключением внешних SSD/HDD надо быть поаккуратнее. Для камеры есть интерфейс MIPI CSI, тоже на 2 линии, и FPC-коннектор, как и у DSI, — к ним можно подключить соответствующие фирменные аксессуары Raspberry Pi. Среди прочих интерфейсов есть 3,5-мм аудиоразъём (стерео + микрофон), коннектор внешней батарейки (нужна только для RTC) и, конечно же, двурядная 40-контактная гребёнка GPIO: UART, I2C, I2S, PWM, S/PDIF, ADC, +3,3 В и +5 В. Всё управляется через DT-оверлеи. Есть поддержка различных HAT’ов, в том числе, например, для SATA и дополнительных USB. Кроме того, есть контактная площадка для SPI-модуля, что позволит прошить первичный загрузчик именно туда, а потом загружаться уже с NVMe SSD. На самой плате есть два индикатора: состояния (поведение настраивается) и наличия питания (невероятно яркий). Опционально доступен фирменный радиатор, который накрывает основную SoC Rockchip RK3399: два ядра Cortex-A72 (1,8 ГГц) + четыре ядра Cortex-A55 (1,4 ГГц) + GPU Mali T860 MP4. Сам чип, в общем, уже далеко не нов, но видеокодек у него неплохой: декодер 4K@60 VP9 и 10-бит H.264/H.265, а также Full HD@60 VC-1/VP8/MPEG-1/2 + энкодер Full HD H.264 and VP8. Выделенного NPU нет. Radxa предлагает официальные сборки вплоть до Android 9 TV (c Google Play) и Android 10 (это практически AOSP в голом виде, если не считать утилитки для быстрой настройки некоторых параметров), а также сборки Ubuntu Server 20.04 и Debian 10 (с окружением рабочего стола). Две последних опции являются основными ОС, и именно для них предлагается собственный apt-репозиторий, библиотеки, SDK, инструкции по сборке, исходники, примеры и так далее. В общем, имеется практически полный набор необходимого софта. Отдельно стоит обратить внимание на то, что у ROCK Pi 4 есть несколько версий, чуть различающихся аппаратно. Нюанс в том, что вся информация традиционно сведена в огромную Wiki, но в данном случае это скорее минус, поскольку навигация там устроена очень плохо — какие-то рецепты в ней проще найти через Google, но не факт, что они будут актуальными. Ну или можно задать вопрос на форуме. Hardkernel ODROID-N2+И ROCK Pi 4, и ODROID-N2+ нередко используются в качестве основы для коммерческих решений, но продукт Hardkernel хоть и дороже, зато гораздо интереснее с точки зрения аппаратной составляющей. Всё дело в деталях, в каких-то, быть может, на первый взгляд мелочах, о которых создатели подумали заранее. Плата не самая маленькая (100 × 91 × 18,75 мм), зато сразу оснащена радиатором и двухконтактным разъёмом для подключения опционального вентилятора. Есть и фирменный VESA-крепёж. Для UART имеется выделенная колодка, а на традиционную двурядную 40-контактную гребёнку GPIO выводятся I2C, UART, SPI, ADC, PCM/PWM, +3,3 В и +5 В. Для S/PDIF и I2S придётся самому подпаять ещё одну маленькую гребёнку, если недостаточно обычного 3,5-мм стереоразъёма, который, кстати, одновременно является и композитным видеовыходом в дополнение к обычному же HDMI 2.0 (тип D, 4K@60, HDR, CEC, EDID). Да-да, управление выводами и прочими низкоуровневыми параметрами всё так же делается через DT-оверлеи и конфигурационные файлы. На этом список приятных особенностей не заканчивается. На плате есть лоток под батарею CR2032 для RTC, ИК-приёмник, посадочное место для eMMC-модуля (до 128 Гбайт), слот microSD, SPI-память (8 МиБ), переключатель загрузки и порт Micro-USB 2.0 для OTG-подключения. Разработчики предлагают небольшой загрузчик Petitboot для SPI, который как раз позволяет посредством OTG залить ПО на eMMC/microSD, что удобно, когда одноплатник уже установлен в какое-то конечное устройство. Также есть четыре порта USB 3.0, 1GbE-порт и пара неярких индикаторов (наличие питания и состояние, можно вывести индикацию на GPIO). Питается устройство от внешнего БП: DC 7,5 – 16 В, рекомендуется 12 В и 2 А. «Голая» плата потребляет до 6,2 Вт. Hardkernel обращает внимание, что есть несколько версий ODROID-N2+, которые пусть и незначительно, но всё же различаются, в том числе по требованиям к питанию. Также отмечается, что для работы некоторых функций нужна конкретная версия ядра Linux. Основными ОС для ODROID-N2+ являются Android 9 (Google Play можно установить) и Ubuntu 18.04/20.04 (в минимальной версии и с Mate-окружением) с собственным apt-репозиторием, для которых компания регулярно выпускает новые сборки. Но есть и Buildroot, например. Опять-таки, как и положено, значительная часть исходников, инструкций по сборке, рецептов и прочей информации сведено в удобную Wiki. Форум тоже активный. Среди сторонних поддерживаемых дистрибутивов есть Arch Linux, Archdroid, Armbian, Debian 9, DietPi, CoreELEC, Galv0nized, Manjaro, Volumio 2, а также специализированные сборки для 3D-принтеров и ретрогейминга. Наконец, о главном! ODROID-N2+ базируется на весьма приличной SoC Amlogic S922X: четыре ядра Cortex-A73 (2,2 ГГц) + два ядра Cortex-A53 (1,9 ГГц) + GPU Mali-G52 MP6 (6EE). Видеокодек тоже хорош: декодер 4K@60 VP9/H.265/ AVS2-P2 + 4K@30 H.264 AVC + Full HD@60 H.264 MVC/AVS-P16/MPEG-1/2/4/RealVideo 8/9/10 + энкодер Full HD@60 H.264/H.265. NPU нет. Дополняет SoC 2 или 4 Гбайт DDR4-2666. ТестированиеДля небольшого сравнительного тестирования всех четырёх устройств (включая «малинку») были использованы последние доступные на момент подготовки материала официальные сборки Ubuntu 20.04 от разработчиков с их же репозиториями, если таковые имелись, — сначала в минимальной версии, а потом с графическим окружением (с ручной доустановкой в случае ROCK Pi 4A). ![]() Для ROCK Pi 4A и ODROID-N2+ использовались сборки Android 9 от производителя, а для Station P2 — последняя Station OS на базе Android 11. Поскольку для Raspberry Pi 4B официально Android нет, то была использована горячо рекомендуемая в Сети как наиболее стабильная сборка LineageOS 17.1 (Android 10) от KonstaKANG. Все-все варианты ОС — по возможности 64-битные и с установленными последними доступными обновлениями. Все настройки, включая governor’ы, были оставлены по умолчанию. ![]() Для тестов одноплатников с microSD использовались 128-Гбайт карты памяти Samsung EVO Plus (UHS-I U3, Class 10), а в случае Station P2 образы заливались на встроенный 32-Гбайт eMMC-модуль. У ROCK Pi 4A частота «больших» и «малых» ядер была разблокирована, то есть могла подниматься до 2 и 1,5 ГГц соответственно. Поскольку на плате был установлен фирменный радиатор, на стабильность работы это не повлияло. Правда, рассчитывать на какой-то особый прирост производительности в этом случае всё равно не стоит. Хотя и без разгона для ROCK Pi 4A радиатор будет всё же нелишним. Для ODROID-N2+ техническая возможность разгона есть, но разработчики настоятельно не рекомендуют этого делать как раз из-за потери стабильности и минимального прироста реальной скорости работы (да и то не во всех случаях). К тому же базовая частота по сравнению с N2 и так была заметно поднята, а отдельного вентилятора для активного охлаждения в нашей комплектации не было. В Ubuntu были запущены комплексные бенчмарки Geekbench 5.4.4 и PassMark Performance Test 10.2, а также были собраны некоторые бенчмарки из Phoronix Test Suite 10.6.1. Результаты последних не стоит воспринимать как абсолютные значения, поскольку никакой индивидуальной оптимизации для каждого из них не проводилось. Но для сравнения и понимания, что можно получить «из коробки», их будет достаточно. Кроме того, полезно помнить, что часть тестов явно зависит от скорости работы основного накопителя.
В графических окружениях тесты ограничены WebXPRT 3 в Chromium (в качестве ещё одного комплексного бенчмарка), а также glmark2-es2 (on-screen) — ПО в обоих случаях из штатных репозиториев. Тут стоит отметить два момента. Во-первых, все сборки от всех вендоров действительно оказались субъективно неплохо оптимизированными, хотя, как это обычно и бывает, сами разработчики, например, фиксируются на какой-то одной версии ядра, которая может несколько отставать от апстрима (у ODROID вот оно оказалось посвежее других). Это обычно не вызывает проблем, но это надо учитывать (для Station P2, например, не нашлось совпадающих со штатной версией ядра заголовочных файлов).
Во-вторых, результат Raspberry Pi 4B в glmark удивлять не должен. Как уже говорилось, сильная сторона этих решений — программная экосистема и долгая работа над оптимизацией ПО совместно с сообществом и крупными компаниями. Этого же в той или иной степени можно добиться и с некоторыми другими одноплатниками. Например, для того же ODROID-N2+ есть предрелизная версия Ubuntu 21.10 с ядром Linux 5-й ветки, открытым драйвером Panfrost и использованием Wayland по умолчанию, где glmark2 выдаёт уже 979 баллов!
Наконец, ещё одна группа тестов касается небольшой проверки скорости работы сетевых интерфейсов с помощью iperf3, от проблем с которой страдали ранние версии «малинки» и до сих пор страдают некоторые дешёвые одноплатники без выделенного контроллера. Тут, пожалуй, стоит отметить только относительно низкий результат Raspberry Pi 4 в беспроводном (WL) сегменте — ему внешние антенны с усилением не помешали бы. ЗаключениеЗа десять лет с момента появления Raspberry Pi многое изменилось. Появилось множество конкурирующих решений: как попроще, так и более продвинутых, как подороже, так и подешевле, как побыстрее, так и помедленнее, как специализированных, так и, условно говоря, широкого профиля. К сожалению, «малинка» стала жертвой собственной популярности — доступность снизилась, а цена выросла. Поэтому и приходится искать альтернативы. Это, собственно говоря, один из лейтмотивов всего материала. Безоговорочным лидером среди протестированных одноплатников стал ODROID-N2+ от Hardkernel. Он побеждает остальных участников и по производительности, и по оснащённости, а стоит при этом разумных денег. Вероятно, именно поэтому его, к примеру, даже в России тысячами закупают производители терминалов, касс самообслуживания, киосков, вендинговых машин и так далее. ROCK Pi 4A, быть может, и не везде быстрее Raspberry Pi 4, но опять-таки дешевле и доступнее. Впрочем, у всех протестированных моделей есть ещё одно неоспоримое преимущество — поддержка eMMC-модулей. Это вообще довольно больная тема для современных микроПК для бизнеса (а не развлечений) — для работы «в поле» нужен более надёжный, долговечный и желательно не тормозящий накопитель. У Station P2, как и у ROCK Pi 4A, имеется поддержка NVMe SSD, но это важно скорее для каких-то медиазадач. Вообще, Station P2 — это несколько отдельная категория. Как и говорилось в самом начале, он в целом подходит для коммерческих решений, но ориентирован скорее на мультимедийные сценарии использования. Кроме того, подход «возьмите сразу всё готовое» ведёт к некоторой избыточности. Сама Firefly, в частности, продвигает конфигурации с уже установленным SSD, что повышает цену. В чём Raspberry Pi выигрывает, так это в более развитой экосистеме. Это касается и аппаратной части — плат расширения (HAT), модулей, корпусов, аксессуаров и так далее, совместимости с которыми пытаются добиться и другие вендоры, — и ПО. Есть множество готовых, более-менее оптимизированных программных решений практически на все случаи жизни. Впрочем, конкретно для бизнес-задач это несколько нивелируется тем, что нередко всё равно приходится создавать кастомные системы, заточенные под решение вполне конкретных проблем, так что в любом случае всё в конечном итоге надо собирать и отлаживать самостоятельно. Напоследок пара слов благодарности и приятный сюрприз. Одноплатники для этого теста были предоставлены дистрибьютором 3Logic. Ассортимент у него, конечно, гораздо шире, но конкретно протестированные модели можно без проблем купить в России и даже получить поддержку от специалистов компании, которая имеет прямой выход на производителей. Firefly Station P2 c 4 Гбайт RAM, предустановленным модулем eMMC (32 Гбайт) и NVMe SSD (256 Гбайт) стоит у 3Logic $449, Radxa ROCK Pi 4A (4 Гбайт RAM) обойдётся в $157, а за Hardkernel ODROID-N2+ (4 Гбайт RAM) просят всего $173. А читатели ServerNews до 30.04 при заказе по почте или телефону +7 (495) 145 89-66 (доб. 1526) могут получить скидку около 14 %, и тогда эти устройства обойдутся в $390, 135 и 150 соответственно. Raspberry Pi 4B с тем же объёмом памяти, к слову, предлагается за $287,5. Обзор Aruba Instant On AP15 и 1930 8G PoE: простота — страшная сила
24.02.2022 [00:00],
Илья Коваль
Само название Instant On прямо намекает на простоту установки и настройки оборудования. При этом простота в данном случае вовсе не означает примитивность с точки зрения возможностей. Напротив, Aruba Instant On — это решения корпоративного класса начального уровня, ориентированные на сегмент малого и среднего бизнеса (SMB). А самые младшие варианты пересекаются уже с SOHO-сегментом и подойдут для организации удалённых рабочих мест. Такой подход подразумевает относительно невысокие цены и отсутствие дополнительных затрат — заявленная функциональность доступна сразу и в полном объёме, без каких-либо дополнительных подписок. Aruba предлагает точки доступа (ТД), и в серию Instant On входит несколько моделей различного назначения, а коммутаторы Instant On фактически являются заменой и наследниками части серий HPE OfficeConnect. Серия точек доступа Instant On включает шесть моделей: AP11, AP12, AP15, AP22, а также AP11D и AP17. Они ориентированы на разные по площади и числу клиентов помещения, а последняя в списке и вовсе является уличной. Smart-коммутаторы Instant On представлены сериями 1930 и 1960 с числом 1GbE-портов от 8 до 48 и опциональным PoE. В старших моделях доступные 10GbE-порты. Серия 1960 отличается возможностью стекирования. Кроме того, есть и серия коммутаторов 1830. Мы рассмотрим связку из точки доступа Aruba AP15 (R2X06A) и smart-коммутатора с длинным официальным названием 1930 8G PoE 2SFP 124W (JL681A). Это очень удачное сочетание в плане возможностей, которое, по задумке, позволит покрыть нужды большинства SMB-потребителей. Тем более что для ТД всё равно нужны питание и сетевое подключение, поэтому наличие именно PoE-коммутатора удобно, хотя и необязательно. Точка доступа Aruba Instant On AP15Точка доступа небольшая (183 × 183 × 41 мм), но увесистая (674 г), несмотря на то, что корпус её сделан из пластика. На матовой передней панели белого цвета располагаются два не слишком ярких индикатора — состояния системы и готовности сетей Wi-Fi. Можно настроить индикацию так, чтобы она включалась только при наличии каких-либо проблем. На заднюю часть выведен 1GbE-порт RJ-45, круглое гнездо питания, колодка консольного порта (под резиновой заглушкой), глубоко утопленная кнопка сброса настроек, а также гнездо для замка Kensington. На верхнем торце есть ещё и порт USB 2.0, но его можно задействовать только для питания каких-то маломощных устройств. Сама точка питается или от внешнего адаптера (12 В DC), или посредством PoE (802.3af Class 3). Пиковое энергопотребление составляет 12,7 и 14,4 Вт соответственно. К точке можно подключить оба источника — в этом случае предпочтение отдаётся внешнему БП, а PoE достаётся обеспечение лишь малой части мощности. При сбое БП точка переключается на PoE как на основной источник. Стандартная гарантия на Aruba AP15 составляет 2 года. В течение первых 90 дней доступна круглосуточная поддержка по телефону и в чате, а в оставшийся период — только в чате. Кроме того, у Aruba есть довольно развитое и активное сообщество, где решить вопросы помогут как специалисты компании, так и другие пользователи. За отдельную плату доступны планы Foundation Care сроком 3 или 5 лет, которые включают всю ту же поддержку 24×7 по телефону и в чате, а также приоритетное решение проблем с аппаратной и программной частями.
Устройство рассчитано на работу при температуре от 0 до +50 °C и отн. влажности от 3 до 95% без образования конденсата. Заявленный уровень MTBF составляет 105 лет (при +25 °C). Никакой защиты от неблагоприятных условий не предусмотрено, так что работа точки возможна исключительно внутри помещений. В комплекте поставляется бумажная документация, патч-корд, а также два вида пластиковых креплений для монтажа точки на потолок (с помощью направляющей) или на стену. Во втором случае расстояние от крепления до задней стенки ТД составляет 4 см, что позволяет свободно подвести Ethernet-кабель и даёт доступ воздуху. Вообще говоря, легко заметить, что и внешне, и внутренне AP15 очень похожа на (I)AP-315: 4 × 4 802.11ac (5 ГГц, 20/40/80 МГц, до 1733 Мбит/с, 6 дБи) + 2 × 2 802.11n (2,4 ГГц, 20/40 МГц, до 300 Мбит/с, 3,6 дБи). Есть даже Bluetooth LE, который, правда, для IoT-подключений задействовать пока нельзя, и поддержка mesh. Несмотря на схожесть, они всё же относятся к разным сегментам. Самое главное — AP15 предназначена для использования с облачной платформой Instant On! В этом есть как плюсы, так и минусы. Локального веб-интерфейса у Aruba AP15 нет. Точнее говоря, есть одна страничка, где при первичной настройке можно переключиться на PPPoE-соединение и задать VLAN для восходящего подключения. Всё управление осуществляется через облачный портал Instant On, так что при отсутствии интернет-подключения поменять настройки будет нельзя. Впрочем, базовых параметров самой ТД тут не очень много, и они почему-то раскиданы по разным местам. Тут можно посмотреть базовую информацию о работе ТД: IP-адрес, состояние сети, число подключённых клиентов для каждого радиомодуля, текущую скорость передачи данных на Ethernet-порте. Для обоих радиомодулей можно задать ширину (20, или 20/40 и 20/40, или 20/40/80 МГц) и номера каналов, а также мощность передачи (семь уровней). Номера каналов можно выбрать только из заранее заданного набора, причём по возможности непересекающиеся. Тут же можно заставить устройство помигать индикаторами, что упрощает поиск физического местоположения точки. Коммутатор Aruba Instant On 1930 8G PoE 2SFP 124WСерия 1930, как уже было сказано, удачно дополняет точки доступа Instant On и придерживается такого же подхода — максимально упрощённое управление посредством облачной службы. Но для этих устройств предлагается и полностью локальное управление, где открывается всё богатство настроек и возможностей, которым можно посвятить отдельный материал или… просто ознакомиться с инструкцией на 200 с лишним страниц. Отдельно рассматривать этот сценарий использования не будем. Отметим лишь, что в необлачном режиме доступны расширенные настройки для VLAN, маршрутизации, агрегации, QoS, ACL (и различных уровней защиты вообще), STP, LLDP, PoE, логирования и отладки, SNMP, IGMP и так далее. То есть это вполне приличный smart-коммутатор L2+ с удобным веб-интерфейсом управления. Но, например, CLI и REST API нет. Но ни они, ни подавляющее большинство других функций простым пользователям не нужны. Зато для подключения нескольких точек доступа и IP-камер, PoS-терминала и, например, рекламного экрана в небольшой торговой точке или офисе возможностей даже младшей версии о восьми PoE-портах (1GbE, RJ-45) будет, скорее всего, достаточно. Наличие минимум двух SFP-портов (тоже 1 GbE) позволит надёжно подключить дополнительные коммутаторы. Да и в целом серия Instant On позволяет довольно легко наращивать проводную и беспроводную инфраструктуру по мере роста потребностей.
Отличительной чертой серии также является дизайн. Речь не только про симпатичную внешность, но и про конструкцию в целом: полностью пассивное охлаждение у всех моделей, встроенный блок питания 200–240 В 50/60 Гц (кроме самой младшей модели), возможность монтажа в стойку, понятная индикация. Хотя решение снабдить порты RJ-45 только одним индикатором, по умолчанию указывающим на сетевую активность, и добавить кнопку для показа статуса отдачи питания, PoE и скорости всё же спорно. Из-за встроенного БП габариты и масса двух младших моделей существенно различаются. У PoE-версии они составляют 254 × 254 × 44 мм (1U) и 2,11 кг соответственно. В комплекте с устройством идёт бумажная документация, кабель питания, винты и шурупы, пластиковые заглушки в SFP-портах, самоклеящиеся резиновые ножки, при такой массе не очень-то и необходимые, и ушки, которые можно использовать и для крепления коммутатора к стене. На днище также есть т-образные выемки для монтажа устройства, например, под столешницей. На все коммутаторы Instant On даётся пожизненная ограниченная гарантия, но не более 5 лет после официального объявления о прекращении продаж. Как и в случае точек доступа, в первые 90 дней предоставляется круглосуточная поддержка по телефону и в чате, а потом — только в чате и в сообществе. И точно так же можно докупить планы Foundation Care на 3 или 5 лет с приоритетной поддержкой по всем каналам. Максимальное заявленное энергопотребление нашей модели коммутатора равно 150,2 Вт, а в режиме ожидания — 11,7 Вт. Устройство рассчитано на работу внутри помещений при температуре от 0 до +40 °C и отн. влажности от 15 до 95% без образования конденсата, а заявленный показатель MTBF составляет 95 лет. На всех портах RJ-45 предлагается поддержка 802.3af/at Class4 (PoE+), но суммарный бюджет для них составляет 124 Вт. Для каждого порта можно зарезервировать мощность в соответствии с его классом, а также указать один из трёх уровней приоритета. Есть и простенькое расписание подачи питания, которое применяется для всех портов сразу: дни недели + всего один временной промежуток в течение дня. Для каждого порта можно указать принадлежность к VLAN (с тегированием и без), включить аутентификацию по MAC и/или 802.1X, а также отключить защиту от DHCP- и ARP-атак. Заодно можно глянуть текущий список клиентов и скорости передачи данных. Отдельно можно включить зеркалирование на один порт всего трафика из выбранной VLAN или группы портов. Доступна и агрегация, LACP или статическая, с выбором VLAN — до четырёх групп и до четырёх портов в одной группе в нашем случае. Если коммутатор обслуживает несколько подсетей, то между ними можно настроить маршрутизацию. По умолчанию активен RSTP. Из дополнительных опций для всей локальной сети есть возможность задать DNS-сервер (по умолчанию используется Cloudflare), а также прописать статические IP-адреса для коммутатора и ТД. Ну и перезагрузить устройства, отключить их от облака Instant On и проверить соединение с Сетью (трассировкой до указанного пользователем адреса). НастройкаВ случае облачного управления (а для ТД, напомним, это единственный вариант) всё завязано на сервис Aruba Instant On, доступный как через браузер, так и через приложение для Android или iOS, где как раз для добавления точек и пригодится Bluetooth. Функциональность в обоих случаях практически идентична. Честно говоря, веб-версия гораздо удобнее — хотя бы тем, что интерфейс в ней «стройнее». Без подключения к облаку, то есть при пропавшем интернет-соединении, устройства работать будут, но только без дополнительных функций. Постоянно существовать в таком режиме затруднительно. Один аккаунт может управлять несколькими независимыми наборами оборудования. Для аккаунта можно включить 2FA и настроить уведомления в приложении или на почту, которые будут отправляться при важных изменениях в сетевых подключениях, выходе новых прошивок или проблемах с оборудованием, включая перегруз. Для каждой локации можно добавить ещё нескольких администраторов или полностью передать управление другому аккаунту, задать часовой пояс и выбрать день недели и время для автообновления прошивок. Мастер настройки Aruba Instant On
Для работы Aruba Instant On требуется интернет-подключение и доступ снаружи к портам 80, 443 и 123. Мастер настройки предложит выбрать один из трёх вариантов развёртывания: точка, коммутатор по отдельности или же оба устройства сразу. ТД сама по себе может работать в режиме простенького Wi-Fi-маршрутизатора, но лучше, когда таковой в сети уже имеется, чтобы сразу подключить к нему коммутатор, а к нему ТД. Добавление других устройств Instant On или замена имеющихся (с переносом конфигурации) возможно только после первичной настройки. Если всё подключено правильно и доступ в Интернет есть, мастер самостоятельно обнаружит устройства. Запасной вариант — поиск по серийному номеру. В процессе настройки надо будет выбрать регион и задать имя сети и пароль — фактически будут заведены общая VLAN (ID 1) на коммутаторе и SSID на точке. Затем до последних версий будут обновлены прошивки устройств. От момента распаковки до полной готовности к использования пройдёт никак не больше получаса. На коммутаторе по умолчанию будет заведена первая VLAN, охватывающая все порты, не имеющая ограничений (то есть доступ будет ко всем сетям, а не только в Интернет) и с отключённой защитой от DHCP/ARP-атак. Аналогичные параметры доступны и при настройке других проводных VLAN с собственными ID и выбранными портами, с тегированием или без него. Можно создать одну выделенную VLAN для IP-телефонов. Они автоматически будут определяться по OUI и попадать в неё, но только при прямом подключении к портам коммутатора. Отдельно про это не говорится, но, вероятно, трафик этой VLAN будет иметь более высокий приоритет, иначе особого смысла в ней нет. Беспроводные сети делятся на два типа: рабочие или гостевые. По умолчанию создаётся одна рабочая сеть с WPA2-PSK, обоими активными диапазонами, первой же VLAN от коммутатора и без ограничений доступа. Для рабочих сетей можно включить WPA3, задействовать RADIUS, скрыть SSID, задать лимит скорости для каждого клиента (1/10/15/25 Мбит/c) или всей сети (up и down, 1–64 Мбит/с), выбрать диапазон(-ы), задать расписание работы (опять же дни недели + один временной промежуток), выделить другую подсеть (с DHCP и NAT), запретить доступ в локальную сеть. Для радио есть ещё пара опций, которые могут оказаться несовместимыми с некоторыми клиентами: оптимизация для видеостриминга и расширение покрытия для диапазона 2,4 ГГц. Наконец, есть ещё одна интересная функция — контроль и учёт типа трафика. Здесь доступны следующие категории: веб, социальные сети, мессенджеры и e-mail, некие утилиты, стиль/образ жизни (lifestyle), бизнес и экономика, продуктивность, стриминг, новости, образование, взрослый контент (adult и explicit), дети и семья, правительственные ресурсы и политика, игры, магазины, спорт и рекреация, небезопасные ресурсы (malicious and risk). Нераспознанный трафик попадает в uncategorized, а весь локальный проводной трафик — в wired. Статистика собирается за последние 24 часа. Детальную статистику можно отключить, оставив отслеживание только суммарных показателей по категориям. И наверное, надо отдельно указать, что точность детектирования далека от 100%, а для проводных клиентов оно вообще не ведётся. Для каждого беспроводного клиента можно посмотреть отдельную статистику по наиболее популярным для него категориям. Ну и для всех подключённых устройств есть возможность задать имя и просмотреть текущие скорости передачи данных, тип и параметры подключения, общий объём трафика (кроме агрегированных портов) и тип ОС. Для гостевых беспроводных сетей, которые по умолчанию прячутся за NAT и имеют доступ только в Интернет, доступны точно такие же опции плюс ещё некоторые специфические. Так, гостевую сеть вообще можно сделать открытой, есть даже Wi-Fi Enhanced Open, но разумнее всего включить гостевой портал. Доступно три варианта доступа. Первый и самый простой — это Facebook✴✴ Wi-Fi. Второй — страничка с логотипом, условиями пользования, галочкой согласия с ними и кнопкой. Все эти элементы можно настроить самостоятельно как для мобильной, так и для десктопной версии. Наконец, третий вариант — использование внешнего провайдера для captive portal. Есть шаблоны для Aislelabs, Purple, Skyfii.io, Wavespot и Zoox. Часть из них поддерживает авторизацию по SMS, однако это зависит от региона и оплачивается отдельно. Но можно и вручную задать URL для сторонней службы, открыть доступ к Facebook✴✴, Twitter, Linkedin или к избранным доменам и подключить RADIUS. Последний пункт нужен при использовании сторонних провайдеров авторизации. К сожалению, готовых рецептов и шаблонов подключения конкретно для серии Instant On и России Aruba не предоставляет. Работа с устройствамиВ целом особенных проблем в работе связки из точки доступа и коммутатора почти за месяц замечено не было. Фактически Aruba Instant On AP15 заменила собой штатную точку доступа (роутер другого вендора), так что хватило всего пары SSID. Одна предназначалась в основном для IoT и устаревших клиентов (просто чтобы не перенастраивать каждое устройство), а вторая — для подключения более современных девайсов. Впрочем, для обеих никаких особенных настроек не делалось. Отметим лишь увеличившееся, то есть заметное невооружённым глазом, время подключения устройств к ТД по сравнению с аналогичным параметром при использовании локальной штатной точки. Ну и синхронизация с облаком или загрузка что точки, что коммутатора после сбоя по питанию занимает до нескольких минут. Любопытно, что оба устройства периодически сигнализируют о проблемах с доступом к Интернету и облаку в течение нескольких секунд, хотя по факту соединение с Сетью не теряется, что видно и на клиентах, и на вышестоящем маршрутизаторе. А вот когда интернет-подключение действительно пропадает или восстанавливается, уведомление об этом приходит только минут через 10-15. Из чисто физических особенностей стоит отметить, что AP15 заметно нагревается во время работы, так что вешать её вплотную к стене, пожалуй, не лучшая идея. Про коммутатор в этом отношении сказать нечего, поскольку из PoE-клиентов была только ТД, так что выжать все 124 Вт не представлялось возможным. Ну а с одной точкой он остаётся лишь чуточку тёплым. По умолчанию используется EEE (802.3az); отключить эту функцию нельзя, да и не надо. Для тестов с iperf 3.1.3 использовался клиент (A) с двухпортовым адаптером X550-T2 с LACP-группой на коммутаторе (R) — просто для проверки работы, так как практического смысла в агрегации в данном случае нет — и беспроводным адаптером Intel Wi-Fi 6E AX210. Все SSID, кроме основной, были отключены, а для оставшейся были заданы автоматический выбор номера канала и его ширины и включён режим WPA3. Jumbo-кадры на коммутаторе не использовались.
Оба диапазона выбирались вручную, но все остальные настройки оставлены по умолчанию. И если в 5 ГГц, где всё же посвободнее, с одним двухпоточным клиентом всё было прекрасно, то вот в 2,4 ГГц точка постоянно норовила скатиться в минимально возможную конфигурацию и при ширине 20/40 МГц — и её можно понять. Ну и стоит лишний раз сказать, что ТД ориентирована на максимальную совместимость с разнообразным оборудованием и стабильность подключения, а потому несколько строже следует букве стандарта, нежели большинство SOHO-устройств. Работу MU-MIMO проверить не удалось, хотя надежд особых и не было. Тем не менее запрос в техподдержку посредством чата на сайте Aruba был сделан. На ответ ушло часа полтора, а сама история растянулась на две недели. Переписка в почте, удалённая диагностика, несколько звонков в Zoom, в том числе с передачей управления для изменения настроек ТД, — всё общение на английском. В конце концов порешили, что с таким уровнем интерференции от соседних ТД рассчитывать на работу MU-MIMO, скорее всего, не стоит — поддержка имеет удалённый доступ к логам и отладочной информации, но всегда запрашивает подтверждение на забор данных или изменение настроек. На более простые вопросы техподдержка отвечает быстро, но большинство из них можно решить и без неё, просто более внимательно читая документацию. ЗаключениеAruba Instant On — это удачная серия оборудования именно для SMB-сегмента, для которого возможностей массовых SOHO-устройств уже мало, а функции «больших» корпоративных решений по большей части не нужны, да и слишком дорого обойдутся. Подход Aruba с использованием чуть подтянутых аппаратных решений прошлого поколения «взрослых» продуктов, которые ещё долго будут актуальны, и опора на облачный сервис с полным сокрытием от глаз неподготовленного пользователя второстепенных настроек и возможностей делает эту серию довольно интересной. Привлекает в Instant On именно простота настройки и использования вкупе с однократной оплатой собственно оборудования, то есть отсутствие обязательных подписок, без которых заявленные функции не были бы доступны, а также вполне приличная гарантия. Если же говорить о том, кому данная серия определённо не подойдёт, то это тем, кому нужны расширенные настройки и возможности управления оборудованием. Точек доступа это касается в полной мере, тогда как коммутаторы всё же имеют необлачный режим работы, причём для этого случая есть даже отдельная ветка прошивок. Подводные камни? Во-первых, это привязка к облаку — опять же, речь в первую очередь про ТД. Если пропало интернет-подключение, то никакие настройки поменять будет нельзя, хотя сама локальная сеть работу продолжит. Во-вторых, это несколько усложнённая организация документации. Официальные инструкции, руководства, спецификации и т. д. быстрее найти в Google, заодно выяснив, что и на русском материалы тоже есть. В-третьих, поддержка от самой Aruba пока доступна исключительно на английском, а российское представительство HPE занимается только вопросами замены оборудования или исправления дефектов ПО в рамках гарантии. Стоимость протестированного комплекта на момент создания материала в обычной рознице составляет порядка 32 тыс. руб. (в таблицах даны средние цены по E-Katalog на момент написания материала). Но можно обратиться и напрямую к дистрибьютору, тем самым немного сэкономив. Например, к Treolan, который и предоставил нам комплект для тестирования. Знакомство с Ampere Altra Q80-30: не умением, так числом?
20.01.2022 [00:00],
Игорь Осколков
(До-)историческая справкаПуть Arm на серверный рынок оказался долгим и тернистым — и он всё ещё не закончен. Достаточно вспомнить заметные разработки и их в основном печальный конец. Например, 10 лет назад Calxeda анонсировала первые серверные Arm-платформы на базе Cortex-A9, которые были скорее компактными кластерами — такие системы на базе современных SoC и одноплатников создавала, к примеру, Bamboo — и которые, по задумке компании, могли бы пригодиться гиперскейлерам. Через год после анонса уже сама Arm громко заговорила о лицензировании своей архитектуры для серверных систем. Ещё через год Calxeda закрылась, но о планах по развитию Arm-чипов для серверов начали говорить уже именитые разработчики и производители. Правда, планы оказались по большей части всего лишь планами, несмотря на вложенные в разработки средства. AMD на два года задержала A1100 и массовый выпуск не наладила. Qualcomm делала-делала Centriq 2400 (и даже анонсировала следующее поколение, Firetrail) — да и забросила. А потом и вовсе купила новичка на этом рынке, компанию Nuvia, но в серверный сегмент пока соваться, судя по всему, не очень хочет. Наследие проекта Broadcom Vulcan оказалось наиболее живучим — попав в руки Cavium, а затем и Marvell, оно не только успело развиться, но и достигло некоторых успехов в HPC и облаках. Увы, чипы ThunderX, дотянув до третьего-четвёртого поколения, оказались в одночасье заброшены Marvell, которая тоже хотела производить их для гиперскейлеров. Серия HiSilicon Kunpeng активно используется в оборудовании и облаке Huawei, но дальнейшая их судьба под вопросом в связи с санкциями США. Все эти события подорвали доверие к Arm как к серверной платформе. Как нам сказал один из крупных серверных вендоров, однажды обжегшись, компания стала очень аккуратно относиться к «нетрадиционным» разработкам. При этом в более узких нишах уже можно говорить об успехах. В сегменте HPC прекрасно показал себя Fujitsu A64FX, который стал основой для Fugaku. Тут, правда, в очередной раз стоит отметить, что это узкоспециализированный чип, концептуально похожий скорее на Xeon Phi, чем на обычные CPU. Да и энергоэффективным Fugaku никак не назовёшь, хотя именно на эту особенность Arm-решений упирают остальные производители. У китайской Phytium, судя по всему, всё тоже не так плохо. А уж в сегменте гиперскейлеров всё вообще очень интересно. Платформа с третьим поколением Arm-процессоров Amazon Graviton сумела обогнать в некоторых аспектах решения AMD и Intel. Alibaba тоже движется в эту же сторону. Но всё это чипы, созданные под нужды конкретной компании, и просто так купить их нельзя. Кто остаётся? Ampere ComputingЕсть как минимум ещё один неупомянутый проект серверных Arm-процессоров времён Calxeda — X-Gene от Applied Micro. Эта компания в результате ряда сделок стала основой для Ampere Computing, а третье поколение чипов X-Gene — для Ampere A1/eMAG. Зато Ampere получила не только наработки, но и часть команды, имеющей опыт в разработке CPU. В прошлом году компания анонсировала 80-ядерные Ampere Altra (кодовое имя Quicksilver), а ещё через несколько месяцев — и 128-ядерные Ampere Altra Max (Mystique). ![]() Оба варианта изготовлены по 7-нм техпроцессу и совместимы на уровне процессорных разъемов. Новинки появились в Equinix Metal и у ряда гиперскейлеров, включая облако от Oracle, которая вложилась в Ampere пару лет назад. На уровне платформ компанию в первую очередь поддержали Wiwynn и GIGABYTE. Последняя недавно анонсировала уже вторую волну Altra-серверов, впрочем, отличающуюся от первой не столь уж существенно. В следующем году Ampere грозится представить процессоры уже с собственными 5-нм ядрами Siryn, которые, в частности, достанутся Microsoft и Tencent. ![]() Время для вывода на рынок новой платформы в целом оказалось не слишком удачным из-за пандемии коронавируса. С другой стороны, упомянутые клиенты — это опять же гиперскейлеры и облака, на которых Ampere открыто ориентируется и у которых своя экономика и свои цепочки поставок. Более того, Ampere подружилась с NVIDIA и открыла референсную платформу Mt.Jade для OCP. Тем интереснее дальнейшая судьба компании, поскольку неоднократно приходилось слышать мнение, что создавалась она ради продажи какому-нибудь игроку покрупнее. Ampere AltraПроцессоры Ampere Altra базируются на ядрах Arm Neoverse N1, представленных в начале 2019 года и ориентированных именно на инфраструктурные решения. Сама компания называет архитектуру ARMv8.2+, поскольку часть возможностей портирована из более новых наборов (до v8.4). В частности, это защита от уязвимостей класса Meltdown/Spectre, которая в серверных системах просто необходима. При этом, по словам Arm, производительность Neoverse N1 (Ares) может быть в 2,5 раза выше, чем у ядер предыдущего поколения (Cosmos). ![]() Каждое ядро Altra содержит по 64 Кбайт кеша L1i и L1d, а также 1 Мбайт L2. Между собой ядра и общий для всех L3-кеш (System Level Cache) объёмом 32 Мбайт объединены когерентным меш-интерконнектом Arm CoreLink CMN-600. CMN позволяет объединить до 64 групп, по 2 ядра в каждой, что мы и видим в старших Altra Max. К CMN же подключаются контроллеры памяти и PCIe 4.0. Причём Ampere не практикует «налог на память», то есть эта подсистема одинакова для всей серии Altra. С PCIe ситуация такая же. Всего доступно 8 каналов DDR4-3200 ECC в режиме до 2DPC и с поддержкой модулей UDIMM/RDIMM/(3DS)LRDIMM. Должны быть активны минимум 4 канала, а суммарный объём RAM на одно процессорное гнездо составляет до 4 Тбайт. Линий PCIe 4.0 предлагается аж 128, с возможностью бифуркации вплоть до x2. Половина линий поддерживает CCIX. В двухсокетных системах суммарно доступно 192 линии, так как по два x16-интерфейса с каждой стороны отводятся для CCIX-связи между CPU. Это напоминает подход AMD, хотя EPYC с их четырьмя x16-линками явно лучше по последнему параметру. В состав Altra также входят два чипа Arm Cortex-M3, ответственных за функции безопасности, управления, мониторинга и взаимодействия с остальной платформой. Процессоры изготавливаются на TSM по 7-нм техпроцессу FinFET. Они имеют упаковку FCLGA-4926 (77 × 67 мм) — и это важное отличие от немногочисленных конкурентов, поскольку сокетное исполнение несколько упрощает подбор CPU и обслуживание платформы, что может быть важно для ряда заказчиков.
В семействе Ampere Altra сейчас доступно 10 моделей CPU с числом ядер от 32 до 80, c базовой частотой от 1,5 до 3,0 ГГц, максимальной частотой от 1,5 до 3,3 ГГц и TDP от 65 до 250 Вт. Однако воспринимать эти цифры надо иначе, чем обычно. Если x86-процессоры при повышении нагрузки на ядра снижают их частоту, стараясь уложиться в заданный уровень потребления, то Altra, напротив, удерживает одинаковую частоту что для одного, что для всех ядер в независимости от нагрузки, а меняется при этом потребление. Заявленный уровень TDP указывает лишь на усреднённое пиковое потребление. Иначе говоря, в подавляющем большинстве нагрузок процессор работает на заявленной максимальной частоте, лишь в некоторых из них откатываясь к базовой. Но и в этом случае разница в частотах невелика. При этом фактический уровень TDP, как правило, заметно ниже заявленного, хотя всё это вовсе не значит, что процессор не скидывает частоту (чаще резко вниз) в периоды простоя или низкой нагрузки. Вкупе с отсутствием SMT всё это позволяет Ampere говорить о стабильной производительности CPU, что важно для облачных нагрузок. Но не только — предсказуемость работы нужна, например, и для периферийных вычислений. Собственно говоря, именно такая односокетная система и попала к нам на тестирование от дистрибьютора 3Logic вместе с инженерным образцом процессора Altra Q80-30 (80C/80T, 2,8/3,0 ГГц, 32 Мбайт L3, TDP 210 Вт). Обзор сервера GIGABYTE E252-P30E252-P30 — это модель первой волны Altra-систем GIGABYTE, основанная на референсной односокетной платформе Mt. Snow. На базе этой платформы есть несколько вариантов систем, но в данном случае мы имеем дело с компактным edge-сервером в 2U-шасси малой глубины: 439 × 86 × 449 мм. Для удобства использования на переднюю панель выведены не только дисковая корзина на шесть SFF-накопителей SAS-3/SATA-3 с поддержкой горячей замены, но и IO-панель материнской платы, а также все слоты PCIe.
Разъёмов тут не так уж много: три USB 3.0, пара 1GbE-портов (Intel I350-AM2), один 1GbE-порт для BMC (ASPEED AST2500), VGA-выход и COM-порт. Тут же находится ID-индикатор, совмещённый с кнопкой, который продублирован на левом «ушке», где располагаются ещё и кнопки питания и сброса (тоже с индикацией), индикаторы активности накопителей и обоих сетевых интерфейсов, а также общего состояния системы. В общем, всё как обычно. А вот такой богатый набор слотов PCIe 4.0 видеть в подобной системе уже непривычно. Их тут сразу шесть штук: пять x16 и один x8 — все для низкопрофильных карт. Впрочем, только два из них предоставляют x16-подключение, а остальные довольствуются восемью линиями. Тем не менее на самой плате есть ещё два x4-слота M.2 2210 и четыре SlimSAS-коннектора по x4 каждый. Формально есть и мезонин OCP 2.0 (PCIe 3.0 x16), но он занят RAID-контроллером CRAO338 (LSI SAS3008) с поддержкой RAID 0/1/1E/10. Именно его в первую очередь лишились Arm-системы GIGABYTE второй волны. Также на плате есть колодка для модуля TPM 2.0 и, наконец, процессорный разъём с поддержкой 80-ядерных Ampere Altra, который окружён 16 слотами для модулей DIMM DDR4-3200. Питается вся система от двух (1+1) БП FSP800-20FM мощностью 800 Вт каждый с сертификацией 80+ Platinum, а за охлаждение отвечают четыре высокооборотных вентилятора Nidec Ultraflo (80 × 80 × 38 мм). Все они находятся на задней панели и поддерживают горячую замену без использования инструментов. Сервер рассчитан на работу при температурах от +10 до +30 °С и относительной влажности от 8 до 80 % (без образования конденсата). О платформе управления системой, как ни странно, рассказывать практически нечего — это совершенно обычный и стандартный AMI MegaRAC SP-X. Но… это на самом деле показатель очень большого прогресса в развитии серверных Arm-систем в целом. Привычные веб-интерфейс, iKVM, UEFI и настройки позволяют не только комфортно работать с ней, но и интегрировать её в системы управления ЦОД. BIOS GIGABYTE E252-P30
BMC GIGABYTE E252-P30
Тут, конечно, стоит оговориться, что пока GIGABYTE довольно часто выпускает обновления прошивок, меняя что-то по мелочи то тут, то там и добавляя или удаляя какие-то возможности. Однако всё это не идёт ни в какое сравнение с тем, что было раньше. Никакой особенной подготовки уже не требуется — берёшь AArch64-образ популярного дистрибутива, спокойно загружаешься и устанавливаешь ОС и ПО. КонфигурацияСобственно говоря, это и было сделано. На накопитель GIGABYTE Aorus (M.2, PCIe 4.0 x4) GP-AG4500GB с ext4 была установлена Ubuntu Server 21.10 (стандартное ядро Linux 5.13.0-20-generic), а на GP-AG41TB c xfs развёрнута тестовая среда Phoronix Test Suite 10.6.1. Настройки ФС оставлены по умолчанию, а в самой ОС только cpu_governor был переключён в performance, а автообновление было отключено. Важно отметить, что, хотя общая поддержка Arm-платформ в современных дистрибутивах есть, оптимизаций чаще всего ждать не стоит. В частности, оказалось, что штатное ядро не до конца «знакомо» Ampere Altra и, например, в принципе не позволяет включить Boost, а сама Ampere предлагает патчи только для Linux 5.10. К счастью, в последнем обновлении BIOS (F18g) эта опция в настройках CPCC пропала в принципе, и наш процессор по умолчанию работал на частоте 3,0 ГГц. Режим LPI был оставлен, чтобы процессор мог уходить в «спячку». Компанию CPU составили восемь (1DPC) 16-Гбайт модулей RDIMM DDR4-3200 (Samsung M393A2K43DB3-CWE). В настройках можно поделить память на один, два или четыре NUMA-домена, но для всех тестов использовался только один. В BIOS также есть любопытная опция X86 Emulator Mode, однако никакой внятной документации или хотя бы простого описания для неё нет. Оставим её изучение на будущее. БенчмаркиПопулярные комплексные бенчмарки оказались не очень полезными. В Preview-версии Geekbench 5.4.3 в однопоточном тесте система набрала 885 баллов — ближайший к этому результат демонстрирует Intel Xeon Gold 6126. Увы, общий рейтинг для всех топовых систем сейчас начинается с отметки в 1775 баллов. В многопоточном тесте, где тестовый процессор набрал 47270 очков, картина обратная — в чартах CPU ближайший конкурент в лице пары AMD Ryzen Threadripper отстает примерно вдвое. А вот в рейтинге всех систем в окрестностях встречаются, например, AMD Ryzen Threadripper PRO 3995WX (64C/128T, 4,31 ГГц) и EPYC 74F3 (2 × 24С/48T, 4,04 ГГц), но оба они отличаются высокой базовой частотой и почти полуторакратной разницей с Q80-30 в однопоточной производительности. Да и вообще продукции AMD в списке много. Со стороны Intel можно привести результаты решений с Xeon Platinum 8362 (2 × 32С/64T, 3,6 ГГц) или совсем уж специфичных систем в облаке (4 × 26С/52T, 2,7 ГГц) и с «живыми» Xeon Platinum 8268 (4 × 24С/48T, 3,9 ГГц). Две последних системы и в однопоточном тесте ближе к Q80-30, но всё же задачи у них другие — вроде обслуживания SAP HANA. Тем не менее можно очень аккуратно сказать, что в данном бенчмарке изделие Ampere смотрится в многопоточных тестах как минимум интересно. PassMark Performance Test 10.1, конечно, своеобразно подсчитывает рейтинг, но и там видна просадка в однопоточном тесте — наш экземпляр набрал в нём 1331 MOps/sec, а в сумме получил 38289 баллов. Поскольку синхронного теста с современными процессорами конкурентов сделать не удалось, для PTS были взяты результаты весеннего тестирования пар AMD EPYC 7763 и 7543 с Intel Xeon Platinum 8368 и 8260M. Да, сравнение выходит не совсем корректное, но для первичной оценки его хватит. Итоговый набор тестов сократился, так как ещё не все они доступны для Arm, а что-то просто уже не собирается штатным компилятором (GCC 11.2). Графики приведены без учёта результатов Intel oneDNN, поскольку этот пакет «заточен» в первую очередь под x86-64. Впрочем, все другие потенциально проблемные результаты — вроде Kvazaar, который хорошо оптимизирован для AVX, или OpenSSL, где у Altra явный провал, — оставлены. Как и для любой новой платформы, вопрос всегда в наличии оптимизаций исходного кода, инструментов разработки и поставляемых в готовом виде бинарных файлов. В целом же в данном конкретном наборе бенчмарков и окружении Altra Q80-30 оказался, грубо говоря, в среднем на уровне двух Xeon 8260M (2 × 24C/48T, 2,4/3,9 ГГц, 35,75 Мбайт L3, TDP 165 Вт) прошлого поколения (Cascade Lake-SP).
Важность оптимизации хорошо видна на примере HPL 2.3, где коммерческие библиотеки Arm Performance Libraries позволяют поднять FP64-производительность теста на порядок, до 1,22 Тфлопс. Это примерно две трети от теоретического пика, так как каждое ядро может выполнять до 8 Флоп/такт, что в сумме даёт 1,92 Тфлопс. Для справки в таблице даны результаты для x86-64 — это пиковые значения, полученные с помощью рецептов от AMD и Intel и их же инструментария. В случае Ampere ничего этого не было, но даже без тюнинга в Stream 5.1 работа с памятью у Altra оказалась хороша. В HPL же удалось добиться и максимального энергопотребления. И это очень интересно: 325 Вт на всю систему, из них 212 Вт пришлось на CPU, температура которого приблизилась к +70 °C. Без столь активного использования SIMD потребление процессора под нагрузкой колеблется в довольно широких пределах (обычно от 140 до 170 Вт), а в простое он требует и вовсе 24 Вт. Если учитывать описанные выше особенности управления питанием и частотой, это просто прекрасный результат на фоне x86-64. ЗаключениеAmpere Altra стоит попробовать — они могут соперничать с современными x86-64 CPU! Конечно, не во всех типах нагрузки, что, впрочем, было ясно с самого начала. Наиболее предпочтительными для этих процессоров являются задачи с хорошим распараллеливанием, которым не нужны большие кеши в CPU или специфические расширения. Естественно, есть целый ряд ниш, где конкуренцию AMD и Intel они составить не могут. Это, например, приложения, оптимизированные для AVX(-512), — всё же два 128-бит SIMD-блока NEON на ядро даже при большом числе ядер и более высокой частоте не дадут тот же уровень производительности. Пока закрыт и путь в целый ряд корпоративных ниш, полагающихся на VMware или Windows Server. Собственно говоря, уже сейчас можно сказать, что с самим «кремнием» дело обстоит хорошо, но вот до той огромной экосистемы оптимизированного прикладного и системного ПО для x86-64, которая была наработана за годы доминирования на рынке, пока далеко. И Ampere в одиночку вряд ли сможет что-то с этим сделать. Однако, как уже было неоднократно сказано, Ampere метит в первую очередь в рынок гиперскейлеров, которые делают всё сами, начиная чуть ли не с прошивок. Поэтому никаких, даже предварительных выводов относительно примерного уровня совокупной стоимости владения (TCO) делать не стоит. Да, на старшую модель Q80-33 (80C/80T) установлена рекомендованная цена в $4 050, что вдвое меньше, чем у старших AMD EPYC 7763 (64C/128T, $7 890) или Intel Xeon Platinum 8380 (40C/80T, $8 099), но при больших закупках даётся очень существенная скидка. А если оба процессорных гранда обеспокоятся ростом конкурента, то возможностей для ценовых манёвров у них будет гораздо больше. Не менее важный фактор, влияющий на TCO, — энергопотребление платформы в целом. На первый взгляд у Ampere Altra с этим всё просто замечательно. Однако из осторожности скажем, что этот фактор лучше изучать и сравнивать на конкретных нагрузках, поскольку, во-первых, на незнакомой ранее системе легче допустить ошибку в оптимизации вычислений, работе с памятью, ускорителями или периферией, а, во-вторых, показатели частот и TDP в характеристиках считывать надо иначе, чем в случае x86-64. Зато с точки зрения «обвеса» Altra с ними наравне — 128 линий PCIe 4.0 + 8 каналов DDR4-3200 (до 4 Тбайт суммарно). Как опять-таки было сказано ранее, Altra могут быть интересны и для применения в edge-системах. Если говорить конкретно о сервере Gigabyte E252-P30, то система нам в целом понравилась. Но нельзя не отметить, что доработка прошивок для неё всё ещё активно ведётся, и это порой приносит немногочисленные, но заметные изменения, а сама система всё ещё не лишена некоторых мелких проблем. Увы, пока что нельзя говорить о большом разнообразии платформ от разных вендоров и, соответственно, о возможности выбора. Интересно, как выйдет с Baikal-S? Редакция благодарит компанию 3Logic за предоставленное на тест оборудование. Системы GIGABYTE на базе Ampere Altra будут доступны для покупки у данного дистрибьютора ориентировочно в I квартале 2022 года. Итоги 2021 года: дайджест ServerNews
14.01.2022 [00:00],
Игорь Осколков
Ушедший год в сравнении с 2020-м оказался более богатым на «железные» новинки, анонсы и сделки. Но не потому, что он стал каким-то особенно удачным, а потому, что позапрошлый год для всех был несколько шокирующим. Для тех, кто пропустил ключевые вехи серверного рынка, мы сделали подборку самых интересных новостей 2021-го в следующих категориях: CPUОт грандов индустрии в ушедшем году было три ключевых новинки: AMD EPYC Milan, IBM Telum и Intel Xeon Ice Lake-SP. И если для AMD это было приятное, но всё же эволюционное обновление, то третье поколение Xeon Scalable в корне отличается от предыдущих. Intel достигла паритета с AMD по ряду параметров, отказалась от некоторых порочных практик, но по сумме «голых» характеристик всё ещё отстаёт, хотя и предлагает целый ряд уникальных функций, что помогает дистанцироваться от конкурента. Ну а в плане инноваций интереснее всего опять решения IBM — но на этот раз не POWER, а Telum, который относится к Z-семейству и ориентирован на специфичный рынок. Как и окончательно почивший Itanium. В растущем стане Arm произошло несколько важных событий. В начале года Qualcomm поглотила Nuvia, так что единственным серьёзным игроком в серверном сегменте осталась Ampere, выпустившая процессоры Altra Max, которые уже обогнали EPYC и Xeon по числу ядер. Но больше всех удивила Amazon, представившая Graviton3. Да, это чип, созданный сугубо для нужд конкретного гипескейлера, но тут важно то, что Amazon теперь разве что только оперативную память не создаёт собственными силами. В ту же сторону, по слухам, движутся Google и Microsoft. Да и у Alibaba Cloud теперь тоже есть собственный Arm-процессор Yitian 710. Из прочей восточной экзотики никак нельзя обойти вниманием суперкомпьютеры экзафлопсного класса OceanLight и Tianhe-3, построенные Китаем на процессорах собственной разработки. В сторону импортозамещения поглядывает и Южная Корея. А Евросоюз даже успел получить первую тестовую партию RISC-V чипов EPAC 1.0, которые, впрочем, относятся скорее к ускорителям. 2021 год вообще был успешным для RISC-V — анонсировано много продуктов, появились сильные стартапы вроде Ventana или Rivos, а российской Yadro предложили ₽27,8 млрд на создание серверного CPU. Что касается планов на 2022 год, то нас ждёт выход AMD EPYC Milan-X с 3D V-Cache, а также запуск сразу двух новых серий: Bergamo и Genoa. Конкуренцию им должны составить Intel Xeon Sapphire Rapids и уникальные Tachyum Prodigy. Ampere представит следующее поколение CPU с уже собственными Arm-ядрами Siryn, а SiPearl должна показать чипы Rhea. «Байкал Электроникс» налаживает серийное производство Baikal-S (и уже готовит Baikal-S2), а МЦСТ — Эльбрус-16С. В следующем году появятся и серверные Arm-процессоры NVIDIA Grace, но для компании гораздо более важны чипы другого класса. DPUDPU или, лучше сказать, IPU (Infrastructure Processing Unit) — всё ещё новый класс устройств, на который тем не менее возлагают большие надежды. От изначальной задачи по «кормлению» вычислителей напрямую с внешних СХД, которой, к примеру, всё ещё в большей степени придерживается Kalray, перешли к более общей идее разгрузки самих серверов от служебных задач. Дальше всех в этом продвинулась NVIDIA, которая готовит уже третье поколение Bluefield вместе с конвергентными ускорителями и, самое главное, выстраивает экосистему ПО. Она и предлагает свои SDK, и сотрудничает, например, с VMware в рамках Project Monterey, в котором также участвуют Pensando и Intel. В ту же сторону смотрит Fungible, тоже, впрочем, не забывающая о СХД, и Nebulon. Но действительно крупным игроком в это секторе может стать Intel, анонсировавшая сразу три устройства IPU. Mount Evans, самое интересное из них, делается для Google. Не менее интересны Octeon от Marvell и Alveo SN1000 от Xilinx. В 2022-м мы наверняка увидим не только новые IPU, но и конечные продукты на их основе. Их уже можно встретить в HPC-системах и СХД, коммутаторах и брандмауэрах. УскорителиИз «больших» универсальных ускорителей можно вспомнить AMD Instinct MI200, который обещает быть самым быстрым сразу в нескольких категориях, а «на бумаге» в некоторых аспектах уже обогнал грядущие Intel Xe Ponte Vecchio. NVIDIA, что удивительно, в 2021 году представила только ряд «малых» ускорителей и просто невероятное количество различных программных решений, но анонса Hopper мы не дождались. На ниве FPGA наиболее высокую активность проявила, пожалуй, Xilinx. ![]() Новичками на рынке ИИ-ускорителей стали китайские DTU от Enflame и Big Island от Zhaoxin. Google представила уже четвёртое поколение TPU, а AWS — свои первые чипы Trainium (в дополнение к Inferentia). Среди уже не самых молодых стартапов отметились Cerebras со своим кластером суперчипов WSE-2; Graphcore и Habana получили важные для себя заказы, а Groq запомнилась получением неплохих инвестиций, как и SambaNova. Рынок ИИ-ускорителей вообще очень горяч, и это далеко не все его новости. В целом можно сказать, что сложилось довольно чёткое разделение — одни компании стараются создать решения для обучения всё более объёмных моделей, а другие метят в инференс-решения различного класса. Но действительно инновационных продуктов оказалось не так уж много. Так, Esperanto наконец довела до стадии производства ускорители ET-SoC-1, которые она сама называет суперкомпьютерами-на-чипе. Тысяча с лишним ядер RISC-V в одной SoC позволяют это делать. Ещё два стартапа — LightOn и Lightmatter — занимаются фотонными ускорителями. LightON в ушедшем году получила первый значимый заказ, Lightmatter — инвестиции. НакопителиИ здесь нас тоже поджидают ускорители. ScaleFlux представила чип SFX 300 и несколько продуктов на его основе, а Pliops — пока что только XDP Extreme. Оба решения снимают часть нагрузки с CPU и относятся скорее к классу так называемых вычислительных хранилищ (computational storage), которые увеличивают скорость работы ряда приложений (СУБД в первую очередь) и повышают срок службы SSD. Впрочем, этого же, пусть и с меньшей эффективностью, уже позволяют достичь более «традиционные» SSD с ZNS. Тем не менее Samsung, оставаясь лидером рынка, продолжает экспериментировать со SmartSSD для более узких ниш — в 2021 году она представила концепт накопителя со встроенным ИИ-ускорителем вышеупомянутой Esperanto. Другой необычной новинкой стал SupremeRAID SR-1000 от Graid — разработчики сумели перенести часть нагрузки на самый обычный GPU начального уровня от NVIDIA. Естественно, работу с NVMe-oF он тоже ускоряет. Из прочей экзотики нельзя не упомянуть и EM6, SSD со встроенным 25GbE-контроллером, который Kioxia создавала не один год, а также EL6 на базе XL-FLASH (конкурент 3D XPoint). Собственно, ни у кого уже нет сомнений, что ближайшее будущее за NVMe(-oF) и EDSFF (E1 и E3), а четвёртое поколение SAS, вероятно, станет последним. С выходом NVMe 2.0 наконец произошло разделение базовой спецификации, наборов команд, транспортного уровня и интерфейсов управления. Всё это открывает простор для расширения экосистемы NVMe. И нас ждут не только All-Flash СХД с NVMe/TCP и всё теми же computational storage и прочими специализированными накопителями, но и кое-что поинтереснее. Как и ожидалось, Seagate представила первый прототип СХД на базе SAS-шасси, но с NVMe HDD, а также связкой из нескольких контроллеров и FPGA. Готовые продукты стоит ждать не раньше середины 2024 года, да и прочая обвязка пока не готова. Так, например, предполагается подключать несколько накопителей по цепочке, чтобы просто «насытить» шину. Со временем новый интерфейс пригодится и для двухактуаторных дисков, которые наконец должны пойти в серию в этом году. Правда, обольщаться особо не стоит — и эти накопители, и будущие NVMe HDD предназначены в первую очередь для гиперскейлеров. «Обычные» жёсткие диски Seagate и Western Digital отметились взятием планки в 20 Тбайт. Но если у первой компании это просто развитие текущих серий, то у второй уже новая архитектура — OptiNAND. Она включает UFS-накопитель, но он используется не столько для кеширования, сколько для хранения служебных данных, которые ранее располагались непосредственно на пластинах. По словам разработчиков, это позволит создать более ёмкие HDD без использования SMR. Удивительно (и подозрительно?) вовремя появившаяся технология. По данным Coughlin Associates, в 2021 году поставки ёмких Nearline HDD выросли на 50 % (год к году), но в этом году прирост снизится до 20 %. В любом случае альтернатив для вторичных хранилищ всё равно сейчас нет, так что жёсткие диски останутся с нами ещё очень надолго. То же касается и ленточных накопителей для холодных данных — кстати, пусть и с некоторой задержкой, но на рынке появились первые решения LTO-9. CXL и PCIe 5.0CXL (Compute Express Link) неслучайно вынесен на первое место, поскольку шина PCIe 5.0, которую он использует, даёт лишь прирост скорости — для SSD, например. CXL же позволит на первом этапе разнести ресурсы, а впоследствии создать полностью дезагрегированные и компонуемые системы. И это уже практически новый стандарт будущего, так как консорциум CXL подписал меморандум с PCI-SIG и в конце года поглотил Gen-Z (всё равно 77 % членов у них и так совпадали). Наработки и концепции последней частично войдут в будущую спецификацию CXL 3.0. В сторону компонуемых решений уже давно двигаются GigaIO и LIQID, но наибольшую активность проявила Samsung. В прошлом году компания представила первую CXL-систему Poseidon V2, которая формально относится к СХД, но готова принять не только память и накопители, но и ускорители. Заодно компания анонсировала первый CXL-модуль DDR5 и SDK. Intel и Meta✴✴ (Facebook✴✴) пошли ещё дальше, показав рабочий прототип сервера с удалённой CXL-памятью. Подобные продукты начнут появляться уже в этом году. ПамятьСледующее поколение серверов принесёт не только PCIe 5.0, но и DDR5. Переход на новый стандарт, как ожидается, приведёт к подорожанию платформ, но дело не в цене на саму память, а в удорожании плат — для поддержания целостности сигнала необходима более сложная разводка с большим числом слоёв. Избежать этого можно с помощью или CXL, заплатив за это скоростью и задержками, или OMI. Последний вариант уже сейчас использует IBM, но пока не похоже, что этот стандарт в скором времени станет массовым. Альтернативным типам памяти аналитики пророчат уверенный рост. Более того, ожидается, что к концу десятилетия Optane PMem по суммарному объёму поставок обгонит DRAM. Вопрос лишь в том, действительно ли готова Intel играть в долгую, оставаясь пока что единственными производителем 3D XPoint и неся убытки. И не появятся ли новые, более доступные разновидности SCM вроде ULTRARAM. Всё же DRAM только-только догнала PMem по ёмкости. Из совсем уж альтернативных решений можно вспомнить PIM-модули AXDIMM от Samsung и XRAM от NeuroBlade. В обоих случаях разработчики поместили вычислительные ядра в непосредственной близости от RAM. У Samsung это ИИ-движки, а у NeuroBlade — ускорители для работы с СУБД и аналитикой. И в обоих случаях сделано это, надо полагать, потому, что сейчас разрыв в скорости обмена данными внутри устройств и между ними по-прежнему слишком велик. Более универсальным, но весьма необычным является FPGA-ускоритель Kestral c Optane PMem. Интерконнект и сетиNVIDIA и Intel в 2021 году представили 400G-платформы: Quantum-2 и Tofino 3. Обе, что характерно, с продвинутой телеметрией и высоким уровнем программируемости. Полностью раскрыть свои возможности они смогут в связке с вышеупомянутыми Bluefield-3 и Mount Evans. В России разрабатывается 200G-решение «Ангара-2». Cornelis Networks пока что пользуется 100G-наследием Intel, но готова и далее развивать Omni-Path. А вот из-за Slingshot от Cray, если верить слухам, может задержаться ввод в строй Frontier. Наконец, на рынке появился необычный стартап Rockport Networks, который предлагает относительно скромное, но очень интересное решение с пассивным оптическим коммутатором.
NVIDIA Quantum-2 Среди других важных событий есть обновление SiliconOne от Cisco, а также появление FP5 от Nokia и чипов Engiant от H3C. В скором времени стоит ждать анонса Spectrum-4 от NVIDIA/Mellanox. В целом, как отмечается, крупные потребители вовсю переходят на 100/200GbE и засматриваются на 400GbE. Ethernet Alliance рад развитию этих стандартов и нацеливается на более высокоскоростные решения, которые, впрочем, в освоении будут непростыми — вся надежда на кремниевую фотонику.
Rockport Networks Корпоративные беспроводные сети показали стабильный рост, хотя дефицит чипов всё-таки ударил по сегменту Wi-Fi 6, где за ушедший год, впрочем, никаких больших событий не было. Конкуренцию им, хотя и не во всех сферах, уже начали составлять частные сети 4G/5G. Любопытно, что слайсинг, на который операторы возлагали большие надежды, похоже, так толком и не прижился, и доминировать будут малые развёртывания, а также edge-решения. Хуже того, гиперскейлеры всё больше вторгаются в операторский бизнес. В случае сотовых сетей подход у «большой тройки» Amazon, Google и Microsoft несколько разнится, но все они так или иначе готовы или потеснить операторов в некоторых сегментах, или более плотно сотрудничать с ними. Кроме того, гиперскейлеры активно вкладываются в наземные и подводные магистрали, что неудивительно — в 2021 году впервые более половины глобального интернет-трафика пришлось именно на них. РынокОдними из главных событий в этом году стали разделения: VMware получила независимость от Dell, Kyndryl покинула лоно IBM, а NAND-подразделение Intel превратилось в Solidigm под крылом SK Hynix. Покупка Arm пока зависла, и, вероятно, NVIDIA так и не удастся завершить сделку. А AMD чуть выбилась из графика в процессе поглощения Xilinx, но каких-то особых препятствий ему нет. Ушедший год также оказался довольно богатым на инвестиции и отложенные ранее IPO, в том числе посредством SPAC. Здесь выделим DataBricks, которую буквально заваливают деньгами. Снова показали рост облака (даже в России), которые, как и все гиперскейлеры в целом, всё сильнее влияют на глобальный рынок. Во-первых, именно благодаря им будут расти поставки серверов как в краткосрочной, так и в долгосрочной перспективе. Они же быстро наращивают капитальные расходы и не только строят всё больше сверхкрупных ЦОД, но и увеличивают их мощность. При этом рынок ЦОД сам по себе второй год показывает рекордные результаты. Во-вторых, уже есть Dell APEX, HPE Greenlake (не сказать, к слову, что тут какой-то невероятный успех), Lenovo TruScale, Cisco Plus и масса других похожих решений от крупных вендоров. Все так или иначе предлагают облачный подход, то есть оборудование, ПО и услуги предоставляются по модели "как сервис" и оплачиваются по факту потребления. Такие платформы позволяют не только разворачивать локальные облака, но и формировать гибридные и мультиоблачные инфраструктуры. ЗаключениеУшедший год для многих компаний стал годом переоценки своих возможностей в условиях глобальной пандемии и порождённого ею дефицита всего и вся. Отложенные до лучших времён проекты или начали наконец реализовываться, или были окончательно заброшены. Увы, всё это, похоже, привело к тому, что крупные компании только повысили свою значимость. «Горячими» направлениями развития по-прежнему остаются ИИ и машинная аналитика, а скоро к ним, видимо, добавятся метавселенные. Интересно, надолго ли? Первые два направления привели к значительным изменениям и продолжают влиять на корпоративный IT-сектор — рост числа и разнообразия различных ускорителей продолжается (квантовые вычислители попадают в эту же категорию), и 2022-й год обещает быть, как это принято говорить, непростым и очень интересным. Но станет ли нам от этого легче жить? Чтобы ничего не пропустить в новом году, подпишитесь на нас в Twitter, Telegram, LinkedIn, Google News или Zen. Как VK c РСК в серверы СЖО внедряли
28.12.2021 [00:00],
Игорь Осколков
При построении и обслуживании инфраструктуры такого масштаба требуется учитывать массу параметров, среди которых даже самый незначительный на первый взгляд может кардинально повлиять на совокупную стоимость владения (Total Cost of Ownership, TCO), к минимизации которой стремятся все гиперскейлеры. Как происходит процесс выбора оборудования и почему решили попробовать систему жидкостного охлаждения (СЖО) в серверах, нам рассказал Станислав Закиров, директор по развитию инфраструктуры VK. В случае VK — а это не только ВКонтакте, но и масса других сервисов, включая Одноклассники, Mail.RU, Ситимобил, Delivery Club и т. д. — подход к построению инфраструктуры значительно изменился за последние несколько лет. За выбор аппаратной платформы отвечает отдельная тестовая лаборатория, которая изучает массу «железа», в том числе ещё не вышедшего. Одним из важнейших параметров при выборе является производительность на ватт, поскольку этот параметр оказывает драматичное влияние на будущие операционные затраты и, следовательно, на оценку TCO. Первичный отбор идёт с опорой на синтетические тесты, но затем кандидаты попадают в руки инженеров, которые смотрят как они справляются с реальными нагрузкой, данными и в реальном же окружении. С CPU снимается масса метрик, включая, например, уровень загрузки, время отклика, промахи кеша и т. д. Основное требование — чтобы новая система справлялась с задачами наиболее требовательных и крупных внутренних заказчиков максимально эффективно с точки зрения затрат на единицу полезной производительности. Излишние для менее требовательных задач мощности всё равно до определённой степени утилизируются, в чём помогает переход к облачной модели (в частности, контейнеризации и виртуализации) и программно определяемым решениям вкупе с грамотной оркестрацией. Собственно говоря, на данном этапе развития VK подошла к логическому концу — все новые машины имеют унифицированную платформу с единственным вариантом процессора, на которой строятся и CPU-узлы, и GPU-узлы, и СХД. Текущее поколение серверов базируется на двухсокетных платформах с Intel Xeon Platinum 8380 (40C/80T, 2,3/3,40 ГГц, L3-кеш 60 Мбайт, TDP 270 Вт). Проще говоря, используется самый старший процессор Intel на текущий момент. CPU теперь только один и платформа тоже одна. Закупаются они всё в больших объёмах, что значительно удобнее и выгоднее с точки зрения обслуживания и позволяет получить существенный выигрыш в цене. Настолько существенный, что даже использование двух-трёх платформ с отличающимися CPU и периферией в нынешних условиях и с текущими запросами VK оказывается в среднем дороже. И это даже без учёта дополнительных факторов вроде дозакупки CPU и прочих компонентов в будущем, ведь чем больше используемый ассортимент, тем труднее это будет сделать. Но у каждого гиперскейлера своя, очень интересная математика. Можно посмотреть, к примеру, на дизайн OCP-серверов Meta✴✴ (Facebook✴✴), а ещё лучше — на новые платформы AWS, которая «достигла вершин». AWS использует преимущественно собственные ЦОД и активно переходит на платформу с собственными же CPU Graviton3. Что и приводит нас к вопросу об операционных расходах, а точнее о балансе между CAPEX и OPEX. У VK сейчас всего два собственных дата-центра — в Москве и Санкт-Петербурге, а всё остальное приходится на арендованные площадки в других ЦОД, причём далеко не всегда самых новых. Это имеет свои последствия. Повышение плотности размещения вычислительных мощностей в рамках одного узла приводит к необходимости более сложных калькуляций для питания и охлаждения в рамках стойки и, далее, ЦОД. Так, для новой платформы было выбрано 2U-шасси просто потому, что в него можно поставить более крупные вентиляторы, снизив их скорость вращения и энергопотребление, которое быстро растет по мере увеличения нагрузки на «железо». Собственно говоря, в современных платформах c парой CPU, у которых TDP приближается к 300 Вт (в пике ещё выше), и прочими компонентами (ещё до 200 Вт) на питание только вентиляторов может уходить ещё треть от уровня потребления самого «железа». При этом масштабировать питание с типовых для коммерческих ЦОД (с их фактической средней нагрузкой по мощности, грубо говоря, на уровне двух третей) 5-7 кВт на стойку можно ещё относительно просто. А вот охлаждение — далеко не всегда. И это мы ещё не говорили про системы с ускорителями, где только «кремний» съедает от 3 кВт. Выход? Первый путь — резко снижать плотность размещения оборудования в стойках, что чаще всего невыгодно с точки зрения TCO и в своём ЦОД, и владельцам арендованных, особенно когда таковые расположены там, где стоимость земли является значительной статьёй расходов при построении дата-центра. Кроме того, это усложняет поддержание связности и повышает расходы на сетевую инфраструктуру. Второй — создавать собственные оптимизированные узлы и дата-центры, где уже можно экономить просто на масштабах развёртывания, как и делают крупные гиперскейлеры. Третий — повышать эффективность охлаждения. А вот как именно, вопрос отдельный. Повышать выработку холода для традиционного воздушного охлаждения может быть накладно, да и склонить оператора ЦОД (своего или чужого, нового или старого) к установке, скажем, ещё пары-тройки чиллеров (а это не только лишнее место, но и электричество) не всегда возможно, а часто не реализуемо даже технически. Компромиссный вариант — это СЖО, у которых эффективность выше, но которые, если это не иммерсионные системы, можно относительно просто внедрить даже в уже имеющуюся инфраструктуру. Да, не всегда и не везде. Да, капитальные расходы будут несколько выше, чем у классического «воздуха», зато в перспективе потенциально можно значительно сэкономить на операционных. Вообще говоря, для каждого отдельного случая надо делать отдельные расчёты, но если имеется возможность протестировать СЖО на существующих мощностях, а в планах есть дальнейшее расширение инфраструктуры, где без мощных систем с ускорителями уже никак не обойтись, то упускать такой шанс не стоит. Ровно такая ситуация сейчас у VK, которая, в частности, готовится к строительству третьего по счёту собственного ЦОД, который разместится в подмосковном Домодедово. Для изучения возможностей практического применения СЖО VK обратилась к компании РСК, которая создала систему «под ключ», компоненты собственной разработки: насосные блоки, систему распределения жидкости в стойке и водоблоки для CPU с TDP 270+ Вт. В начале лета 2020 года тестовая система была развёрнута в московском дата-центре VK (далеко не самом новом) — две стойки с различными типами узлов на 30 кВт суммарно, на каждую из которых приходилось по 5 кВт на «воздух» и по 10 кВт на «воду». На коммутацию систем ушло полдня, причём СЖО была в минимальном варианте, т. е. без резервирования. Затем эти машины были включены в общий пул, и на них запущены (и до сих пор работают) обычные продуктовые нагрузки. Изучив особенности поведения и эксплуатации машин и СЖО, найдя и устранив все проблемные места, а также отладив весь программно-аппаратный стек, компания приняла решение расширить тестовый полигон — всего сейчас 60 машин в Москве и ещё 40 в Санкт-Петербурге. Летом 2021 года в Москве появилось ещё несколько стоек с СЖО в серверах. В том числе два десятка GPU-узлов: те же два топовых CPU + восемь PCIe-ускорителей по 300 Вт каждый. При этом все горячие компоненты в таких узлах охлаждаются жидкостью. Сам контур пятикратно нарастил мощность и получил резервирование: для охлаждения жидкости установлены две градирни, а для создания циркуляции холодоносителя — два насосных блока. Причём насосные блоки РСК уникальны — это единственное решение, объединяющее насосы внутреннего и внешнего контуров в одном блоке вкупе с энергоэффективной схемой управления. Вся система охлаждения, включая градирни и насосы обоих контуров, потребляет пропорционально количеству установленных серверов с СЖО и реальной тепловой нагрузке. После обновления инженерам тестовой лаборатории снова пришлось помучиться с отладкой всей этой системы на разных уровнях. Начиная с того, что перевод GPU на СЖО намного сложнее, чем CPU, и заканчивая созданием развитой системы мониторинга, которая позволила понять, почему в синтетических тестах всё было хорошо, а под реальными нагрузками возникали проблемы. Это важно, поскольку ускорители участвуют в распределённом машинном обучении, и потеря даже одного из них неприятна. Заодно было подтверждено, что с ростом масштаба внедрения СЖО становятся всё более и более выгодным решением — каждый киловатт в новой тестовой 100-кВт системе с резервированием обходится значительно дешевле, чем в старой 20-кВт без него. И узел с исключительно воздушным охлаждением, согласно тестам, по факту потребляет не меньше, чем с СЖО (включая и внутренние, и внешние компоненты), а масштабировать только «воздух» значительно дороже. Такой гибридный подход с отбором тепла с помощью СЖО от удельно наиболее горячих компонентов (на них в среднем приходится 85% по питанию и, соответственно, охлаждению в конкретной системе) позволяет, например, намного проще перейти уже на фрикулинг (в том числе с адиабатикой). Итоговый коэффициент PUE составляет примерно 1,1 против традиционных 1,35–1,5. Поэтому даже если CAPEX для СЖО выше, CAPEX для дата-центра целиком (особенно с учётом IT-компонентов) может быть ниже, а экономия на OPEX на периоде от 3–5 лет и вовсе позволяет полностью окупить повышенные капитальные затраты. А само по себе снижение удельного пикового энергопотребления позволяет меньше потратить на закупку гарантированных мощностей, ИБП и генераторов. Кроме того, есть и целый ряд дополнительных факторов в капитальных затратах. Например, для «воды» — это как минимум вся «сантехника», дооборудование узлов и стоек и т. д. В случае только «воздуха» это весьма дорогие радиаторы и вентиляторы для высоких уровней TDP и более низкая плотность размещения оборудования в стойках. В случае VK расчёты показывают, что внедрение СЖО оказывается эффективным по ключевым параметрам решением. Это не значит, что у всех остальных будет точно так же. Даже нынешнюю платформу можно достаточно комфортно использовать в старых ЦОД. Но у VK уже есть планы на следующее поколение «железа», у которого TDP растёт (CPU 300+ Вт, GPU 500+ Вт), а вот критическая температура падает. И к его появлению надо готовиться уже сейчас, причем переход на СЖО для них будет ещё более эффективным, чем в нынешнем поколении. А возможность использования именно нужного (и топового) оборудования важна для развития бизнеса в целом. Как оно получится на самом деле, сейчас никто не готов сказать. Пока что в планах оснастить СЖО часть будущего ЦОД, получив опыт действительно массового развёртывания и эксплуатации узлов с «водой», а также остальной инфраструктуры — например, про СХД и сеть тоже нельзя забывать. Главное, что страха перед использованием СЖО в ЦОД уже нет. Есть понимание слабых мест и единых точек отказа, есть понимание, как решать проблемы. OceanLight и Tianhe-3: экзафлопс в восточном стиле
26.11.2021 [00:00],
Игорь Осколков
Итак, SC21 завершилась, шум вокруг «неофициально» появившихся экзафлопсных суперкомпьютеров поутих, а работа китайских учёных, выполненная на одном из них, получила премию Гордона Белла за развенчание мифа о квантовом превосходстве Google Sycamore (в которое, впрочем, еще в момент анонса пару лет назад поверили не все). Заявку на включение в TOP500 Китай в этот раз подавать не стал, а потому и подробностей о новых системах почти нет. Хотя это в целом не такая уж необычная практика — можно вспомнить многострадальный проект Blue Waters. OceanLightКое-что о суперкомпьютере SunWay (ShenWei) OceanLight узнать все-таки можно, так как было опубликовано сразу несколько научных статей, в которых даны отдельные кусочки информации. За их достоверность, впрочем, поручиться нельзя. Кроме того, кое-какие материалы были выложены ещё весной, когда начался ввод этой машины в эксплуатацию. В некоторых аспектах она повторяет TaihuLight, самую мощную систему предыдущего поколения, некогда лидера TOP500. OceanLight состоит из отдельных блоков (суперузлов), которые содержат по 256 узлов, объединённых между собой быстрой pan-tree-фабрикой. Сетевой адаптер (NIC) каждого узла имеет два интерфейса PCIe 4.0 x16 и предоставляет четыре 56-Гбит/с линии. Агрегированная пропускная способность фабрики превышает 1000 Тбайт/с в дуплексе при задержке менее 1,5 мкс, а число переходов от одного узла к другому внутри сети не превышает шести. СХД, о которой, увы, нет практически никакой информации, тоже включена в сетевую фабрику системы. Каждый узел содержит локальные SSD, 96 Гбайт DDR4 и один CPU ShenWei SW26010-Pro (SW26010P). Это 64-бит RISC-процессор, который развивает идеи модели SW26010 и поддерживает тот же фирменный набор инструкций SW64. Сам процессор состоит из шести групп ядер, объединённых mesh-сетью (тор), к которой подключаются и NIC. Каждая группа ядер включает собственный контроллер памяти (по 16 Гбайт на группу), одно управляющее ядро (MPE) и кластер из 64 вычислительных ядер (CPE). CPE организованы в виде mesh-кластера из 8 × 8 ядер (внутри они объединены в группы 4 × 4) и работают на частоте 2,25 ГГц. Каждое ядро имеет 32 Кбайт L1i-кеша и 256 Кбайт общей LDM-памяти, из которой опционально можно выделить блок 32 или 128 Кбайт для использования в качестве L1d-кеша. CPE сам определяет, какая конфигурация будет оптимальной. Для обмена данными между ядрами CPE-кластера используется RMA-интерфейс с пропускной способностью до 460 Гбайт/с. Между основной DRAM и LDM организован DMA-обмен с пиковой скоростью 307,2 Гбайт/с. Заявленный уровень задержки доступа CPE к основной памяти составляет менее 0,2 мкс. Ядро MPE, в отличие от CPE, имеет чуть более расширенный набор инструкций, работает на частоте 2,1 ГГц и доступно не только из пользовательского пространства. Впрочем, оба типа ядер имеют 256- и 512-бит SIMD-блоки. Есть поддержка FP64/FP32/FP16, а также целочисленных вычислений. Пиковая теоретическая FP64-производительность SW26010P составляет 14,026 Тфлопс, а FP16 — 55,296 Тфлопс. Для CPU разработан собственный компилятор с поддержкой C/C++ и Fortran, а также OpenMP, MPI 3.1, OpenCL, OpenACC 2.0 и ряд адаптированных библиотек. Впрочем, разработчики утверждают, что для портирования ПО достаточно изменить порядка 1% кода. И при правильном подходе производительность с увеличением числа ядер (упомянуто до 42 млн) может расти практически линейно. Но тут всё нет так однозначно. ATIP со ссылкой на свои (неофициальные) источники говорит, что на системе был запущен HPL, который показал 1,05 Эфлопс (по умолчанию в случае Linpack речь идёт о FP64). Пиковая заявленная производительность без конкретизации точности вычислений составляет 1,3 Эфлопс. В научных работах также приводятся такие цифры для конфигурации из 107 520 узлов и 41 932 800 ядер: 1,2 Эфлопс (FP32), 4,4 Эфлопс (смешанная точность, FP16) и 468,5 Пфлопс (FP64). Но! Это всё показатели для конкретных задач, исследуемых в рамках работ, и сравнивать их с результатами HPL других систем смысла нет. Однако есть и ещё одна цифра — для более комплексного бенчмарка HPCG учёным удалось добиться устоявшейся производительности в 5,91 Пфлопс при соблюдении всех правил. Если же добавить некоторые оптимизации, то можно добиться уже 27,6 Пфлопс. Для сравнения: Fugaku, лидер TOP500, сейчас набирает в HPCG 14 Пфлопс, а в HPL 442 Пфлопс. Японская система потребляет 29,9 МВт, а для OceanLight приводится цифра в 35 МВт ±10%. Так что о высокой энергоэффективности обеих систем речи нет. Tianhe-3Постройка второй экзафлопсной системы, условно называемой Tianhe-3, по данным ATIP, практически завершилась в октябре, и у неё есть перспективы дальнейшего расширения. Опять-таки неофициально сообщается о полном предварительном прогоне HPL, который показал устоявшуюся FP64-производительность на уровне более 1,3 Эфлопс (вот тут ATIP говорит уже о FP64), а пиковую — более 1,7 Эфлопс. И тут нам снова помогут публикации китайских учёных, в которых рассказывается о тестовом варианте системы. Первый прототип включал 512 узлов, 96 608 ядер, 98,3 Тбайт RAM и хранилище на 1,4 Пбайт. Пиковая теоретическая производительность составляла 3,15 Пфлопс, но в HPL удалось получить 2,47 Пфлопс (по умолчанию считается, что это FP64). Суперкомпьютер полагается в первую очередь на ускорители Matrix2000+, которые сами разработчики всё же называют CPU. Каждый узел содержит три таких ускорителя, работающих на частоте 2 ГГц. Matrix2000+ содержит 128 ядер, которые собраны в четыре независимых суперузла, объединённых быстрым внутренним интерконнектом. Суперузел, в свою очередь, включает четыре блока, каждый из которых состоит из восьми ядер, имеющих общий кеш с поддержкой когерентности. За обмен данными между ядрами отвечает отдельный движок. Ядра имеют конвейер переменной длины (от 8 до 12 стадий) и способны выполнить восемь FP64-операций за такт. Таким образом, пиковая производительность одного CPU составляет 2,048 Тфлопс. Архитектура ядер — RISC (без уточнения семейства) с дополнительными векторными инструкциями и отсутствием поддержки внеочередного исполнения. Интересной особенностью является поддержка векторов переменной длины, от 128 до 1024 бит, на уровне суперузла (возможно, и ядра), что напоминает Arm SVE (Fujitsu A64FX в Fugaku, к примеру, поддерживают SVE-512). Сам CPU имеет восемь контроллеров памяти DDR4-2400, что даёт каждому узлу до 768 Гбайт DRAM с суммарной пропускной способностью 614,4 Гбайт/с. Также имеется контроллер PCIe 3.0, который нужен, в частности, для сети. Интерконнект здесь тоже интересный и тоже собственной разработки. Он использует два вида ASIC — для подключения (HFI-E) и для маршрутизации (HFR-I) — и реализует механизм MP/RDMA (Mini Packet/Remote Direct Memory Access), а также аппаратную разгрузку. HFI-E используют подключения PCIe 3.0 x16 и предоставляют 200-Гбит/c порты (восемь SerDes-блоков 25 Гбит/с). HFR-I имеет 24 200-Гбит/с порта и суммарную пропускную способность 9,6 Тбит/с, а для передачи MPI заявлена задержка 1,1 мкс.
Плата с тремя чипами Matrix-2000+ (Фото: NUDT) Сетевая фабрика (двумерное дерево) использует активные оптические соединения и способна масштабироваться до 150 тыс. узлов. Более того, разработчики утверждают, что они добились и самой высокой в мире плотности размещения — 864 оптических порта в одном шасси. Фабрика поддерживает автономное управление ресурсами и планирование, функции изоляции и самовосстановления, да и в целом является программно определяемой. Для разработки ПО предлагается использовать компилятор MOCL для C/C++/Fortran с поддержкой OpenMP 4.5 и OpenCL 1.2. Ожидается, что система Tianhe-3 со временем будет доступна зарубежным пользователям — в отличие от OceanLight, которая в большей степени ориентирована на внутренние нужды Китая. В нынешний TOP500 Tianhe-3 вряд ли бы успела попасть в силу затянувшихся из-за пандемии сроков постройки, но есть шанс, что летом 2022 года она всё же будет включена в рейтинг. Описываемая архитектура отличается от той, что предполагалась ранее. На данный момент ничего не говорится об «обычных» CPU. Это должны быть наследники FT-2000+/64: ARMv8, 7 нм, 64 ядра, PCIe 4.0, DDR4, 2+ Тфлопс и поддержка FP16. Вероятно, именно их TSMC перестала производить весной этого года под давлением США. Ускоритель тоже должен быть другой, Matrix-3000: 96+ ядер, 10+ Тфлопс, HBM2 и PCIe 4.0. Текущее состояние этих чипов, а также наличие их в Tianhe-3 неизвестно. Планы КитаяТретья экзафлопсная система, ранее известная как Shuguang, должна была бы иметь «честную» производительность уже в 2 Эфлопс. Однако её запуск пока что перенесён на 2022 год, и проект находится в подвешенном состоянии. Дело в том, что изначальный подрядчик — компания Sugon — уже неоднократно попадал под санкции США, а имеющиеся у него технологии не позволяют самостоятельно создать эффективную машину такого класса. В активе Sugon остались процессоры Hygon Dhyana, клоны первого поколения EPYC, с которыми она без поддержки AMD вряд ли что-либо сможет сделать. ![]() Ранее компания грозилась каким-то образом перевести их на 7-нм техпроцесс Samsung или TSMC. Так что либо Sugon удастся каким-то чудом построить систему нужного класса, либо компания будет заменена другим подрядчиком, менее «токсичным» и способным получить современные западные компоненты. Есть и третий вариант — поскольку Sugon разрабатывала собственные ускорители DCU с обещанной производительностью до 15 Тфлопс, возможно, хватит и имеющихся Hygon для постройки машины. Однако всё это лишь часть общей картины. По данным ATIP, сейчас у Китая есть восемь крупных национальных суперкомпьютерных центров, два из которых появились в 2020 году. Ещё два появятся в ближайшее время. И уже введено в строй или готовится к этому несколько суперкомпьютеров производительностью от 100 до 500 Пфлопс (тут как раз лидер Sugon), которые могли бы изрядно поменять расклад сил в первой десятке TOP500. Более того, к 2025 году Китай планирует получить сразу две 10-Эфлопс системы. Мировой ландшафтСогласно данным Hyperion Research, в следующем году заработает первая — во всяком случае, первая публичная — экзафлопсная система Frontier с ожидаемой пиковой производительностью 1,5 Эфлопс и потреблением порядка 29 МВт. Полностью доступна она будет в III квартале 2022 года. Примерно тогда же должна начать работу Aurora с устоявшейся производительностью более 1 Эфлопс. У площадки неожиданно высокий уровень энергопотребления — 60 МВт. Если вся эта мощь уйдёт только на машину, то энергоэффективность её вызовет большие вопросы. И тогда же должен появиться суперкомпьютер El Capitan с ожидаемой производительностью 2 Эфлопс. Но фактически две последние системы будут окончательно введены в эксплуатацию только в 2023 году. В планах на ближайшие пару лет есть ещё несколько систем средних размеров. А в 2026-м систем экзафлопсного класса должно быть уже около десятка. Примерно столько же, как ожидается, будет и у Китая. Япония пока что полностью удовлетворена работой Fugaku и следующую большую систему хочет получить только в 2025 году, а до этого введёт в строй ещё пару машин поменьше. Великобритания после выхода из Евросоюза и последовавшего «отлучения» от ряда проектов оказалась в несколько затруднительном положении и готовится запустить только одну экзафлопсную машину в начале 2024 года. Подробностей о ней пока не известно. Проект Евросоюза EuroHPC в очередной раз натолкнулся на разногласия между участниками, так что первая крупная система, MareNostrum 5, несколько задержится. Всего же планируется построить три суперкомпьютера мощностью 150-200 Пфлопс в Испании, Италии и Финляндии. Также в скором времени должна заработать 550-Пфлопс система LUMI. В остальном мире первые экзафлопсные машины должны появиться после 2023 года, но их будет совсем немного. ЗаключениеНекоторое удивление вызвал даже не сам факт появления у Китая столь мощных систем, а то, что обе машины базируются на чипах собственной разработки, которые оказались, если верить результатам китайских учёных, не так уж и плохи в сравнении с американскими решениями и способны показать возможности не только исключительно экстенсивного наращивания производительности. По крайней мере, на текущий момент это так. Впрочем, в любом случае это системы нового поколения, как и Fugaku. При этом надо понимать, что возникли они не из ниоткуда — о планах было заявлено почти 10 лет назад, а ранние прототипы появились в 2018-2019 гг. В этом отличие, например, от Европы, где только в последние годы громко заговорили о необходимости технологической независимости — насколько такая независимость вообще возможна при нынешнем уровне глобализации. Европейские производители разрабатывают собственные HPC-чипы (Arm, RISC-V и Tachyum), но готовы комбинировать их и с другими решениями. Аналогичные проекты есть у Индии и Южной Кореи. А у Японии (помимо A64FX) есть и всякая экзотика вроде PEZY-SC или MN. В России же из заметных проектов можно, наверное, выделить «Эльбрус-16С»/«Эльбрус-32С» и будущие Baikal. Обзор HPE ProLiant DL160 Gen10: универсальный сервер начального уровня для SMB-сегмента
12.08.2021 [00:00],
Илья Коваль
ПлатформаHPE ProLiant DL160 Gen10 — это довольно универсальная платформа, подходящая и для сугубо локального развёртывания, и для формирования инфраструктуры гибридного облака. Всё зависит от конфигурации, которая в данном случае настраивается в довольно широких пределах. Сервер располагает двумя гнездами для процессоров Intel Xeon Scalable первого и второго поколений — от Bronze до Platinum, c TDP не более 150 Вт. Система может работать с одним или двумя (естественно, одинаковыми) CPU. На каждый сокет приходится по 8 слотов для оперативной памяти (L)RDIMM DDR4-2400/2666/2933 ECC — при установке 64-Гбайт модулей во все 16 слотов можно суммарно получить 1 Тбайт RAM. Скорость памяти будет зависеть от модели CPU и числа модулей: так как каналов у процессоров шесть, а слотов восемь, при максимальном заполнении два канала у каждого процессора будут иметь конфигурацию 2DPC. От количества CPU зависит число доступных PCIe-слотов. С одним процессором будут доступны два слота PCIe 3.0 в двух различных конфигурациях. Можно использовать либо стандартный райзер, который даёт один x16-слот для FHHL-карт и один x8-слот для низкопрофильных адаптеров, или же райзер, дающий два x8-слота: для FlexibleLOM-адаптера + любой другой низкопрофильной карты расширения. Второй процессор позволяет задействовать третий x16-слот, опять же для какого-нибудь низкопрофильного адаптера. Несмотря на компактность — 1U-шасси глубиной 61,5 см, — сервер предлагает гибкие возможности конфигурирования. На задней панели есть два 1GbE-порта RJ-45, выделенный 1GbE-порт для iLO, видеовыход VGA и пара портов USB 3.0. Если, допустим, стандартных сетевых возможностей мало, то можно поставить не только обычный или FlexibleLOM-адаптер (1/10/25/100GbE, InfiniBand EDR или Omni-Path), но и отдельный Media-модуль на два порта 1/10GbE, который не будет занимать PCIe-слот. C RAID похожая ситуация. В стандартную поставку входит программный контроллер Smart Array S100i SR (только SATA), но на плате есть и отдельный слот под другие варианты Smart Array, которые представлены в ассортименте, а также отсек для BBU. Никуда не делась и давняя «фишка» серверов HPE — наличие на плате внутреннего порта USB 3.0 и картридера microSD. Для подключения дисковой корзины есть три порта Mini-SAS, а пара портов SATA-3 пригодится для опционального PCIe-адаптера для двух M.2 SSD. Дисковая корзина с поддержкой горячей замены накопителей представлена двумя вариантами: либо на 4 LFF (3,5”), с опциональным DVD-приводом, либо на 8 SFF (2,5”), с оптическим приводом, на место которого можно поставить ещё один блок для пары SFF, получив таким образом до 10 накопителей в 1U. HPE предлагает массу вариантов накопителей SAS-3/SATA-3 — как SSD, так и HDD, ориентированных на различные типы нагрузки. Суммарная ёмкость дисковой корзины может достигать 76,8 Тбайт. За охлаждение сервера отвечают высокооборотные (до 27 тыс. RPM) быстросъёмные вентиляторы 40 × 28 мм. Три — в случае одного установленного процессора, шесть — в случае двух. Также можно установить ещё один запасной вентилятор, четвёртый или седьмой по счёту соответственно. Питается система от одного или двух (с поддержкой горячей замены) БП класса 80+ Platinum или Titanium мощностью 500 или 800 Вт, которые отдают 12 В. Доступен также БП с поддержкой ввода 48 В DC. БП оснащены индивидуальными вентиляторами и индикаторами состояния. На переднюю панель выведены порт USB 3.0, USB-порт для iLO, блок с кнопками и индикаторами. Также тут есть выдвигающийся «язычок» с информацией о модели сервера и серийным номером. Из не упомянутых ранее особенностей отметим наличие поддержки TPM-модуля, возможность установки датчика вскрытия и вывода на заднюю панель последовательного порта, а также использование чипсета серии Intel C622, который и отвечает за практически доступные порты. В комплекте с сервером поставляются металлические рельсы, рассчитанные на стойки глубиной от 60 до 90 см и позволяющие полностью его выдвинуть. Инструменты для работы с сервером не нужны, хотя кое-где для надёжности есть дополнительные винтовые крепления. Неиспользованные посадочные места (для накопителей, вентиляторов, БП) закрыты быстросъёмными заглушками, крышка (со схемой и краткой инструкцией на внутренней стороне) фиксируется пластиковой защелкой, накопители поставляются уже установленными в лотки, у блоков питания есть свои ручки и фиксаторы, даже карты расширения и рельсы для крепления в стойке можно установить, не используя отвёртки.
iLO 5 и встроенные утилитыОдной из основных особенностей любого сервера HPE является система управления, обеспечения безопасности и мониторинга сервера iLO, в данном случае уже пятого поколения. Она объединяет в себе функции BMC, аппаратного RoT, iKVM и ряд других. iLO предлагает как веб-интерфейс, так и RESTful API для интеграции со сторонними системами, а также доступ по SSH. При установке соответствующих агентов ОС в iLO появляется дополнительная информация о её состоянии и работе. У сервера есть выделенный Ethernet-порт для работы с iLO, но можно использовать и соседние сетевые порты. Есть два варианта лицензии iLO: Standard и Advanced. Первая доступна по умолчанию, а за вторую придётся доплатить. Различия между лицензиями приведены в этом документе. Немалая часть функций, доступных только для Advanced-версии, в SMB-сегменте или при использовании одиночного сервера не очень-то и нужны: интеграция с Active Directory, поддержка Kerberos и двухфакторной аутентификации, iLO Federation (для управления большим парком оборудования), Workload Advisor (мониторинг и профилирование настроек под конкретную нагрузку), тюнинг энергопотребления и так далее. iLO 5 Advanced
Однако есть несколько функций, ради которых Advanced-версию всё же стоит приобрести (тем более что на фоне стоимости самого «железа» расходы на лицензию не так уж велики), предварительно протестировав в течение двух месяцев с временным ключом. Во-первых, в Standard консоль iKVM (HTML-5 непосредственно в браузере или апплеты Java и .NET) работает только до загрузки ОС и не поддерживает удалённое монтирование образов ISO и IMG (флоппи). Во-вторых, только в Advanced есть возможность отправки уведомлений на e-mail и syslog-сервер. В-третьих, расширенный мониторинг производительности тоже доступен только с Advanced-лицензией, равно как и функции блокировки конфигурации сервера, а также система автоматической проверки целостности прошивок и их восстановления из резервной копии в случае, если проверка не будет пройдена. Впрочем, версия Standard тоже предлагает массу возможностей по обслуживанию системы. Встроенные утилиты представлены средствами расширенной самодиагностики сервера и работы с логами, менеджером RAID-контроллера Smart Storage Administrator, а также набором Intelligent Provisioning (IP), c которым мы знакомились ещё на примере ProLiant MicroServer Gen10 Plus. IP включает средства обслуживания и предлагает рекомендуемые производителем настройки параметров, а также имеет мастер установки для Windows Server, VMware ESXi или ClearOS в упрощённом (Rapid Setup) и детальном варианте. Увы, с ISO-образом системы с сайта Microsoft он так и не научился корректно работать. ТестированиеHPE предлагает несколько базовых конфигураций, но у партнёров компании можно подобрать практически любую. Нам достался вариант P35515-B21: один Intel Xeon Silver 4210R (10C/20T, 2,4-3,2 ГГц, L3-кеш 13,75 Мбайт, TDP 100 Вт; P21191-B21), один одноранговый 16-Гбайт модуль памяти HPE Smart Memory DDR4-2933, один БП HPE Flex Slot Platinum 500 Вт, корзина на 4 LFF-накопителя. Дистрибьютор, который предоставил сервер на тест, дополнил конфигурацию ещё тремя 16-Гбайт модулями памяти DDR4-2933 (P00920-B21) и двумя жёсткими дисками 3,5” ёмкостью 1 Тбайт (SATA-3, 7200RPM; 861686-B21). В скобках даны номера компонентов в каталоге HPE, и только с ними компания гарантирует совместимость. Естественно, подавляющее большинство из них изготовлено сторонними компаниями, однако не стоит думать, что если вы нашли точно такой же компонент, но не перемаркированный HPE, то проблем с ним не будет, — могут отличаться и прошивка, и некоторые характеристики. Даже в нашем случае три из четырёх модулей памяти, которые заявлены как DDR4-2933, по факту оказались стандарта DDR4-3200. В настройках BIOS/UEFI (приведены в галерее ниже) сервера был выставлен режим Static High Performance Mode, а для охлаждения выбран профиль Maximum Cooling. И это вынужденная мера. Дело в том, что в iLO датчик температуры процессора показывает отличное от измеренного сторонними утилитами значение, хотя от него зависит скорость вращения вентиляторов. Проще говоря, процессор может уходить в троттлинг. Поэтому для удобства и был выбран режим, в котором скорость вентиляторов всегда максимальная. Если сервер, как и положено, находится в выделенном помещении/шкафу, то никаких проблем это не создаёт. BIOS/UEFI HPE ProLiant DL160 Gen10
Smart Storage Administrator
Накопители были объединены в массив RAID-1 силами встроенного контроллера Smart Array S100i SR с настройками по умолчанию. На полученный том была установлена ОС Microsoft Windows Server 2019 Standard (64-бит, сборка 17763) со всеми обновлениями, доступными на момент тестирования. То же касалось и прошивок всех компонентов. Единственное, что потребовалось, — подсунуть инсталлятору драйвер для RAID-контроллера. Драйверы и прошивки для всего остального оборудования свободно доступны на сайте производителя. Надо сделать оговорку, что приведены результаты общих тестов производительности данной конкретной конфигурации, то есть это примерная оценка возможностей. На практике всё-таки сервер берётся под конкретные рабочие задачи, и, если есть такая возможность, лучше воспользоваться демофондами партнёров HPE, чтобы протестировать систему на реальных нагрузках в реальном же окружении. В Geekbench 5 система набрала 7374 балла в многопоточных нагрузках и 851 — в однопоточных. В PCMark 10 Express она получила 3301 очко в тестах с настройками по умолчанию и 3369 очков при отключённом использовании OpenCL. В комплексном тесте SPECworkstation 3.1.0 рейтинг процессора при использовании всех 20 доступных потоков составил 1,74, а подсистемы хранения — всего 0,1. В бенчмарке PCMark 10 Data Drive массив заработал 240 баллов, а в сценарии System Drive — 142 балла. Задержка DPC плавала в районе 1000 мкс. В целом все показатели ожидаемые. Единственный нюанс заключается в том, что, на наш взгляд, всё же лучше обзавестись более продвинутым аппаратным RAID-контроллером, а для ОС использовать SSD. ЗаключениеВ ходе знакомства сервер никаких сюрпризов не преподнёс — и это, пожалуй, самая важная характеристика для данного класса устройств. Хорошо проработанная, надёжная, удобная и сбалансированная платформа действительно довольно универсальна. Как и было сказано в начале, она рассчитана в первую очередь на SMB-сегмент и в полной мере соответствует его требованиям. При этом прямого аналога в поколении Gen10 Plus у него, на наш взгляд, нет. Про стоимость мы до этого умышленно не говорили, так как для SMB это острая тема. Базовая конфигурация (P35515-B21) сама по себе сравнима с показателями небрендовых решений. Но протестированная конфигурация включала фирменные накопители и дополнительную память. Поэтому для принятия решения следует учитывать, что в авторизованном канале HPE с помощью инструмента HPE iQuote (есть у дистрибьюторов HPE) и дисконтной программы Flex Offers, являющейся его частью, можно получить дополнительные скидки на выбранные конфигурации, либо сразу запросить специальные цены у вендора. Ещё одним весомым аргументом является гарантия. Даже в базовом варианте, безо всяких дополнительных подписок, после покупки сервера она действует в течение 3 лет и включает ремонтные работы, если они вдруг понадобятся, а также подразумевает обслуживание с выездом специалиста к заказчику на следующий рабочий день после подачи заявки — у HPE очень широкая зона сервисного покрытия. При покупке расширения базовой гарантии можно получить существенные преимущества, например, покрытие гарантией всех комплектующих. Обзор нововведений шлюза безопасности Ideco UTM 10: покоряя космос
19.07.2021 [00:00],
Илья Коваль
Чуть больше полугода назад мы знакомились с Ideco UTM 8, а теперь на носу выход уже десятой версии. Смена релизного цикла — теперь компания будет стараться придерживаться периодичности один релиз в квартал — связана с пересмотром метода именования версий, а также с переходом с CentOS на Fedora в качестве базовой ОС. Это полезно знать потому, что предыдущая версия (относительно текущей актуальной) хоть и не перестанет получать обновления безопасности и исправления, но активно развиваться не будет. ![]() Возможности Ideco UTM 10Ideco UTM 10 — заметная веха в развитии продукта. Одно из важных изменений — увеличение скорости обработки трафика и обновление платформы. Десятый релиз базируется на Fedora 33 и использует свежую версию ядра Linux 5.11, чем многие конкуренты похвастаться не могут, хотя актуальность ядра становится всё более важной и из-за закрытия уязвимостей, и из-за поддержки большего числа функций современного «железа» (проще говоря, драйверы более свежие). Процесс установки существенным образом не поменялся, хотя сейчас (пока, во всяком случае) в инсталляторе и в меню администратора используется «чистый» CLI вместо псевдографики. Минимальные требования к оборудованию что для bare-metal, что для ВМ: поддержка UEFI (увы, всё ещё без Secure Boot), 8 Гбайт RAM и два сетевых интерфейса. Разработчики рекомендуют использовать адаптеры Intel как наиболее беспроблемные. Если есть сомнения в выборе платформы, можно посмотреть на обновлённые конфигурации готовых программно-аппаратных решений, которые предлагает компания. Установка Ideco UTM 10
Отдельно останавливаться на всех основных функциях и возможностях Ideco UTM здесь, мы, пожалуй, не будем — об этом подробно написано в обзоре восьмой версии. Однако некоторые ключевые всё же кратко перечислим, а о нововведениях расскажем ниже:
Про последнюю функцию надо сказать пару слов, так как она появилась недавно — в Ideco UTM 9. Для её работы требуется отдельный накопитель SAS/SATA, где будет храниться содержимое почтовых ящиков. Настроек тут не очень много, но всё базовое необходимое есть: алиасы и переадресация, чёрные/белые списки, квоты, просмотр очереди, фильтрация по серым спискам и DNSBL, антиспам от «Касперского» (требуется отдельная лицензия). TLS-сертификат и DKIM-ключ генерируются автоматически. Наконец, есть симпатичный и удобный веб-интерфейс на базе RoundCube. Почтовый сервер/релей
Одним из ключевых изменений в 10-й версии стала поддержка множественных групп безопасности Active Directory, куда входит один и тот же пользователь. Теперь они импортируются в виде независимых объектов в Ideco UTM наряду с собственно группами пользователей. Управлять параметрами можно непосредственно в AD — единожды проассоциировав группу безопасности с каким-либо правилом фильтрации трафика в Ideco, в неё со стороны AD можно добавлять пользователей или удалять их в ней. Для этой группы будут автоматически срабатывать правила фильтрации, причём без необходимости реавторизации самих пользователей. Второе важное и долгожданное нововведение — расширенный мониторинг трафика. Долгожданное оно потому, что, согласно внутренним исследованиям Ideco, до 40 % трафика приходится на «мусор», не относящийся к рабочим задачам предприятий: рекламу, BitTorrent, стриминг, онлайн-игры и так далее. Теперь же в мониторе можно увидеть не только данные о потреблении трафика (скорость, пакеты в секунду, сессии) отдельным узлами в локальной сети, но и конкретно откуда и куда, по каким протоколам и в каких приложениях, насколько долго ведётся сетевая активность каждого отдельного узла. Эта функция особенно актуальна сейчас, когда множество компаний перевели сотрудников на удалённую работу, но им тем не менее требуется доступ к каким-либо внутренним ресурсам. Ещё одной новой функцией в Ideco UTM 10 стало появление отчётности о типе и длительности VPN-подключений пользователей, что позволит отследить, кто и когда подключался к шлюзу. В будущих релизах появится возможность мгновенно блокировать «мусорные» подключения непосредственно в мониторе трафика, а также развёрнутая отчётность, куда будут попадать и указанные выше данные по трафику узлов. Мониторинг
Третья новинка в Ideco UTM 10, которая, правда, была недоступна в изучаемой нами бета-версии, касается VPN. К уже привычным протоколам наконец добавился Wireguard. Это современный, быстрый, надёжный, безопасный, нетребовательный и даже, можно сказать, изящный VPN-протокол, поддержка которого давно внедрена непосредственно в ядро Linux. Единственный его недостаток для массового пользователя, если сравнивать с более распространенными протоколами, — отсутствие встроенного клиента в современных же массовых ОС (речь, конечно, в первую очередь о Windows). Именно поэтому компания готовит собственную версию клиента Wireguard для Ideco UTM, максимально упрощённую для конечного пользователя, которому при подключении понадобится указать лишь домен, имя и пароль. Клиент будет поставляться в виде msi-пакета для Windows 8.1/10, что упростит его развёртывание посредством AD. Из полезных функций стоит отметить автоматическое обновление, а также переподключение к VPN-серверу при смене интернет-соединения или неполадках в нём. В дальнейшем планируется добавить различные опции, связанные с фильтрацией, безопасностью и передачей маршрутов. Кроме того, появится и версия клиента для Linux, в том числе для отечественных дистрибутивов. Из более мелких (внешне, но не внутренне) изменений есть ещё парочка. Во-первых, вернули настройки Master-зон DNS, хотя разработчики всё равно рекомендуют орудовать ими на отдельном DNS-сервере и уж тем более не пытаться использовать их для блокировки отдельных сервисов и ПО — для этого есть функция контроля приложений. Во-вторых, для упрощения настройки были разведены статические маршруты для LAN и WAN. В будущих версиях появится весьма полезная опция допуска узлов, которым запрещён интернет-доступ, к определённым онлайн-службам (Office 365, например). В-третьих, в настройках файрвола появилась возможность тут же завести новый объект — IP-адрес(а), подсеть, домен, а не ходить лишний раз в другой раздел. Дальнейшие планы по развитию продукта во многом исходят из запросов пользователей. Так, в частности, обещана поддержка двухконтроллерной работы по схеме Active-Active (но пока без почтового сервера). Также появится ещё более детальная отчётность, где, к примеру, можно будет посмотреть полные адреса посещённых URL за HTTPS. Из каких-то сугубо технических моментов можно упомянуть отказ от iptables и переход на более современные техники работы с трафиком в ядре. ЗаключениеПозиционирование у Ideco UTM прежнее — это современный межсетевой экран следующего поколения (NGFW/UTM), который от многих других решений отличается отсутствием привязки лицензии к конкретному «железу» от производителя. Компания даже предлагает скидку для пользователей уже неподдерживаемых продуктов Microsoft TMG, StoneGate Firewall & VPN, eSafe Web & Mail Security Gateway, а также Kerio Control. Несмотря на то, что Ideco UTM базируется на open source-компонентах, он всё равно (по мнению компании, с которым трудно не согласиться) выгоднее условно-бесплатного «самосбора» на базе Linux или FreeBSD. Ключевое слово здесь — «условно», потому что достичь такой же высокой степени интеграции и вместе с тем простоты настройки всех компонентов и функций самостоятельно малореально, если только вы сами не разрабатываете аналогичный продукт. И уже тем более невозможно самим заниматься обновлением баз для функций защиты и получать сертификацию ФСТЭК. Кроме того, одна из фишек Ideco UTM — встроенный чат для общения с техподдержкой, которая оперативно реагирует на запросы, — никуда не делась. Если учесть все эти факторы, цена от 33 750 руб. за бессрочную лицензию на 25 пользователей с годовой подпиской на обновления баз и ПО, а также техподдержку не выглядит завышенной. Обзор ИБП Ippon Smart Winner II 1550 1U: эффективная и удобная модель
19.05.2021 [00:00],
Дмитрий Васильев
В семейство стоечных ИБП Ippon Smart Winner II форм-фактора 1U входят всего две модели: мощностью 1150 и 1550 В·А. Нам на тестирование досталась старшая модификация. Модели данной серии основаны на линейно-интерактивной топологии с чистой синусоидальной формой выходного сигнала, имеют удобное управление через функциональное меню точечного ЖК-экрана или при помощи фирменного ПО Ippon WinPower.
Ippon Smart Winner II 1550 1U является представителем оптимального в плане соотношения цены и возможностей типа ИБП: линейно-интерактивный с выходным сигналом чистой синусоидальной формы. Они не столь дороги, как онлайн-ИБП с двойным преобразованием энергии, но при этом значительно функциональнее наиболее доступных резервных ИБП и обеспечивают лучшую совместимость с различными потребителями, чем линейно-интерактивные ИБП с аппроксимированной синусоидой выходного сигнала. В отличие от моделей Smart Winner II форм-фактора 2U (с одним из представителей которых мы недавно знакомились), ИБП Ippon в исполнении 1U не предусматривают возможности штатной установки вне серверной стойки, а также не обладают поддержкой дополнительных батарейных модулей. Однако они сохранили возможность установки опциональной сетевой карты SNMP II для удаленного контроля состояния и настроек рабочих параметров ИБП. Соответственно, возможности ИБП относительно гибкости настройки времени обеспечения автономной работы оказываются заметно скромнее (фактически доступен лишь выбор между двумя вариантами базовой выходной мощности), но многим вполне достаточно и такой функциональности. Гарантийный срок на ИБП и дополнительные батарейные блоки Ippon составляет два года с момента продажи (но не более 30 месяцев с момента изготовления). Упаковка, комплект поставки, внешний видИБП поставляется в неокрашенной картонной коробке с информативным оформлением: на ней нанесены графические изображения устройства с разных ракурсов и основные данные о технических параметрах, производителе и гарантии. Комплект поставки включает следующее:
ИБП имеет вполне типичный для установки в стойку вид: корпус из неокрашенного металла и декоративную пластиковую панель спереди. Справа на передней панели размещены ЖК-экран и кнопки управления. Изначально они прикрыты защитной пленкой. Предусмотрена быстрая замена батареи без извлечения ИБП из стойки. Для этого надо снять пластиковую заглушку по центру передней панели, сдвинуть и снять правую половину пластиковой передней панели, разъединить контакты подключения батареи и, открутив два винта, снять металлическую заглушку и вытянуть на себя батарейный блок. Хоть эта замена и быстрая, но не «горячая»: как мы уже упоминали, возможности подключения дополнительных батарейных модулей не предусмотрено. Сзади размещены (слева направо): закрытый заглушкой разъем для карты расширения, вход шнура питания, решетка вентилятора охлаждения, сервисный порт стандарта RJ-45, разъем USB 2.0 Type-B для связи с ПК, разъем ROO/RPO, винт заземления и шесть розеток питания IEC C13 (первая троица — для подключения основного оборудования, а оставшиеся три разделены на две группы с возможностью настройки условий питания для них). При использовании ЖК-экран отображает белые символы на синем фоне. По умолчанию выводятся текущий режим работы, уровень заряда батареи и текущей нагрузки, время работы от батареи при текущей нагрузке, состояние настраиваемых групп выходов. Данные на экране хорошо читаются с любого ракурса. При длительном отсутствии управляющих действий экран отключается. Основное меню разделено на пять подразделов, в каждом из которых можно найти обширный выбор настроек. Благодаря хорошо читаемому экрану и удобным кнопкам управления настройка даже без использования фирменного ПО не составляет труда. Внутреннее устройствоВнутренний объем ИБП разделен на две практически равные по размерам части. В одной находится собственно начинка ИБП, во второй — аккумуляторный блок из шести батарей. Внутри в первую очередь привлекает внимание массивный сдвоенный трансформатор схемы AVR (автоматической регулировки входного напряжения), расположенный недалеко от задней стенки. За ним расположены разъемы задней панели с сопутствующей «обвязкой» и 40-мм вентилятор охлаждения. Силовые элементы размещены вдоль двух рядов массивных алюминиевых радиаторов, поблизости от передней панели. Управляющие микросхемы и ряд прочих элементов расположены в пространстве между боковой стенкой корпуса и одним из рядов радиаторов. Примененные в конструкции электролитические конденсаторы относятся к тайваньским брендам Elite и Jamicon — продукты не высшего ценового уровня, но достаточно качественные. Общее качество компонентов и сборки не вызывает нареканий: отсутствуют откровенно дешевые решения, нет экономии «на спичках» вроде монтажного клея, к аккуратности пайки претензий не возникает. Программное обеспечениеИБП серии Smart Winner II поддерживают работу с утилитой Ippon WinPower, обеспечивающей весьма широкую функциональность. Подробно мы уже рассматривали эту утилиту несколько ранее, так что не видим смысла повторяться. Методика тестированияДля тестирования мы задействовали нагрузочный стенд для блоков питания с подключенным к нему посредством ИБП блоком питания для создания четко дозированной нагрузки на ИБП. Для измерения параметров работы регулятора AVR и напряжений, при которых происходит переход на питание от батарей, мы использовали ЛАТР FNEX TDGC2-2K. Для снятия формы сигнала на выходе использовался USB-осциллограф Velleman PCSU1000 со щупом Hantek T3100 (делитель 1:100), подключенный к работающему от батареи ноутбуку. Результаты тестированияМы провели тесты ИБП при питании от сети для оценки работы схемы AVR (автоматического регулирования напряжения). При настройках по умолчанию (выходное напряжение 230 В) переход на повышающий трансформатор был отмечен при падении входного напряжения до 185 В (выходное напряжение при этом составляло 212 В). Обратный переход происходил при повышении напряжения до 196 В (максимальное выходное напряжение перед переключением составляло 234 В). Переход на питание от батарей отмечен при падении входного напряжения до 160 В — что вполне согласуется с обещаниями производителя. Выходное напряжение перед переключением на аккумулятор составляло 185 В. Возобновление питания от сети происходило при повышении напряжения до 165 В (выходное напряжение при этом составляло 190 В). При питании от батарей напряжение на выходе независимо от нагрузки практически не отклонялось от 230 В. Переход на понижающий трансформатор при установках выходного напряжения 230 и 220 В зафиксирован не был. При установке выходного напряжения 208 В переход на понижающий трансформатор отмечен на 230 В (выходное напряжение — 200 В). Обратный переход наблюдался при снижении входного напряжения до 222 В (минимальное выходное напряжение перед переключением — 194 В). Перехода на питание от батарей при повышенном напряжении не было даже при установке выходного напряжения 200 В (на входе 247 В, что составляет фактический предел для нашего ЛАТР, на выходе — 215 В). Полученные нами результаты полностью согласуются с заявлениями производителя относительно настройки работы схемы AVR (15 % повышения напряжения и 13 % снижения напряжения от входного уровня), а пороги срабатывания и повышения входного напряжения настроены вполне адекватно. Отметим, что переключение питания на батареи и обратно успешно происходило при подключенном к выходу ИБП блоке питания с выходной нагрузкой 600 Вт (с учетом КПД БП суммарная нагрузка составляла 650-700 Вт). Наконец, пора перейти к форме сигнала. При питании от батарей под нагрузкой 600 Вт (фактически больше с учетом КПД БП) мы видим практически идеальную синусоидальную форму сигнала. ВыводыВ целом Ippon Smart Winner II 1550 1U произвел на нас отличное впечатление качеством работы и удобством настройки. Да, он не может похвастаться столь же высокой базовой выходной мощностью и возможностью подключения дополнительных батарейных блоков, как уже знакомый нам Ippon Smart Winner II 2000, зато в пределах своей функциональности он гораздо удобнее в настройке без использования дополнительного ПО — спасибо хорошо читаемому дисплею и удачным кнопкам управления. Также у нас нет ни малейших претензий к алгоритму работы AVR. Цена устройства не самая низкая на фоне аналогов (хотя и далеко не самая высокая), зато у нас не возникло вопросов ни к качеству работы ИБП во всех режимах, ни к удобству управления (разве что к устаревшему графическому интерфейсу утилиты WinPower). Достоинства:
Недостатки:
Обзор Intel Xeon Ice Lake-SP: долго запрягали
07.04.2021 [17:18],
Игорь Осколков
Ice Lake-SP относятся к третьему поколению процессоров Intel Xeon Scalable. Первое, Skylake-SP (платформа Purley), вышло летом 2017 года. Весной 2019-го вышло второе поколение — Cascade Lake-SP в рамках платформы Purley Refresh, которое во многом можно считать работой над ошибками первого. А потом… Потом, летом того же года, появились AMD EPYC Rome, которые по ряду параметров — числу ядер, объёму кешей, числу каналов памяти и её скорости, числу линий PCIe 4.0 — оказались на голову выше Cascade Lake-SP. Intel оперативно (по корпоративным меркам, конечно) снизила цены на CPU c суффиксом L (4,5 Тбайт памяти на сокет) и упростила модельный ряд, отказавшись от процессоров с суффиксом M (2 Тбайт). А уже в 2020-м компания анонсировала новое семейство Cascade Lake-SP Refresh, но это во многом был маркетинговый ход. Да, значительная часть процессоров, поменяв имя, сохранила характеристики и получила значительное более низкую (иногда в разы) цену. Однако, к примеру, старшая на момент анонса модель Gold 6258R не является полным аналогом старшей же Platinum 8280, так как при прочих равных у неё 2 линии UPI, а не 3, что закрывает ей путь к использованию в многосокетных системах. Тем не менее эти два с половиной поколения сохраняют совместимость на уровне сокета и являются развитием микроархитектуры Skylake. А вот дальше началась небольшая чехарда. Первыми процессорами Intel Xeon Scalable третьего поколения стали 14-нм Cooper Lake-SP (платформа Cedar Island), тоже наследники Skylake, анонс которых летом 2020 года прошёл очень тихо, потому что на массовый рынок эти CPU не очень-то ориентированы. Они получили новый сокет LGA4189, поддержку памяти DDR4-3200 и Optane PMem 200 (Barlow Pass), 6 линий UPI и поддержку формата bfloat16. Это делает их, с одной стороны, идеальными для построения 4- или 8-сокетных систем для работы с действительно большими объёмами данных, а с другой — полезными для ряда ИИ-задач, причём даже в односокетном варианте (как у Facebook✴✴, например). При этом максимальное число ядер всё же осталось равным 28, как и у первых Skylake-SP, если не считать двухчиповых монстров Cascade Lake-AP. Вот с таким багажом Intel подошла к запуску AMD EPYC Milan, которые всё равно выигрывают в ряде аспектов, и к запуску 10-нм Ice Lake-SP, второго семейства Xeon Scalabale третьего поколения, и платформы Whitley. Модельный ряд Intel Xeon Ice Lake-SPIce Lake-SP делят с Cooper Lake-SP сокет LGA4189, но их платформы не совместимы между собой. Ice Lake-SP ориентирован на массовый рынок 1- и 2-сокетных серверов и включает модели серий Silver, а не только Gold и Platinum, как Cooper Lake-SP. Серии Bronze в этом поколении на старте нет. При этом в сравнении с Cascade Lake-SP (Refresh) различий между оставшимися сериями стало меньше, но до «плоской» модели AMD для EPYC, где чипы отличаются только частотой, числом ядер и объёмом кеша, пока далеко. Все процессоры Ice Lake-SP без дополнительных суффиксов в названии поддерживают 2-сокетные системы, имеют 2 FMA-порта AVX-512, включают SGX и TME, предлагают 64 линии PCIe 4.0 (бифуркация x16, x8, x4) и 8 каналов памяти DDR4, которые позволяют установить до 4 Тбайт DRAM (с 256-Гбайт модулями) или до 4 Тбайт Optane PMem 200. Суммарный объём памяти при одновременной установке DRAM и PMem достигает рекордных 6 Тбайт на сокет. Все прочие технологии, что были в Cascade Lake-SP, никуда не делись. «Исключительной», как обычно, является младшая серия Silver, которая дешевле всех остальных. В ней есть только один CPU с поддержкой Optane PMem 200, урезаны скорости памяти (DDR4-2667 для 1DPC/2PC) и UPI (10,4 ГТ/с, причём линий только две), максимальный объём SGX-анклавов ограничен 8 Гбайт, а также отсутствуют Speed Select и некоторые второстепенные функции. Ограничение серии Gold 53xx по частоте памяти в сравнении (DDR4-2933 для 1DPC/2PC) с 63xx выглядит несколько искусственным. К тому же стартовый набор 53xx совсем маленький. Самой многочисленной является серия 63xx. Её отличительные особенности: поддержка SGX-анклавов от 64 Гбайт и DDR4-3200 (1DPC) или DDR4-2933 (2DPC). У Platinum такие же анклавы, но для них работа в режиме DDR4-3200 официально поддерживается и для 2DPC (2 модуля на канал), хотя неофициально EPYC Milan, как мы ранее убедились, так тоже могут. К Platinum традиционно относятся модели с максимумом возможностей, и это касается не только числа ядер, частот и объёма кеша. Всего в стартовой линейке представлено 19 базовых моделей. Но есть и ещё процессоры с дополнительными суффиксами в названии, которые по характеристикам могут заметно отличаться от моделей с тем же индексом, но без суффикса:
Так как двойные суффиксы не предусмотрены, то единичные модели, подпадающие сразу под несколько категорий, отнесены только к одной из них. Число специализированных моделей сравнимо с числом базовых. При этом на практике из всего модельного ряда действительно массовым станет небольшое число процессоров, а значительная часть поставок, надо полагать, как обычно, придётся и вовсе на кастомные решения. Если сравнивать Ice Lake-SP с Cascade Lake-SP (Refresh) в целом, то минимальное число ядер поднялось с 6 до 8, TDP вырос с 70 до 105 Вт, а стартовая цена увеличилась с $213 до $501, так как Bronze больше нет. С максимумами ядер и TDP всё просто — они выросли с 28 до 40 и с 205 до 270 соответственно. Общая производительность благодаря приросту IPC и числа ядер от поколения к поколению, по данным Intel для старших Xeon Platinum 8280 и 8380, увеличилась примерно в 1,5 раза в обычных задачах, а в случае инференса для ИИ — в 1,74 раза, в том числе благодаря оптимизациям ПО. А вот с ценами уже не так просто. Прямого аналога Gold 6258R в новой серии нет, но ближайший кандидат Platinum 8358 с той же ценой в $3 950 предлагает 32 ядра вместо 28, но с меньшими частотами. Если же сравнивать Platinum 8280 с 8380, то последний на $1 900 дешевле при более привлекательных характеристиках. Однако при сравнении «голых» характеристик Intel Xeon и AMD EPYC за последние полтора года ситуация не поменялась — Ice Lake-SP отстают от Milan по числу ядер, объёму кешей, частотам, TDP в пересчёте на ядра и по цене. По последнему пункту снова сделаем важную оговорку, актуальную для обоих вендоров: цена CPU далеко не единственная и не всегда доминирующая часть в стоимости конечного проекта или решения. Платформа WhitleyОба вендора могут предложить 128 линий PCIe 4.0 в 2S-системах, а 4S/8S Ice Lake-SP и EPYC недоступны. Но в односокетных решениях по этому параметру однозначно лидирует AMD — все 128 линий доступны, так как не надо тратиться на шину Infinity Fabric. Для связи же двух Xeon между собой используется до 3 линий шины UPI, у которых слегка подросла скорость — с 10,4 ГТ/с до 11,2 ГТ/с (22,4 Гбайт/с в одну сторону). Основным чипсетом для новых Xeon остался Lewisburg Refresh С62xA, который предлагает ещё 20 линий PCI 3.0, по 14 портов SATA3 и USB 2.0 и до 10 портов USB 3.0. Со времён Skylake-SP серия лишилась встроенного контроллера 4×10GbE, сохранив лишь один 1GbE-порт управления, и ужалась всего до трёх моделей, две из которых поддерживают Intel QuickAssist Technology (QAT) и опциональное подключение к CPU не только по DMI, но и по 16 линиям PCIe. В 2S-системах при желании можно подключить два чипсета. Для EPYC наличие чипсета не является обязательным, так как это SoC, которая в том числе включает и аппаратный Root of Trust (RoT) на базе встроенной в сам процессор ещё одной SoC. У Intel в случае Whitley подход несколько иной. В этом поколении компания расширила технологию Platform Firmware Resilience (PFR), которая задействует сразу два аппаратных компонента: сам процессор и CPLD MAX 10 (по сути FPGA). При активации PFR после подачи питания контроль над всей системой остаётся в руках первого CPU и CPLD. Перед загрузкой проверяется целостность и корректность прошивок и параметров BIOS/UEFI, BMC, Intel ME, сетевых контроллеров, PCIe-устройств и так далее. И если что-то не совпадает, то заливаются заводские образы ПО, хранящиеся отдельно. Похожим образом происходит и обновление прошивок. Во время загрузки и после неё CPLD фактически контролирует ряд шин, включая SPI и SMBus, анализируя и фильтруя при необходимости их трафик. Таким образом можно избежать вмешательства в работу других компонентов: VRM, БП, бэкплейнов и т. д. А программируемость CPLD обеспечивает гибкость возможностей защиты для вендоров. Типичный и актуальный пример — контроль цепочки поставок, когда на заводе блокируется конфигурация железа и ПО, а разблокировка возможна только при вводе ключа, который передаётся уже конечному заказчику. Прошивка CPLD и прочее ПО будут выложены в открытый доступ на GitHub под лицензией MIT, так что вендоры смогут свободно использовать её и подгонять под свои нужды. Правда, есть у этой медали и обратная сторона — PFR можно использовать не только для защиты платформы, но и для более жёсткой привязки конечного пользователя к решениям одного производителя. Хотя на первый взгляд это всё же более мягкий вариант, чем AMD PSB, где дозволено навсегда привязать CPU к железу конкретного вендора. Архитектура Ice Lake-SPIntel настолько долго выводила в производство и на рынок Ice Lake-SP, что мы уже не раз рассказывали об особенностях новых процессоров. Наиболее полно о них компания поведала ещё в прошлом году. Так что здесь выделим некоторые ключевые нововведения, которые являются важной частью платформы и с помощью которых компания будет дистанцировать новинки и от прошлого поколения Xeon, и от EPYC. Микроархитектура Sunny Cove, анонсированная в конце 2018 года, успела дважды «засветиться» в мобильных решениях и даже добралась до десктопа, перебравшись с 10-нм FinFET техпроцесса обратно на 14 нм. Никаких дополнений к строению ядер, которое описано по двум предыдущим ссылкам, в серверном варианте не предусмотрено. Они действительно стали «шире» и «глубже» за счёт увеличения практически всех кешей/буферов/регистров, а также входной и исполнительной частей конвейера и имеют более высокую степень параллелизма. Но в целом это очередная итерация Skylake, хотя и получившая итоговый прирост IPC на уровне 20% в сравнении с Cascade Lake-SP. Внутренняя структура процессора не поменялась — это монолитный кристалл, в котором ядра и дополнительные агенты соединены mesh-сетью. Он стал больше и плотнее, но это не позволяет, к примеру, свободно наращивать размер L3-кешей и число ядер. Что, в свою очередь, отчасти компенсируется тем, что в кеш к соседу ходить быстрее и проще, и даже при межпроцессорном взаимодействии можно выиграть в задержках. В чиплетном дизайне, очевидно, будет неравномерность доступа при обращении к данным внутри одного чиплета или между ними. Интересно, как это будет подавать сама Intel в следующем поколении Xeon, Sapphire Rapids? Новый контроллер памяти (КП) предлагает восемь каналов DDR4-3200, что существенно лучше, чем шесть каналов DDR4-2933 в Cascade Lake-SP, да и агентов для mesh-сети у него теперь четыре, то есть вдвое больше, чем раньше. Процессор всё так же можно разбить на два NUMA-домена (SNC2). Из нового — аппаратная поддержка полного прозрачного шифрования памяти Total Memory Encryption (TME) ключом 128-бит AES-XTS, который генерируется и хранится внутри CPU. Это аналог технологии AMD SME. Основным же преимуществом нового КП остаётся поддержка памяти Intel Optane PMem 200 второго поколения, которая практически на треть быстрее, чем предыдущее, может работать в режиме 3200 MT/s на Ice Lake-SP и имеет ряд других оптимизаций. Но главное, конечно, то, что PMem дешевле обычной DRAM, а быстродействие такой памяти вполне достаточно для целого класса задач (но не для всех, конечно). Как уже отмечалось выше, суммарно на сокет сочетанием двух типов памяти можно набрать до 6 Тбайт: 8 × 512 Гбайт Optane PMem + 8 × 256 Гбайт DDR4. Однако PMem 200 несовместим с TME и SGX. И так как Intel теперь стала единственным производителем 3D XPoint, память Optane останется эксклюзивом для её платформ. Как в виде DIMM, так и в виде SSD. И да, поддержка PCIe 4.0, с одной стороны, позволит, наконец, компании в полной мере воспользоваться преимуществами собственных Optane (P5800X) и SSD-накопителей (TLC и QLC, пока они окончательно не перешли к SK Hynix), включая высокоплотные EDSFF E1.L, а также свежих двухпортовых 100GbE-адаптеров E810 и FPGA Agilex. А с другой — ещё больше подстегнёт развитие экосистемы PCIe 4.0. Следующее важное нововведение, которое на самом деле не такое уж новое, — это расширение поддержки технологии SGX (Software Guard Extensions), которая позволяет создавать в памяти анклавы, защищённые от вмешательства ОС, гипервизора и периферии (по DMA). Собственно, расширения SGX появились в составе Skylake, но были представлены лишь в некоторых CPU (Xeon E) и имели ограничение по размеру анклава (до 64 Мбайт). Фактически с их помощью можно было обрабатывать лишь малые объёмы каких-то критических данных. Тем не менее вокруг технологии сложилась небольшая экосистема: её поддержка есть в популярных гипервизорах, существует сразу несколько SDK, она реализована в Microsoft Azure и IBM Cloud и так далее. Ice Lake-SP значительно расширяет возможности использования SGX, так как максимальный размер анклава составляет от 8 до 512 Гбайт, но для большинства SKU этот показатель равен 64 Гбайт. Intel SGX отличается от AMD SEV, но тоже подходит для реализации полноценных конфиденциальных вычислений, федеративного обучения или обработки данных. А вот про что в своём докладе Intel не говорила, так это про аппаратные заплатки от последних уязвимостей. Видимо, считается, что всё в порядке. Наконец, ещё один «конёк» Xeon, инструкции AVX-512, получил новые расширения, которые касаются работы с СУБД, (де-)компрессией и шифрованием. Опять-таки, не для всякого софта они полезны, но именно благодаря им Xeon может обгонять другие CPU по чистой производительности во многих аспектах. Расширения DL Boost для работы с ИИ тоже никуда не делись, а прирост в числе ядер вообще позволяет Intel говорить, что в некоторых задачах инференса Ice Lake-SP быстрее не только EPYC, что ожидаемо, но и GPU. Что ещё более важно, инструкции SSE, AVX2 и AVX-512 разделены на лёгкие и тяжёлые, и для них принята разная политика управления частотами — лёгкие инструкции могут дольше работать на более высокой частоте. А переработка внутренней системы питания теперь позволяет ядрам, агентам, mesh-сети и процессору в целом быстрее переключаться между частотами и состояниями. Кроме того, RDT теперь позволяет динамически менять приоритизацию запущенных потоков и пропускной способности кеша и памяти. ПроизводительностьПо данным Intel, производительность платформы в целом от поколения к поколению в итоге выросла в 1,46 раза. По отдельным направлениям этот показатель ещё выше: 1,74 для ИИ-инференса, 1,48 для шифрования, 1,58 для облачных микросервисов, 1,72 для виртуализации, 1,64 для транзакций СУБД, 1,53 для HPC. Достигается это благодаря и росту числа ядер, и новым инструкциям, и оптимизациям как железа, так и ПО. Последний пункт вообще очень важен для Intel — компания активно вкладывается в развитие и своего софта, и open source-решений, и решений партнёров. И в принципе стала несколько более открытой, особенно после запуска oneAPI. Сравнение производительности для Intel Xeon Ice Lake-SP
В этом отношении AMD пока отстаёт, но у компании сейчас есть все возможности нагнать конкурента, и она активно работает над этим. Если же смотреть не только на CPU, а на экосистему в целом, то тут Intel готова предложить ещё больше интеграции как с собственным железом и ПО, так и с другими продуктами. Компания регулярно напоминает о синергии своих решений (и скидках), которая и даёт повышение производительности в различных задачах, но относиться к этому можно по-разному. Привязка к одному вендору упрощает обновление и миграцию, но может и лишить некоторых важных возможностей, как это было с PCIe 4.0. Но мы на этот раз в силу ограниченности времени и ресурсов остановимся на знакомстве с новыми CPU. Intel предоставила удалённый доступ к двум системам на базе Xeon Cascade Lake-SP (CLX) и Ice Lake-SP (ICX), чьи характеристики приведены в таблице ниже. Отдельно стоит отметить, что система с ICX фактически является SDP (Software Development Platform) и несколько отличается от тестовых и конечных платформ, причём не всегда в лучшую сторону. Ещё один важный момент — для тестов использовался процессор степпинга D2, а не D1 из первых партий.
В остальном системы по возможности приведены к единообразию. Память в режиме 1DPC с максимальной для каждой платформы частотой, профили питания/охлаждения и cpu governor переведены в Performance, Turbo-Boost и SMT включены (если не оговорено иное), SNC отключен, а основной накопитель — NVMe SSD PCIe 3.0 x4 с xfs. Тестовый пакет — Phoronix Test Suite 10.2.2 в Ubuntu Server 20.10 с GCC 10.2.0. За прошедшее с момента тестирования EPYC Milan время успели обновиться некоторые компоненты ОС, и нельзя не отметить, что ядро и компилятор уже давным-давно «познакомили» с Ice Lake-SP. Настройки BIOS Ice Lake-SP
Настройки BIOS Cascade Lake-SP
Но для начала, как обычно, индивидуальные, выполненные в ручном, а не автоматическом режиме тесты HPL (High-Performance Linpack) 2.3 и Stream 5.10, в которых SDP и проявила свой характер, не позволив отключить HT, хотя это могло бы несколько улучшить результаты. Для этих тестов понадобились бесплатные наборы oneAPI Base и HPC версии 2021.2.0, включающие целый ряд оптимизированных библиотек и компилятор icc, которые пригодились для сборки stream, и уже готовый исполняемый файл для HPL. Для stream отдельно был включён SNC2, а для HPL — контроль над питанием и производительностью (EPB) в случае ICX был передан BIOS и переведён в режим Performance. Для CLX же был отключен HT.
Естественно, оба бенчмарка активно используют AVX-512, так что технически Ice Lake-SP с меньшим числом ядер способны обгонять более многоядерные EPYC Milan и в избранных HPC-задачах действительно могут успешно с ними конкурировать:
Библиотеки oneAPI с icc пригодились и для сборки Intel QAT Engine, движка для OpenSSL, который использует аппаратные возможности ускорения работы криптографических функций с помощью QAT в чипсетах Lewisburg. Но теперь он также «знает» и про новые инструкции AVX-512 для тех же задач в Ice Lake-SP. В данном случае использовался OpenSSL 1.1.1f из репозиториев Ubuntu c этим движком и без него.
Ещё один небольшой тест, сделанный вручную, — это HammerDB 4.0 поверх MySQL 8.0.23. Это единственный тест, для которого в качестве основного диска использовался SSD Intel Optane DC серии P5800X. В данном тесте сервер с Ice Lake-SP оказался в 1,93 раза быстрее сервера прошлого поколения:
Для PTS был использован тот же набор тестов и результатов из обзора AMD EPYC Milan. Увы, не все тесты автоматически корректно сработали на обеих машинах Intel (HPCG, Quantum ESPRESSO, Go HTTP). И в прошлый раз было отмечено совсем уж «неприличное» поведение LAMMPS на одной из AMD-машин и слишком «шумный» Cpuminer-Opt. Поэтому разделим результаты на «грязные», со всеми данными, и условно-«чистые», без неполных и проблемных тестов. И отдельно приведём результаты сравнения только для Xeon. В целом новые процессоры Ice Lake-SP хорошо смотрятся на фоне AMD EPYC. Последние в среднем выигрывают, например, в компиляции, компрессии, рендере, а их оппоненты — в ИИ-задачах, трассировке, HPC. Впрочем, всё это касается только данного конкретного набора ПО. Если же сравнивать два поколения Xeon Scalable, то новое, опять-таки в среднем, оказывается в 1,35 раза быстрее прошлого. Отдельно можно посмотреть прирост за счёт небольших оптимизаций в однопоточной нагрузке на примере Redis в рамках PTS. За основу взяты данные и бинарные файлы, полученные в автоматизированном тесте, но слегка изменён скрипт запуска. Такие результаты помечены как Opt. Дополнительный прогон на Cascade Lake-SP с ограничением максимальной частоты до той же, что у Ice Lake-SP, помечен как Cap. ЗаключениеIntel в текущей ситуации противостоять «грубой силе» AMD может только так (и что она и делает) — предлагать клиентам комплексные, оптимизированные, готовые к быстрому развёртыванию решения для конкретных областей и нужд заказчика. И процессоры лишь малая часть экосистемы, которая включает Optane (PMem и SSD), NAND SSD, Ethernet-адаптеры и коммутаторы, FPGA, Xeon D, ИИ-ускорители Habana, грядущие Xe и огромное количество технологий, программных и аппаратных. Ведь целое всегда есть нечто большее, чем простая сумма его частей? Да, но проблема в том, что Ice Lake-SP, которые и должны стать ядром экосистемы, появились очень поздно, догнав AMD по памяти и PCIe через полтора года и достигнув какого-то паритета в двухсокетных, но не односокетных системах. По сравнению с прошлым поколением новые Xeon Scalabale очевидно лучше. Во всяком случае, на примере старших SKU, но вот про гораздо более интересные и массовые средний и нижний сегменты пока нечего сказать — всё же увеличение числа ядер в монолитном кристалле быстрее нивелируется понижением частоты. По сравнению с EPYC всё уже не так однозначно. Если обобщать, то на стороне Xeon — AVX-512 и новые расширения, которое ПО должно уметь использовать. На стороне AMD — больше ядер и больше кеша. Память Optane PMem интересна, но массовой её не назовёшь. И для неё опять же нужна адаптация ПО. Но, возможно, такое положение дел Intel вполне устраивает? Она всё ещё лидер на рынке, и вендоры с заказчиками всё равно будут переходить на Ice Lake-SP, хотя, надо полагать, не такими темпами, как ранее. В ближайшем будущем AMD половину рынка не отъест, так как она теперь тоже зависит от производственных проблем, хотя и совершенно другого характера. А так и до следующего поколения можно дотянуть. Собственно говоря, нынешние Xeon и EPYC знаменуют конец эпохи. Следующие процессоры появятся уже скоро, и они не только принесут поддержку DDR5 и PCIe 5.0, но и поменяют подход к архитектуре и чипов, и систем. Да и Arm пусть медленно, но набирает силу. Чтобы не пропустить новые материалы, подписывайтесь на нас в Я.Дзен, Telegram, Twitter и LinkedIn. Обзор AMD EPYC Milan: дзен-эволюция на примере EPYC 7763 и EPYC 7543
15.03.2021 [18:00],
Игорь Осколков
EPYC Milan 7003, пожалуй, следует рассматривать как эволюцию EPYC Rome 7002. Важную, но всё-таки эволюцию. В этих чипах AMD сохранила общий MCM-подход, улучшив отдельные компоненты, кардинально, тем не менее, ничего не меняя. При взгляде «с высоты» перед нами всё те же 7-нм чипы с максимум 64 ядрами, 256 Мбайт L3-кеша, восемью каналами DDR4-памяти с поддержкой модулей на 3200 МГц и ёмкостью до 256 Гбайт, а также 128 линиями PCIe 4.0, которые в общем случае доступны и в односокетной, и в двухсокетной системах. В стартовом наборе все модели условно разбиты на три группы: процессоры с упором на производительность (высокие частоты и большой объём кеша L3 на ядро), с упором на плотность ядер (максимум ядер/потоков) и просто сбалансированные с точки зрения производительности и стоимости владения CPU. Всего на старте компания предложит 19 моделей, из которых четыре имеют односокетные варианты (P), четыре обладают повышенными частотами (F), а ещё одна выбивается из общего ряда числом ядер — 28 (это максимум, что может предложить сейчас Intel в Xeon Cascade Lake). Также обращают на себя внимание две вещи. Во-первых, у старшего процессора 7763 в сравнении c 7742 при не столь уж высоком росте базовой и Boost-частоты базовый уровень TDP вырос до 280 Вт (а максимальный cTDP ещё выше). Во-вторых, младшим процессором теперь можно считать 16-ядерный 7313P с базовым TDP 155 В вместо 120-Вт 8-ядерного 7232P. В целом в 7003 наблюдается рост тактовых частот и тепловыделения. Если для кого-то даже младшая модель окажется слишком горячей, то можно будет взять что-то из 7002 и/или ограничить cTDP. Платформы сохраняют совместимость между Rome и Milan (но не с Naples, в чём смысла нет), однако это в большей степени остаётся на совести вендоров, а не AMD. Можно поспекулировать на тему того, что сокращение стартового набора хотя бы отчасти вызвано производственными трудностями на TSMC, но в случае что EPYC, что Ryzen это не такая уж большая проблема, так как базовый строительный блок у них один — восьмиядерные CCX-комплексы Zen 3. Подробнее о нововведениях в Zen 3 можно прочитать в отдельном материале, а тут отметим некоторые ключевые особенности: IPC в среднем вырос на 19%, появилась дополнительная аппаратная защита от атак по сторонним каналам и, самое главное, «удвоение» самого комплекса, в котором теперь на 8 ядер приходится 32 Мбайт общего L3-кеша. Ядро AMD Zen 3
Наличие восьми CCX в одном CCD EPYC Milan позволяет легко формировать новые модели, подбирая число ядер, объём кеша на ядро, а также регулируя частоты и TDP. Именно поэтому не стоит удивляться 28-ядерному 7453 (4 CCX по 7 ядер, но с урезанным вдвое L3-кешем) или 8-ядерному 72F3 (8 CCX по 1 ядру) с просто фантастическим объёмом L3-кеша в 32 Мбайт на ядро и частотами 3,7/4,1 ГГц при TDP в 180 Вт. Это же даёт простор для дополнительной кастомизации чипов под нужды конкретных заказчиков. Ну и в целом более крупный кеш позволяет снизить задержки, ускорить работу требовательных к его объёму приложений, улучшает NUMA-взаимодействие. Центральный чип IO Die тоже получил небольшие изменения, хотя и не такие существенные. На нём всё так же находятся спаренные контроллеры памяти, root-комплекс PCI 4.0 и контроллер шины Infinity Fabric, частота которой в случае Milan привязана к частоте памяти (DDR4-3200), что даёт небольшой прирост при обмене данными. Помимо традиционных режимов 1DPC/2DPC (DIMM Per Channel, модулей на канал) для всех восьми каналов для любых CPU и 1DPC для четырёх каналов для процессоров с L3 объёмом до 128 Мбайт, наконец появился режим 1DPC/2DPC для установки памяти в шесть каналов, а не во все восемь. Это позволяет соблюсти баланс между тратами на память и производительностью, получив лучшую равномерность доступа к памяти. Кроме того, такая конфигурация может пригодиться для высокоплотных или компактных систем. В Rome, для сравнения, был рекомендованный режим на 12 DIMM, который на самом деле предлагал 1DPC для нечётных по счёту каналов и 2DPC — для чётных. «Исключительными» были только 7F72 и 7552 с шестью CCX, для которых шесть же каналов были «родными». Типы поддерживаемых модулей не изменились: RDIMM, LRDIMM, 3DS, NVDIMM-N. Максимум можно набрать до 4 Тбайт RAM на сокет при использовании восьмиранговых 256-Гбайт модулей LRDIMM-2933. AMD настоятельно рекомендует использовать официальное руководство по установке памяти (Memory Population Guide), где приведены корректные и сбалансированные конфигурации. Например, при использовании 4 или 6 DIMM на сокет становится очень важным даже то, в какие именно каналы они будут установлены. Но в целом AMD рекомендует использовать все восемь каналов памяти, так как что у Rome, что у Milan существенно расширены возможности работы с ECC. При достаточном количестве каналов вместо стандартных слов 64 + 8 (64 бита на данные, 8 на избыточность) чтение/запись будут осуществляться словами 128 + 16 или даже 256 + 32 бита. При таком уровне избыточности, по словам компании, корректировать ошибки гораздо проще. Если базовая реализация ECC предусматривает лишь обнаружение многобитных ошибок (коррекция не гарантируется), то EPYC даже полностью выбитый чип x4 на одном из модулей памяти переживёт без потери данных, дав время перенести нагрузку на другой сервер и заменить дефектный модуль без простоя. Дальнейшее развитие получили функции защиты. К полному шифрованию памяти SME, шифрованию SEV (для изоляции ВМ и гипервизора друг от друга) и шифрованию SEV-ES (для регистров после остановки ВМ) добавилось шифрование SEV-SNP (Secure Nested Paging), которое защищает гостей от вмешательства в их память уже со стороны гипервизора. Максимальное число ключей осталось прежним — 509. Эти функции важны для реализации конфиденциальных вычислений в виртуализированных и облачных средах. Шифрованием по стандарту AES-128 занимается всё та же интегрированная в CPU отдельная Arm SoC, которая отвечает и за безопасность цепочки загрузки. Сами же ядра и так устойчивы — во всяком случае, AMD говорит, что не видела эксплойтов в «живой природе», — к нашумевшим атакам по сторонним каналам. Однако одно дополнение к защите всё же есть — это Shadow Stack (теневые стеки). Идея не нова, и оба вендора реализовали её в свежих ядрах, в Zen 3 и Willow Cove соответственно. Сравнение производительности EPYC 7003 и Xeon Cascade Lake Refresh по версии AMD
В маркетинговых материалах AMD, как и прежде, делает упор на безопасность, производительность и TCO (стоимость) при сравнении с Intel Xeon. В плане производительности при сравнении топ к топу, что, вообще говоря, может быть не совсем корректно, AMD на основании тестов SPECrate 2017 указывает на 106% более высокую производительность для облачных нагрузок (int_base) и HPC (fp_base) и на 117% — для корпоративных задач (SPECjBB 2015). В среднем сегменте 75F3 (32 ядра) быстрее 6258R (28 ядер) на 70% (fp_base). Что же касается TCO, то давайте аккуратно скажем, что всё зависит от конкретного проекта. К тому же стоимость процессоров далеко не всегда является самой крупной статьёй расходов. И даже аргумент про экономию на лицензиях постепенно становится менее значимым.
EPYC 7003 по грубым прикидкам стали в среднем на пару сотен долларов дороже, чем 7002, в партиях от 1 тыс. шт. при равном числе ядер, если сравнивать с прошлогодними ценами на Rome. Но общая политика AMD сохранилась: цена зависит от ядер/частоты/кеша, а во всём остальном чипы идентичны; односокетные P-версии дешевле двухсокетных версий где-то на треть; F-версии с повышенными частотами и всегда максимальным объёмом L3-кеша (256 Мбайт, то есть всегда с 8 CCX) заметно дороже других модификаций с тем же числом ядер. При этом односокетные платформы с EPYC смотрятся интереснее двухсокетных платформ Intel. Впрочем, всё это верно до тех пор, пока мы не увидим Ice Lake-SP, которые по ряду параметров подтянутся к EPYC. Если учесть их двухсокетность, принципиальным отличием от AMD будет поддержка AVX-512 (с DL Boost) и Optane PMem 200 — обе возможности востребованы далеко не всеми приложениями и нагрузками, хотя Intel весьма активно выстраивает именно программно-аппаратную платформу. И это касается не только CPU и памяти. AMD, впрочем, тоже не сидела сложа руки и за полтора года с выхода Rome значительно нарастила число ISV-партнёров и валидированных решений. В чём AMD пока отстаёт от Intel, так это в своевременной подготовке средств разработки и платформ: ядра Linux, GCC, LLVM и сопутствующих библиотек. Соответствующие патчи попадают в основные ветки проектов довольно поздно, что приводит к непопаданию их в ближайшие мажорные релизы основных дистрибутивов. Для, скажем, гиперскейлеров или HPC это не проблема, так как у них есть возможность самостоятельно сопровождать ядра. А средний пользователь может получить прирост производительности в 5-6% с обновлением до ядра Linux 5.11, которое вышло в феврале, но добралось ещё не до всех дистрибутивов. При этом продукция Zen 3 присутствует уже не первый месяц, а новые EPYC отгружаются с IV квартала прошлого года. Есть надежда, что скоро ситуация выправится. Но это всё равно малая часть того, что ещё предстоит сделать. Потому что с аппаратной-то частью у AMD проблем нет — на текущий момент EPYC 7763, по мнению компании, является самым быстрым x86-64 процессором, во всяком случае по «чистой» производительности. Чтобы можно было убедиться в этом, AMD дала удалённый доступ к референсной двухсокетной платформе DAYTONA от Quanta. Это ровно та же система, что использовалась полтора года назад для теста EPYC Rome. Для работы с Milan ей нужны только обновления прошивок и BIOS/UEFI. Конфигурация накопителей в этот раз была чуть победнее, поэтому тесты дисковой подсистемы были исключены. Для ОС использовался 256-Гбайт SATA SSD Micron 1100 (MTFDDAK256TBN) с ext4 и настройками по умолчанию. Основной накопитель, с которого и запускались все тесты, — это, судя по идентификатору (HUSMR7632BDP3M1), Western Digital Ultrastar DC ME200: NVMe, PCIe 3.0 x4, 3 Тбайт. На нём была развёрнута xfs с настройками по умолчанию и смонтирован /var, где хранились все тестовые файлы. Память была набрана модулями Kingston KSM32RD4/32MEI: 32 Гбайт RDIMM ECC DDR4-3200. Для всех тестов в рамках Phoronix Test Suite 10.2.2 (PTS) для двух EPYC 7763 суммарно был установлен 1 Тбайт, то есть 2DPC в режиме DDR4-2933. Хотя, надо отметить, небольшой дополнительный стресс-тест показал, что и в режиме DDR4-3200 она тоже может успешно работать. Для двух 7543 и PTS: 512 Гбайт, то есть 1DPC и DDR4-3200. Из общего пула 8 Гбайт «отъедает» пара Mellanox ConnectX-4 Lx (MT27710). Отдельно приведём результаты HPL (High-Performance Linpack) 2.3 и Stream 5.10, так как они были собраны вручную инженером AMD с использованием компилятора AOCC 3.0, который должен выйти вместе с официальным анонсом EPYC 7003, и некоторыми библиотеками AMD (AOCL, как пример), а также с дополнительными настройками платформы. Простор для оптимизаций тут немалый, но и время на это тоже требуется. Например, в BIOS есть интересный параметр Performance Determinism. В режиме по умолчанию c NPS1 он имеет значение Performance, то есть в пределах заданного теплопакета CPU балансирует все свои 8 CCX на примерно одинаковую производительность. Однако этот параметр можно выставить в значение Power и включить NPS4 — каждый кристалл будет работать на своём максимуме производительности, не ориентируясь на соседей.
Для HPL был отключен SMT, использован режим NPS4 (4 NUMA-узла на сокет) и память в 1DPC. Для двух 7763 лучший показатель производительности составил 3,184 Тфлопс, а для двух 7543 — 2,2044 Тфлопс. По данным самой AMD, для 7763 пик составляет 4,097 Тфлопс. Угадаете, с чьим компилятором можно достичь такого результата? В тестах Stream — результаты даны в таблице выше — память работала в режиме DDR4-3200 и с NPS1. В принципе, можно получить ещё +10-15% к скорости, включив режим NPS4 и запустив по отдельной копии в каждом домене. Для Stream triad AMD приводит цифру в 371,5 Гбайт/с для EPYC 75F3. Перед тем как перейти к основным тестам, сделаем небольшое сравнение с результатами EPYC 7742. Надо учитывать, что на тот момент была та же ситуация, что сейчас, — ядро, библиотеки и компиляторы не имели должной оптимизации. В качестве компромиссного варианта пришлось сделать их в Ubuntu 20.04, так как в более новой версии уже слишком много тестов не собирается из-за смены системных библиотек. Прирост от поколения к поколению на нашем наборе бенчмарков составил в среднем 13,2% — полные результаты приведены в отчёте. Если получится, то через пару-тройку дней после выхода материала добавим тесты 7742 на основной платформе. UEFI/BIOS AMD DAYTONA
А таковой была выбрана актуальная Ubuntu 20.10 Server с ядром Linux 5.8.0-44-generic и компилятором GCC 10.2.0. Параметр governor был принудительно выставлен в performance. Со стороны BIOS были включены ACPI Auto Configuration и SMT, а CSM — отключен. Значения TDP не менялись. Прочие параметры оставлены по умолчанию (например, NPS1). Набор тестов охватывает различные типы нагрузок и включает, по возможности, наиболее свежие версии бенчмарков, доступных в PTS. Полный отчёт с результатами доступен в PDF. Любопытно, что в среднем по итогам они оказались примерно равны. Естественно, в многопоточных нагрузках 64-ядерный процессор быстрее 32-ядерного, но и в однопоточной он не всегда и не везде так уж сильно отстаёт. Из примечательных результатов можно отметить ACES DGEMM, NAS Parallel Benchmarks, Blender, OpenSSL или John The Ripper, которые практически линейно масштабируются с ростом числа ядер. Из явных аномалий — LAMMPS и Cpuminer-Opt. Впрочем, сами по себе эти тесты не так интересны. Этот же набор планируется использовать и для тестирования Intel Xeon Ice Lake-SP, когда (и если) появится такая возможность. А пока можно сравнить с другими результатами на OpenBenchmarking. Например, с Ampere Altra или с большим сборным тестом от Phoronix с Ubuntu 20.04, но с ядром Linux 5.8. Учтите, что и там и там пересекаются только небольшие подмножества тестов. Первый набор совсем маленький, но разнообразный, а во втором представлены в основном «тяжёлые» приложения. Несмотря на то, что переход от Rome к Milan принёс гораздо меньше изменений, чем от Naples к Rome, Intel со стороны «кремния» всё равно пока противопоставить нечего. Ключевое слово тут именно «пока» — выход Ice Lake-SP не за горами, и мы пока не знаем, какая у него производительность. А грядущие Sapphire Rapids тоже получат многокристальную компоновку, которая доказала свою жизнеспособность, эффективность и гибкость. И с текущими технологическими нормами Milan, судя по всему, подбирается к разумному пределу возможностей. Не стоит, впрочем, забывать, что процессор — важная, но не единственная часть платформы. И даже его цена зачастую не является определяющей в итоговой стоимости решения. Заказчикам всё более интересен инструмент для решения их задач и всё менее — что у него внутри. AMD сумела «продать» EPYC как «белым» брендам железа, так и OEM/ODM, а также многим ISV и постепенно пробирается во всё большее число ниш, но о реальной победе пока говорить очень рано. Если же смотреть более широко, то сейчас наступает эпоха комплексных программно-аппаратных решений. AMD, NVIDIA и Intel, каждый по-своему, уже создают их. Чтобы не пропустить новые материалы, подписывайтесь на нас в Я.Дзен, Telegram, Twitter и LinkedIn. Итоги 2020 года по версии ServerNews: от A до Q
12.01.2021 [00:00],
Игорь Осколков
Одно очень древнее проклятие «Чтоб жили вы в эпоху перемен» в полной мере соответствует событиям ушедшего года. Пандемия сильно повлияла на весь мир, и не всегда очевидным образом. IT-сектор, испытав пики и провалы, сумел в итоге довольно быстро адаптироваться к новым условиям. Не все проблемы были решены, но это не остановило выход новых продуктов и технологий, о которых мы и расскажем. Материал получился большим, поэтому для удобства приведём ссылки на разделы: CPUВ последнем отчёте о серверном рынке IDC между делом отметила, что в годовом исчислении квартальная выручка от реализации серверов на базе AMD поднялась на 112,4 %, а на чипах ARM — подскочила на 430,5 %. В обоих случаях можно сказать, что с нуля расти легко. Причём для ARM это утверждение справедливо в большей степени, чем для AMD, которая в середине года отрапортовала о двузначной доле (то есть более 10 %) на рынке серверов, не уточнив, правда, ни методику подсчёта, ни конкретные цифры. Все, конечно, ждут официальных анонсов AMD EPYC Milan на базе Zen 3 и Intel Xeon Ice Lake-SP, о которых осталось узнать самое главное — число ядер и частотные формулы. Причём "Зеоны" задержатся с выходом, что явно пойдёт на пользу AMD. Пока же Intel напирает на конкурентоспособность грядущих CPU в высокопроизводительных вычислениях (HPC), но компании борются не только в этом сегменте, и, судя по всему, стратегия AMD по вытеснению двухпроцессорных платформ Intel однопроцессорными EPYC работает, пусть и не во всех сегментах и вертикалях. Хотя и имеет побочные эффекты.
Часть ядра AMD Zen 3. Фото: Fritzchens Fritz Выпуск AMD EPYC Rome на базе Zen 2 в августе прошлого года привёл к быстрой (по корпоративным меркам, конечно) реакции со стороны Intel. В начале 2020 года она отказалась от M-версий Xeon Scalable второго поколения (Cascade Lake-SP) и резко снизила цены на L-версии с поддержкой большего объёма памяти, что, впрочем, актуально скорее для систем с Optane DCPMM. Ну а через пару месяцев компания представила процессоры Cascade Lake Refresh, которые по большому счёту представляют собой переформатирование имеющегося модельного ряда с кратным снижением цен. Анонс Intel Xeon Cooper Lake является значимым лишь для узкого круга потребителей, так как это далеко не массовый продукт. Да, у них стала побыстрее память, подросли частоты, появилась поддержка bfloat16 для VNNI, что, по словам Intel, даёт возможность использовать CPU не только для инференса, но и для обучения. Но главное в них всё же наличие 6 UPI-линков, позволяющих создавать бесшовные 4S/8S-системы для платформ наподобие HPE Superdome Flex 280 (224 ядра + 24 Тбайт RAM). Кроме того, это первые CPU с поддержкой Optane DCPMM (или просто PMem) второго поколения Barlow Pass. ![]() AMD же в этом году больших анонсов не делала: чуть расширила модельный ряд «обычных» EPYC и добавила серию EPYC 7FX2 с относительно небольшим числом ядер, но со значительно увеличенными частотами и L3-кешем. Кроме того, компания обновила серию EPYC Embedded 3000 и, наконец, представила Ryzen Embedded V2000 на базе Zen 2 — это серьезное обновление по сравнению с V1500. У Intel в модельном ряду индустриальных SoC вышла целая плеяда чипов: Atom x6000E, Pentium и Celeron серий N/J, а также Core i3/i5/i7 11-го поколения (Tiger Lake). Из альтернативных поставщиков серверных x86-процессоров осталась ещё пара, причём со сложными схемами лицензирования: тайваньская VIA и китайская Hygon. Весной снова «засветился» чип VIA CenTaur, подробности о котором стали известны ранее. Ближе к концу года китайская Zhaoxin, совместное предприятие Shanghai SASAC и VIA, получила от последней некоторые патенты на x86. Hygon же после окончательного «развода» с AMD так и осталась с Dhyana, клонами первых EPYC на базе Zen 1. И под угрозой лишения производства от GlobalFoundries пообещала перевести эти CPU на 7-нм техпроцесс Samsung или TSMC, что звучит довольно фантастично. Зато в стане ARM в этом году царило большое оживление. Осенью Arm анонсировала ядра Neoverse V1 Zeus и N2 Perseus, в которых наконец появились инструкции Scalable Vector Extensions (SVE, аналог современных AVX) — в базовом варианте SVE-256, но разработчики SoC могут выбрать длину от 128 до 2048 бит — и поддержка bfloat16. Первое ядро ориентировано на максимальную производительность, пусть даже в ущерб энергоэффективности. Второе — более сбалансированное, но именно оно, по мнению Arm, станет наиболее востребованным за счёт лёгкого масштабирования SoC: от 8 до 192 ядер на кристалле с TDP от 20 до 350 Вт соответственно. Ещё один важный шаг, даже не столько технический, сколько психологический, Arm сделала в конце года, заявив, что перенесёт большинство своих задач проектирования (EDA), автоматизации и разработки в облако AWS. Да не просто в облако, а на инстансы c ARM-процессорами Graviton2, на которые, кстати, сама Amazon стала переводить некоторые публичные сервисы AWS. И всё это произошло в тот же год, когда наследие Calxeda, первого разработчика серверных ARM CPU, закончившего свою деятельность из-за недостатка средств, было окончательно убрано из Linux. ![]() Из заметных продуктов в этом сегменте можно отметить Ampere с процессорами Altra (до 80 ядер) и Altra Max (до 128 ядер). Первые даже успели появиться в составе нескольких платформ, тесты которых внушают оптимизм и надежду на здоровую конкуренцию с x86-64. Из не самых современных, но любопытных решений можно вспомнить Bamboo. NUVIA пока ничего не выпустила, но пообещала, что Phoenix обойдут AMD и Intel. Отечественная «Байкал электроникс» ничего такого не обещает, но разрабатывает 48-ядерный "Байкал-S". Из HPC-решений на базе ARM запомнились европейский CPU SiPearl Rhea (72 ядра), китайский Phytium Tengyun S2500 (64 ядра), а также корейский K-AB21, который в чём-то похож на непобедимый Fujitsu A64FX (48 ядер). Последний, повторимся, трудно назвать классическим CPU, так как он концептуально ближе к окончательно почившему в этом году Xeon Phi: много быстрой памяти на борту, стандартные ядра и «прилепленные» к ним сбоку инструкции SVE-512. Но не обошлось и без потерь! Marvell внезапно отказалась от очень интересных ThunderX3, уволив команду разработчиков ровно в тот момент, когда процессоры уже были готовы. У этого семейства CPU в целом непростая судьба, но позиции были не так уж плохи: готовые платформы, партнёрства с крупными вендорами, наработки для программной экосистемы и даже парочка не самых хилых суперкомпьютеров на счету. Увы, судьба ThunderX4 теперь под вопросом. То же можно сказать и о развитии HiSilicon KunPeng, которые стали первыми 7-нм 64-ядерными ARM-процессорами и на которые Huawei стала переводить не только свои серверы, но и другие решения, например СХД. Весной мы протестировали систему TaiShan 2280 v2 с CPU Kunpeng 920, самым мощным в серии, и отметили общую для всех новых платформ черту — не лучшую программную экосистему, во всяком случае на старте. Но на неё компания готова потратиться, равно как и на развитие партнёрских отношений, включая локализацию производства серверов в России. Ряд санкций США в течение 2020 года последовательно лишил Huawei доступа к части ресурсов, включая и современные техпроцессы TSMC. Компания сделала запасы чипов, но насколько их хватит и как будет развиваться KunPeng, Ascend и другие серверные решения Huawei, пока не очень понятно. Загадывать не будем, лучше вспомним о более экзотических или просто менее распространённых процессорных архитектурах, которые «засветились» в ушедшем году. ![]() Осенью были получены первые инженерные образцы "Эльбрус-16С", разработка которых вместе с "Эльбрус-12С" должна завершиться в 2021 году. А к 2025 году дело дойдёт и до 32-ядерных "Эльбрус-32С". А самой интригующей новинкой является, пожалуй, Tachyum Prodigy — разработчики обещают до 128 ядер, которые смогут справиться и с ИИ, и обычными вычислениями. А системы на их базе даже смогут запускать бинарные файлы x86, ARMv8 или RISC-V (со штрафом в производительности, конечно). Чудо, а не архитектура, но нишевая — как, например, и архитектура мейнфреймов IBM z15. Чуть особняком стоит IBM со своими POWER10. Это очень интересные чипы, особенно в отношении памяти OMI и шин PowerAXON 2.0 и PCI Express 5.0. Но у POWER-систем небольшая доля рынка, и ни открытие ISA, ни организация OpenPOWER её заметному росту не способствовали, хотя и открыли, например, для Китая возможность использовать наработки IBM. И похоже, единственным крупным разработчиком POWER-чипов, помимо самой IBM, всё ещё остаётся китайская Suzhou PowerCore Technology, а поставщиком систем — Inspur. Но эта продукция в большей степени ориентирована на внутренний рынок. ![]() Некоторые вообще считают, что к 2030 году массовыми будут только архитектуры x86-64, ARM и RISC-V. Последняя быстро развивается, но всё ещё очень молода. И её открытость может в конечном итоге и помочь ей, и до некоторой степени навредить из-за фрагментации. Иронично, кстати, что Arm разрешила разработчикам чипов добавлять собственные инструкции (пока только в ARMv8-M). То есть сделала ровно то, за что пару лет назад критиковала RISC-V. Наконец, в ушедшем году было много новостей о квантовых вычислениях, которые не заменят традиционные системы, но дополнят — этот рынок был оценён в $320 млн в 2020 году, а к 2024 году он достигнет объёма $830 млн. Больше всех пока интригует компания IonQ, которая уже к 2023 году обещает выпустить модульные квантовые компьютеры для монтажа в стойку. Она же открыла собственный квантовый дата-центр и предложила бенчмарк для квантовых компьютеров. Atos тоже представила свою версию универсального бенчмарка Q-Score. УскорителиВ прошлом году два главных производителя GPU представили ускорители, которые уже почти и нет смысла называть графическими. NVIDIA выпустила A100 на базе архитектуры Ampere — сначала 40-Гбайт SXM3-версию, потом в «классическом» исполнении в виде PCIe-карты, а затем 80-Гбайт SXM3-вариант. Если не говорить про простое увеличение производительности, то наиболее интересной особенностью новинок является поддержка MIG (Multi-Instance GPU) — возможности разделить ускоритель на несколько виртуальных (до 7 шт.) для наиболее полного использования ресурсов. Попутно компания также показала решения на базе A100: системы DGX/HGX, референсный дизайн суперкомпьютера DGX SuperPOD for Enterprise и рабочую станцию DGX STATION. AMD ответила выпуском ускорителей Instinct MI100 на базе новой архитектуры CDNA, которые обгоняют A100 в FP64-производительности, но отстают в задачах машинного обучения. Intel формально представила свой первый серверный GPU на базе четвёрки Xe-LP, но предназначен он не для вычислений, а для облачного гейминга. Из других известных игроков можно вспомнить ещё NEC, которая не забросила идею векторных ускорителей и под конец года выпустила второе поколение SX-Aurora TSUBASA. Зато ускорителей для машинного обучения появилась целая масса. И для тренировки, и в особенности для инференса (эти все перечислять устанешь). Из наиболее ярких представителей: чип Cerebras размером с целую кремниевую пластину; Groq TSP с производительностью 1 Петаопс; фотонный процессор Lightmatter; творения Tenstorrent, к которой присоединился Джим Келлер, IPU Graphcore Colossus Mk2 второго поколения, которым на смену придут уже 3-нм чипы; TPU v4 в составе самого быстрого, по мнению Google, ИИ-суперкомпьютера; Kunlun от Baidu; наконец, Habana Gaudi, на которую Intel променяла Nervana, и грядущий AWS Trainium. ![]() FPGA тоже обзавелись тензорными и прочими ИИ-блоками. Тут можно вспомнить, например, об Intel Stratix 10 NX или решениях с Xilinx Versal AI. Переходным звеном между FPGA и ASIC обещают стать eASIC — Intel в этом году представила первое семейство N5X. Впрочем, оно относится к платформе для периферийных вычислений и 5G, куда входят и обычные FPGA, и CPU (Atom P5900). В целом же нельзя не отметить рост числа различного рода ускорителей, которые покрывают более узкие типы задач, но всё же стараются оставаться гибкими. Это привело к зарождению нового класса устройств: DPU. DPU и SPUDPU (Data Processing Unit) — это (со-)процессоры для обработки данных, если переводить термин дословно. Однако чёткого определения для этих устройств нет. Объединяет их то, что они берут на себя массу типовых задач, связанных с вводом-выводом и работой с данными: компрессию и дедупликацию, шифрование, контроль доступа, защиту, транскодирование и иную обработку информации. А вот делают они это совершенно по-разному. И цели тоже разнятся — от простой разгрузки CPU и до попытки полной дезагрегации ресурсов, чего отчасти пытается добиться AWS с помощью Nitro. У таких устройств, как правило, есть собственная память (быстрая и/или ёмкая), аппаратные движки для ускорения отдельных операций, дополнительные контроллеры, какая-то программируемая логика (CPU, GPU, FPGA) и быстрая сеть/интерконнект. Всё это в том или ином виде было и в других продуктах, SmartNIC’и, например, никуда не делись. В целом DPU пытаются выстроить всю архитектуру вокруг данных, а не вокруг вычислений, как было прежде. Эталоном сейчас можно назвать решение Fungible, которая вообще считает, что DPU в серверах должны стать «третьим сокетом» после CPU и GPU. Чип F1 предлагает два типа интерфейсов: 8 × 100GbE и 4 × PCIe 3.0/4.0 x16, причём PCIe включает собственный root-комплекс. Первый же продукт, СХД FS1600, показал себя очень достойно: 24 NVMe SSD (до 576 Тбайт) в 2U-шасси выдают 15 млн IOPS и 60 Гбайт/с при задержке не выше 110 мкс. То есть она в среднем в несколько раз быстрее привычных all-flash хранилищ, хотя по функциональности пока не дотягивает до них. ![]() Увы, Fungible целится только в облачных провайдеров и гиперскейлеров. На эти же сегменты ориентированы и решения на базе продукции Intel: Silicom SmartNIC N5010 и Inventec SmartNIC C5020X. У обеих карт сетевая часть дополнена FPGA, а у второй есть ещё процессор Xeon-D. Именно она, несмотря на название, больше похожа на DPU. NVIDIA свои новые адаптеры, напротив, именует именно DPU: BlueField-2 и BlueField-2X основаны на ConnectX-6 Dx с ядрами ARM и VLIW, а X-версия ещё и снабжена GPU на базе Ampere. Компания позиционирует эти решения, в частности, и для периферийных вычислений в рамках платформы EGX. Ну и для СХД с RDMA (GPUDirect Storage), которые способны «прокормить» данными DGX/HGX, они тоже нужны. Кроме того, решения Intel и NVIDIA совместимы с Project Monterey от VMware, в задачи которого входит перенос части функций — как минимум по работе с хранилищем и сетью — с CPU именно на DPU/SmartNIC. В него же входит и портированная на ARM версия ESXi. Поддержка со стороны столь крупного софтверного вендора очень важна для продвижения идей DPU. SPU (Storage Processing Unit) можно считать разновидностью DPU, но с упором именно на подсистему хранения данных. Однако и тут определение класса устройств несколько размыто. Например, Nebulon пытается совместить функции контроллера RAID/HBA и SAN: с одной стороны у него интерфейсы SAS/SATA/NVMe, с другой — 2 × 25GbE. Pliops тоже называет свой продукт Storage Processosor, но он нацелен на довольно узкую задачу оптимизации работы СУБД с SSD — он «прячет» за собой массив накопителей, предоставляя системе NVMe-интерфейс. Память и хранилищеSPU родственны концепции computational storage, то есть обработки данных непосредственно в месте их хранения. Она не нова, но в 2020 году вышло несколько интересных SSD: от Samsung и ScaleFlux с FPGA и NGD с ARM-чипами. Сама Arm представила новую SoC Cortex-R82 специально для таких накопителей. UPMEM пошла ещё дальше, встроив сопроцессоры в DRAM-модули, и сдаваться не намерена — компания продолжает совершенствовать технологию. Обратный подход — принести побольше памяти поближе к CPU — оказался более жизнеспособным. Речь, конечно, про Intel Optane. Летом компания выпустила второе поколение DIMM-модулей, PMem 200. Оно несколько быстрее первого, но всё равно остаётся компонентом исключительно платформ Intel. Мы уже не раз говорили о том, что компания хочет поменять иерархию памяти, и последняя её версия выглядит вот так: Optane (ну или другая память Storage Class Memory, SCM) дополняет DRAM и вместе с тем является хранилищем «горячих» данных. А вот NAND, нередко дополненная опять-таки SCM, относится скорее к «холодному слою» вместе с HDD и ленточными накопителями. Intel прогнозирует, что уже через пару лет совокупная стоимость владения SSD сравняется с аналогичным показателем nearline HDD, а потом будет даже ниже. Речь здесь всё же про TCO, а не про стоимость самих SSD, но основания для таких прогнозов есть. Во-первых, ещё в конце прошлого года IDC отметила рост All-flash (AFA) и падение рынка гибридных систем хранения данных (СХД), и эта тенденция продолжилась. Впрочем, что теперь называть гибридными СХД — ещё вопрос: осенью NetApp представила FAS500f, которое формально относится к FAS-серии, куда традиционно входили гибридные хранилища, но по факту оно является AFA и базируется на QLC-накопителях. И это во-вторых: производители флеш-памяти активно осваивают производство QLC NAND с числом слоёв более 100, что позволяет значительно снизить цену и повысить ёмкость и плотность. ![]() Да, QLC менее надёжная и быстрая, чем TLC и уж тем более MLC, но на это есть ответ — правильное управление данными и непосредственно флешем. В самом простом варианте это подразумевает использование кеша на базе быстрой памяти (Optane SSD или PMem, например) с анализом нагрузки и подстройкой под неё. Как, например, в StorONE S1. Но можно пойти ещё дальше, добавив компрессию и дедупликацю на лету, а также оптимизировав контроллер. Из значимых СХД такого рода можно вспомнить Pure Storage FlashArray//C и VAST Data, которые обещают приличные ёмкости и невысокую цену в сочетании с высокой скоростью, а также Flash Core Module нового поколения в IBM FlashSystem 9200. Последние вообще очень интересны. Тут и STT-MRAM для буфера, и SLC-кеширование, и кастомный контроллер на базе FPGA, и ряд других оптимизаций. Всё это в сумме, по словам IBM, позволило «добить» характеристики QLC до уровня TLC. Аналогичные решения будут развивать и другие производители, но не обязательно такими же методами. Поможет в этом новый стандарт NVMe 2.0, который сейчас находится в разработке и некоторые возможности которого уже есть в более ранних версиях. Он ориентирован на современные архитектуры хранилищ и имеет две ключевых особенности. Первая — это обязательная поддержка в базовой версии NVMe-over-Fabric (NVMe-oF), передачи NVMe-команд по сети, и абстрагирование транспортного уровня. То есть NVMe больше не привязан строго к PCIe и старается стать единым интерфейсом для любых устройств хранения данных. Собственно NVMe-oF СХД уже никого не удивить, но это обычно всё же хосты с CPU, чьи PCIe-линии через свитчи делятся между SSD и сетевыми адаптерами или DPU (см. Pavilion Data, например). Но можно пойти ещё дальше и уже сейчас встроить адаптер и NVMe-oF непосредственно в накопители, что и сделали Kioxia и Samsung. Для создания JBOF-массивов из них достаточно будет и Ethernet-коммутатора, что, правда, тоже порождает дополнительные трудности. Ну а если нужно абстрагироваться ещё сильнее, то в наборе NVMe 2.0 предусмотрена и спецификация для Key-Value-накопителей. Вполне вероятно, что появятся и другие расширения, к примеру для объектного доступа. Однако и безо всяких дополнений NVMe может преобразить облик SAN так, что 64GFC может стать последним массовым вариантом Fibre Channel (хотя реализация NVMe-oF поверх FC тоже есть). Вторая особенность стандарта — это зонирование, которое уже стало частью NVMe 1.4 и было воплощено в Ultrastar DC ZN540. Оно, в общих чертах, подразумевает перенос логики работы с флеш-памятью с контроллера накопителя на хост, что позволяет повысить износостойкость, скорость и предсказуемость работы, но накладывает ряд ограничений. В перспективе обе эти особенности дают поддержку SMR HDD, для которых зонирование также является более чем актуальным, равно как и для QLC. И обе технологии (QLC и SMR) с нами теперь, судя по всему, уже надолго. Из новых разработок можно вспомнить X-NAND, обещающую совместить плотность QLC и скорость SLC. Альтернативу памяти 3D XPoint, за которую, к слову, обещала взяться Micron, могут составить только вариации SLC (Z-SSD и XL-Flash) и в меньшей степени MRAM, которой активно занимаются Everspin и IBM. На противоположном конце спектра памяти тоже есть новости. Был представлен стандарт LTO-9, который позволяет создавать менее ёмкие устройства, чем ожидалось: 18 Тбайт вместо 24. Но в будущем удвоение объёма с каждым новым поколением сохранится. В экспериментах же ёмкость «ленточки» сумели довести до 580 Тбайт. Среди продуктовых новинок нельзя не вспомнить про Intel P5800X — самый быстрый SSD в мире на текущий момент — и Nimbus ExaDrive NL (3,5” SATA/SAS, 64 Тбайт QLC), один из самых ёмких SSD, если не считать 100-Тбайт модель ExaDrive DC той же компании. Но такие накопители Nimbus — очень специфичные решения, которые пытаются заменить nearline HDD, достигшие в этом году ёмкости 20 Тбайт. Именно этот тип накопителей в ближайшее время поможет рынку жёстких дисков оставаться на плаву. Наконец, ещё одно важное изменение касается форм-фактора — в ушедшем году практически все производители представили EDSFF-накопители. В первую очередь E1.S и E1.L. Первые идут на смену M.2, которому, видимо, останется только роль загрузочного, а вторые на пару с E3.S постараются сместить U.2. В обоих случаях речь идёт о большей гибкости при выборе между производительностью/тепловыделением и ёмкостью/плотностью. «Рулеры» E.1L уже сейчас позволяют получить порядка 1 Пбайт «сырой» ёмкости в 1U-шасси и могут быть дополнены DPU/SPU, а E1.S может быть использован не только для SSD, но и для ускорителей. Всё это сейчас актуально больше для гиперскейлеров, но мы наверняка увидим их и в корпоративных системах. Шины и интерфейсыОдна из ключевых и более чем ожидаемых тенденций в 2020 году — рост экосистемы PCI Express 4.0. Появилось множество компонентов: контроллеров, свитчей, адаптеров, накопителей и даже фабрик. Но это только начало, так как с выходом Intel Xeon следующего поколения поддержка PCIe 4.0 станет намного более актуальной. Однако сейчас есть рабочие компоненты PCIe 5.0, а PCIe 6.0 может быть представлен уже в следующем году. PCIe 5.0 интересен не сам по себе, а в качестве основы для стандарта Compute Express Link (CXL), который в этом году дорос до второй версии и «подружился» со стандартом Gen-Z. Оба они переопределяют способ общения устройств между собой для более эффективного обмена данными и дезагрегации ресурсов. Впрочем, о массовой поддержке CXL 1.1 и PCIe 5.0 пока говорить очень-очень рано. Равно как и о DDR5, первые модули которой успели появиться в 2020 году. Увы, рано или поздно электрические интерфейсы перестанут быть достаточно эффективными, поэтому крупные компании уже сейчас разрабатывают решения в области интегрированной кремниевой фотоники, перед которой стоят проблемы удешевления производства (без использования германия или индия, например) и интеграции с обычной электроникой. Причём так, чтобы всё это вписывалось в массовые техпроцессы. И в 2020 году в этой области наметился прогресс. В декабре Ayar Labs сообщила об освоении 45-нм техпроцесса GlobalFoundries для 300-мм пластин. Чуть раньше NVIDIA рассказала о возможности использования фотоники для объединения ускорителей в большие кластеры. Intel же успела доложить о текущих успехах, своём видении будущего и показала свой первый коммутатор с интегрированными оптическими трансиверами 400 Гбит/с. СетиУпомянутый выше коммутатор Intel включает ASIC Tofino2. Он является одним из ряда представленных в этом году решений, поддерживающих скорости 12,8 и 25,6 Тбит/c, которые открывают путь к массовым коммутаторам с портами 200/400GbE или сразу 800GbE, как у Xsight Labs, нового игрока на рынке. Аналитики предрекают резкий рост спроса на 400GbE-модели со стороны гиперскейлеров и других крупных операторов ЦОД в ближайшие пару лет. Ещё одна тенденция — уход от проприетарного «кремния» и популяризация открытых NOS вроде Cumulus (куплена NVIDIA), SONiC, Nokia SR Linux или свежей DentOS. Индустриальный консорциум 25G Ethernet Consortium уже переименовался в Ethernet Technology Consortium и опубликовал весной первую версию спецификаций 800GbE. Однако массовыми пока остаются 25GbE-порты, а максимум, который сейчас могут предложить большинство вендоров, — это 200GbE-адаптеры (опять-таки из-за ограничений PCIe). 400G-адаптерам InfiniBand NDR уже понадобятся или 32 линии PCIe 4.0, или 16 линий 5.0. Столько же потребуется будущим поколениям внезапно возродившегося Omni-Path. ![]() Если же говорить об абсолютных рекордах скорости, то в 2020 году снова отличился NICT: 172 Тбит/с для мультиядерного оптоволоконного кабеля длиной 2040 км, 1 Пбит/с для одного 23-км многомодового волокна и 10,66 Пбит/с для 38-ядерного многомодового волокна длиной 13 км. Правда, для пиковых результатов требуется нестандартное волокно, так что гораздо интереснее достижение скорости «всего» в 800 Гбит/с на «живой» линии связи. Кроме того, не стоит забывать про уже проложенное «тёмное» волокно, которое никуда не денется в ближайшие годы и значимость которого будет только расти. Беспроводной сегмент по числу анонсов в 2020 году возглавляли технологии Wi-Fi 6 (E) и 5G. Обе интересны не столько высокими скоростями и низкими задержками, сколько увеличением плотности и ёмкости, что важно для IoT, IIoT и теперь ещё и AIoT. Причём 5G отчасти может заместить Wi-Fi — например, при создании частных сетей. Кроме того, 5G дала толчок развитию корпоративных и промышленных MVNO и, конечно, периферийных вычислений. Увы, России это сейчас не очень касается — 5G пока совсем мало, а сертификация Wi-Fi 6 началась только в августе прошлого года. ![]() По прогнозам, edge-рынок вырастет до $250 млрд к 2024 году, а всего в него будет вложено $700 млрд в течение 10 лет. Важную роль в этом сыграют телеком и облака — как первого, так и второго эшелона. Крупные игроки уже предлагают различные комплексные решения по монетизации 5G — от простого CDN до аналитики и других сервисов реального времени. Более актуальными становятся модульные и микроЦОД. А в целом всё это меняет сетевой ландшафт (облачные провайдеры уже и за спутниковую связь взялись), размывает границы и требует большей автоматизации, телеметрии и защиты. Это касается и локальных, и глобальных сетей. Но, как предсказывает MTN Consulting, к 2025 году сама структура последних существенно поменяется: традиционному телекому без сотрудничества с гиперскейлерами, видимо, будет непросто. Доходы его по итогам 2020 года заметно упадут, а расходы будут расти. Отчасти в этом виновата пандемия, которая дала кратковременные пики трафика до +30%, но со временем его рост нормализовался. А мобильный трафик, по данным Ericsson, вырос, но рост его остался в пределах нормы и до пиков 2018-2019 гг. ему далеко. HPCИюньский и ноябрьский рейтинги TOP500 в этом году поставили антирекорд по числу новых машин. Зато у нас появился новый лидер сразу в нескольких дисциплинах — суперкомпьютер Fugaku. Почему так — объясняется в анализе HPC-рынка от Intersect360. Но если говорить кратко, то из-за пандемии многие проекты были отложены или отменены, а некоторая часть нагрузок переехала и будет переезжать в облако. Немало мощностей, в том числе Fugaku и других суперкомпьютеров, включая российские, в ушедшем году было брошено на борьбу с коронавирусом. ![]() В конце года нас ожидает появление первого экзафлопсного компьютера — им станет Frontier, а не Aurora — и впоследствии ряда других сверхмощных машин. Многие из этих гигантов построит HPE, которая теперь является лидером и значительно укрепила позиции после покупки SGI и Cray, и многие будут использовать свежие решения AMD. В целом первая волна ввода в эксплуатацию экзафлопсных систем должна начаться уже в 2022-2023 гг. Отдельно отметим очевидный факт — HPC-системы становятся всё более гетерогенными. Поэтому для упрощения разработки под них Intel и AMD представили платформы oneAPI и ROCm 4.0 соответственно, которые облегчают написание единого кода для запуска на CPU, GPU, FPGA и других вычислительных архитектурах. Обе, к слову, предлагают возможность портирования CUDA-приложений. Облака и ЦОДВ отличие от многих других рынков, которые на фоне пандемии показывали то рост, то упадок, рынки ЦОД и облаков в ушедшем году ставили один рекорд за другим. Только на слияния и поглощения (M&A) ЦОД пришлось почти $31 млрд, а запрос на новые площади настолько велик, что в аренду сдаются места в ещё не достроенных дата-центрах. Гиперскейлеры за три квартала суммарно потратили $99 млрд на капитальные вложения и открыли ещё 26 сверхкрупных ЦОД. При этом облачные провайдеры очень быстро расширяют географию присутствия, открывая всё новые регионы, а вот рынок колокации всё ещё достаточно централизован, но операторы активно налаживают связи с облаками. Вместе с тем, с одной стороны, провайдеры стараются привлечь новых клиентов с помощью массы вариантов гибридного облака. Самым взыскательным доступны и bare-metal-хосты, и конфиденциальные вычисления. С другой — традиционные вендоры всё больше предлагают HCI-решения, решения по подписке и опять-таки возможность интеграции сразу с несколькими публичными облаками (мы наглядно убедились, что они тоже могут «лежать» по несколько часов), а это в условиях пандемии стало очень актуально. Собственно говоря, «большая четвёрка» извлекла максимум из неё — рост доходов год к году составил 40% (лидер всё так же AWS). А IDC прочат всему облачному рынку объём в $1 трлн к 2024 году. В России, для сравнения, по данным IDC, он только в 2019 году достиг отметки $1 млрд, но и у нас пандемия подстегнула его рост. Хотя локальная специфика такова, что быстрее всех растёт IaaS (причём быстрее, чем IT-рынок вообще), тогда как в мире в основном тратятся на SaaS и, чуть в меньшей степени, на PaaS. Плюс на фоне пандемии резко вырос сегмент DaaS. К тому же российские заказчики, если иного не требует закон, охотно используют зарубежные облака, которые пока напрямую разворачивать регионы или зоны в РФ не спешат. Пандемия также «подсветила» несколько важных моментов. Во-первых, стало понятно, что недостаточно развиты средства удалённого управления ЦОД, что, как и в случае с сетями, приведёт к росту средств автоматизации, телеметрии и защиты. Во-вторых, во многих странах ЦОДы наконец были официально признаны критически важными инфраструктурными объектами. А ещё в 2020 году операторы ЦОД и причастные активно говорили про заботу о природе. У многих крупных игроков есть официальные планы по снижению углеродного следа до нуля и устойчивому развитию к концу десятилетия. Это обычно подразумевает переход к возобновляемым и «зелёным» источникам энергии, улучшение охлаждения, отдачу мусорного тепла, общее повышение энергоэффективности, повторное использование оборудования и так далее. В некоторых странах эти меры планируют сделать обязательными для дата-центров. Но в этом есть всё же некоторое лукавство. Например, в проекте Switch по объединению солнечной электростанции и аккумуляторов Tesla MegaPack для компании важнее то, что она получит независимый источник энергии, исключённый из общей энергосистемы. Google теперь тоже экспериментирует с заменой дизель-генераторов аккумуляторами, а Microsoft присматривается к водородным топливным элементам, но причина скорее в том, что эти технологии стали дешевле и надёжнее. Производство батарей, водорода и панелей при этом тоже нельзя назвать очень уж экологичным. Кроме того, большая тройка облаков, к примеру, всё равно закупает REC, в том числе «непривязанные», что позволяет им заявлять о 100 %-м использовании возобновляемой энергии. ![]() Отдача мусорного тепла в теплосети позволяет меньше думать о его утилизации. Улучшение показателей энергоэффективности само по себе экономически выгодно в долгосрочной перспективе. Но если у той же Google показатель PUE находится около 1,1, то по всему миру это значение в среднем составляет 1,59 и его падение замедлилось. В мировом масштабе на энергопотребление ЦОД всё ещё приходится лишь 1%, но такое замедление PUE может изменить картину. Кроме того, есть и другие аспекты. Гринпис, в частности, критикует крупные облака за сотрудничество с нефтедобывающими компаниями, деятельность которых отчасти нивелирует все старания облаков быть более «зелёными». А крупные ЦОД, как настоящие заводы, помимо электроэнергии требуют ещё и уйму воды. ПОЗавершился год не лучшим образом — выявлением одной из самых значимых атак на SolarWinds, последствия которой будут «радовать» нас ещё долго. Это не первая крупная атака на цепочку поставок (supply chain), год тоже начался с раскрытия инцидента в Citrix. Увы, подобных атак в будущем будет не меньше — ускорение IT-трансформации компаний из-за пандемии более защищёнными их не делает. 2020 год вообще стал рекордным по числу выявленных уязвимостей. Переход на «удалёнку» спровоцировал, с одной стороны, рост атак на сервисы для совместной работы, а с другой — рост атак на RDP и прочие сервисы удалённого доступа. Так что производители вынуждены разрабатывать решения для защиты такого распределённого штата сотрудников. Сохранилась и тенденция использования злоумышленниками легитимных инструментов, что затрудняет обнаружение атак. ![]() Другая беда 2020 года — активизация программ-вымогателей и шифровальщиков, особенно в индустриальном и медицинском секторах. Это привело к росту предложений в сфере резервного копирования и восстановления. На этом фоне в даркнете выросли цены и появились новые услуги. Наконец, рост облаков также привёл к активному развитию средств их защиты — например, стартап Lacework получил инвестиции на сумму $525 млн и теперь оценивается более чем в $1 млрд. Тут зачастую проблема в неправильных настройках и, как следствие, утечках данных. При этом сами облака тоже меняются и предлагают всё больше и больше serverless- и managed-решений. Они готовы приютить «старые» системы, но подталкивают разработчиков к созданию cloud-native ПО, что чаще всего подразумевает использование контейнеров. Отдельной строкой надо отметить появление поддержки VMware-нагрузок в крупных облаках и вместе с тем унификацию поддержки виртуализации и контейнеризации в продуктах самой VMware. В целом активность вокруг контейнеров сейчас очень высока. IBM они помогут в реализации облачной стратегии, а SUSE, отказавшись от Openstack, с той же целью купила Rancher Labs. Kubernetes же, самая популярная платформа для управления контейнерами, окончательно перешла на CRI, что делает её только более открытой. Побочный эффект — роль ОС как таковых несколько снижается, так как дистрибуция ПО понемногу смещается в сторону готовых образов для ВМ или контейнеров, и важнее становится оркестрация. ![]() Новостей из мира ОС было немного, если не считать выходов регулярных релизов, но две из них важны. Во-первых, Microsoft, несмотря на ставку на облако, ещё раз подтвердила, что не собирается забрасывать Windows Server и что у неё есть планы минимум на три крупных релиза вперёд, первый из которых выйдет уже в 2021 году. Во-вторых, Red Hat отказалась от развития CentOS в привычном виде и собирается сделать из неё, по сути, вечную бета-версию RHEL. Объяснения компании, почему она пошла на такой шаг, сообщество не очень убедили, а предложения альтернатив появились почти сразу после анонса: основатель CentOS представил проект Rocky Linux, CloudLinux анонсировала Lenix, а Oracle снова всем напомнила, что её форк на базе RHEL бесплатен. Из других возможных кандидатов на замену CentOS можно вспомнить ещё Springdale Linux и ClearOS. От новой CentOS Stream Red Hat вряд ли откажется, но всё ещё может пересмотреть политику лицензирования RHEL. Из других значительных событий отметим важные релизы ядра Linux 5.8 и 5.10 — первый стал крупнейшим по количеству изменений, а второй, тоже довольно большой, принёс поддержку свежего «железа», которое массово появится на рынке в этом году. Вместе с тем было принято решение о продлении поддержки нескольких старых LTS-релизов ядра. Из мелочей: вышел унифицированный для Linux и FreeBSD релиз OpenZFS 2.0.0, готовится полноценная поддержка NTFS в ядре, а Wireguard довольно быстро влился в основные ветки ядер Linux, FreeBSD, OpenBSD, NetBSD и Android, что открывает ему возможность стать де-факто стандартом для многих VPN. Увы, полностью залечить «старые раны» от Spectre и других подобных уязвимостей не вышло. Релизы GCC 11 и LLVM 12 получили очень полезную возможность учёта различий в наборах инструкций x86-64 для более эффективной оптимизации. И в RHEL 9 планируют повысить минимальные требования до уровня x86-64-v2. Это компромисс между желанием улучшить быстродействие и желанием сохранить совместимость с широким кругом аппаратных платформ. То есть остаться по возможности универсальной ОС в отличие, например, от Intel Clear Linux, который продолжает лидировать по быстродействию. Сделки и событияОсенью случилось крупнейшее в истории IPO софтверной компании — Snowflake была оценена в $33,6 млрд, а сейчас её капитализация выросла до $85 млрд. Тут интересна не только сумма, но и специализация: компания предлагает data warehouse в облаке. Другое рекордное IPO не состоялось — Kioxia рассчитывала получить около $19 млрд, но перенесла размещение. Возможно, оно состоится в этом году. Как и IPO SUSE, для которой оно потенциально может стать путём к обретению независимости. ![]() Среди M&A-сделок ключевывми, конечно, являются приобретение NVIDIA компании Arm за $40 млрд и поглощение AMD крупного разработчика FPGA Xilinx, активы которого оцениваются в $35 млрд. Первая сделка обратила на себя пристальное внимание регулирующих органов Великобритании и Китая, но NVIDIA уверена в их одобрении и обещает развивать Arm. На третье место, пожалуй, можно поместить приобретение Marvell за $10 млрд разработчика сетевых решений Inphi, которое, как полагают, отражает смену приоритетов и является причиной отказа от развития ThunderX. В России пока что крупнейшей сделкой является выкуп «ИКС Холдинг» холдингом USM за $2,17 млрд. Но компании не только сливались, но и разделялись. Главное событие такого рода — вывод из состава IBM практически всего подразделения Global Technology Services, которое оказывает различного рода услуги, связанные с инфраструктурой заказчиков. А IBM и Red Hat сосредоточатся на создании гибридного облака стоимостью в $1 трлн. Такая реструктуризация, как и ожидалось, приведёт к сокращению штат. А в этом году нас может ждать ещё более значительное событие — выделение VMware в отдельную компанию. ЗаключениеБезопасность и устойчивость, автоматизация и ИИ, 5G и распределённые системы — эти темы, напрямую связанные с цифровой трансформацией, будут актуальны и в 2021 году. Увы, главной из них станет именно безопасность, причём как виртуальная, так и физическая. Трансформация приведёт к большей зависимости от IT-сектора, который в ответ попытается стать более дружелюбным. Заказчику будет всё менее важно, на каком конкретно «железе» и ПО базируется услуга. И это отличный шанс для новых игроков потеснить былых гигантов. Но трансформация будет таить в себе всё более нарастающую комплексность — и вот она-то и преподнесёт нам главные сюрпризы в будущем. Чтобы ничего не пропустить в новом году, подпишитесь на нас в Twitter, Telegram, LinkedIn, Google News или Zen. Обзор Synology DiskStation DS1621xs+: NAS для малого и среднего бизнеса
18.12.2020 [00:00],
Илья Коваль
Synology DiskStation DS1621xs+ относится к устройствам профессионального уровня, ведь Intel Xeon D-1527 (4 ядра/8 потоков, 2,2/2,7 ГГц, L3-кеш объёмом 6 Мбайт, TDP 35 Вт), от 8 до 32 Гбайт DDR4-2133 ECC и три сетевых порта, один из которых имеет скорость 10 Гбит/с, ожидаешь увидеть скорее в каком-нибудь стоечном решении. Однако в данном случае это не так: DS1621xs+ является настольным NAS, которое удачно сочетает ёмкую дисковую подсистему, не самые большие габариты и достаточно тихое охлаждение, позволяющее использовать хранилище в офисе. Впрочем, давайте обо всём по порядку. Устройство имеет габариты 166 × 282 × 243 мм и весит 5,3 кг. Это не так уж много, потому что большую часть площади фронтальной части, да и объёма тоже, занимает дисковая корзина на шесть накопителей SATA-3. По бокам от неё находятся встроенный блок питания и место для карты расширения PCIe 3.0 x8, куда можно установить ещё один сетевой адаптер (среди совместимых есть и 4×10GbE), если не хватает штатных: одного 10GbE и двух 1GbE (с поддержкой агрегации). Внутри корпуса, на левой стенке дисковой корзины, спрятаны два слота M.2 2280 для установки кеширующих NVMe SSD. Охлаждается система двумя 92-мм вентиляторами на задней стенке. Их можно легко заменить, причём не разбирая корпус целиком, так как крепятся они к съёмной рамке. Не менее легко меняется и оперативная память: на дне устройства есть лючок, за которым прячутся два слота SO-DIMM. На дне же находится консольный порт, прикрытый плотной резиновой заглушкой. Дисковые лотки универсальные. Для установки 3,5” HDD вообще ничего не требуется, а вот для крепления 2,5” накопителей придётся воспользоваться винтами. Лотки, к слову, пластиковые, но хрупкими не кажутся. У каждого из них снизу есть небольшой замочек для блокировки лотка в корзине. NAS, естественно, поддерживает горячую замену накопителей. А для увеличения ёмкости хранилища можно подключить два внешних модуля DX517 на пять 2,5”/3,5” SATA-3-дисков каждый, что в сумме даст 16 накопителей. Модули подключаются через два eSATA-порта, расположенных на задней панели. Там же есть два порта USB 3.0, а ещё один вынесен на лицевую панель. Спереди находятся все основные индикаторы: состояния системы, уведомления об ошибках, активности всех трёх сетевых интерфейсов и накопителей (у каждого лотка есть световод). Кнопка включения совмещена с индикатором наличия питания. Все индикаторы по умолчанию довольно яркие, но в настройках можно выбрать один из трёх уровней яркости или вообще отключить всю «иллюминацию» разом. У сетевых портов есть собственные индикаторы активности, которые отключить нельзя, но они и не мешают.
Мы уже сталкивались с хранилищами Synology, ориентированными на малый и средний бизнес, на примере DiskStation DS1618+ и RackStation RS1619xs+. И вот же совпадение — оба этих устройства являются родственниками сегодняшнего испытуемого не только по позиционированию. С первым у него одинаковый форм-фактор, а со вторым он делит аппаратную базу. Но у DS1621xs+ есть явное преимущество в виде порта 10GbE. Посмотрим, что он даст, ведь нам досталось отличное дополнение к нему — два фирменных SSD Synology SAT5200 ёмкостью 960 Гбайт и 1,92 Тбайт. Эти корпоративные накопители как раз рассчитаны на круглосуточную работу в составе NAS и СХД предприятия. Компанию им составили два жёстких диска Seagate Exos X14 ёмкостью 14 Тбайт (ST14000NM0018). Конфигурация тестового стенда такова: Intel Core i7-7700K, 32 Гбайт RAM, NVMe SSD GOODRAM IRDM Ultimate, 1GbE-адаптер Intel I219-V (для доступа к веб-интерфейсу), 10GbE-адаптер Intel X540-T2 (для обмена данными), Windows 10 Pro 2004. На 10GbE-интерфейсах с обеих сторон были включены Jumbo-кадры 9k. HDD и SSD были объединены в массивы RAID 1. Сначала по отдельности, а потом — с использованием массива SSD для кеширования массива HDD, включая и последовательные операции. Во всех случаях на массивах был создан один Btrfs-том с одной общей SMB-папкой. Ну а сам NAS был оснащён 8 Гбайт RAM, чего в нашем случае достаточно. Настройка RAID-массивов
Наиболее тяжёлый сценарий, не слишком, впрочем, характерный для хранилища с общим доступом, — одноразовые запись/чтение большого объёма данных. В нём проявляется «истинная натура» накопителей, то есть их скоростные характеристики. Но даже в этом случае наличие SSD-кеша хорошо «подтягивает» общую производительность. И не только по скорости, но и по показателю IOPS. При повторяющихся обращениях хорошо видна работа кеширования. При малых объёмах достаточно и того, что попадает в RAM-кеш, — скорость и IOPS даже для HDD резко возрастают. Именно благодаря ему во многих случаях можно будет попросту упереться в ограничение со стороны сетевого подключения. Настройка SSD-кеширования
Однако оперативная память не резиновая, и даже без работающих дополнительных приложений система отдаёт под кеш не более семи гигабайт RAM из восьми доступных в нашей конфигурации. При превышении объёма RAM резко снижается производительность случайных операций чтения. И если для SSD она падает всего в два раза, то для HDD уже почти на порядок. Оптимальным вариантом в этом случае оказывается использование SSD для кеширования, пусть даже небольшой относительно всего остального хранилища ёмкости. Это позволит скрыть от пользователей природу работы HDD, а затраты на такой «ускоритель» окажутся не слишком большими. Компания рекомендует использование SSD Synology, так как в этом случае пользователь получает комплексное, заранее протестированное и оптимизированное решение от одного вендора. Список совместимых дисков можно найти на официальном сайте, но, так как модель NAS новая, он ещё будет пополняться. Непосредственно к накопителям Synology претензий нет, но есть один маленький нюанс — при интенсивной работе на случайных операциях SSD ожидаемо нагреваются. В данном случае до +40 °C, если верить показаниям DSM. А когда любой из накопителей достигает этой температуры, вентиляторы автоматически начинают повышать обороты. В настройках доступно три профиля: тихий режим, режим охлаждения и режим максимальной скорости. Все тесты проводились в первом режиме, который назван тихим не просто так — шум вентиляторов в нём перекрывается треском жёстких дисков. Причём при использовании SSD-кеширования NAS постоянно перемещает данные туда-сюда, так что HDD слышны гораздо заметнее и чаще, а нагрузка на SSD несколько выше. Так что периодически NAS на несколько секунд становится более шумным. В офисной среде в рабочий день это вряд ли будет заметно, но на «удалёнке» может и несколько мешать. Впрочем, DiskStation DS1621xs+ всё же относится к офисным решениям, ориентированным на малый и средний бизнес. Более быстрые в сравнении с прошлыми моделями серии процессор и сетевое подключение естественным образом позволяют ускорить работу с большими объёмами данных. Это может быть и увеличенное количество одновременно работающих с общими ресурсами NAS пользователей, и более тяжёлые нагрузки вроде обработки массивных медиафайлов, рендера или предоставления хранилища для виртуальных машин (ВМ). Приложения
Но возможности устройства определяются не только и не столько его «железом». Дело не в количестве дисков, процессоров и 10GbE-подключении. Дело в том наборе возможностей, что предоставляет ОС DSM. В одном только официальном репозитории производителя есть десятки приложений и сервисов, которые значительно упростят жизнь бизнесу, взяв на себя множество типичных офисных задач и избавив от необходимости покупать для них отдельный сервер или облачные мощности. Впрочем, самая частая и весьма актуальная на фоне резко возросшего в условиях пандемии числа киберугроз задача — это всё-таки резервное копирование/восстановление. В арсенале Synology есть сразу несколько мощных и, что важно, бесплатных приложений: Active Backup for Office 365 и G Suite для одноимённых облачных платформ, Cloud Sync для синхронизации файлов между NAS и двумя десятками различных облачных хранилищ, Glacier Backup для холодного резервирования данных в AWS Glacier, HyperBackup для управления резервированием в целом (планы, репликация, ротация и так далее), а также Active Backup for Business. Основной — и весьма мощный — инструмент здесь именно Active Backup for Business. Он позволяет консолидировать все задачи по резервному копированию, восстановлению, а также управлению резервными копиями и их защите. Мы уже знакомились с основными возможности этого решения в прошлом году. С тех пор, как и было обещано, в нём появилась полная поддержка Hyper-V. То есть теперь можно делать автоматическое резервное копирование виртуальных машин: сохранять и восстанавливать снимки, просматривать и извлекать их содержимое, переносить ВМ с хоста на хост и с одного гипервизора на другой. Создание резервной копии ВМ Hyper-V
Как и ранее, для всех данных предусмотрена дедупликация и гибкое планирование удаления старых снимков. Никуда не делась и поддержка VSS, а также возможность запуска скрипта в ВМ перед резервным копированием и после него для сохранения консистентности данных. Как и в случае VMWare, работа с Hyper-V не требует установки агентов — всё взаимодействие с хостом происходит посредством WinRM, который по умолчанию имеется в современных Windows Server и Microsoft Hyper-V Server. Для начала работы требует только адрес сервера и логин/пароль административного аккаунта. Восстановление ВМ в Hyper-V
После подключения в Active Backup for Business будет виден список всех виртуальных машин гипервизора. Для каждой из них буквально в несколько кликов можно задать расписание создания и удаления бэкапов. Но прелесть данного решения вовсе не в этом, а в гибких возможностях восстановления повреждённых ВМ. В самом простом случае откат к выбранному состоянию из имеющихся копий представляет собой перенос сохранённого образа диска назад в гипервизор. Но есть и два альтернативных варианта. Мгновенное восстановление ВМ в Hyper-V
Первый — это так называемое моментальное восстановление. В этом случае ничего никуда не копируется. Вместо этого из резервной копии автоматически разворачивается и подключается к гипервизору новый LUN, на основе которого формируется новая ВМ с теми же параметрами, что у изначальной. Наличие 10GbE-подключения и SSD-кеширования позволяет проделать такой трюк сразу с несколькими машинами — производительности дисковой подсистемы и сети NAS хватит для большинства нагрузок, характерных для малого и среднего бизнеса. Восстановление ВМ Hyper-V в Virtual Machine Manager
Второй вариант пригодится уже в действительно аварийной ситуации, когда сервер с основным гипервизором отказал или недоступен. В этом случае ВМ из копии можно развернуть непосредственно на NAS с помощью Virtual Machine Manager (VMM). Очевидное ограничение такого способа — ресурсы CPU и RAM самого NAS. Ну и для некоторых импортированных ВМ, возможно, придётся поменять некоторые настройки. Virtual Machine Manager
VMM объединяет Open vSwitch, QEMU с OVMF и другие компоненты, предоставляя удобный веб-интерфейс для управления ВМ. Здесь есть целый ряд полезных функций. Например, встроенный KVM-доступ прямо из браузера, для которого можно сгенерировать ссылку для удалённого подключения. А ещё есть собственная система создания снимков машин, управление кластерами VMM на нескольких СХД/NAS, гостевые дополнения для ВМ c Windows/Linux и, наконец, возможность развернуть полноценную виртуальную копию DSM. Всё это доступно бесплатно, а если надо больше возможностей, есть лицензия VMM Pro. ЗаключениеSynology DiskStation DS1621xs+ — это весьма удачная модель сразу по нескольким параметрам. Среди актуальных моделей Synology есть только два варианта настольных NAS со встроенными 10GbE-портами: герой этого обзора и 8-дисковое хранилище DS1817 на кардинально иной аппаратной платформе. Но у последнего нет слотов PCIe или M.2, так что для SSD-кеша всё равно придётся «потерять» пару мест в дисковой корзине. Из 6-дисковых моделей ближайший родственник — DS1621+ — имеет схожий по характеристикам CPU, поддержку пары M.2 SSD и слот PCIe, но лишён 10GbE-портов. У DiskStation DS1621xs+ есть и свободный PCIe-слот, и набортный 10GbE-контроллер, и два порта M.2, которые позволяют полностью заполнить корзину жёсткими дисками, получив и высокую ёмкость (96 Тбайт, если брать 16-Тбайт накопители), и хорошую производительность благодаря SSD-кешированию. Нам, правда, этот сценарий c NVMe-дисками опробовать не удалось, но и с SATA SSD вышло неплохо. В сочетании с широкими возможностями DSM и удачной конструкцией шасси в сумме получаем очень привлекательный NAS SMB-класса. Но и цена у него соответствующая — 160 тысяч рублей за конфигурацию с 8 Гбайт RAM и без накопителей. Сколько вешать в ядрах: практика использования AMD EPYC для компьютерной графики и спецэффектов
23.11.2020 [00:00],
Игорь Осколков
Если вы сразу вспомнили про победы AMD EPYC или Ryzen в CINEBENCH и решили, что, мол, тут всё и так понятно, то не спешите — работа над CG-эффектами и анимацией в реальности не так проста и наличие множества ядер ещё ничего решает. При поддержке московского представительства AMD, дистрибьютора ASBIS и студии CGF мы подготовили материал о тонкостях работы студии и ее опыте пробной эксплуатации новых процессоров AMD EPYC серии 7002, которые студия тестировала, чтобы оценить возможность их дальнейшего использования в серверном парке. На счету студии сотни работ — от спецэффектов для полнометражных фильмов до коротких рекламных роликов, а также полностью анимационные картины. Однако даже так называемые VFX breakdown, из которых зритель узнаёт, что на экране было настоящим, а что нет, не полностью отражают всю глубину и сложность создания даже нескольких захватывающих секунд видео, на которые в реальности могут уйти часы или даже дни. Обо всех тонкостях и нюансах рассказать не удастся, так как у студии есть свои секреты, но общее представление о процессах получить можно. Рабочий процессТипичный сценарий работы студии над спецэффектами для кинофильма описать непросто, поскольку всё зависит от особенностей конкретного проекта. В общем случае задача состоит в обработке исходного съёмочного материала — добавлении отсутствующих в нём объектов, удалении лишних или корректировке снятых. Исходный видеоматериал со съёмок может составлять десятки терабайт данных. Как правило, такое видео хранится на множестве LTO-кассет. Наряду с ростом емкости ленточных накопителей растёт и качество видео, его разрешение и глубина цвета, поэтому на одну кассету LTO-5 размером 1,5 Тбайт помещается всего 5-10 минут записи (без компрессии). В наиболее сложном случае всё начинается с оцифровки физических или же моделирования с нуля будущих «искусственных» объектов в кадре, а также симуляции, то есть физических расчётов поведения и взаимодействия таких объектов. Затем происходит рендеринг — отрисовка смоделированных объектов. И уже в самом конце происходит композитинг — совмещение просчитанных и отрисованных объектов с исходным видео. Конечно, за таким формально простым описанием скрываются десятки часов работы большого числа специалистов. Для начального моделирования объектов используются графические станции, преимущественно с Autodesk Maya. За симуляцию, физические расчёты, рендер и так далее отвечает SideFX Houdini. Для композитинга студия применяет The Foundry Nuke. Для каждого ПО есть отдельные дополнительные плагины и модули. Кроме того, имеется и собственный локальный инструментарий. Каждый этап разбивается на отдельные задачи, единицы достаточно независимых друг от друга расчётов. Практически все эти задачи попадают на рендер-ферму. «Проблема многих небольших по голливудским меркам студий заключается в ограниченности бюджетов на закупку новых серверных ферм и рабочих станций. И в случае CGF цикл обновления оборудования, всё же весьма недешёвого, может составлять от 4 до более чем 7 лет. Для экономической рентабельности, качества работ и скорости исполнения заказов, студии необходимо максимально эффективно использовать всё имеющееся оборудование»,— отмечает Кирилл Кочетков, CTO студии CGF, под руководством которого происходило тестирование новых платформ. В результате рендер-ферма CGF не полностью унифицирована, она состоит из нескольких типов когда-то дорогостоящих блейд-лезвий и серверных систем. В свободное время в качестве дополнительных узлов фермы подключаются и индивидуальные графические станции сотрудников. А при выборе нового «железа» важно подбирать процессоры и платформы под конкретные нагрузки и соблюсти баланс, так как у задач, описанных выше, заметно различаются требования к ресурсам: одно- и многопоточности, IPC ядра, пропускной способности памяти и так далее. Многие задачи симуляции очень ресурсоёмкие — время счёта одного кадра может составлять несколько часов. При этом встречаются как использующие все ресурсы процессоров (8-24 потока) сценарии, так и специфичные задачи, которые фактически используют только один поток и для которых на первый план выходит частота и IPC одного ядра. К таковым относятся некоторые физические расчёты, где каждое следующее состояние напрямую зависит от предыдущего — например, распад объекта на части с их последующим взаимодействием между собой и со средой, на которую они тоже оказывают влияние. Непосредственно рендер же в среднем достаточно хорошо распараллеливается. Для большинства задач используются преимущественно расчёты на CPU. В некоторых случаях GPU могут дать ускорение, но это не универсальное решение. При условии должного финансирования конкретного проекта некоторые студии собирают системы с ускорителями, под конкретное ПО. В случае CGF добавлять GPU в имеющуюся у студии ферму уже не имеет большого смысла, в связи с устареванием серверной части и наработанным инструментарием. Второй важный ресурс — оперативная память. Её потребление зависит от конкретной задачи (и даже конкретного кадра), и при её недостатке возможны дисбаланс и замедление общей работы. В частности, задача может отъесть почти все ОЗУ узла, нагружая при этом лишь малую часть доступных ядер. Наконец, время счёта увеличивается в разы, когда свободная оперативная память узла закончилась и приходится использовать swap-файлы на дисках Наконец, не стоит забывать и о дисковой подсистеме. Требования к ней тоже зависят от задач. Для одних требуется большой объём входных данных, а на выходе получается совсем немного. Для других всё ровно наоборот (обычно это симуляции физики), а у третьих результаты промежуточных расчётов занимают гигантское место, но вход и выход относительно невелики. Нюанс ещё и в том, что распространённые технологии кеширования в большинстве задач не эффективны, поскольку файлы обычно читаются только один раз. Часть расчётов на основе алгоритмов можно весьма эффективно запускать в облаке или на удалённом кластере, так как не требуется гонять десятки терабайт данных на накопителях и между узлами и СХД. Для упрощения процесса распределения задач у каждой из них имеется определённый вес, который отражает требования к ресурсам. У каждого узла фермы, соответственно, есть определённая ёмкость. Если, к примеру, ёмкость узла составляет 1000 условных единиц (у. е.), то он сможет одновременно обработать десять задач по 100 у. е. каждая или две задачи по 350 у. е. и две по 150 у. е. А вот задачу на 2000 у. е. такой узел уже не осилит, и на него она не попадёт. «Соблюдение баланса доступных и требуемых ресурсов позволяет CGF эффективно использовать имеющиеся аппаратные мощности. А если нагрузка не распределена по всей ферме, то это прямая потеря денег из-за простоя или недостаточно полного использования оборудования. В идеальном случае вся ферма должна быть всегда загружена на 100%, и на практике к этому показателю и стремятся», — говорит CTO студии CGF. Рендер-фермаФерма CGF на основе блейд-систем (4U, 10 «лезвий») позволила плотнее размесить вычислительные ресурсы на имеющихся площадях студии. На текущий момент используется два варианта таких узлов на базе прошлых поколений Intel Xeon:
Но это не всё, в составе фермы задействуются все рабочие станции студии, когда они свободны от интерактивного использования сотрудниками. Их типовая конфигурация включает высокочастотный процессор на 8 или 12 потоков — Intel Core i7-6700K, i7-8700K или i7-9700K — и 64 Гбайт оперативной памяти. Общее число активных узлов в пике достигает 150. На ферме запускаются задачи по симуляции и рендеру, расчёт моделей, а также задачи сборки финального изображения. Программное обеспечение рендер-фермы работает под управлением Linux-дистрибутива Debian 10. Распределением задач занимается менеджер CGRU, популярное открытое ПО для управления рендер-фермами. Из-за того, что задач много и все они относительно независимы друг от друга, ферма готова принять практически любое подходящее «железо», а уж чем нагрузить его, всегда найдётся. Поэтому в эту рендер-ферму для оценки перспективности использования были добавлены тестовые серверы на базе современных процессоров AMD EPYC и Intel Xeon Scalable. В первую очередь было интересно выяснить, как задачи студии будут выполняться на наиболее продвинутом односокетном AMD-сервере с максимальным числом ядер и двух двухсокетных системах с процессорами AMD и Intel примерно с таким же суммарным количеством ядер на машину. К сожалению, на момент тестирования не удалось получить наиболее похожие конфигурации с новыми Intel Xeon Gold 6248R, у которых в сравнении с 6248 больше ядер и выше частоты при меньшей цене (1ku RCP $2 700), и новыми же AMD EPYC 7F72 (1ku RCP $2 450) c тем же числом ядер, но более высокой частотой. В итоге были взяты конфигурации с чуть более простыми, но и более дешёвыми процессорами, что с точки зрения стоимости CPU (см. ниже) видится вполне приемлемым вариантом для тестирования. Однопроцессорный сервер на базе AMD EPYC 7702 (далее обозначен как EPYC x1):
Двухпроцессорный сервер на базе AMD EPYC 7402 (далее обозначен как EPYC x2):
Двухпроцессорный сервер на базе Intel Xeon Gold 6248 (далее обозначен как Xeon x2):
Все машины работали с профилем performance, а для AMD оставлен один NUMA-домен на сокет по умолчанию. На все машины был установлен тот же стек ПО, что используется в ферме; с ним никаких проблем не возникло. На локальных дисках фактически находился только софт, тогда как доступ к рабочим данным на внешней СХД с NFS осуществлялся по 10GbE-сети. Все машины получили конфигурацию памяти 1DPC с максимально возможной частотой для каждой платформы. Для текущих задач студии, обсчитывающихся на ферме, такой объём памяти чаще всего избыточен, но зато в тестах она точно не станет ограничивающим производительность фактором. ТестированиеНа одной машине каждого типа — EPYC x1, EPYC x2, Xeon x2, Blades 1, Blades 2 и Blades 3 — были запущены одинаковые тестовые сценарии, которые включают как исключительно синтетические нагрузки, которые на практике являются лишь частями более крупных задач, так и реальные расчёты тех проектов, над которыми трудилась студия во время тестового периода, продолжавшегося несколько недель. Синтетические тестыДля первичной оценки относительно производительности узлов использовались физические расчёты (симуляции) различных типов объектов и веществ в ПО SideFX Houdini:
Такие расчёты происходят относительно быстро и имеют разные требования к числу и частоте ядер. Например, инструмент Cloth имеет однопоточную природу, поэтому только для него важна максимальная частота одного ядра. Прочие же инструменты умеют распараллеливать расчёты в той или иной степени. В данном тесте на каждый узел попадала ровно одна расчётная задача.
На графике выше приведено время, потребовавшееся узлам на расчёт каждой симуляции вышеперечисленных типов. Столь большая разница между старыми и новыми узлами объясняется в большей степени теми архитектурными улучшениями процессоров и платформ в целом, которые произошли за последнее десятилетие. Если же сравнивать между собой только современные платформы, приняв за базовый уровень результаты машины с Xeon, то разница уже не такая гигантская, хотя и очень существенная.
В среднем преимущество системы на базе одного процессора AMD EPYC составляет порядка 20%, а системы на базе двух процессоров AMD EPYC — 30%. Решения с процессорами AMD опережают конкурента во всех тестах, кроме первого, который, как уже говорилось выше, отличается тем, что математические расчеты в нем работают в однопоточном режиме. Напомним, что процессор Intel Xeon Gold 6248 имеет турбочастоту 3,9 ГГц, тогда как решения AMD — только 3,35 ГГц. Вероятно, этим и объясняется отставание на 10% в данном тесте. Практические тесты: симуляция и рендерТестируемые системы работали в составе рендер-фермы студии несколько недель, так что удалось собрать достаточно обширную статистику по задачам, которых за это время было обработано несколько сотен. Поскольку в общем случае распределение задач по вычислительным узлам осуществлялось в автоматическом режиме, то для итогового отчёта были выбраны наиболее репрезентативные задачи: с большим числом кадров и с временем счёта одного кадра на самой быстрой машине не менее одной минуты.
В подавляющем большинстве случаев серверы на базе EPYC оказались быстрее машины с Xeon, причём односокетная EPYC-система оказалась в среднем даже чуть быстрее. В среднем преимущество систем на базе AMD в сравнении с Intel-сервером составило 20-21%. Но так как это реальные задачи, включающие разные типы нагрузок, прирост не везде равномерный. Например, в одном случае два процессора AMD оказались втрое быстрее двух CPU Intel, в другом — почти в два раза медленнее. Такой разброс является прямым следствием того, что не всегда одиночные задачи эффективно масштабируются на большое число ядер. В этом случае более выгодным может оказаться распределение не из расчёта «одна задача на один узел», как в предыдущих тестах, а «несколько задач на один узел». Для оценки обоих подходов на каждую тестовую систему был отправлен набор из 10 кадров для рендеринга. В последовательном варианте каждый кадр отправлялся на серверы один за одним, а в параллельном — все сразу. Результатом является общее время вычислений. Тестирование показало, что двухпроцессорные серверы с AMD и Intel в этой задаче оказываются примерно на треть быстрее в случае одновременного запуска кадров на рендер, а однопроцессорный AMD-сервер — примерно на 20%. По общей скорости системы с AMD лидируют.
В следующем специальном тесте для более точного изучения эффективности распараллеливания была использована еще одна, отличная от прошлых, задача рендера, состоящая из восьми кадров. При этом время счёта каждого на узлах студийной фермы (Blades) составляло обычно 10-20 минут в зависимости от их производительности. Данная задача запускалась на сервере с одним процессором AMD (EPYC x1) с настройками системы управления задачами для счёта на сервере одновременно одного, двух, четырех и восьми кадров. Таким образом, первый вариант будет последовательным, а все остальные — параллельными. Здесь стоит обратить внимание на работу программного обеспечения рендера. Одним из вариантов автоматического универсального распараллеливания его задач является разбиение целевого поля изображения на несколько блоков и вычисление каждого отдельным потоком рендера. В общем случае пользователь может сам выбрать для своей задачи, на сколько блоков её можно или нужно разделить. В данном случае рендер каждого кадра не знает, что на узле считается ещё что-то, и ориентируется на число вычислительных ядер для выбора числа запускаемых потоков для счёта блоков.
В результате получается, что одновременный расчёт восьми кадров уже активно использует средства процессоров и операционной системы для обработки числа потоков существенно большего, чем число ядер. Из таблицы с результатами видно, что в этом случае можно получить неплохой выигрыш — общее время получения результата примерно на треть меньше, чем если бы все кадры считались последовательно, хотя формально в обоих вариантах активно используются все ядра процессора. ВиртуализацияКак уже отмечалось выше, для некоторых вычислительных сценариев использование одного мощного сервера с большим числом ядер и большим объёмом оперативной памяти может быть не очень эффективно из-за сложности управления разнородными задачами на нём. В частности, это связано с отличиями таких ресурсов, как ядра и оперативная память. Первые непосредственно влияют только на скорость проведения расчётов, а вот прогнозировать потребление оперативной памяти разнородными задачами и управлять им может быть просто невозможно. В этом случае можно рассмотреть вариант «нарезки» одного «большого» сервера на несколько виртуальных с заданным распределением ресурсов. Этот подход также позволит корректировать на лету распределение ресурсов, подбирая оптимальный вариант для текущих задач. Для проверки такого подхода на сервер с одним процессором AMD (EPYC x1) была установлена открытая система управления виртуальными машинами Proxmox. Для машины EPYC x1 — 64 ядра/128 потоков и 512 Гбайт оперативной памяти — использовались виртуальные машины (ВМ) с конфигурациями от 16 ядер и 64 000 Мбайт оперативной памяти в количестве восьми штук до одной ВМ с 128 ядрами и 512 000 Мбайт оперативной памяти. В отличие от ранее проведенных тестов с реальными серверами, этот сценарий может иметь определённые ограничения производительности из-за размещения дисков виртуальных машин на внешней СХД, подключенной по протоколу NFS через 10-Гбит/с сетевое подключение.
Прежде всего стоит отметить, что лучший по скорости результат очень мало отличается от лучшего результата, полученного на реальной системе без применения виртуализации. Это говорит о том, что многоядерные процессоры AMD EPYC хорошо подойдут для подобных сценариев и смогут справиться с высокой нагрузкой. При этом в виртуализации лучше всего выступила схема «8 виртуальных машин, считающих каждая свой кадр». В общем случае можно сказать, что решения с AMD EPYC наиболее эффективны с точки зрения скорости именно в «перегруженных» сценариях, когда используется большое число одновременных ресурсоемких задач или потоков. Энергопотребление и плотностьЭнергопотребление и энергоэффективность являются не менее важными параметрами при оценке систем, чем их производительность. Старые блейд-системы имеют свою специфику: 4U-шасси на десять лезвий потребляет порядка 3 кВт (примерно 260-300 Вт на узел) и при этом требует отдельные кабели на каждый из четырех блоков питания. Тестовые системы, напротив, намного менее требовательны — им нужно всего по два кабеля на узел 1U или 2U. Сравнение плотности и потребления современных систем и старых блейд-серверов приведено в пересчёте на 4U-объём стоечного пространства — именно столько места требует каждая имеющаяся в распоряжении студии блейд-система.
Во время проведения тестирования на всех трех серверах был настроен удаленный мониторинг потребления с использованием встроенных в платформу сенсоров. На графике выше приведены максимальные и минимальные показатели энергопотребления. Первые — это самые высокие зафиксированные устойчивые значения под нагрузкой, а вторые были получены при отсутствии нагрузки на серверах. Более высокая эффективность AMD-решений, вероятно, частично обусловлена более тонким техпроцессом. Однопроцессорная 1U-система c AMD EPYC 7702 представляет наибольший интерес в плане плотности размещения ресурсов. Четыре таких системы предлагают 256 ядер при суммарном потреблении около 1,3 кВт. Тогда как старая блейд-система (Blades 3) в 4U-шасси имеет 160 ядер и, как и было сказано выше, потребление на уровне 3 кВт. То есть современное решение AMD имеет в 1,6 раза больше ядер при более чем двукратной разнице в потреблении.
Две двухпроцессорные 2U-системы с AMD EPYC 7402 оказываются чуть менее плотными: 96 ядер при потреблении 950 Вт, то есть в 1,66 раза меньше ядер и в три с лишним раза меньшее потребление в сравнении с 4U-блейдом (Blades 3). Наконец, для тестовой системы с Intel Xeon Gold 6248 при тех же условиях сравнения получаем вдвое меньшее количество ядер и чуть менее чем трёхкратную разницу в энергопотреблении. Кроме того, тестовые 1U/2U-серверы менее требовательны к охлаждению в сравнении с блейдами и позволяют при желании дооснастить их GPU (при условии, что платформа поддерживает данную возможность), которые могут ускорить некоторые расчёты или использоваться для организации VDI. Если же такая универсальность не нужна, а нужно ещё большее повышение плотности, то можно использовать узлы 2U4N. СтоимостьСтоит сразу сделать оговорку, что расчёт стоимости тестовых платформ является приблизительным, так как обычно такого рода закупки носят гораздо более комплексный характер и учитывается весь проект целиком, а не отдельные машины. Компания ASBIS, которая предоставила серверы для тестирования, также привела цены на каждую из базовых платформ (CPU + память + шасси) в случае единичной закупки. Естественно, при покупке большего числа машин стоимость будет отличаться.
Стоимость всех трёх платформ имеет один и тот же порядок. Обе AMD-системы в тестах на реальных нагрузках оказались практически идентичными по производительности и заметно быстрее сервера с Xeon. Однако с учётом более высоких плотности и энергоэффективности именно односокетная система AMD является наиболее выгодной. Если же сравнить реально протестированные системы с теоретически более подходящими (Xeon Gold 6248R, EPYC 7702P и 7F72), то картина становится ещё более интересной. Ценовая политика AMD в отношении P-серий процессоров, которые подходят только для односокетных систем, направлена на вытеснение двухсокетных конфигураций Intel — при меньшей стоимости CPU можно получить более высокую плотность и/или количество ядер. И это касается даже более «простых» моделей, без повышенной частоты и огромного кеша как в 7Fx2.
При этом AMD сознательно не сегментирует процессоры по всем остальным параметрам: любой EPYC 7002 имеет 8 каналов памяти DDR4-3200 и 128 линий PCIe 4.0 в отличие от 6 каналов DDR4-2666/2933 и 48 линий PCIe 3.0 у Intel. А двухпроцессорные системы AMD могут понадобиться уже для обеспечения более высокой базовой частоты на количество ядер, при потребности в объёмах памяти более 4 Тбайт, при определённых требованиях к объему и пропускной способности памяти на ядро, а также для HPC/AI-систем. ЗаключениеОдин из главных выводов, которые сделала для себя студия по итогам тестирования, касается скорее не «железа», а ПО. Точнее говоря, его полной совместимости с платформами AMD. Все используемые CGF программные пакеты заработали без каких-либо проблем или дополнительной тонкой настройки. В том числе и в более сложных сценариях блочного и виртуализированного рендеринга. Не было проблем и с совместимостью при установке дополнительных сетевых адаптеров или накопителей. С аппаратной частью стратегия AMD по продвижению односокетных систем в случае студии попала точно в цель. Тестовые платформы имеют один порядок стоимости и при этом намного быстрее старых блейд-систем, но двухсокетная система AMD всё же несколько дороже остальных. При этом обе AMD-платформы в реальных задачах студии по симуляции и рендеру в среднем на 20-21% быстрее системы на базе Xeon. Если учесть, что использование P-версии процессора в односокетном AMD-сервере позволит ещё больше снизить стоимость, то становится очевидно, что именно эта платформа среди всех протестированных является наиболее привлекательной по соотношению цены и производительности. Кроме того, она же относительно других тестовых платформ и старых блейд-систем является более энергоэффективной и более плотной с точки зрения числа ядер. Упрощение кабельного хозяйства и снижение счетов за электричество — без сомнения, очень важные аспекты для студии. Совокупность всех этих факторов привела к тому, что, ещё до завершения всех тестов в составе рендер-фермы, студия самостоятельно закупила ещё один односокетный сервер на базе AMD EPYC 7002 для изучения его возможностей в других сценариях IT-задач компании. По итогам тестирования студия рассматривает возможность частичного обновления рендер-фермы, пока что без окончательного отказа от блейд-систем, за счёт использования однопроцессорных AMD-платформ высотой 1U, но в иной, нежели тестовая система, конфигурации. Основным фактором всё равно остаются финансы, так как экономика студии во многом завязана на требования выполняемых заказов — чем больше и сложнее в техническом отношении проекты, тем выше требования к «железу». В текущей ситуации существует потребность в небольшом, относительно недорогом, но достаточно быстром и универсальном кластере для повседневных нужд студии. В том числе для отработки новых техник и возможностей. Единичные сверхтяжёлые задачи проектов по совокупности многих факторов чаще всего экономически выгоднее «выгружать» на внешние площадки — крупные кластеры или облака. «Сколько вешать в ядрах? Наиболее оптимальными для нас сейчас видятся 1U-системы c 32-ядерными процессорами AMD EPYC 7502P (2,5-3,35 ГГц, L3-кеш 128 Мбайт, TDP 180 Вт). Они позволяют соблюсти баланс между стоимостью, в том числе шасси и памяти, плотностью размещения, энергопотреблением, производительностью и универсальностью для обеспечения эффективной работы студии в текущих условиях», — заключает технический директор CGF. Обзор Ideco UTM 8: на страже границ корпоративной сети
29.10.2020 [00:00],
Илья Коваль
C момента нашего первого знакомства с решением Ideco прошло ровно 9 лет. За это время вышло много новых релизов, название поменялось с ICS на UTM, появилось множество новых функций и отдельных решений, но неизменным осталось одно — стремление к максимально возможной простоте установки, настройки и использования продукта. ![]() При этом концептуально подход остался прежним — Ideco UTM 8, по сути, является специализированным дистрибутивом, построенным по большей части на открытых компонентах, которые аккуратно упакованы, преднастроены и сведены в унифицированный веб-интерфейс, чтобы всё работало прямо «из коробки», по первому клику, и было доступно для использования даже не слишком продвинутому пользователю. Впрочем, есть и прямой доступ к консоли, если очень хочется повозиться с внутренностями системы. Решение это изначально чисто программное, даже несмотря на наличие готовых программно-аппаратных комплексов от самой компании. И в нынешние времена у этого есть неожиданное дополнительное преимущество: официальная поддержка ключевых гипервизоров позволяет защитить инфраструктуру VDI, которая в связи с пандемией только набирает популярность. И это в дополнение к тому, что и ранее у Ideco UTM при почти таких же возможностях, как у аппаратных шлюзов других вендоров, отсутствовала жёсткая привязка к конкретному «железу», а возможность лёгкого масштабирования без существенных затрат, наоборот, всегда была. УстановкаДля изучения возможностей системы Ideco UTM 8 (в процессе обновившейся до версии 8.4) мы установили её из официального ISO-образа в виртуальную машину Hyper-V второго поколения с UEFI, двумя vCPU (Intel Core i7-7700K), 8 Гбайт RAM (статическое выделение) и диском ёмкостью 128 Гбайт, образ которого находился на SSD. По соседству находилась клиентская ВМ c Windows 10 (2 vCPU, 2 Гбайт RAM), которая была подключена к ВМ с Ideco UTM посредством частного vSwitch, а та, в свою очередь, выходила в Интернет через второй, внешний виртуальный коммутатор. Установка Ideco UTM 8
Процесс установки крайне прост — инсталлятор попросит выбрать накопитель и сетевой интерфейс для локальной сети, для которого надо задать подсеть с маской, а также указать часовой пояс и время. Кроме того, надо будет задать пароль для root-пользователя, чтобы в дальнейшем получить доступ к локальному меню, в котором собраны некоторые критичные настройки. В частности, тут можно просмотреть нагрузку на сетевые интерфейсы и сам сервер, сбросить сетевые параметры, отключить файрволл и очистить блокировки по IP, поменять пароли root и администратора веб-интерфейса, а также выключить или перезагрузить машину. Вообще, попасть в это меню можно имея физический доступ к самому серверу, который, по идее, должен быть нужен только в нештатной ситуации. Тут, например, можно включать доступ по SSH и режим удалённого помощника (для техподдержки), управлять резервным копированием и включать экстренный режим «Разрешить интернет всем» (действует 48 часов или до перезагрузки машины). Однако для облачного развёртывания в этом меню не помешала бы ещё одна функция — настройка WAN-интерфейса. Потому что удобно он настраивается только через веб-интерфейс. Меню администратора
НастройкаЛогин и пароль администратора для доступа в веб-интерфейс показываются в конце процесса установки. Увы, после первого входа их не заставляют менять на свои собственные (данная функция будет реализована в версии 9.0, выход которой намечен на конец года). И это, наверное, одна из немногочисленных претензий к веб-интерфейсу и системе в целом. Зато здесь есть некоторые приятные особенности, которых нет у конкурентов. Например, встроенный непосредственно в веб-интерфейс чат с техподдержкой (работает с 7:00 до 19:00 по московскому времени с понедельника по субботу), которая весьма быстро откликается на запросы, хотя при нетипичных случаях всё равно придётся общаться уже по почте. А ещё у компании есть группа в Telegram, где разработчики помогают решить вопросы с настройкой и подключением. Впрочем, для Ideco UTM есть довольно обширная документация по каждому разделу параметров. Поэтому детально рассматривать всё подряд мы не будем, отметив или кратко перечислив лишь некоторые возможности и особенности. И WAN-, и LAN-интерфейсов может быть несколько, включая и VLAN, но поддерживается только IPv4. Для WAN доступны также VPN-подключения PPTP/L2TP/PPPoE и статические маршруты, а при наличии нескольких WAN-интерфейсов появляется возможность резервирования или балансировки. Ideco UTM фактически является прокси-сервером, так что часть трафика при желании можно пустить в обход него как на уровне сетей (назначения или источника), так и просто вынеся какой-либо локальный HTTP(S)-ресурс наружу (обратный прокси). Традиционные перенаправление и проброс портов, конечно, тоже имеются, так что можно открыть доступ к службам самого Ideco UTM или к внутреннему сервису из локальной сети, а также организовать доступ к локальным сетям извне, если это вдруг понадобится. Настройки сетевых интерфейсов и брандмауэра
Во всех этих сценариях предполагается, что Ideco UTM является шлюзом по умолчанию для локальной сети. Однако его можно использовать для фильтрации и защиты, даже если он находится внутри сети, но в этом случае на всех клиентах придётся прописать настройки прокси в ОС и/или в браузерах. Возможна и обратная ситуация, когда от UTM требуется в первую очередь именно работа в качестве шлюза, а дополнительной (или вообще основной) проверкой трафика занимается внешний сервис, через ICAP-подключение. Настройки прокси и DNS
В Ideco UTM 8 по умолчанию включен перехват DNS-запросов, и в качестве основных прописаны адреса «Яндекс.DNS» режима «Безопасный», а DNS-серверы от вышестоящего провайдера не используются. Доступны и forward-зоны для более удобного доступа к локальным ресурсам. В настройках DHCP-сервера для LAN-сегмента можно дополнительно прописать ещё пару DNS-серверов, а также отдавать клиентам статические маршруты. Мониторинг
Для удалённого мониторинга доступны традиционные syslog и SNMP, а также Zabbix (в активном и пассивном режиме). Из прочих полезных опций есть автоматическое обновление и резервное копирование по расписанию с возможностью выгрузки копий по FTP или SMB на внешнее хранилище. Управление пользователямиДля подключения и контроля доступа пользователей в Интернет доступны различные методы. Во-первых, в Ideco UTM 8 есть интеграция с Active Directory, причём с контролем входа как со стороны самого домена, так и со стороны шлюза Ideco, включая SSO. Во-вторых, сам шлюз предоставляет возможность авторизации по IP или IP+MAC (если активен встроенный DHCP-сервер, будет создана соответствующая привязка), через веб, через небольшую программу-агент для Windows (генерируется на каждом конкретном шлюзе). Также доступны VPN-подключения: PPTP, PPPoE, IPSec (IKEv2), SSTP, L2TP/IPSec. Пользователей для пущего удобства можно разделить на отдельные группы. Административные аккаунты являются отдельными сущностями и в группы не входят. Доступно автоматическое обнаружение новых клиентов (устройств) в локальной сети с добавлением их в заранее выбранную группу. Для групп можно включить квоты, запретить авторизацию и запретить удалённый VPN-доступ для входящих в неё пользователей. Дополнительные настройки пользователей
Под квотами тут подразумевается заранее заданный объём трафика, который может потребить пользователь или группа в течение определённого времени: за час, день, неделю, месяц или квартал. Превышение квоты может служить триггером для других событий (например, блокировки доступа к определённым сайтам и приложениям или ограничения скорости), но отдельному пользователю можно вручную «начислить» дополнительный объём трафика. В отчётах можно получить сводную информацию о трафике посещаемых ресурсов и их категориях. Для каждого пользователя доступен отчёт по этим же параметрам и отдельная статистика обращений к заблокированным сайтам и их категориям. Увы, настроек для отправки отчётов и уведомлений о событиях по почте пока нет. Отчёты
VPNVPN-подключения пользователей внутри локальной сети имеет смысл использовать разве что в тех случаях, когда нужна защита даже от соседей или когда физический канал по умолчанию никак не защищён. Однако основным, на наш взгляд, VPN-сценарием является всё же удалённое подключение к шлюзу. В личном кабинете пользователя есть даже готовые PowerShell-скрипты для упрощения создания VPN-интерфейсов в Windows. Из небольших, но приятных и облегчающих работу фишек — для IKEv2 и SSTP достаточно указать доменное имя шлюза, чтобы Ideco UTM сам сгенерировал готовый сертификат Let’s Encrypt. Его можно задействовать и для доступа к веб-интерфейсу из внешних сетей, создав правило для обратного прокси. Ещё одна приятная особенность — простота настройки IPSec-туннелей site-to-site. Для объединения нескольких локаций с Ideco UTM под одним крылом посредством IKEv2 с AES-256 есть отдельный механизм: требуется указать внешний адрес(-а) и локальные подсети для туннелирования, после чего будут сгенерированы настройки (текст в base64), которые надо будет передать ответной стороне. Звучит, быть может, чуть запутанно, но на практике это буквально несколько кликов в веб-интерфейсах и пара операций по копированию и вставке текста. И никакого мучения с генерацией сертификатов, правкой файлов конфигураций, прописыванием маршрутов и так далее. Для подключения с устройствами Mikrotik есть отдельная страничка для генерации скриптов настройки, а в документации можно найти инструкции для Keenetic, Kerio и pfSense. Защита и фильтрацияДля упрощения ряда настроек доступна система объектов, которые можно быстро включить в правила защиты и фильтрации трафика. Такими объектами могут быть отдельные IP-адреса, домены, порты, подсети и их диапазоны или списки, а также дни недели и временные отрезки (для создания расписаний). Они в основном пригодятся для настройки брандмауэра. Следующий раздел отвечает за контроль над доступом в Сеть различных приложений. Список доступных профилей для L7-фильтрации весьма обширен. Ещё более велик список онлайн-ресурсов, с которыми знаком контент-фильтр. Все они разбиты на определённые категории для пущего удобства. Можно запретить доступ как собственно к сайтам, так и к определённым типам файлов: ActiveX, Flash, аудио/видео, архивам, документам, torrent или исполняемым файлам. Набор запрещённых категорий, который активен по умолчанию, покрывает большую часть нежелательного контента, включая баннеры и прочую онлайн-рекламу. Можно проверить конкретный URL, чтобы узнать, в какую категорию он попадает, и, если не попадает, завести новую. Правила фильтрации применяются к пользователям, группам, IP-адресам или подсетям. Доступ к категориям сайтов можно запретить, разрешить или, в случае HTTPS-трафика, отправить на расшифровку. Забавно, что на собственном сайте Ideco для проверки безопасности подключение через шлюз при добавлении запрета на аналогичные категории в контент-фильтре всё равно не проходит все проверки. Видимо, синхронизация баз несколько запаздывает. Для расшифровки, естественно, понадобится сертификат, созданный шлюзом, который потребуется установить на клиентские машины вручную или воспользоваться для этого политиками домена Active Directory. Расшифровка трафика на лету позволит наиболее полно отслеживать и фильтровать его, однако может помешать работе некоторых приложений и сайтов. Однако с учётом того, что все интернет-ресурсы активно переходят на HTTPS, без расшифровки трафика уже вряд ли получится обойтись. И если нежелательные сайты и приложения ещё можно просто заблокировать, то вот для проверки на лету антивирусом — будь то бесплатный ClamAV или платный "Антивирус Касперского" — иных вариантов просто нет. Из дополнительных опций есть запрет современных протоколов QUIC и HTTP/3, а также принудительная передача «безопасных» (это обычно семейный фильтр) параметров в запросах к поисковикам. Про перехват DNS-запросов уже говорилось ранее, а шифрованные DNS-запросы (DoH, DoT, DNSCrypt) можно отфильтровать. Наконец, в Ideco UTM присутствует комплексная система защиты от атак — IDS/IPS Suricata. Она включает великое множество функций, которые перечислять отдельно здесь смысла нет. Отметим лишь, что именно она в наибольшей степени определяет минимальные системные требования к «железу» для Ideco UTM, в части объёма оперативной памяти и числа ядер с их частотой. От набора включённых функций защиты будет зависеть и скорость обработки трафика. ЗаключениеКак уже было сказано в самом начале, отсутствие привязки к аппаратной платформе позволяет легко масштабироваться. Справедливости ради отметим, что у современных аппаратных NGFW/UTM могут быть движки для ускорения различных операций, поэтому в некоторых сценариях они могут выигрывать по скорости обработки трафика. Однако если речь идёт о переходе со старых самосборных систем, простых брандмауэров или просто устаревших решений вроде Microsoft TMG, продукт Ideco может быть весьма и весьма интересным в плане как функциональности, так и стоимости. Кроме того, для UTM 8 ожидается версия с сертификацией ФСТЭК, что в некоторых случаях станет решающим аргументом. В целом нам решение Ideco UTM 8 понравилось — и простотой настройки (особенно VPN), и обилием функций. Однако совсем уж идеальным его нельзя назвать. То тут, то там встречаются различные огрехи, но разработчики довольно бодро выпускают новые версии, где исправляют ошибки и добавляют новую функциональность. Некоторые возможности, что были в 7-м поколении (почтовый сервер, например), ещё не реализованы. Бесплатная SMB-редакция с рядом ограничений сохранена, а полноценную Enterprise-версию системы можно бесплатно протестировать в течение полутора месяцев. Именно в этом режиме работы и проходила подготовка данного материала. В процессе мы даже опробовали работу техподдержки. Через встроенный в веб-интерфейс чат в рабочие часы специалисты действительно отвечают быстро, и часть вопросов они помогли решить «на месте». Теперь о главном — на промостранице продукта есть калькулятор для расчёта стоимости годовой подписки редакции Ideco UTM 8 Enterprise, которая зависит от числа пользователей. Необязательные модули от "Лаборатории Касперского" оплачиваются дополнительно. Также доступно решение под ключ, которое включает изучение инфраструктуры заказчика и анализ его потребностей, установку и настройку Ideco UTM с интеграцией с другими системами клиента, а также обучение специалистов заказчика. Базовая подписка на сам UTM, без которой не будет обновления модулей защиты и техподдержки, стоит от 33 750 руб. до 202 500 руб. — от 25 до 150 пользователей соответственно. На обновление подписки действует существенная скидка: 60 %, если сделать это вовремя, или 25 %, если после окончания прошлой подписки прошло не более двух месяцев. Более детальная раскладка по стоимости приведена тут. Обзор HPE ProLiant MicroServer Gen10 Plus: большой плюс для маленького сервера
17.09.2020 [00:06],
Игорь Осколков
После выхода микросерверов десятого поколения прошло почти три года и вот, наконец, весной, вслед за Dell, HPE объявила о появлении нового поколения — ProLiant MicroServer Gen10+. Обе компании в этом поколении серверов, созданных для среднего и малого бизнеса, а также филиалов более крупных предприятий, переехали на новую платформу на базе Intel Xeon E-2200 (и Core/Pentium с тем же процессорным разъёмом) и значительно переработали конструкцию шасси, сделав его более компактным. По ходу повествования мы пару раз вернёмся к сравнению продукта HPE с PowerEdge T40. HPE в своих экспериментах с компоновкой корпуса оказалась смелее — Gen10 Plus в сравнении с Gen10 стал не только компактнее, но и приземистее: 119 × 245 × 245 мм. Дисковая корзина теперь имеет два ряда по два накопителя, а не один, как это было раньше, а блок питания и вовсе вынесен наружу. В отличие от T40, новинка, во-первых, сохранила все четыре слота для жёстких дисков и, во-вторых, как и прежде, не требует лотков для установки 3,5” HDD — для контакта с направляющими служат винты, вкручиваемые в боковинки винчестера. А сами винты стройным рядком вкручены непосредственно под дисковыми отсеками. Но для 2,5” дисков всё равно придётся докупить адаптеры. Поддержка четырёх накопителей даёт некоторую свободу при выборе конфигурации дисковой подсистемы: массив RAID 10, два «зеркала», RAID 5 на четырёх дисках или на трёх с одним накопителем для замены или для кеширования. Всё это поддерживает встроенный программный RAID-контроллер HPE Smart Array S100i SR Gen10, который, как и прежде, официально совместим только с ОС Windows. Внутренний порт USB 2.0 Type-A, расположенный прямо на материнской плате, тоже никуда не делся — в ряде сценариев его будет достаточно для установки ОС и ПО. А вот слота M.2 — хоть PCIe, хоть SATA — в этом поколении так и не появилось. Можно, конечно, добавить NVMe-накопитель, использовав единственный слот PCIe 3.0 x16. С другой стороны: ну а для чего ещё этот слот нужен? Можно установить адаптеры Ethernet и Wi-Fi да какой-нибудь контроллер чуть посерьёзнее встроенного, вроде официально совместимого HPE Smart Array E208i-p SR Gen10. Максимальная мощность питания для слота не указана, но вряд ли есть смысл ставить что-то горячее и мощное, потому что ограничивающим фактором скорее станет система охлаждения сервера. Единственный вентилятор, расположенный сзади и почти по центру, протягивает воздух через весь корпус — он находится сразу за процессорным радиатором. Последний имеет необычную форму: к самому CPU прижимается крупный плоский радиатор, внутри которого проходят две теплотрубки, идущие к расположенному под 90° дополнительному маленькому радиатору. Между ним и вентилятором есть заметный зазор. Верхнюю половину корпуса занимает дисковая корзина, нижнюю — выдвигающаяся назад рама с материнской платой. Ограничений по высоте модулей памяти, для которых тут есть два слота, нет. Максимальная конфигурация: 2 × 16 Гбайт DDR4-2400/2666 UDIMM ECC. Для установки плат расширения есть двухслотовый райзер, но второй «этаж» отведён строго под iLO Enablement Kit. Это такая небольшая плата с выделенным для удалённого управления 1GbE-портом, которая одновременно является ключом активации iLO 5 уровня Essentials, что даёт доступ к IP-KVM и возможности монтировать образы на накопители в нём. Без этой платы организовать удалённое управление можно только средствами ОС. В Poweredge T40 имеется Intel AMT, который намного-намного проще iLO и работает только с процессорами Xeon, зато он доступен «из коробки» и не требует дополнительных расходов. Из не упомянутых ранее на плате имеются коннектор Mini-SAS для дисковой корзины, а также разъём для модуля безопасности TPM. Что касается средств физической безопасности, то сзади на корпусе есть традиционные петелька для навесного замочка и гнездо Kensington Lock, которые фиксируют П-образную крышку. Она, в свою очередь, закрывает доступ к пластиковым защёлкам, фиксирующим переднюю панель, за которой прячутся накопители, и винту для крепления планки платы расширения PCIe. Эта крышка имеет на боковых стенках штампованные рёбра жёсткости, которые можно использовать в качестве ножек при установке сервера на бок. Да, это предусмотрено производителем, в комплекте даже есть резиновые наклейки на них. Но по умолчанию всё же предполагается горизонтальное размещение сервера. Или до трёх серверов стопкой — на днище по углам есть треугольные резиновые ножки, которые точно попадают в выемки по углам на верхней крышке. Шасси само по себе весит чуть больше 4 кг, а в снаряжённом состоянии, то есть со всеми LFF-накопителями, около 7 кг. Приятная мелочь в конструкции шасси — кабель питания можно зафиксировать небольшим хомутиком, чтобы он не выпал из гнезда. Ну а сам блок питания, как было сказано выше, внешний, мощностью 180 Вт. Он довольно крупный и с достаточно длинными кабелями (1,6 м каждый). В комплекте идут два шнура с разъёмом C5 на одном конце и вилкой типа F или G на другом. На переднюю панель выведены два порта USB 3.2 Gen2 Type-A, кнопка питания и три индикатора: состояние системы, активность сетевых портов и активность накопителей. На задней панели, помимо гнезда питания, находятся четыре разъёма USB 3.2 Gen1, видеовыходы VGA и DisplayPort 1.1a, а также четыре 1GbE-порта RJ-45 (контроллер Intel i350-AM4). И вот это очень приятное нововведение, которое позволяет, к примеру, сделать из HPE ProLiant MicroServer Gen10 Plus маршрутизатор или просто объединить порты для увеличения скорости передачи данных. Видеовыходы обслуживаются встроенным контроллером Matrox G200eH3. Даже если в CPU есть интегрированный GPU, его всё равно не будет видно в ОС. Несмотря на не слишком серьёзную аппаратную платформу, это всё ещё сервер HPE с легко узнаваемыми особенностями. От старших собратьев ему достался полноценный фирменный BMC и масса функций, которые для сегмента SMB и этой машины вряд ли так уж нужны. Например, возможность загрузки с внешних томов по iSCSI или с десяток профилей рабочих нагрузок, среди которых есть готовые оптимизации для HPC и OLTP. С другой стороны, в UEFI достаточно много и других настроек, которые могут пригодиться впоследствии. Параметры UEFI
Среди них есть немало параметров для контроля безопасности и надёжности. Можно запретить работу внутреннего и/или внешних USB-портов, отключить вывод видео (за исключением этапа загрузки), прописать ключи Secure Boot и TLS-сертификаты, задать пароли на загрузку и вход в UEFI, запретить загрузку с определённых носителей, настроить TPM. Для работы функции Server Configuration Lock, отслеживающей вмешательство в конфигурации машины, требуется лицензия iLO не ниже уровня Advanced. Утилита самодиагностики
В системе используются две копии основной прошивки, так что можно откатиться к старой версии, если возникли проблемы после обновления, а ASR поможет перезапустить сервер в случае обнаружения неполадок. Естественно, в UEFI есть утилита для диагностики всей системы целиком и отдельных компонентов. Там же доступен просмотр логов в ILM и детальной информации о работе системы в AHS с возможностью выгрузки данных на внешний накопитель. Smart Storage Administrator
Среди других встроенных приложений есть утилита обновления прошивок компонентов сервера, менеджер RAID-контроллера Smart Storage Administrator (SSA), а также средство Intelligent Provisioning (IP), которое включает мастер быстрой настройки параметров сервера, обслуживания и установки ОС, причём в двух режимах: детальном и упрощённом (Rapid Setup). Последний для SMB видится более предпочтительным. Он проверит версии прошивок, предложит подключить облачный бекап от Microsoft и сконфигурировать массив (нам дал на выбор RAID 5 или два RAID 1), а затем установить ОС: Windows Server, VMware ESXi или фирменную ClearOS на базе Linux. ![]() Intelligent Provisioning
Правда, Rapid Setup, видимо, требует OEM-версию Windows Server, так как после копирования всех файлов и драйверов (что очень удобно) установщик ОС не запустился, сославшись на отсутствие лицензии. Так что пришлось делать всё по старинке, с подсовыванием драйвера RAID-контроллера во время установки. Благо нам достался iLO Enablement Kit, так что подавляющее большинство операций делалось в браузере — HTML5-версия IP-KVM весьма удобна и поддерживает монтирование образов iso и img. Для «староверов» доступны апплеты .NET и Java. А вот мобильное приложение, увы, теперь не работает корректно, но многое можно сделать даже в браузере на смартфоне. iLO 5 Essentials
HPE предлагает ProLiant MicroServer Gen10+ в нескольких конфигурациях: две с процессорами Intel Xeon E2224 и 16 Гбайт RAM и одну, которая нам и досталась, с Pentium Gold 5420 (2C/4T, 3,8 ГГц, 4 Мбайт L3-кеш, TDP 54 Вт) и одним модулем DDR4-2666 ECC ёмкостью 8 Гбайт. Часть ПО некорректно опознаёт CPU как Gold 5550, но разницы для нас нет, так как UHD-графика всё равно недоступна. А вот разница в показателях температуры CPU в iLO и стороннем софте есть: iLO всегда сообщает о стабильных 40 °C, тогда как CPUID HWMonitor показывает изменение температуры и её рост вплоть до 72 °C в пике. В любом случае это далеко от критических 100 °C. (UPD: в iLO 5 версии 2.41 добавлено отображение данных с термодатчика самого CPU) Ещё один неприятный сюрприз преподнёс RAID-контроллер. Без него, конечно, можно обойтись, но раз уж даже IP Rapid Setup предполагает его включение, то почему бы и не воспользоваться. На нём был собран массив RAID10 из четырёх дисков Seagate Constellation CS ST3000NC002 (3 Тбайт, 64-Мбайт кеш, 7200 RPM, SATA III), которые мы обычно используем для тестов. В бенчмарке wpc_storage из SPECworkstation 3, который даёт разнообразную нагрузку на дисковую подсистему, массив развалился дважды. В первый раз примерно через сутки после старта вылетел один диск, после чего тест был остановлен, а драйвер сменён на рекомендованный техподдержкой. В списке ПО для данной модели его не найти. Во второй раз, уже после восстановления массива и смены драйвера, подряд выпало два диска — через сутки с небольшим после начала теста. Причём среди них не было того, который был исключён из массива в первый раз, — логический том был потерян. Формально особых претензий нет — используемых нами накопителей Seagate Constellation CS в списке совместимых нет (в нём есть только диски самой HPE), да и вообще это довольно старая модель. Так что HPE прислала набор из четырёх фирменных накопителей MB001000GWFGF (1 Тбайт, 64 Мбайт кеш, 7200 RPM, SATA III; PN: 871332-001), которые так же были собраны в массив RAID10 с теми же параметрами. С ним никаких проблем после нескольких суток работы под нагрузкой не возникло. Температуры обеих моделей дисков в пике доходила до 50-55° C, согласно данным SSA, но в среднем держалась на отметке около 40° С под нагрузкой. Накопители HPE несколько холоднее, медленнее и заметно шумнее. В целом нельзя сказать, что им было совсем уж некомфортно в корзине — до критических 60° C далеко. Тесты проводились в помещении с температурой воздуха около 25 °C. В UEFI был оставлен рабочий профиль по умолчанию General Power Efficient Compute с профилем питания Static High Performance Mode (его всё равно нельзя изменить) и профилем охлаждения Optimal Cooling. В такой конфигурации систему охлаждения практически не слышно вне зависимости от уровня нагрузки, и гораздо больше раздражает стрёкот накопителей HPE. Смена охлаждения на Enhanced CPU Cooling ничего не меняет. Переход на профиль Increased Cooling снижает максимальную температуру процессора до 60 °C, а температуры дисков остаются на прежнем уровне. При этом заметного прироста производительности нет, а вот сам сервер шумит вполне отчётливо, и ставить его на стол рядом с собой уже не хочется. Наконец, с профилем Maximum Cooling он уже изрядно гудит. Во всех случаях на слух не было заметно изменения уровня шума в зависимости от нагрузки. Бенчмарки
Естественно, каких-то высот производительности от двухъядерного Pentium ждать не стоит. Но он всё равно намного лучше того, что мы видели в прошлой версии MicroServer Gen10 (без плюса). Если верить CPU-Z, G5420 примерно соответствует i7-2600K. В SPECworkstation 3, для которого пришлось отдельно установить Intel CPU Runtime for OpenCL, рейтинг процессора равнялся 0,56. В Geekbench 5 лучший результат: 968 баллов для одного потока и 2060 баллов для всех потоков. В PCMark10 с профилем Express сервер набрал 3162 очка: 4582 в Essentials и 5964 в Productivity. Наличие сразу четырёх портов Ethernet дало возможность проверить SMB3 с объединением портов. Клиентом был ПК с Windows 10 Pro 2004, двухпортовым адаптером Intel X540-T2 и NVMe SSD. RAID 10 с накопителями Seagate Все тесты сделаны в Windows Server 2019 Standard, которая установлена на единственном томе, живущем на RAID 10 из упомянутых дисков Seagate. Собственно говоря, проблемы с ними были выявлены в wpc_storage, который был последним в списке тестов. В этом бенчмарке, уже с накопителями HPE, подсистема хранения получила вполне ожидаемый рейтинг 0,1. Пожалуй, самый неприятный сценарий работы сервера — распаковка большого архива, в которую вмешивается встроенный антивирус Windows и тратит драгоценные ресурсы CPU. Впрочем, энтузиасты уже выяснили, что в сервер можно установить и другие процессоры для LGA1151v2 с подходящим TDP. Да и память ECC тоже не требуется. В общем, определённый простор для модификаций имеется. ЗаключениеНаблюдать борьбу двух грандов, Dell и HPE, за нижний сегмент порой и увлекательно, и немного грустно. Оба производителя иной раз стараются сэкономить на спичках, пытаясь скостить десяток-другой долларов с конечной цены, что выливается иногда в странные решения. При этом подход компаний к развитию серверов начального уровня различается. У Dell PowerEdge T40 имеется «бесплатный» Intel AMT, вдвое больший объём RAM и большее же число слотов PCIe, но меньшая гибкость дисковой подсистемы: три накопителя 3,5”, и для двух из них придётся докупать лоток и кабель. В плюсах решения HPE полноценная дисковая корзина на 4 LFF-накопителя и сразу четыре 1GbE-порта. В минусах — всего один слот PCIe x16 (в силу конструкции шасси) и необходимость покупки отдельной карты iLO для удобного удалённого управления, а также невозможность установки 2,5” SSD/HDD штатными средствами. Компромиссы и там и там, но Dell в компоновке тяготеет к «классике», а HPE экспериментирует. И надо признать, весьма удачно: Gen10+ компактнее и производительнее, чем Gen10. К эффективности и шумности системы охлаждения претензий нет, но у нас была версия с Pentium, а не с более горячим Xeon. Правда, за компактность приходится платить. Та конфигурация, что была у нас тесте (P16005-421), стоит чуть больше 50 тыс. рублей. Версия с Intel Xeon E-2224 и 16 Гбайт RAM одним модулем (P16006-421) примерно на 15 тыс. рублей дороже. Есть и более дорогой вариант с предустановленным HDD, но он уже не так интересен, потому что цена подбирается к 80 тыс. рублей. Ну а комплект iLO Enablement Kit (P13788-B21) можно найти за 5,5-6 тыс. рублей. Для дома MicroServer Gen10+, пожалуй, дороговат, а вот в SMB и филиальных сетях его очень даже можно использовать для типовых нагрузок: хранение и обмен файлами, почта, корпоративный мессенджер, домен, а теперь и маршрутизация. Обзор Dell PowerEdge T40: малый сервер для малого бизнеса
07.08.2020 [00:00],
Илья Коваль
PowerEdge T40 продолжает серию недорогих, компактных серверов начального уровня компании Dell. Внешне это всё та же небольшая «башенка» с характерными элементами фирменного дизайна Dell, больше похожая на обычный ПК. Внутри же — небольшая односокетная плата под Intel Xeon E начального уровня. В данном случае это серия Xeon E-2200, которая слегка задержалась с выходом на рынок, но как раз PowerEdge T40 первыми и получили эти процессоры. Однако это лишь часть нововведений, причём не самая заметная — отличия от весьма популярной серии T30 более существенные, и не все решения компании придутся пользователям по вкусу.
Dell PowerEdge T40 Ключевое отличие T40 от T30 заключается в полной переработке конструкции самого шасси. PowerEdge T30 был совсем уж похож на, так сказать, классический ПК: верхнее расположение БП, пара дисковых корзин, привычный Tower-корпус, который, судя по всему, оказался с точки зрения инженеров излишне просторным. В PowerEdge T40 компоновку решили радикально изменить, благодаря чему корпус Mini Tower стал легче и на 23 % компактнее: 335 × 177 × 360 мм при массе порядка 8 кг. Это несомненный плюс, так как сервер рассчитан на установку в офисе, будь то малый бизнес или филиалы крупного предприятия. Однако более плотное размещение компонентов не даётся даром. Блок питания с функцией самодиагностики (есть отдельная кнопка и индикатор) теперь расположен параллельно материнской плате и закреплён на откидывающейся рамке. Мощность его изменилась незначительно и составляет всего 300 Вт (кстати, он сертифицирован по стандарту 80+ Bronze). Для забора воздуха блоком на боковой крышке имеется решётка, так что у БП есть свой воздушный контур. Ниже, напротив слотов расширения, находится ещё одна решетка, но возможность установки вентилятора тут не предусмотрена. Да и вообще с охлаждением всё необычно, скажем так. На процессоре установлен небольшой радиатор с собственным вентилятором — расстояние между ним и задней стенкой БП составляет несколько сантиметров. Непосредственно над этим кулером на верхней крышке под двумя слоями обрешётки находится общесистемный 100-мм вентилятор, который дует вверх. Всю эту троицу в обычном режиме работы практически не слышно, но вот под длительной нагрузкой процессорный вентилятор, конечно, начинает подвывать. В жертву компактности принесли не только это — у T40 всё ещё осталась опция установки тонкого оптического привода, который нынче не очень-то и нужен, а вот максимальное число обычных 3,5” SATA SSD/HDD уменьшилось до трёх. При этом официально поддержку M.2 так и не завезли. То есть разъём-то на плате есть, но в документации об этом нет ни слова, а в описании возможностей дисковой подсистемы фигурируют только LFF HDD. И это, пожалуй, самая большая потеря в сравнении с T30, где было четыре лотка для 3,5” дисков и ещё пара для 2,5”. В T40 один накопитель прилегает к передней стенке корпуса, а ещё два можно разместить в нижней части шасси. Что ещё больше расстраивает, по умолчанию в комплекте с T40 идёт только один диск, а для двух остальных придётся докупать набор из пластиковых салазок и SATA-кабеля. Для организации RAID есть Intel VROC 6 (бывший RSTe), который позволяет создавать массивы уровня 0, 1, 5 и 10, хотя последний в случае T40 неактуален. В принципе, меньшее число HDD компенсируется возросшей ёмкостью накопителей, так что, вероятно, многим будет достаточно и «зеркала» из пары HDD покрупнее. ![]() Да и в целом Dell в данной модели во многом полагается на возможности платформы Intel. В частности, для управления доступен Intel vPro/AMT (c Xeon), что трудно назвать полноценной заменой iDRAC, который тут не предусмотрен даже в виде опции. Единственный сетевой порт 1GbE можно дополнить только внешними адаптерами FHHL. Для них есть четыре слота: один PCIe 3.0 x16, два PCIe 3.0 x4 и один PCI (для какой-нибудь старой карты). Первый слот берёт линии непосредственно от CPU, остальные — от чипсета Intel C246. С питанием ситуация такая: от первого слота можно получить стандартные 75 Вт, от остальных не более 25 Вт, но если заняты все четыре, то каждому будет полагаться не более 25 Вт. В принципе, Dell PowerEdge T40 можно рассматривать и в качестве основы для рабочей станции начального уровня. В первый слот можно поставить какой-нибудь простенький профессиональный видеоадаптер с активным охлаждением, так как интегрированная в CPU графика с парой портов DisplayPort подойдёт не для всего. ECC, как один из ключевых элементов надёжности, процессоры Xeon поддерживают, а максимальный объём двухканальной DDR4-2666 UDIMM может составлять 64 Гбайт (4 модуля). Собственно говоря, рабочая станция Dell Precision 3630 Tower не слишком отличается от PowerEdge T40. AMT и UEFI в Dell PowerEdge T40
Зато с USB-портами тут полнейшее раздолье. На передней панели есть два USB 2.0, один USB 3.0 и USB 3.1 Type-C. На задней — сразу четыре USB 3.0 и два USB 2.0. Любой из них можно отключить в UEFI. Наконец, есть ещё пара портов PS/2, один RS-232 и один аудиоразъём 3,5 мм (ещё один есть спереди). Сюда же вынесены защёлки, которые удерживают раму с БП в закрытом положении, и ручка открытия боковой стенки, которую можно зафиксировать замком Kensington Lock. Внутри корпуса есть датчик открытия этой стенки. Из прочих средств безопасности есть также модуль TPM 2.0, который в России и Китае, увы, официально недоступен, а также функция затирания накопителей. Из полезного ПО есть встроенная в UEFI утилита самодиагностики, которая непременно напомнит пользователю, что в сервере есть ещё и встроенный спикер. Быстрая проверка занимает несколько минут, а детальная растянется на несколько часов. В списке официально поддерживаемых ОС значатся Windows Server 2016 и 2019 LTSC, а также Ubuntu Server 18.04 LTS (надо полагать, 20.04 тоже будет добавлена). Правда, немногочисленный набор базовых драйверов доступен только для продукции Microsoft. Из дополнительных утилит предлагается только средство обновления прошивок компонентов системы. Как и для всех современных решений Dell, для данной модели есть удобный поиск информации по сервисному тегу или коду экспресс-обслуживания: сведений о гарантии, записей об обслуживании, детального описания конфигурации (с номерами компонентов), документации, драйверов и так далее. Базовая гарантия составляет 1 год, причём она включает опцию выезда технического специалиста, если диагностика показывает, что решить проблему удалённо нельзя. По окончании базовой гарантии можно оформить отдельные подписки на обслуживание. Выше по тексту пару раз отдельно отмечалось, что некоторые возможности работают только с Intel Xeon, но фактически, несмотря на поддержку Intel Core и других младших CPU, данная модель сервера предлагается пока только с Intel Xeon E-2224G: 4 ядра без HT c базовой частотой 3,5 ГГц и весьма приличным показателем в 4,7 ГГц в турборежиме, всё это дополнено 8 Мбайт кеша. В процессор интегрирована UHD-графика Intel P630, а его TDP составляет 71 Вт. В базовой конфигурации машина поставляется с одним модулем памяти DRR4-2666 ECC UDIMM ёмкостью 8 Гбайт и жёстким диском на 1 Тбайт. Нам достался Seagate BarraCuda (3,5” SATA, 7200 RPM, 64 Мбайт кеш). На момент написания материала такая конфигурация (210-ASHD-01) в московском регионе, по данным "Яндекс.Маркета", стоила в среднем около 53 тыс. рублей. Дополнительно поставщик приложил комплект из терабайтного HDD Western Digital WD Blue (3,5” SATA, 7200 RPM, 64 Мбайт кеш), лотка и SATA-кабеля. Официальные характеристики двух накопителей чуть разнятся, так что массив из них было решено не собирать, хотя на практике разницы в производительности между ними толком и не было. Впрочем, на наш взгляд, оптимальный вариант дисковой подсистемы подразумевает смену оптического привода на SSD (для ОС или кеширования). Речь не о том, чтобы SSD был в комплекте, ведь производитель не захочет повышать цену сервера начального уровня, а о самой возможности использования всех четырёх каналов SATA для дисков. В общесистемном тесте PCMark 10 c Windows Server 2019 Standard машина набрала ожидаемые 2581 балл. Отдельно дадим результаты без OpenCL. В Geekbench 5 процессор получил 1266 и 3812 очков в одно- и многопоточном тесте соответственно, а также 5944 и 5750 баллов в тестах OpenCL и Vulkan. В SPECworkstation 3 рейтинг процессора составил 0,79 — остальные тесты были исключены, так как и толку от них мало, и выполняться на такой системе они будут неприлично долго. С другой стороны, никаких особенных рекордов ожидать от машины начального уровня и не стоит. ЗаключениеЕсли вы стоите перед выбором башенного сервера начального уровня, то к Dell PowerEdge T40 определённо стоит присмотреться. В сравнении с прошлым поколением T30 новая модель действительно стала компактнее и производительнее. Последнее достигается благодаря более современному процессору и чуть более быстрой памяти. Новинка ориентирована, как и прежде, на малый бизнес и филиальные сети более крупных организаций. Типовые нагрузки для неё — почтовый сервер, корпоративный мессенджер, хранение файлов и обмен ими, мини-домен на десяток-другой пользователей. И всё это локально, с предсказуемыми расходами, на что и упирает производитель, противопоставляя сервер облачным решениям. При этом Dell PowerEdge T40 — это действительно продукт для бизнеса, а не обычный ПК в слегка необычном исполнении. Кто-то скажет, что различия тут только в мелочах, но именно они и являются определяющими: поддержка ECC-памяти, удалённое (out-of-band) управление, большой набор слотов PCI-E, расчёт на работу в режиме 24/7, удобное развёртывание, масса дополнительных средств обеспечения безопасности, а также диагностики и, наконец, техническая поддержка корпоративного уровня. Оборудование для тестирования предоставлено компанией Treolan, официальным дистрибьютором продукции Dell EMC в России. Тест Huawei TaiShan 2280 v2 и HiSilicon Kunpeng 920: первый взгляд на китайскую ARM’ию
21.05.2020 [00:00],
Игорь Осколков
Нам выпала возможность прикоснуться к заморской диковинке — ARM-серверу Huawei TaiShan. В удалённом формате эти машины предоставляются для теста в рамках Selectel Lab. Ввиду отсутствия физического доступа и наличия ограничений по времени мы не будем вдаваться глубоко в детали, а окинем платформу взглядом свысока. Как если бы это был обыкновенный выделенный сервер где-то в облаке. Но он как раз не обыкновенный:
Серверы Huawei TaiShanСерия серверов Huawei TaiShan является относительно новой только для нас. На родном, китайском рынке они активно использовались уже давно, в том числе в собственном облаке Huawei Cloud, ещё до всей этой истории с запретами. Впрочем, разрыв отношений с крупными американскими производителями чипов только подстегнул развитие собственной аппаратной платформы. И если дальнейшая поддержка x86-систем остаётся под вопросом, то для текущей ARM-платформы, на которую переведены и другие продукты компании, будущее пока видится неплохим, если доступ к фабрикам не будет перекрыт. Причём речь идёт именно о платформе. Во-первых, есть несколько базовых вариантов — от одного до четырёх сокетов, включая и «лезвия». На их основе создаются конфигурации под различные задачи: от edge-систем до высокоплотных серверов. На той же базе работают и все последние СХД компании. Во-вторых, Huawei избрала стратегию совместной работы с партнёрами на разных рынках, так что базовые варианты могут быть до определённой степени доработаны под локальные нужды. Например, мы уже писали про работу НОРСИ-ТРАНС. На текущем этапе для одного из базовых шасси TaiShan сделана собственная дисковая корзина, бекплейн и соответствующие модификации ПО. У нас на тесте оказался сервер TaiShan 200 2280 v2. Это сбалансированная модель, как её называет сам производитель, в шасси высотой 2U (3D-модель). Штатная дисковая корзина предлагается в трёх версиях: 12 × 3,5” SAS/SATA, 24/25 × 2,5” SAS/SATA, 8 × 2,5” SAS/SATA + 12 × 2,5” NVMe. RAID тут сторонний — LSI SAS3x08 с опциональным BBU. В списке совместимых также есть модели Microsemi PM82xx и LSI 94x0-8i. Штатный контроллер выполнен в виде мезонина, так что PCIe-слот он не занимает. Для установки иных карт расширения — Infiniband, Ethernet, Fibre Channel, HBA, SSD — в шасси предусмотрено три IO-модуля. Максимум можно получить или 8 слотов PCIe 4.0 x8, или 3 слота PCIe 4.0 x16 + 2 слота PCIe 4.0 x8. Но вообще различных вариантов компоновки IO-модулей немало. Есть варианты для установки дополнительных накопителей 2,5”/3,5”, есть и комбинированные платы, а не просто райзеры. Так что лучше ознакомиться с документацией, чтобы понять возможные сочетания. С LOM-картами, которые тут зовутся FlexIO, дело обстоит проще. Для них есть два слота — и типов модулей тоже два. Huawei TM210 включает четыре 1GbE-порта RJ-45, TM280 — четыре порта 10/25GbE SFP28. Между слотами FlexIO находится блочок с портами iBMC. Блоков питания 80+ Platinum, как обычно, два (1+1) — мощностью до 2 кВт каждый. Хотя базовая платформа потребляет не так уж много, в чём мы убедимся далее. При этом из документации совершенно не ясно, есть ли у БП кабели дополнительного питания для карт расширения. С другой стороны, в списке совместимых «GPU», например, присутствует только ускоритель Atlas 300 на базе чипа Ascend 310, которому достаточно тех 75 Вт, которые даёт слот PCIe. В целом шасси, быть может, слегка непривычное, но вполне современное. Открытым остаётся вопрос совместимости оборудования, не перечисленного в документации, но за ответом на него Huawei предлагает обращаться к локальным представителям. Опять же, если рассматривать TaiShan как платформу, то под конкретные задачи она вполне может быть «допилена» для поддержки необходимых аппаратных компонентов. HiSilicon Kunpeng 920Процессоры Kunpeng 920 были официально представлены в начале прошлого года, хотя мы их видели ещё в 2018 году под именем HiSilicon Hi1620. И на тот момент компания заявляла, что это самые производительные ARM-чипы в мире: 7-нм техпроцесс TSMC, от 24 до 64 ядер ARMv8.2-A с частотой 2,6 ГГц, по 1 Мбайт L3-кеша на каждое ядро, 40 линий PCIe 4.0 с поддержкой CCIX, 4 или 8 каналов DDR4-2933 ECC (до 2 Тбайт RAM суммарно). Есть возможность создания бесшовных двух- и четырёхсокетных конфигураций посредством шины Hydra (30 ГТ/с, 240 Гбит/с), по три линии которой имеется у каждого CPU. Сам процессор состоит из чиплетов и включает также два блока 100GbE с RoCEv1/v2, 16 каналов SAS 3.0, два канала SATA-III и четыре порта USB 3.0. И всё это в BGA-упаковке, то есть замена только CPU в случае его выхода из строя, а не платы целиком не предусмотрена. Набор возможностей очень неплохой, а на момент анонса — так и вовсе впечатляющий. Но сейчас картину слегка портит TDP — теплопакет старшей модели приближается к 200 Вт. Вышедшие в августе AMD EPYC Rome остудили пыл любителей предрекать скорую и неминуемую кончину x86-64. Впрочем, в микроархитектурные подробности мы закапываться сейчас не будем. Отметим лишь некоторую неразбериху в маркировке процессоров. В документации и промоматериалах используются индексы 7260, 52x0 и 3210, указывающие на разное число ядер и каналов памяти. Для серии TaiShan доступны и CPU Kunpeng 916 (они же HiSilicon Hi1616). Однако и в BIOS, и в других местах используется иная нумерация. В частности, наш Kunpeng 920-7260 был обозначен как 920-6426. Две последние пары цифр указывают на число ядер и частоту. Да, о динамической регулировке частоты ничего не говорится. ![]() BIOS и iBMCBIOS может показаться на первый взгляд слегка бедноватым на опции, но это скорее от непривычки — просто потому, что он другой. Особенность современных ARM-платформ в том, что «классический» BIOS им и не нужен, только UEFI. И ARM пришлось приложить усилия, запустив отдельную программу ServerReady, направленную на повышение совместимости оборудования, UEFI и драйверов, прошивок и ПО и так далее. Проще говоря, довести состояние серверных платформ до того же уровня, что имеется у x86. ![]() BIOS Huawei TaiShan 2280 v2
Для корректного запуска инсталлятора ОС с ISO-образа пришлось поменять только один параметр. Ну и заодно проверили, что политика питания выставлена в положение Performance («Производительность»). Остальные настройки оставлены в изначальном виде. Отдельно стоит отметить, что по умолчанию используется NUMA (четыре домена), но распределение доменов можно перенастроить. Веб-интерфейс Huawei iBMC
Опять же iBMC (Intelligent Baseboard Management System) выглядит слегка непривычно, но на поверку оказывается весьма продвинутой системой удалённого управления и мониторинга платформы. Ознакомиться с её возможностями можно с помощью симулятора. В нём реализована не стопроцентная функциональность, но общее представление составить можно. Из любопытных и полезных возможностей можно отметить интеграцию с LDAP, поддержку многопользовательской работы, двухфакторную аутентификацию (сертификат + пароль), хорошие функции мониторинга и уведомлений об инцидентах, а также сбора данных, включая скриншоты и видеозапись. Правда, для наблюдения за некоторыми параметрами необходимо устанавливать драйверы и ПО уже в самой ОС. Для управления есть RMCP/RMCP+, в документации также упоминается Redfish, а для iKVM предоставляются классический Java-апплет и HTML5-консоль. Имеется даже VNC. В HTML5-консоли есть поддержка образов ISO/FDD и передачи клавиатурных комбинаций — быть может, не слишком уж комфортно, но управлять машиной удалённо можно. Управление RAID
Для совместимых устройств есть не только отображение параметров, но и управление ими. В частности, собрать массив на RAID-контроллере можно и в веб-интерфейсе (ну или в BIOS). В нашем случае это был LSI SAS3508 вместе с двенадцатью SAS3-дисками Seagate EXOS 10E2400 — ST1200MM0009, согласно данным iBMC. Накопители были собраны в три массива: два «зеркала» из двух дисков для ОС + один RAID-10 под хранение данных из оставшихся восьми. Ну а интереснее всего в iBMC наблюдать за графиками энергопотребления сервера почти в реальном времени. Huawei упирает в числе прочего и на экономичность TaiShan в сравнении с другими платформами — на главной странице iBMC даже показывается, сколько было сэкономлено энергии и насколько был уменьшен «углеродный след». В нашем же случае максимальное пиковое потребление вплотную приближалось к 600 Вт, а минимальное среднее было чуть больше 360 Вт. Установка Linux и ПОВ разработке и портировании ПО Huawei во многом полагается на партнёров и просто сторонних разработчиков, которых компания готова стимулировать и финансово. Среди российских дистрибутивов над поддержкой TaiShan работают Alt Linux, Astra Linux и РЕД ОС. Сама Huawei подготовила бесплатный дистрибутив openEuler на базе коммерческой EulerOS, основанной, в свою очередь, на CentOS/RHEL. Поддержки иных ОС и гипервизоров, кроме Linux-based, нет. Первый релиз openEuler 20.03 LTS вышел в марте, так что при поиске решений проблем или вопросов найти ответы зачастую можно только на китайских форумах или в сообществе самой Huawei. Формального списка совместимых дистрибутивов нигде нет, но в документации приведены инструкции для Ubuntu 18.04 (c HWE-ядром), SLES 15 и CentOS 7.6. Впрочем, AArch64-сборки популярных дистрибутивов выпускаются уже несколько лет. Для теста были выбраны openEuler 20.30 как официальный дистрибутив, который имеет ряд оптимизаций под Kunpeng 920 «из коробки», и Ubuntu 19.10 с последующим обновлением «на живую» до 20.04 (вышла после начала тестирования), которые имеют достаточно свежие ядра. Установка Ubuntu 19.10 с ISO-образа посредством iKVM прошла гладко. Сетевые интерфейсы были определены корректно, так что, наверное, можно было бы обойтись и netinstall-версией. Для работы ничего дополнительно настраивать не пришлось. Дальнейшее обновление штатными средствами до 20.04 тоже прошло успешно, если не считать нескольких потерянных симлинков и параметров, которые исправляются парой команд. И это вряд ли вина платформы. В отличие от openEuler, ядро про имя модели CPU ничего не знало, что, впрочем, на работоспособности не отразилось. Все ОС показывали странный размер L3-кеша. Установка openEuler тоже прошла без особых приключений. После пришлось вручную прописывать репозитории в настройках, так как по умолчанию не было указано ни одного, а документация вообще рекомендует использовать в качестве основного источника ISO-образ установочного DVD. Были использованы только официальные репозитории проекта. И тут нас поджидало первое и, в общем, вполне ожидаемое лёгкое разочарование. Со своим EPOL дистрибутив явно пытается догнать EPEL по числу готовых пакетов, но пока это не совсем получается. Для ряда пакетов можно найти какую-то альтернативу, для других — нет. Впрочем, большая часть базового ПО, на первый взгляд, там есть, но что-то всё равно придётся собирать самостоятельно. ТестированиеДля тестирования использовался пакет Phoronix Test Suite 9.6 (PTS). Как обычно, для раздела самой ОС использовалась ext4, а /var, откуда и запускались все тесты, лежала на втором разделе c xfs. Опции монтирования не менялись, но в случае openEuler по настоянию PTS для I/O-планировщика BFQ была отключена опция low_latency, так как она отдаёт приоритет задержке в ущерб пропускной способности, что нам не очень-то и нужно. В Ubuntu 19.10 и 20.04 использовались штатные generic-ядра веток 5.3 и 5.4 соответственно, а комплектный набор компиляторов включал GCC 9.2.1 и 9.3.0. Для openEuler в комплекте шли собственное ядро 4.19 и GCC 7.3.0. Среди особенностей релиза отмечается наличие оптимизаций библиотек, самого ядра и OpenJDK. Про какие-то фирменные патчи штатного компилятора отдельно ничего не говорится, хотя это была бы просто идеальная связка, так как PTS как раз собирает всё ПО локально из исходных кодов. За основу мы взяли прошлогодний набор тестов AMD EPYC 7002. Естественно, итоговый набор тестов отличался, но по совершенно разным причинам. Какие-то пакеты ПО в принципе не предназначены для AArch64, и с ними как раз проще всего — их не нужно даже пытаться собрать. С другими же всё может быть сложнее. Для части софта довольно быстро выяснилось, что он активно использует библиотеки и оптимизации строго под x86-64, так что он просто не собирается. Другая часть такой жёсткой привязки может и не иметь, но проблемы со сборкой всё равно есть. Где-то не хватает буквально одного #define, где-то прописан неподходящий ключ для компилятора. В случае мелкого проекта это легко поправить вручную. В случае большого, где даже несколько Makefile на тысячу строк уже собираются скриптами, это сомнительное удовольствие. При этом различаются не только ключи компилятора: другие утилиты тоже могут не принимать некоторые параметры. Наконец, самое неприятное — когда ПО собирается, но не работает, не выдавая результатов или падая с ошибкой. Особенно тогда, когда это происходит не сразу же после запуска. И если кажется, что интерпретируемых языков это не касается, то увы — каких-то модулей или библиотек может и не оказаться. Со всеми этими особенностями нам пришлось столкнуться. Хуже всех с точки зрения сборки программ оказался openEuler, в том числе в силу отсутствия ряда ПО в репозиториях. С другой стороны, openEuler же в итоге оказался и лидером в 61 % сделанных тестов. Правда, в среднем и разница не так велика — на 5% быстрее Ubuntu 19.10 и на 1% быстрее 20.04, — и распределение неравномерное. Например, продукт Canonical лидировал при работе с накопителем и СУБД, а разработка Huawei лучше показала себя в тестах компиляции, при работе с памятью и в Java. При этом были и просто существенные разрывы, и пиковые выбросы. В частности, в Stream openEuler оказался почти в два раза медленнее, но в CacheBench запись была вдвое быстрее. Рендеринг в Java — в три раза быстрее. А вот нативные рендер-движки почти одинаковые по скорости. В целом можно сказать, что работать в Ubuntu оказалось приятнее и проще. Хотя бы потому, что не пришлось собирать или искать бинарные файлы необходимых вспомогательных утилит для работы самого PTS. Полные результаты представлены в этом файле. Отдельно отметим, что относиться к ним надо именно как к предварительным тестам. Хотелось бы посмотреть через годик, насколько расширится пакетная база openEuler и какие средства разработки будут идти в комплекте. Увы, на этот раз пришлось оставить в стороне виртуализацию и контейнеризацию, а также систему интеллектуального профилирования A-Tune . А вот с KAE, аппаратным ускорителем, модули и библиотеки для которого есть в openEuler, вышло любопытно. KAE поддерживает китайские алгоритмы SM3/SM4 и более распространённые RSA/AES, а также операции (де)компресии и некоторые другие. Нормальная документация пока есть только на китайском, а на английском она ограничивается лишь описанием операций шифрования. Для работы требуется лицензия, которой у нас не было. Но, похоже, ускорение AES работает и так. Во всяком случае, с параметрами из примеров для блоков до 256 Кбайт с движком KAE почти четырёхкратная разница в скорости действительно есть. Чтобы хоть примерно прикинуть, как Kunpeng 920 выглядят на фоне AMD EPYC и Intel Xeon, сравним наши тесты вот с этим результатом — совпадающих по версии тестовых пакетов тоже оказалось совсем немного, так что окончательные выводы делать по ним не стоит. Из общей массы были выбраны несколько процессоров, которые наиболее близки по числу потоков, а не только ядер, так как Kunpeng не поддерживает SMT. В итоге получился такой набор:
Можно посмотреть и небольшое сравнение с нашими прошлогодними результатами тестов AMD EPYC 7742, которые близки по духу текущим данным в том смысле, что тогда на момент тестирования не были готовы все патчи для ядра и компиляторов. Естественно, EPYC оказался мощнее — Kunpeng под управлением openEuler в среднем на четверть медленнее. Полные результаты сравнения представлены в этом файле. ЗаключениеВ целом по итогам краткого знакомства платформа нам приглянулась. Дело осталось за ма… Нет, на за малым, а за массовой оптимизацией ПО и развитием средств разработки. В рамках openEuler, в частности, в планах значатся дальнейшая оптимизация OpenJDK, переезд на GCC 9.3.0 и работа над LLVM. Все наработки обещают отдавать в основные ветки проектов. В этом деле частично должны помочь выпуск и массовое распространение дешёвых плат на процессорах попроще. У нас осталась одна, но очень важная неизвестная — цена. И цена не только за «железо», но и — по крайней мере сейчас — цена за перенос ПО. TaiShan, если верить открытым источникам и обещаниям производителя, обходится дешевле аналогичных массовых 2S-решений x86-64 (с 4S и блейдами ситуация иная). Для единичного сервера это не так критично, но в масштабах от стойки и далее уже может быть интересно. И потенциальная экономия в том или ином виде — это, на наш взгляд, пока единственный разумный аргумент в пользу ARM. Околополитические истории про импортозамещение или безопасность не в счёт. Huawei была буквально вынуждена перейти на другую архитектуру, но сможет ли она потянуть за собой остальной мир? Когда SMB-пользователи, придя в магазин, крепко задумаются, не стоит ли взять ARM-сервер? Вряд ли скоро. Пока что очевидная стратегия — адаптация под конкретные проекты, задачи и нагрузки заинтересованных заказчиков, а также развитие сообщества. P.S.: материал был подготовлен до введения очередного пакета ограничений, который может коснуться TSMC, где производятся процессоры HiSilicon Kunpeng. Как обучить модель за меньшие деньги? Сравниваем стоимость тренировки модели на разных GPU-платформах
30.04.2020 [00:00],
SN Team
Материал подготовлен командой Catalyst. Высокопроизводительные GPU сегодня востребованы во всех областях IT-индустрии, в научных проектах, в системах безопасности и других направлениях. Инженерам, архитекторам и дизайнерам мощные компьютеры нужны для рендеринга и 3D-анимации, для тренировки нейронных сетей и для анализа данных, для аналитики в режиме реального времени и для других задач, связанных с большим объемом вычислений. В общем, высокопроизводительные GPU-серверы — весьма популярное решение на рынке. С каждым годом во всех сферах получают все большее распространение методы искусственного интеллекта (ИИ) и машинного обучения (ML). Эти технологии уже сейчас совершают революцию в области медицинской диагностики, помогают развивать финансовые инструменты, создавать новые сервисы интеллектуальной обработки данных, позволяют реализовывать различные проекты в области фундаментальной науки, робототехники, управления человеческими ресурсами, транспорта, тяжелой промышленности, городского хозяйства, распознавания речи, лиц и объектов, доставки контента. Например, NVIDIA призвала владельцев компьютеров с мощными GPU использовать их для помощи в борьбе со вспышкой пандемии коронавирусной инфекции COVID-19. GPU как сервисПоскольку многие современные задачи машинного обучения используют графические процессоры, перед людьми все чаще встает вопрос: что же для этих целей выбрать? Чтобы ответить на него, очень важно разбираться в показателях стоимости и производительности разных GPU. В настоящее время целый ряд провайдеров предлагает виртуальные, облачные (GPUaaS) и выделенные серверы с GPU для машинного обучения. Выделенные серверы — оптимальный вариант, когда вычислительные мощности требуются на постоянной основе, а содержать собственную машину невыгодно или попросту невозможно. Некоторые провайдеры сдают в помесячную аренду такие сервера, и при наличии необходимого количества задач, способных этот сервер загрузить, в пересчете на часы и минуты цены могут быть весьма привлекательными. Однако в большинстве случаев все же предпочтительнее виртуальные серверы (VDS/VPS) с тарификацией по часам или минутам либо облачные сервисы — это обычно и дешевле, и более гибко.
Доли выделенных инстансов GPU разных типов четырех ведущих провайдеров (по данным Lliftr Cloud Insight, май 2019 г.) Согласно последнему отчету Global Market Insights, объем мирового рынка GPUaaS к 2025 году превысит $7 млрд. Участники рынка разрабатывают GPU-решения специально для глубокого обучения (DL) и ИИ. Например, NVIDIA Deep Learning SDK обеспечивает высокопроизводительное GPU-ускорение для алгоритмов глубокого обучения и предназначен для создания готовых DL-фреймворков. Компании, работающие на рынке GPUaaS, фокусируются на технологических инновациях, стратегических приобретениях и слияниях для укрепления своих рыночных позиций и приобретения новых клиентов. В числе ключевых игроков рынка GPUaaS: AMD, Autodesk, Amazon Web Services (AWS), Cogeco Communications, Dassault Systems, IBM, Intel, Microsoft, Nimbix, NVIDIA, Penguin Computing, Qualcomm, Siemens, HTC. Для машинного обучения, пожалуй, наиболее популярны GPU-инстансы в AWS, Google Cloud Engine, IBM Cloud и Microsoft Azure. Можно также воспользоваться мощностями графических ускорителей менее известных провайдеров — их GPU-серверы тоже подойдут для самых разных проектов. Каждая платформа имеет свои плюсы и минусы. Считается, что высокопроизводительные серверы с мощными GPU позволяют быстрее достигнуть поставленных целей и получить значимые результаты, но стоят ли дорогие инстансы своих денег, и в каких случаях? Учиться и еще раз учитьсяПроцесс обучения модели является более затратным с вычислительной точки зрения и требует гораздо большего количества ресурсов, нежели требуется для исполнения уже обученной модели. Если задача не предполагает какой-то сверхвысокой нагрузки, такой как распознавание лиц с большого числа видеокамер, то для работы достаточно одной-двух карт уровня GeForce GTX 1080 Ti, что очень важно для экономии бюджета проекта. Наиболее мощные современные GPU Tesla V100 же обычно используются именно для обучения. Более того, рабочая версия модели может обойтись даже частью ресурсов GPU — ну или одну карту можно использовать для исполнения нескольких моделей. Однако для обучения такой подход не подойдет в силу особенностей устройства шины памяти, и для обучения каждой модели используется целое число графических ускорителей. Кроме того, процесс обучения зачастую является набором экспериментов по проверке гипотез, когда модель многократно обучается с нуля с использованием различных параметров. Эти эксперименты удобно запускать параллельно на соседних видеокартах. Модель считается обученной, когда достигнута ожидаемая точность, либо когда точность при дальнейшей тренировке больше не повышается. Иногда в процессе обучения модели возникают «узкие места». Вспомогательные операции вроде предобработки и загрузки картинок могут требовать много процессорного времени — это значит, что конфигурация сервера не была сбалансирована для данной конкретной задачи: CPU не способен «прокормить» GPU. Это одинаково применимо и для выделенных, и для виртуальных серверов. У виртуального сервера причиной данной проблемы может являться и то, что один CPU фактически обслуживает несколько инстансов. У выделенного же процессор находится в полном распоряжении, но его возможности все равно могут быть недостаточными. Проще говоря, во многих задачах важна мощность центрального процессора, чтобы его производительности хватало на обработку данных на начальном этапе. Обучение на нескольких (N) GPU происходит следующим образом:
Если модель очень легкая, то выполнение N таких циклов на одном GPU оказывается быстрее, чем распределение на N GPU с последующим объединением результатов. При этом при активных экспериментах с моделью финансовые затраты могут быть весьма существенными. При проверке множество гипотез время расчетов иногда растягивается на много дней, и компании подчас тратят, например, на аренду серверов Google десятки тысяч долларов в месяц. Catalyst в помощьCatalyst — это высокоуровневая библиотека, которая позволяет проводить Deep Learning-исследования и разрабатывать модели быстрее и эффективнее, уменьшая количество boilerplate-кода. Catalyst берет на себя масштабирование пайплайнов и дает возможность быстро и воспроизводимо обучать большое количество моделей. Таким образом, можно меньше заниматься программированием и больше фокусироваться на проверке гипотез. Библиотека включает в себя как ряд лучших отраслевых решений, так и уже готовые пайплайны для задач классификации, детекции и сегментации. Недавно команда Catalyst начала сотрудничество с Университетом штата Джорджия, Технологическим институтом штата Джорджия и Emory University joint center for Translational Research in Neuroimaging and Data Science (TReNDS), чтобы упростить обучение моделей для приложений нейровизуализации и обеспечить воспроизводимые Deep Learning исследования при визуализации мозга. Совместная работа над этими важными проблемами поможет лучше понять, как работает мозг, и улучшить качество жизни людей с психическими расстройствами. Возвращаясь к теме статьи, для проверки скорости работы серверов Catalyst использовался во всех трех случаях: на серверах HOSTKEY, Amazon и Google. Вот и сравним, как это было. Удобство использованияВажный показатель – удобство использования решения. Лишь немногие сервисы предлагают удобную систему управления виртуальными серверами с необходимыми библиотеками и инструкцией, как ими пользоваться. При использовании Google Cloud, например, нужно самостоятельно устанавливать библиотеки. Вот субъективная оценка веб-интерфейсов:
На самом деле, чтобы начать применять эти инструменты, требуется еще порядка 20–60 минут (в зависимости от квалификации) на подготовку — установку программного обеспечения и загрузку данных. Что касается удобства использования уже выданных, готовых к использованию инстансов, то здесь ситуация следующая:
Результаты экспериментовКоманда специалистов из проекта Catalyst провела сравнительное тестирование стоимости и скорости обучения модели с использованием GPU NVIDIA на серверах следующих провайдеров: HOSTKEY (от одной до трёх GeForce GTX 1080 Ti + Xeon E3), Google (Tesla T4) и AWS (Tesla K80). В тестах использовалась стандартная для подобных задач компьютерного зрения архитектура ResNet, которая определяла имена художников по их картинам. В случае HOSTKEY было два варианта размещения. Первый: физическая машина с одной или тремя видеокартами, CPU Intel Xeon E5-2637 v4 (4/8, 3,5/3,7 ГГц, 15 Мбайт кеш), 16 Гбайт RAM и SSD 240 Гбайт. Второй: виртуальный выделенный сервер VDS в той же конфигурации с одной видеокартой. Разница лишь в том, что во втором случае физический сервер имеет сразу восемь карт, но только одна из них отдаётся в полное распоряжение клиента. Все серверы располагались в ЦОД в Нидерландах. Инстансы обоих облачных провайдеров были запущены в дата-центрах Франкфурта-на-Майне. В случае AWS использовался вариант p2.xlarge (Tesla K80, 4 vCPU, 61 Гбайт RAM), и часть машинного времени ожидаемо ушла на подготовку данных. Аналогичная ситуация произошла и в облаке Google, где использовался инстанс с 4 vCPU и 32 Гбайт памяти, к которым добавлялся ускоритель. Карта Tesla T4, пусть она и ориентирована на инференс, была выбрана потому, что по производительности на обучении она находится где-то между GTX 1080 Ti и Tesla V100. Так что на практике её иногда всё же задействуют под обучение, так как она обходится заметно дешевле V100.
Модель использовалась в двух версиях: «тяжелой» (resnet101) и «легкой» (resnet34). Тяжелая версия имеет лучший потенциал для достижения высокой точности, в то время как легкая дает больший прирост производительности при несколько большем числе ошибок. Более тяжелые модели обычно используются там, где нужно достигать максимальных результатов в качестве предсказания, например при участии в соревнованиях, в то время как легкие — в местах, где необходимо соблюдать баланс точности и скорости обработки, например в нагруженных системах, ежедневно обрабатывающих десятки тысяч запросов. Стоимость обучения модели на сервере HOSTKEY с «домашними» картами оказывается почти на порядок ниже, чем в случае Google или Amazon, и занимает незначительно больше времени. И это несмотря на то, что GeForce GTX 1080 Ti — далеко не самая быстрая на сегодня карта для решения задач глубокого обучения. Однако, как показывают результаты экспериментов, в целом недорогие карты вроде GeForce GTX 1080 Ti не настолько хуже своих более дорогих собратьев по быстродействию, если учитывать их заметно меньшую стоимость. Если карта на порядок дешевле, то по производительности на тяжелых моделях она уступает всего лишь в 2-3 раза, и можно «добрать» скорость, добавив еще карт. Все равно это решение будет дешевле Tesla-конфигураций в пересчете на стоимость тренировки модели. По результатам также видно, что Tesla K80 в AWS, которая демонстрирует высокие характеристики в вычислениях с двойной точностью, с одинарной точностью показывает очень большое время — хуже, чем 1080 Ti. ВыводыОбщая тенденция такова: более дешевые графические карты потребительского уровня обеспечивают в целом лучшее соотношение цены и производительности, чем дорогие GPU Tesla. Проигрыш в «чистой» скорости GTX 1080 Ti по сравнению с Tesla можно компенсировать увеличением числа карт, всё равно оставаясь при этом в выигрыше. Если вы планируете выполнять задачу, расчет которой займет продолжительное время, серверов с недорогими GTX 1080 Ti будет достаточно. Они подходят для пользователей, которые планируют долговременную работу с этими ресурсами. Дорогие инстансы на основе Tesla следует выбирать в тех случаях, когда обучение модели занимает мало времени и можно тарифицировать работу по минутам обучения. Также следует учитывать простоту подготовки среды на платформах — установку библиотек, развёртывание ПО и загрузку данных. GPU-серверы — и реальные, и виртуальные — всё же заметно дороже классических CPU-инстансов, так что длительное время подготовки ведёт к лишним расходам. TidalScale — гипервизор наоборот: 16 Тбайт RAM ещё не предел
23.04.2020 [00:00],
Игорь Осколков
Что такое TidalScale?TidalScale — это, если говорить упрощённо, гипервизор «наоборот». Вместо привычного разделения одной физической машины на несколько виртуализированных систем, TidalScale, напротив, позволяет объединить несколько физических узлов в единый, программно определяемый сервер. Ну или в несколько серверов. Иными словами, он позволяет прозрачно подменить вертикальное масштабирование горизонтальным так, чтобы гостевые системы и приложения ничего не заметили. Это не единственная система такого рода, но TidalScale делает упор на масштабирование с точки зрения объёмов оперативной памяти, а не вычислительных ресурсов. Во всяком случае, сейчас. Разработчик, конечно, рассказывает о прелестях консолидации имеющихся у пользователя ресурсов для повышения эффективности использования оборудования: объединив все машины под крылом одного гипервизора и «нарезая» их на виртуальные серверы, можно лучше нагрузить «железо». Правда, при этом выход единственного узла из строя порушит всю систему разом. На практике же пока есть некоторые ограничения. В один пул можно объединить до 8 четырёхсокетных узлов, каждый из которых может содержать до 128 физических ядер и до 3 Тбайт RAM. Для виртуальной машины (ВМ/инстанс или SDS в данном случае) можно выделить до 254 vCPU и до 16 Тбайт RAM. В будущих релизах обещана поддержка ВМ с 1024 vCPU и 64 Тбайт RAM. Пока сам вендор рекомендует не больше 64 vCPU на инстанс и по умолчанию даёт ему не более 70 % от общего объёма памяти пула, но при желании этот лимит можно поднять до 90 %. Прозрачность в целом есть, но есть и некоторые нюансы. Да, ВМ «видит» все выделенные ей ресурсы, а гипервизор «умным» образом распределяет всю работу между нижележащими физическими узлами, стараясь избегать ненужных «перескоков» между ними — очередь команд исполняется на одном CPU, система избегает лишних обращений к памяти соседнего узла, а данные по-хорошему должны складироваться в ближайшее хранилище. При этом гипервизор использует машинное обучение, чтобы с течением времени лучше подстраиваться под текущую нагрузку. Вместе с тем гостевым ВМ не показываются инструкции AVX512, они не догадываются об SMT, у них должны быть отключены Transparent Huge Pages (THP), они должны использовать дополнительный источник энтропии для ГПСЧ, virtio-драйверы несколько медленнее стандартных, а некоторые параметры и значения /proc и /sys недоступны или могут отображать неверные сведения. Есть и другие тонкости, в том числе с самим гипервизором. Например, в нашей тестовой системе CPU работали на постоянной частоте, причем ниже базовой. Зачем это нужно?Очевидный ответ — для вертикально масштабируемых нагрузок, которые в принципе неспособны распараллеливаться на несколько узлов. К типовым «вертикальным» задачам относятся различные виды аналитики, моделирования и визуализации. Они вообще критичны именно к объёму оперативной памяти, где и хранится весь необходимый для работы набор данных. Вот только итоговая стоимость RAM в системе растёт нелинейно и зависит от нескольких факторов. Так что правильный ответ: для экономии денег! Увы, самого главного — стоимости лицензий и принципа её формирования — TidalScale не раскрывает. В целом уже очень давно есть дисбаланс между ростом числа ядер и числа каналов памяти — первый происходит намного быстрее. При этом и объём поддерживаемых модулей на канал тоже растёт относительно медленно, а вот стоимость модулей с увеличением их ёмкости — наоборот, быстро. Всё, что выходит за пределы типовой двухсокетной платформы, тут же начинает стоить немалых денег. И речь не только про шасси. Единственно возможным вариантом для физических 4s/8s-серверов являются решения Intel. Причём для 8s-платформ требуются дорогие старшие модели CPU, которые поддерживают большой объём памяти и имеют по 3 линии UPI. А в предельном случае скорость доступа будет ограничена одной линией, то есть 20,8 Гбайт/с, что, впрочем, всё равно примерно на три порядка быстрее текущего интерконнекта TidalScale. Масштабирование выше 8s становится нетривиальным и зачастую включает фактически многоузловые системы, тогда как TidalScale предлагает набирать ёмкость RAM хоть дешёвыми двухсокетными машинами. Альтернативный путь уменьшения затрат на RAM — использование Storage Class Memory, а в общем случае уже и пересмотр иерархии памяти. С появлением IMDT, а затем и Intel Optane DCPMM, стала доступной возможность расширения объёма RAM узла с помощью более дешёвой твердотельной памяти. Бонусом получаем сохранность данных, например при перезагрузке из-за сбоя. Типовым примером использования режима App Direct для DCPMM как раз является «вертикальная» SAP HANA. Такие решения есть даже в облаке — Azure предлагает инстансы с 9 Тбайт общей памяти. Но не стоит забывать, что режим App Direct требует модификации ПО, а производительность Memory Mode, то есть прозрачного расширения объёма RAM, зависит от типа нагрузки. Впрочем, про Optane мы ещё вспомним чуть ниже. Как устроен TidalScale?Вся система управляется сервером WaveRunner, запущенным на физической или виртуальной машине. Он предоставляет пользователю веб-интерфейс, а также RESTful API. WaveRunner позволяет объединять несколько физических хостов (Worker Nodes), где и будет работать слой виртуализации HyperKernel, в пул TidalPool, где запускаются виртуальные машины (SDS). Хосты должны быть примерно одинаковыми по CPU и RAM. Минимальные требования к ним невелики: Intel Xeon E5 v3 или более новые CPU, 32 Гбайт RAM, несколько сетевых интерфейсов и BMC с поддержкой IPMI 2.0. Часть ядер потребуется для гипервизора и обслуживания ввода/вывода. Для WaveRunner требования те же, но памяти достаточно будет 16 Гбайт. А вот с дисками чуть сложнее. Загрузочный том ёмкостью от 50 Гбайт (рекомендуют 300) должен быть отзеркалирован. Если используются HDD, то для кеширования нужен SSD такого же рекомендуемого объёма. Для логов понадобится ещё один диск на 100 Гбайт. WaveRunner управляет состоянием хостов именно по IPMI, включая/выключая их и загружая посредством PXE HyperKernel на каждом из них. Поэтому предполагается наличие сразу нескольких отдельных сетей. По одной надо для BMC и PXE. Для доступа к остальной корпоративной сети и для SAN тоже требуется хотя бы по одному интерфейсу. Наконец, для интерконнекта между узлами нужно быстрое изолированное подключение. Поддерживаются скорости до 25GbE, и рекомендуется использовать Jumbo-кадры. «Гостям» также доступны интерфейсы до 25 GbE, а всего им можно выделить до 32 virtio-устройств. Что касается подсистемы хранения данных, то есть несколько вариантов реализации. В требованиях к хостам накопители не упомянуты, так как предполагается, что тома будут подключаться по сети. Однако на самих хостах доступен проброс локальных устройств, так что можно организовать хранилище и на них. Хотя сами разработчики рекомендуют использовать DAS для хостов, а лучше всего — вообще отдельную iSCSI/FC SAN или NAS хотя бы с 10GbE-подключением. Альтернативный вариант — функция СХД самого WaveRunner. Для этого рекомендуется иметь зерекальный массив из хотя бы пары терабатайтных накопителей, на которых будут развёрнуты ZFS-пулы. Можно подключить и внешние JBOD-полки. Список официально поддерживаемых гостевых систем выглядит так:
Проблем с запуском «гостей» с UEFI быть не должно. Фактически же на тестовой системе была развёрнута Ubuntu 19.10. Нам досталась виртуальная машина с 64 vCPU и 8 Тбайт RAM. Никаких особенных настроек, кроме принудительного отключения THP, не делалось. На запуск такой ВМ уходит 15-20 минут. Других SDS на этом же кластере запущено не было. Конфигурация Selectel HyperServerSelectel предлагает услугу HyperServer, которая как раз и базируется на TidalScale. В нашем случае кластер состоял из четырёх шасси Supermicro 218UTS-R1K62P с четырёхсокетными платами X11QPH+. Каждая из них несла процессоры Intel Xeon Gold 6240 (18/36, 2,6/3,9 ГГц, L3 24,75 Мбайт) и 3 Тбайт памяти: 48 модулей по 64 Гбайт DDR4 ECC Reg. Для 10GbE-интерконнекта использовались адаптеры Intel X520-DA2, подключённые с помощью DAC к коммутатору Huawei CloudEngine 6850. На одном из узлов работал и WaveRunner. Основное хранилище было реализовано его же силами: программный массив на базе HBA с четырьмя Intel S4510 по 2 Тбайт. ТестированиеPolymem — это утилита, которая считает полиномы n-го порядка, складывая их в массив заданного размера в оперативной памяти. Подобные расчёты являются частью многих научных задач. Polymem по сути является STREAM-подобным бенчмарком, но с регулируемой интенсивностью вычислений, что позволяет определить баланс между скоростью расчётов и скоростью работы памяти. Он, в частности, использовался в работе по оценке эффективности Intel Optane DCPMM и IMDT. Полная версия работы доступна публично. IMDT для расширения видимого объёма RAM и TidalScale до некоторой степени роднит то, что при росте объёма данных в памяти рано или поздно наступит момент, когда собственно локальной RAM станет не хватать — и гипервизору придётся обращаться к чужой памяти на соседнем узле в случае TidalScale или к Optane в случае IMDT. Для теста Polymem был собран GCC c параметрами из комплектного Makefile. В рамках каждого этапа он запускался трижды, с привязкой потоков к ядрам (vCPU) посредством OpenMP. ![]() Первый прогон сделан с малым объёмом RAM и вариативным порядком для примерной оценки необходимого уровня интенсивности вычислений. В целом вблизи n=512 максимальная скорость расчётов устаканивается в районе 800 Гфлоп/с и более стремительно не растёт при увеличении порядка полинома. Теоретический максимум для наших 64 ядер с доступом только к AVX2/FMA (2 × 16 Флоп/такт) и с устоявшейся тактовой частотой около 2,15 ГГц составляет примерно 2,2 Тфлоп/с. Впрочем, и безо всякой виртуализации на обычном «железе» Polymem обычно выдаёт около половины от возможного максимума. Фактически же даже в рамках такого небольшого теста реальные показатели производительности иногда имели сильные провалы: где-то в два-три раза от максимальной, а где-то и на порядок. Удивлять это никого не должно. Во-первых, нагрузка всё равно динамически распределяется между нижележащими физическими хостами. Во-вторых, даже в пределах хоста вся его RAM не может быть отдана исключительно на нужды ВМ — часть всегда используется для кеширования страниц памяти с соседних хостов. Второй прогон был сделан для объёмов RAM вплоть до 4 Тбайт, чтобы даже в предельном случае точно знать, что память ВМ «размазана» на несколько хостов и ограничивающим фактором будет служить интерконнект. На графике виден перелом, начинающийся с 3 Тбайт, что ожидаемо. И вот тут, конечно, хотелось бы подобрать уже порядок полинома для полноты картины, но… работа с такими объёмами становится просто мучительно долгой, а время, отведённое на знакомство с системой, разумно ограничено. И дело касается не только наполнения RAM, но и её освобождения. Например, в Tachyon на очистку 7 Тбайт RAM ушло больше часа, а ведь это время тоже учитывается в итоговом результате. С другой стороны, давно у вас была возможность получить такой объём памяти для такой большой визуализации? Как вам, например, чайник Ньюэлла на 640 Гпикс? Шутки шутками, но не всегда есть возможность эффективно разнести даже рендеринг хотя бы на несколько узлов. Собственно, Tachyon — это классический движок для рендеринга с использованием трассировки лучей, который весьма популярен в качестве инструмента для визуализации различных моделей в научной среде. Для теста была взята актуальная версия 0.99b6, собранная в варианте linux-64-thr из комплектного Makefile. Она использовалась для простейшего рендеринга демомодели teapot.dat в разрешении n00000 × n00000 пикселей, где n было равно 1, 2, 4 и 8. Результат на диск не сохранялся, так что основная нагрузка была именно на оперативную память. ![]() А какова вообще скорость работы с RAM? Простой тест с копированием блоками по 4 Кбайт из /dev/zero в ramfs и из ramfs в /dev/null, выполненный три раза для каждого направления, показал следующее. Во-первых, до объёма 32 Гбайт скорость чтения и записи остаётся примерно одинаковой: около 315 Мбайт/с и 260 Мбайт/с соответственно, что довольно скромно. После 32 Гбайт скорость не просто постепенно падает — первый проход оказывается намного медленнее последующих, что как раз похоже на обещанную «обучаемость» гипервизора на лету. Увы, на 512 Гбайт удалось лишь один раз записать данные, после чего ВМ по неизвестной причине упала. И на этом наше время доступа к HyperServer истекло. ![]() ЗаключениеПожалуй, окончательных и безапелляционных выводов прямо сейчас делать не будем. Во-первых, и технология далеко не массовая, и тестирование далеко не полное в силу временных ограничений. Это же привело и к отсутствию возможных оптимизаций, тогда как сами разработчики рекомендуют тюнинговать настройки и ПО, и «железа» под конкретную задачу и набор/объём данных. Во-вторых, сам HyperServer отнесен Selectel к категории индивидуальных решений. Так что наиболее общий вывод может прозвучать на первый взгляд странно: оно действительно существует и работает! Собственно HyperServer, являясь уникальной для российского рынка услугой, тесно связан с другой, такой же нечастой возможностью аренды четырёхсокетных серверов. На данный момент заявлена возможность масштабирования вплоть до 512 ядер и 48 Тбайт RAM с объединением от 4 до 16 физических узлов. Сама возможность аренды делает такие технологии доступней. Если верить словам представителя SAP, когда в рамках одного из проектов потребовалась тестовая система с «всего-то» 6 Тбайт RAM, оказалось, что в России в принципе нет таких систем даже для временного использования — все подобные машины собираются под конкретных заказчиков в индивидуальном порядке. Обзор iSCSI СХД Synology UC3200: одна голова хорошо, а две — лучше
24.01.2020 [00:00],
Илья Коваль
К выходу UC3200 компания готовилась очень долго, поскольку устройство относится уже не к классическим NAS, а к SAN. Да, пока в относительно простом iSCSI-варианте, но это уже шанс побороться с более крупными игроками хотя бы в плане цены. И именно «двухголового» контроллера в режиме «активный — активный» для этого и не хватало. Технические характеристики2U-шасси контроллера имеет габариты 88 × 431 × 692 мм и весит почти 20 кг. Спереди UC3200 ничем особенным не отличается от любой другой «хранилки» — 12 лотков для SAS-дисков, ушки и вынесенные элементы управления: кнопка питания и кнопка отключения звукового оповещения. Но, помимо индикаторов питания и уведомления о проблемах, тут есть ещё один, сообщающий о работе обоих контроллеров. Из других мелочей отметим защёлки на дисковых лотках, которые не позволят случайно вытащить их. А вот при взгляде на заднюю часть шасси сразу становится понятно, что это не простая СХД. В нише слева, как обычно, друг над другом расположились два (1+1) блока питания, мощностью 500 Вт каждый. Если БП вставлен, но не подключён к электросети или имеет какие-то проблемы, то будет звучать звуковой сигнал (громкий писк, проще говоря), который можно отключить упомянутой выше кнопкой на передней панели. Правая же часть корпуса занята двумя одинаковыми контроллерами. На задней панели у каждого из них следующие порты: два RJ-45 1GbE и один 10GbE, COM и SAS для подключения дисковых полок. Там же находятся индикаторы питания, состояния и уведомления о проблемах, а также индикатор извлечения контроллера. Для защиты разъёмов между контроллером и корзиной предусмотрен рычаг со ступором, так что резко и до упора блок в шасси затолкать невозможно. Для доводки придётся нажать на рычаг, а затем закрутить винт. Внутри модуль контроллера устроен довольно просто. Два крупных вентилятора делят его на две неравные части. На одном конце находятся разъёмы для подключения к шасси, рядом с которыми располагается собственное хранилище контроллера на базе SATADOM. Отдельно подчёркивается, что ОС не задействует для своих нужд диски в корзине. Естественно, контроллеры могут иметь разные версии ОС, что важно для безопасного поэтапного обновления ПО. В другой части находятся четыре слота для модулей памяти DDR4-2133 ECC (до 64 Гбайт суммарно), райзер-карта PCIe 3.0 x8 для установки сетевых адаптеров 10/25GbE и других карт расширения половинной длины, а также процессор Intel Xeon D-1521 (4/8 ядра/потоков, 2,4-2,7 ГГц, L3 6 Мбайт, TDP 45 Вт). Между собой контроллеры объединены посредством NTB. Все закешированные данные синхронизируются между ними. Такая схема позволяет в случае сбоя одного из них перенести нагрузку на второй и не потерять при этом информацию.
ВозможностиРаботает Synology UC3200 под управлением специальной версии DiskStation Manager (DSM) UC. Строго говоря, от обычной DSM тут осталось совсем немного. Интерфейс и логика его работы прежние, но приложений почти нет, а новые (во всяком случае пока) установить нельзя. Настройки и базовые функции в целом те же самые, что и у обычных СХД Synology, лишь некоторые дублируются. Например, параметры сети у каждого контроллера, конечно, свои, но есть функция аварийного переключения интерфейсов. Она, правда, требует статические IP-адреса и одинаковую подсеть для обоих узлов, что не очень интересно для SAN. В любом случае веб-интерфейс доступен с каждого из них. А вот агрегация портов доступна только в пределах одного узла. Настройки DSM UC
Контроллеры можно выключать поодиночке. При этом они не являются полностью равноправными. При создании пула хранения для его обслуживания выбирается один из контроллеров, второй же работает параллельно с первым. Схема работы стандартная: диски объединяются в пулы, в пулах создаются тома, на томах размещаются LUN’ы. Максимальный размер тома составляет 108 Тбайт, а число томов не может быть больше 32. Диспетчер хранения предоставляет все те же стандартные функции: RAID-массивы, Hot Spare, кеширование на SSD и так далее. Дело несколько облегчается тем, что из файловых систем UC3200 поддерживает только Btrfs. LUN’ы могут быть, как обычно, толстыми (thick), для лучшей производительности, или тонкими (thin), для более гибкого управления пространством и возможности дефрагментации. Диспетчер хранения
Для последних также доступно создание и удаление снапшотов вручную и по расписанию или по заданному шаблону. Всего в системе может храниться до 4096 моментальных снимков и может существовать до 32 заданий репликаций. Для пущего удобства в DSM UC есть отдельное приложение Snaphot Replication. В нём доступно и создание, и восстановление, и репликация снимков на локальное или удалённое хранилище, и возможность быстро подменить LUN одной из его локальных реплик. Компаньоном для него является приложение Synology Snapshot Manager для Windows и VMware vCenter Server (для Windows Server), которое перед созданием снимка отправляет системе уведомление о необходимости сбросить данные на диск. Snapshot Replication
В iSCSI Manager отметим лишь несколько настроек. Можно глобально задать глубину очереди запросов: 1, 16 (по умолчанию), 64 или 128. Большая глубина пригодится для быстрых сетей или для пула из SSD. Для LUN’ов можно включить буферизацию ввода/вывода, что положительно скажется на длинных последовательных операциях. А для Target’ов есть возможность привязки к конкретным сетевым интерфейсам. iSCSI Manager
Наконец, ещё одно приложение, которое и встречает пользователя при входе в веб-интерфейс, называется High Availability Manager. Именно оно позволяет отслеживать работу обоих контроллеров. В нём можно посмотреть текущее состояние обоих контроллеров, полюбоваться на графики нагрузки на различные компоненты и подсистемы, пролистать список запущенных процессов и настроить уведомления о превышении порогового значения того или иного параметра. Причём уведомления эти доступны и для системы в целом, и для отдельных служб, и для томов, и для LUN’ов. High Availability Manager
ТестированиеНа тест нам досталась версия с 8 Гбайт памяти в каждом узле. Seagate предоставила четыре 16-Тбайт накопителя Exos X16 (ST16000NM002G) корпоративного класса: гелий, 9 пластин, 18 головок, 7200 RPM, 256 Мбайт кеша, MTBF 2,5 млн часов, пятилетняя ограниченная гарантия. И самое главное, двухпортовый интерфейс SAS-12. Заявленная максимальная устоявшаяся скорость передачи данных составляет 261 Мбайт/с, произвольные 4K-чтение/запись с глубиной очереди 16 достигают 170 и 440 IOPS соответственно, типовая задержка — 4,16 мс. Энергопотребление в простое составляет в среднем 5 Вт, а во время работы не превышает 10,2 Вт. В отличие от SATA-версий той же серии, у SAS-моделей есть дополнительная технология защиты целостности данных Protection Information (T10 DIF) и варианты с шифрованием по стандартам FIPS. В общем, Seagate Exos X16 — современный nearline-накопитель, идеально подходящий для наших задач. Накопители были собраны в массив RAID-10 под управлением первого контроллера (A). На массиве было создано два тома, а на томах — два LUN’а, толстый и тонкий. Каждый LUN был ассоциирован с одним Target’ом. А сами Target’ы были привязаны к 10GbE-интерфейсам с включёнными Jumbo-кадрами 9k. Причём интерфейсы эти были в разных подсетях, то есть получилась маленькая SAN, что дало возможность проверить корректность работы Multipath I/O (MPIO) с точки зрения надёжности. Защита от Spectre/Meltdown — есть теперь в настройках СХД и такой пункт — была отключена. iSCSI в ESXi
Конфигурация клиентской Windows-машины осталась неизменной: Intel Core i5-6600K, 32 Гбайт RAM, NVMe SSD GOODRAM IRDM Ultimate, Intel X540-T2. На сетевых интерфейсах также были включены Jumbo-кадры 9k. На ней же был поднят и хост VMware ESXi 6.7u3. В обоих случаях использовались штатные средства работы с iSCSI. В Windows для оценки производительности был подключен толстый LUN, на котором был создан единственный раздел, отформатированный в NTFS. В ESXi также был создан один том VMFS, на котором «жила» виртуальная машина с Ubuntu 18.04. По соседству разместился vCenter, через который и можно настроить MPIO. Тест проводился в двух режимах. Для начала — с настройками iSCSI по умолчанию, то есть с глубиной очереди 16 и непосредственным обращением к дисковому массиву. В скорость которого, судя по всему, всё и упиралось. Неудивительно, что производитель рекомендует этот режим для SSD-массивов. Ну а потом, в режиме буферизации и с глубиной очереди 128 — в этом случае скорость последовательного чтения приближается к пропускной способности 10GbE-сети. Случайное чтение также получает большой выигрыш, однако при этом сильно страдают операции записи. Наконец, о главном — о работе СХД в режиме аварийных ситуаций. Схема тестирования очень проста. Для начала даём длительную нагрузку — копирование файлов суммарным объёмом нескольких десятков гигабайт в Windows и stress-ng (--hdd) в ВМ с Ubuntu. Затем отключаем сетевой кабель контроллера A и через некоторое время возвращаем его обратно, а потом вытаскиваем из шасси узел целиком и вставляем его обратно. В обоих случаях система ведёт себя одинаково. Первым делом, конечно, предупреждает всеми возможными способами о том, что произошёл сбой сети или питания. На клиенте (а он у нас один) все операции зависают примерно на одну минуту, после чего возобновляются, хотя и с меньшей скоростью. Второй контроллер принимает всю нагрузку на себя, и на восстановление исходной производительности уходит до нескольких минут. Возврат в строй первого контроллера или его сетевого подключения приводит к обратному переключению всей нагрузки на него, на что также уходит около минуты. И тоже со скачками производительности. Более наглядная демонстрация работы Synology UC 3200 в аварийном режиме представлена на видео выше. Примерно в 0:15 происходит отключение сетевого интерфейса на A, что отлично видно на графиках нагрузки на контроллер, диск, сеть и iSCSI. При этом основной контроллер продолжает работать, а второй лишь передаёт данные к нему. В начале второй минуты сеть к A возвращается, но уже на третьей он физически отключается от шасси и возвращается к работе приблизительно в 5:45, забирая всю нагрузку на себя и переходя в нормальный режим в течение ещё пары минут. ЗаключениеSynology UC3200 — недорогая «хранилка» IP SAN с базовой функциональностью, что позволяет использовать её в корпоративной среде: в первую очередь для различных сред виртуализации, но она подходит и для любых других типовых multipath-сценариев вроде рендеринга, почтовых систем и баз данных, в том числе тех, что используются ПО для бухучёта и менеджмента. В общем везде, где важна надёжность и доступность данных. И тем интереснее посмотреть на дальнейшее развитие платформы, особенно программной её части. Пока же в нашем небольшом тесте мы убедились, что устройство успешно переживает сбои сетевого подключения и питания, быстро перенося нагрузку между контроллерами без потери данных. Второй уровень защиты — снапшоты и их репликация, локальная или удалённая. Для создания простой SAN этого достаточно. Суперкомпьютеры на SC19: новая ARM’ия
02.12.2019 [00:01],
Игорь Осколков
В итоговом материале мы постарались чуть более подробно рассказать о наиболее важных событиях и анонсах мероприятия, о тенденциях и инновациях в мире суперкомпьютеров и HPC. Все новости с SC19 помечены соответствующим тегом на ServerNews и 3DNews, а ссылки на наиболее любопытные из них собраны в отдельной записи. Чтобы не потеряться в тексте, добавим краткое меню со ссылкой на разделы: Рынок HPCПо данным Hyperion Research рынок HPC чувствует себя прекрасно. В 2018 году он показал рост в 15%, достиг объёма $13,7 млрд, и только за первую половину 2019-го успел дорасти до $6,7 млрд. Много новых заказчиков пришло из корпоративного сектора. Причём сегмент аналитики данных с ИИ растёт быстрее всего. Оно и неудивительно, так как корпорациям интересны именно решения их сиюминутных бизнес-задач в отличие от традиционных HPC-инсталляций, ориентированных на фундаментальные и практические научные исследования. Кроме того, растёт интерес к облачным HPC-решениям, хотя далеко не все готовы отдать свои данные третьим лицам. При этом аналитики отмечают, что ИИ-системы всё ещё находятся на начальном этапе развития. Эту область начинают активно осваивать многочисленные стартапы, занимающиеся и ПО, и специализированными чипами. Они наверняка образуют собственный сегмент, как и квантовые компьютеры, которые тоже никак нельзя назвать массовыми. Но если ИИ будет плотно интегрироваться с HPC, то вот квантовые системы, похоже, так и останутся лишь дополнением к старому доброму «кремнию» в форме облачного доступа. Кроме того, они очень дороги. А индустрия и так тратит немалые суммы на создание суперкомпьютеров экзафлопсного класса. В период 2020-2025 годов прогнозируется появление 26 подобных систем или близких к ним, которые обойдутся примерно в $9 млрд. Из них порядка $2 млрд уйдёт на 4-5 машин, которые появятся в 2021 году в Китае, США, Европе и Японии, и это станет историческим рекордом затрат в HPC. В перспективе добавится ещё один игрок — Великобритания. Ну а победителем в экзафлопсной гонке станет Япония. В первой половине следующего года должна окончательно завершиться установка суперкомпьютера Fugaku (Post-K) с более чем 150 тыс. узлов на базе ARM-процессоров. И начнётся новая гонка архитектур. С этого момента ARM досрочно признана достойной HPC-олимпа, и ей прочат светлое, но не лишённое трудностей будущее. ARMВ ARM поверили — это и есть главная новость, а вовсе не попадание в свежий TOP500 Fugaku на базе Fujitsu A64FX и даже не его первое место в Green500 с обязательным упоминанием, что это единственная машина на базе только CPU (без «зелёных» ускорителей). Если посмотреть на спецификации A64FX, которые давно известны, то назвать его просто ARM-процессором язык не поворачивается. Дело в том, что концептуально он очень похож на почивший Xeon Phi: стандартные ядра + пачка широких векторных инструкций (тут это SVE), которые и дают основную производительность. А ещё набортная HBM2, внутренняя шина-фабрика и встроенный интерконнект. Так что грядущие Marvell ThunderX3 и X4, которые тоже получат SVE, выглядят гораздо интереснее. Вице-президент Marvell Ларри Викелиус (Larry Wikelius) подробностями о новинках не поделился, но отметил, что экосистема ARM в серверном и HPC-сегментах за последние два года очень сильно выросла. Речь не о «железе», конечно, а ПО и средствах для его разработки и портирования — немало этому поспособствовало сотрудничество с Cray. Вторит ему и представитель Fujitsu, отмечая, что не надо путать миры мобильного и серверного ARM. Если вокруг первого годами выстраивалось сообщество, то у второго оно только зарождается. То же, но в меньшей степени касается и Ampere, AWS, Huawei — немногочисленных, но крупных участников рынка серверных ARM, которые прямо на HPC не нацелены. Впрочем, конкретно у Fujitsu всё и так сложнее, чем у других игроков, так как её продукция ориентирована на японский рынок, где долгое время доминировали «домашние» SPARC-инсталляции, что процесс портирования ПО нисколько не облегчает. IntelСамый интересный, но и самый далёкий от реального продукта «железный» анонс — это серверные ускорители Intel Xe HPC. Он, правда, оказался слегка смазан утечкой в день проведения предварительного брифинга. Так что полным сюрпризом выступление Кодури не стало. Итак, кратко о том, что нас ждёт в Ponte Vecchio: несколько микроархитектур под разные вычислительные задачи, поддержка форматов от INT8 до FP64, HBM2-память, когерентная шина-фабрика XEMF для общего доступа к памяти со стороны GPU/CPU, сверхбыстрый и ёмкий кеш Rambo Cache, шина CXL для объединения множества GPU и CPU, упаковка Foveros с EMIB. Итоговый прирост производительности на узел в сравнении (не совсем честном, конечно) с текущими решениями Intel составит 500 раз. Появления новинки стоит ждать в 2021 году, и открытым остаётся вопрос, где же именно будут выпускаться эти 7-нм изделия. О процессорах речь на выставке толком не шла, так как пока Intel чего-то нового предложить не может. Стало лишь известно, что новые Xeon получат технологию Data Streaming Accelerator (наследница QuickData) для ускорения обмена данными между локальными и удалёнными DRAM, SSD, Optane и разгрузки CPU. Да, кое-где можно было заметить первые системы на базе Xeon Scalable второго поколения Platinum 9200, но их было не слишком много, да и те больше похожи на референсные системы самой Intel с лёгкой доработкой. Похоже, AMD со своими Rome нарушила привычный ход событий. Из уникальных решений отметим отечественные узлы РСК с СЖО, которые органично дополняли и новую СХД на базе SSD формата EDSFF — 1 Пбайт в корпусе 1U даётся не каждому. Через упоминание о попадании в лидеры рейтинга IO500 параллельной файловой системы Intel DAOS, которая основывается на библиотеках PMDK и SPDK, перейдём к действительно самому важному анонсу Intel на SC19. Речь, конечно, идёт о oneAPI — открытом и бесплатном аналоге NVIDIA CUDA для разных платформ. oneAPI включает собственно API, язык программирования DPC++ (расширение Khronos SYCL), набор средств разработки (компиляторы, отладчики, профилироващики), библиотеки, утилиты портирования кода (с CUDA, в первую очередь). ✴-media" data-instgrm-captioned=" " data-instgrm-permalink="https://www.instagram.com/p/B5D8p3OjLFn/?utm_source=ig_embed&utm_campaign=loading" data-instgrm-version="12" rel="nofollow" target="_blank"> Основная цель – упростить портирование и разработку ПО под разные архитектуры (CPU, GPU, FPGA, ускорители), сведя к минимуму работу над оптимизацией для каждой из них. Руководитель проекта, Билл Сэвэдж (Bill Savage), отдельно подчёркивает, что это «не попытка сделать новую Java с её слоганом “написал один раз, запустил везде”, нет. Какие-то доработки в коде для каждой платформы надо будет делать, но писать каждый раз с нуля уже не придётся». AMDНа фоне oneAPI анонс ROCm 3.0 смотрится несколько блекло. Других крупных объявлений от AMD на SC19 не было, да и стенд на выставке был скромный. Однако это не значит, что AMD ничего не делала после выхода EPYC Rome в августе. Десяток-другой контрактов на грядущие суперкомпьютеры с CPU AMD “выстрелят” через полгода-год, вот тогда и посмотрим на расклад сил в TOP500. В текущем рейтинге есть только две машины на базе AMD EPYC Rome, ещё две на базе Naples и одна с китайским клоном Hygon Dyana. ✴-media" data-instgrm-captioned=" " data-instgrm-permalink="https://www.instagram.com/p/B5NQiIkFQYy/?utm_source=ig_embed&utm_campaign=loading" data-instgrm-version="12" rel="nofollow" target="_blank"> Тем не менее, практически все крупные игроки так или иначе осваивают AMD. Кто-то теперь просто предлагает два варианта одной и той же платформы: с Intel и с AMD. Кто-то создаёт новые. Однако зачастую больший интерес вызывает не «ядерная» составляющая новинок, а обилие линий PCIe 4.0, что позволяет упаковать в шасси побольше ускорителей и накопителей без использования свитчей. Из интересных решений стоит отметить СХД Viking, которая вполне может оказаться самой быстрой на рынке. Правда, выйдет она наверняка под каким-нибудь более известным брендом. А вот связка из процессоров и ускорителей AMD популярностью не пользуется, хотя сама компания представила на стенде и референсную платформу, и различные продукты с поддержкой PCIe 4.0. Увы, в TOP500 есть единственная машина с ускорителями AMD с некими Vega 20, хотя уже есть контракты на суперкомпьютеры с Instinct Mi 60, ситуация с которым не совсем ясна. Будет забавно, если oneAPI в итоге даст толчок к массовому использованию Instinct. Последние в будущем должны получить поддержку новых форматов чисел. NVIDIAКарта NVDIA Tesla V100s не удостоилась отдельного большого анонса. То тут, то там на стендах попадались таблички с упоминанием поддержки этого ускорителя, но без детального описания. Все отличия от обычной V100 заключаются в увеличении ПСП памяти и подросшей производительности при сохранении того же уровня TDP. Кроме того, на SC19 была замечена загадочная модификация GeForce RTX 2080 Ti — в серверном исполнении с пассивным охлаждением. Анонс стека Magnum IO, который обещает в 20 раз ускорить обработку данных в кластерах за счёт устранения узких мест при работе с СХД и операциями ввода-вывода, пожалуй, наиболее важен для компании. Решение опирается, по большому счёту, на (R)DMA, но имеет далеко идущие последствия в свете покупки Mellanox. Компания явно не против избавиться от CPU, которые сейчас нужны больше для управления, а не собственно расчётов, и которые дают линии PCIe для связи с внешним миром. В пределе должно получиться что-то вроде конструктора из СХД и массивов GPU, напрямую связанных быстрым интерконнектом InfiniBand/Ethernet, что позволит довольно легко масштабироваться. В этом свете рефересная платформа NVIDIA и ARM смотрится даже забавно: два отдельных шасси, соединённых внешним интерконнектом. Причём в верхней половинке с ускорителями остаётся полно свободного места, а нижняя — с CPU, дисковой корзиной и сетевыми адаптерами — упакована гораздо более плотно. Впрочем, тут тоже важнее перенос программной составляющей CUDA-X на ARM, что опять-таки указывает на взросление последней. ОблакаAmazon, Google и Microsoft уже не в первый раз приезжают на SC, да IBM с Oracle постоянно напоминают о своих облачных решениях. Им, кажется, пора уже устраивать собственный ежегодный «междусобойчик» на тему HPC, где они будут рассказывать всем желающим о возможности за относительно небольшие суммы арендовать почти настоящий суперкомпьютер. Собственно, программные решения для управления большим кластером виртуальных машин в облаке существуют уже давно. В последние год-два провайдеры стали активно добавлять к ВМ различные варианты ускорителей и, наконец, озаботились быстрым интерконнектом, наличие которого и отличает нормальную HPC-систему. Насколько при этом остаются «облачными» с технической точки зрения решения вроде Azure NDv2 с NVIDIA Tesla и выделенной InfiniBand-сетью, вопрос открытый. Альтернативные решенияОткрытым остаётся и вопрос, считать ли FPGA, а также специализированные ИИ-ускорители, альтернативными решениями в области HPC или уже нет. Пока их всё же массовыми не назовёшь. Первые долгое время страдали от сложности разработки, но Xilinx ещё раз напомнила о платформе Vitis, да и oneAPI охватывает Arria. Так что теперь с FPGA можно работать с использованием «человеческих» языков программирования. Что касается вторых, то количество компаний, делающих специализированные чипы, растёт как на дрожжах. Из новичков отметим Graphcore, которые прописались в Microsoft Azure, и Cerebras, удивительно быстро умудрившиеся продать себя Аргоннской национальной лаборатории. Интересующимся темой также можно взглянуть на результаты рейтинга MLPerf среди чипов для запуска нейронных сетей (inference). ✴-media" data-instgrm-captioned=" " data-instgrm-permalink="https://www.instagram.com/p/B5I5nlQj42w/?utm_source=ig_embed&utm_campaign=loading" data-instgrm-version="12"> Из других «узких» решений от крупных игроков на SC19 присутствовали анонсированные в августе ИИ-ускорители Intel Nervana — как для обучения (NNP-T), так и для запуска нейронных сетей (NNP-I). Причём NNP-T представлен не только в виде PCIe-карт (AIC), но и в формате OAM (аналог SXM2), что явно понравится облакам и гиперскейлерам. Из интересного отметим, что AIC-версии могут попарно объединяться «мостиками» PCIe и имеют внешний интерфейс для сквозной связки карт как в пределах шасси, так и для объединения ускорителей в пределах стойки целиком. На «голые» NNP-I пока посмотреть не удастся — на стенде Intel эти ускорители были спрятаны внутрь «рулеров» EDSFF. Вообще, такая своеобразная конверсия не единична — WD предлагает FPGA-акселераторы для тех же задач в форм-факторе U.2. В конце концов, в обоих случаях выходным интерфейсом является PCIe. Что касается предварительных бенчмарков Nervana, то Intel грозится с изрядным перевесом одолеть NVIDIA T4. Правда, тут есть нюанс — к моменту выхода NNP-I на рынок «зелёные» вполне могут выкатить новый инферентный ускоритель. Так что на их стороне пока что есть только хорошая масштабируемость — Nervana будет и в серверах, и в ультрабуках. Нейроморфные системы Intel тоже не забросила и привезла на SC19 Pohoiki Spings с 768 чипами Loihi, эквивалентными 100 млн нейронов. Система набрана из 24 плат Nahuku, каждая из которых содержит 32 базовых чипа. Избранным партнёрам такие системы достанутся к концу года. Во время SC19 состоялось официальное объявление о входе в сообщество Intel Neuromorphic Research Community (INRC) крупных компаний, таких как Accenture, Airbus, General Electric и Hitachi. Ранее в нём участвовали лишь стартапы и разного рода научно-исследовательские организации. Впрочем, вся эта инициатива всё ещё носит сугубо экспериментальный характер. ✴-media" data-instgrm-captioned=" " data-instgrm-permalink="https://www.instagram.com/p/B5ajw09lOe-/?utm_source=ig_embed&utm_campaign=loading" data-instgrm-version="12" rel="nofollow" target="_blank"> К альтернативным в каком-то смысле можно отнести и платформу IBM POWER. Да, машины на этой архитектуре лидируют в TOP500, но их число очень невелико. Экосистема почти не развивается, несмотря на интересные разработки вроде нового формата оперативной памяти DDIMM, который на SC19 вообще оказался связан с интерконнектом Gen-Z. Родственный консорциум OpenCAPI продолжается бороться с PCIe, но не слишком успешно. Кажется, POWER окончательно превращается во «второй источник» для Министерства энергетики, которое и оплачивает все эти развлечения. ✴-media" data-instgrm-captioned=" " data-instgrm-permalink="https://www.instagram.com/p/B5HkUoMlhJJ/?utm_source=ig_embed&utm_campaign=loading" data-instgrm-version="12"> Так что IBM очень вовремя склонилась к другой стратегии. Она, конечно, всегда готова продать машину побольше, но теперь клиентам предлагается купить хоть какую-нибудь POWER-систему (да хоть один узел) для сбора данных, которые будут отправлены на обработку в ИИ-сервис IBM. Его же можно использовать и с уже имеющимися суперкомпьютерами. В конце концов, IBM продаёт не «железо», а помогает другим компаниям вести бизнес. Ту же идею иметь дополнительного, независимого поставщика процессоров для суперкомпьютеров худо-бедно реализует Евросоюз, который спонсирует сразу несколько проектов на базе RISC-V, OpenPOWER и MIPS вкупе с FPGA в рамках консорциума European Processor Initiative (EPI). Но массового производства «кремния» пока не видать. Япония успешно заполучила ARM, но и запасные варианты вроде NEC SX-Aurora тоже имеются. ЗаключениеВ целом выставка прошла на удивление… спокойно? Да, наверное, так. Стенды компаний не старались удивить какими-нибудь безумными и дорогими инсталляциями, перформансами и конкурсами. Всё скромненько, с упором на демонстрации, доклады и личные разговоры. Посетителей, если не считать вечеринку в день открытия, тоже субъективно было меньше, чем в прошлые годы. Ну и фокус выставки тоже несколько сместился, так как многие ключевые анонсы были уже сделаны на специализированных выставках вроде HotChips, Flash Memory Summit, AI Summit или отдельных мероприятиях самих вендоров. Помимо прочего, не все были довольны появлением новых лиц, имеющих опосредованное отношение к HPC. Например, стало больше бывших майнеров, которые успешно заработали на скачках курсов криптовалют и теперь пытаются продать свои наработки кому-нибудь ещё. Речь, в частности, об иммерсионных СЖО. Для массового внедрения они, наверное, пока не слишком подходят, зато могут стать актуальными в микро-ЦОД для периферийных (edge) вычислений. Для последних крупные игроки тоже представили свои решения. ✴-media" data-instgrm-captioned=" " data-instgrm-permalink="https://www.instagram.com/p/B5HjIX_F4Vh/?utm_source=ig_embed&utm_campaign=loading" data-instgrm-version="12" rel="nofollow" target="_blank"> По самой выставке нельзя было сказать, что число участников SC в этом году превысило 13 тыс. человек. И это при цене билета в несколько сотен долларов. Большая часть выбрала участие в конференции, а не осмотр стендов. Всего к SC19 было подготовлено 339 научных публикаций, из которых 87 было отобранодля проведения докладов. Это не рекордный результат за 31 год истории SC, но очень неплохой. Так что не исключено, что со временем мероприятие вернётся к своим истокам и станет именно научным. Суперкомпьютерная выставка SC19: самые интересные и важные анонсы и новости
19.11.2019 [23:50],
SN Team
В рамках мероприятия будет представлен очередной рейтинг TOP500, а ведущие производители ПО и железа покажут свои новинки. Любопытно, что посетители конференции больше заинтересованы именно в программном обеспечении (70%), а не аппаратном (66%). На третьем и четвёртом месте среди интересов находятся системы хранения данных (63%) и сетевые технологии (57%). Все материалы с конференции отмечены тегом SC19 на ServerNews и 3DNews. Материал будет постепенно пополняться ссылками.
Обзор NAS QNAP TS-1277XU-RP: второй источник
13.11.2019 [00:00],
Илья Коваль
QNAP TS-1277XU-RP — в каком-то смысле знаковая модель NAS для компании, потому что это первое за долгие годы устройство на базе современного процессора AMD, а не Intel. Серии на CPU Excavator/Bulldozer не в счёт. Это важно и для AMD, потому что сам сегмент таких решений хоть и не столь велик, но может быть индикатором уровня доверия к платформе. При этом особо надеяться на то, что СХД на базе AMD будут значительно дешевле основанных на Intel продуктов, не стоит. Во-первых, QNAP и другие вендоры продают не «железо», а готовое решение, цена на которые определяется возможностями СХД. И тут не всё так однозначно, ведь чипы AMD, например, не имеют встроенной графики. А это сразу же лишает пользователей части функций. Во-вторых, разработка новой аппаратной базы тоже не бесплатна. Технические характеристикиНа выбор предлагается две основные конфигурации QNAP TS-1277XU-RP: с Ryzen 5 2600 или с Ryzen 3 1200. У нас побывала версия с AMD Ryzen 5 2600 (6 ядер, 12 потоков, 3,4/3,9 ГГц, L3-кеш 16 Мбайт, TDP 65 Вт) и 8 Гбайт RAM (2 × DDR4-2400 UDIMM), что отражено в полном наименовании модели: TS-1277XU-RP-2600-8G. Для заказа доступны версии и с максимально возможным объёмом памяти — 64 Гбайт. Впрочем, никто не мешает самостоятельно заполнить все четыре DIMM-слота. Впрочем, смена аппаратной платформы никак не сказалась на внешнем виде и особенностях шасси. Корпус выглядит точно так же, как и другие корпоративные или стоечные SMB-решения NAS. Спереди есть 12 лотков для накопителей 2,5”/3,5” SATA-3, с индивидуальными индикаторами. На правом «ушке» находятся кнопка питания и три индикатора состояния системы, сети и внешней дисковой полки. Все основные разъёмы находятся сзади: четыре USB 3.0 Type-A, по одному USB 3.1 Gen2 Type-A и Type-C, два гигабитных сетевых разъёма RJ-45 и ещё два SFP+ 10 Гбит/с. 1GbE-порты обслуживаются контроллером Intel I211, а 10GbE — Mellanox ConnectX-4 Lx. Для карт расширения PCI-Express 3.0 есть четыре слота: два x8 и два x4. Однако фактически на них приходится 16 линий, так что они могут работать в следующих сочетаниях: четыре x4, два x8, два x4 + один x8. Жаль, нет внутренних слотов M.2. Среди поддерживаемых карт есть как раз переходники M.2, а также накопители, графические ускорители, адаптеры Ethernet и Wi-Fi. Система охлаждения на удивление тихая. Относительно, конечно — в простое она перекрывает шум настольного ПК. Не то чтобы это было важно для стоечного хранилища, но всё равно приятно. В корпусе высотой 2U довольно просторно, так что CPU оснащён радиатором-кубиком с частым оребрением и двумя тепловыми трубками. Активная часть СО состоитиз двух вентиляторов 70 × 70 мм, 6000 RPM. Часть работы на себя берут вентиляторы блоков питания. Что касается карт расширения, то, во-первых, один из вентиляторов находится прямо за слотами PCIe, а, во-вторых, слишком мощные карты всё равно установить нельзя, так как питаться они могут только от слотов, потому что БП просто не рассчитаны на большую нагрузку. За питание отвечают два (1+1) блока с возможностью горячей замены. Каждый блок имеет мощность 300 Вт и рассчитан на сети AC 100-240 В 50-60 Гц. В комплекте с устройством поставляются два кабеля с вилками, соответствующими стандартам региона продажи. Также в комплекте есть традиционный набор винтов для крепления накопителей и пара патч-кордов. Салазки для установки в стойку придётся докупать самостоятельно.
ПроизводительностьДля тестов использовалась стабильная версия прошивки QTS 4.4.1.1101. Основными накопителями, как обычно, были Seagate Constellation CS ST3000NC002 (3 Тбайт, 64 Мбайт кеш, 7200 RPM, SATA III) в количестве четырёх штук, собранных в RAID 5. Второй набор накопителей состоял из восьми SSD Samsung SM863a (SATA III, 480 Гбайт), которые были собраны в RAID 50. Это серверные твердотельные накопители, да ещё на базе V-NAND MLC, что только в плюс. Для наших задач они подходят идеально, так как обладают надёжностью и производительностью. Во всех случаях примерно половина ёмкости была отведена под один полный (thick) том. Кеширование записи («задержка аллокации EXT4») оставлено включенным по умолчанию. Общие папки SMB подключались на клиенте как сетевой диск. Важное изменение параметров теста касается минимально поддерживаемой версии SMB — теперь всегда используется только SMB 3. А самая последняя версия в данном случае нужна для проверки одной из любопытных функций — SMB Multichannel (SMBMC). Она позволяет организовать многопоточный обмен данными при наличии нескольких одинаковых сетевых интерфейсов со стороны клиента и сервера без использования LACP и «умного» коммутатора. Мастер настройки
Настройки SSD-пула
Так что клиент и NAS использовали двухпортовое подключение к сети посредством неуправляемого 10GbE-коммутатора QNAP QSW-1208-8C. Порты SFP+ со стороны хранилища подключались к свитчу посредством DAC. А со стороны клиента использовались уже обычные кабели Cat.6. Конфигурация клиентской машины осталась неизменной: Intel Core i5 6600K, 32 Гбайт RAM, NVMe SSD GOODRAM IRDM Ultimate, Intel X540-T2, Windows 10 Home 1903. На обеих сторонах были включены Jumbo-кадры 9k. Для нашего набора HDD такая тестовая конфигурация, конечно, избыточна, потому что упираться всё будет именно в скорость дисков. А проверка SMB Multichannel носит чисто академический характер, так как официально эта функция пока вообще недоступна и для её включения приходится вручную вносить изменения в настройки сервера SMB. Делается это путём добавления в /etc/smb.conf строки server multi channel support = yes, а также включения асинхронного ввода-вывода в том же файле, если SAMBA вообще собрана с его поддержкой: aio read size = 1 и aio write size = 1. Но это только полдела. Несмотря на обещания Microsoft, что всё будет хоть как-то работать «из коробки» в Windows 10 при наличии двух одинаковых сетевых адаптеров с одинаковыми же настройками и DHCP-сервера в сети, практика разительно отличается от теории. В нашем случае пришлось вручную прописывать разные адреса и подсети на адаптерах 10GbE и «привязывать» SMB только к ним. На стороне клиента SMBMC работает, но в наименее благополучном режиме — без нормального масштабирования (RSS), если верить отчёту Windows, и с повышенной нагрузкой на CPU. Идеальной конфигурацией для SMBMC всё же является наличие в системе только современных сетевых адаптеров с поддержкой RDMA и подключенных к процессорным линиям PCIe. Тем не менее даже в нашем случае удалось получить при последовательном чтении с большой глубиной очереди синхронную нагрузку на оба сетевых интерфейса, которая суммарно даёт большую пропускную способность, чем одно 10GbE-подключение. Прирост виден невооружённым глазом, он составляет более четверти. Остаётся открытым вопрос: достигли ли мы предела производительности NAS, или дело всё же в клиенте. Но всё вышесказанное касается только чтения. В случае записи эффект от SMBMC может быть и негативным, хотя на небольших объёмах картину смазывает кеш со стороны NAS (особенно для HDD). При копировании набора из нескольких сотен сгенерированных случайным образом файлов общим объёмом 5,5 Гбайт посредством robocopy с явным отключением кеширования (параметр /j) на клиентской стороне разница в скорости записи тоже заметна. А в скорости чтения в данном сценарии выгоду получают только SSD.
ВозможностиВ этом разделе традиционно рассмотрим парочку интересных возможностей QTS, которые ранее не попадали в поле нашего зрения, потому что рассказывать о возможностях этой ОС можно очень и очень долго. Базовые функции рассмотрены в обзорах QNAP D2 Pro и QNAP S2. Про некоторые наиболее полезные для SMB-пользователей возможности рассказано в летнем обзоре QNAP TVS-972XU-RP. С момента его выхода версия QTS 4.1.1 вышла из статуса «беты», но, к сожалению, в онлайн-демо её всё ещё нет. Дедупликация QuDedupВ прошлый раз мы познакомились с приложением Hybrid Backup Sync 3 (HBS) для резервного копирования и синхронизации данных, которое теперь тоже вышло из статуса «беты». Тогда вскользь было упомянуто о дополнительной утилите QuDedup Extract Tool для работы с проприетарным форматом бэкапов .qdff. Из названия нетрудно понять, что резервные копии подвергаются дедупликации. К сожалению, работает она только с ними, а не со всеми файлами на NAS. Впрочем, и нагрузку на процессор она даёт немалую — до 25%. Причём похоже, что это искусственное ограничение сверху. Конкретный алгоритм работы функции QuDedup не раскрывается. Говорится лишь, что в среднем можно получить сжатие исходных файлов в 4-10 раз. Естественно, не все данные одинаково хорошо сжимаются. QNAP не рекомендует использовать дедупликацию для видеофайлов, но упоминает, что она хорошо работает с повторяющимися наборами данных вроде образов виртуальных машин или ISO-файлов. Для проверки эффективности работы QuDedup был проделан очень простой тест. Утилитой rdfc, которая используется и для генерации случайных наборов файлов для robocopy, был создан случайный же файл объёмом ровно 64 Гбайт. В первом сценарии две копии этого файла были скопированы на NAS, где в результате работы HBS был создан qdff-бэкап, итоговый размер которого составил около 17 Гбайт. Дальнейшее добавление таких же копий тестового файла с последующим обновлением qdff-архива на его размер не повлияло — к исходным 17 Гбайт добавляются лишь считаные мегабайты служебных данных. При этом удивительно, что одновременное резервирование всех трёх файлов даёт чуть больший размер итогового qdff-бэкапа — порядка 19 Гбайт. Второй сценарий более сложный. За основу взят 17-Гбайт qdff-бэкап из первого сценария, полученный в результате обработки двух копий тестового файла с последующим добавлением ещё одной копии. После этого к ним добавляется не целый файл, а лишь его части, причём непоследовательные. Исходный тестовый файл был разбит на 8 равных частей, и на обработку были отправлены части 2, 4, 6 и 8. QuDedup справился с ними очень быстро, однако итоговый размер qdff увеличился на 5,5 Гбайт. Да, это тоже неплохое сжатие, но функция, похоже, не всегда может сличать столь крупные непоследовательные блоки файлов. Более того, частичное пересечение её только смущает. В третьем сценарии на резервное копирование были отправлены три одинаковых исходных файла и первая из восьми частей. Итог — 24,4 Гбайт в qdff-архиве. Возможно, результат не так впечатляет, как при обработке одинаковых файлов, однако это всё равно неплохая степень сжатия для случайных данных. QVPN 2.2Поддержка VPN в QTS существует довольно давно. Как серверов, так и клиентов. В версии QVPN 2.2 в QTS 4.4.1 появился проприетарный протокол QBelt на базе DTLS с шифрованием AES-256. Вероятно, в силу молодости, работает он не слишком стабильно, судя по отзывам. А в нашем случае не работает вообще. Впрочем, невелика потеря — до первого внешнего аудита столь чувствительных материй, как шифрование и защита передачи данных, пользоваться любой новинкой можно на свой страх и риск. В конце концов, поддержка привычных PPTP, L2TP и OpenVPN никуда не делась. Из общих для всех протоколов возможностей есть три. Первая — ручной или автоматический выбор сетевого интерфейса, куда будет отправляться трафик VPN-клиентов. Вторая — настройка предпочитаемых для VPN-клиентов DNS-серверов, среди которых можно выбрать и публичные. Третья — наличие отдельной группы пользователей для работы с VPN, аккаунты которой либо добавляются вручную, либо импортируются из домена AD. Для QBelt и L2TP доступно шифрование только по предварительному ключу (PSK). Для L2TP и PPTP можно выбрать протокол аутентификации PAP или MS-CHAPv2. Наконец, для PPTP и OpenVPN можно настроить уровень шифрования — MPPE40/128 и AES128/256 соответственно. Настройки QVPN 2.2
Для OpenVPN также есть опции сжатия трафика и использования этого типа подключения как шлюза по умолчанию для удалённых устройств. Увы, в веб-интерфейсе нет никакой возможности явно привязать тот или иной VPN-сервер к конкретному сетевому интерфейсу. В частности, в файле .ovpn, который сервер вместе с сертификатом генерирует для клиентов, прописан текущий внешний IP-адрес NAS, а вовсе не локальный. Но это если повезёт, потому что нам, например, единожды довелось получить этот файл целиком — в остальных случаях он был пустым. Ровно те же протоколы QVPN поддерживает и в качестве клиента. Это может быть полезно в случае подключения NAS в удалённом филиале к основной сети компании. Есть даже простое резервирование из двух VPN-подключений и возможность использовать NAS в качестве шлюза удалённой сети для локальных устройств. Тем не менее, если смотреть на QVPN в целом, это всё же относительно простое с точки зрения возможностей (но и настройки тоже) приложение, которое обеспечивает базовую поддержку VPN. Компаньоном для QVPN на NAS является одноимённое приложение для Windows 8/10, macOS 10.12 и старше, Android версии не ниже 5.1, а также iOS 10 и более поздних версий. Для всех протоколов, кроме QBelt, его использование не является обязательным. Более того, для OpenVPN, например, всё равно придётся самостоятельно устанавливать ещё и официальный клиент. Из дополнительных и необязательных функций есть автоматическое соединение с VPN-сервером при запуске приложения или при подключении Wi-Fi, восстановление связи с VPN при обрыве и настройка DNS-сервера. Из относительно полезных возможностей есть просмотр журналов, графики скорости передачи данных и отображение на Google-карте местонахождения VPN-сервера. Кроме того, в приложении после подключения появляются иконки для быстрого доступа к файловому менеджеру, к настройкам NAS и для подключения сетевых дисков без дополнительной авторизации. Настройки QVPN 1.1.1
Однако основная задача приложения — упростить работу с VPN-подключениями. Оно может найти NAS в локальной сети или посредством облачного сервиса myQNAPcloud и, запросив логин и пароль, сконфигурировать на клиентской машине необходимые профили и сетевые интерфейсы. Фактически оно это делает посредством обращения к API NAS по http(s). Увы, стабильностью работы оно не блещет: не всегда удаётся завести новый профиль, нередки падения. Разработчики в курсе проблемы и готовят обновление.
Для простой проверки скорости VPN-подключений — тех, что заработали без ухищрений, — использовалась утилита iPerf 3.1.3 для 64-бит Windows. Клиент и сервер работали на 10GbE-интерфейсах, хотя это было излишним, так как здесь, судя по всему, тоже есть принудительное ограничение сверху по нагрузке на CPU. ЗаключениеПереход на новую аппаратную платформу, похоже, прошёл безболезненно. Во всяком случае, каких-то существенных претензий к работе устройства у нас не возникло. При сравнимом порядке цен с решением на базе Intel в виде протестированного летом TVS-972XU-RP с Core i3-8100 и одинаковым значением TDP новинка выгодно отличается большей вычислительной мощностью. Как показали тесты, это не оказывает какого-то уже очень заметного влияния на скорость файлового доступа — основной задачи NAS, но позволяет ускорить работу дополнительных функций. Тот же веб-интерфейс, по субъективным ощущениям, стал отзывчивее. Возможно, разработчикам даже стоит пересмотреть те искусственные лимиты, которые накладываются на системные процессы, — близкой к 100% нагрузки на CPU не удалось добиться ни разу. А вот что действительно удивляет в новой платформе, так это полное отсутствие слотов M.2 на материнской плате. Встроенных в процессор 16 линий PCIe 3.0 явно маловато для 10GbE-адаптеров и четырёх слотов, которые оснащены свитчами. Интереснее было бы видеть вместо слотов x4 как раз парочку M.2. Ну или хотя бы простенький адаптер в комплекте. Это позволило бы в любой момент дооснастить NAS простым твердотельным кешем, что дал бы возможность ещё эффективнее «раскрываться» двум 10GbE-интерфейсам. Тест AMD EPYC Rome. Часть 1: первое свидание
08.08.2019 [02:00],
Игорь Осколков
Астрологи объявили месяц AMD EPYC. Количество материалов о Rome увеличилось вдвое. Про внутреннее строение новых ядер всё прекрасно расписано в обзоре микроархитектуры Zen2. На более высоком уровне строение тоже принципиально не отличается — мультичип процессора набирается из тех же CCD, то есть блоков с ядрами и L3-кешем. Исключительно количественное отличие в том, что в CCD может быть восемь ядер, то есть в сумме на один сокет приходится до 64 ядер. То есть в двух сокетах мы получаем до 128 ядер и до 256 потоков. Любопытный побочный эффект — Windows Server 2019 требует патчи для корректной работы APIC. Без них для двухсокетных систем придётся либо искусственно занижать число ядер, либо использовать CPU с меньшим их числом — до 48. Так или иначе, выбранный подход позволяет более гибко варьировать число ядер в процессоре и системе. Возможны конфигурации как с меньшим числом CCD на процессор, так и с меньшим числом активных ядер в CCD. Бывают варианты на 8, 6, 4 и 2 CCD. Ориентироваться можно на объём L3-кеша, который может достигать объёма 32 Мбайт на CCD: L3-блоки объёмом 16 Мбайт выделяются на каждые четыре ядра. Если часть из этих четырёх ядер отключена, то размер L3 всё равно не меняется. Есть даже экзотические варианты: 8 ядер с максимальной среди всех SKU базовой частотой + 128 Мбайт кеша. Состав I/O Die при этом остаётся единым для всех вариантов: 128 линий PCI-Express 4.0 + 8 каналов памяти DDR4-3200 ECC. Поддерживаются модули (L)RDIMM и 3DS, вплоть до «восьмиранговых» (2S4R) ёмкостью 256 Гбайт (с 16 Гбит чипами). Из NVDIMM есть только поддержка типа N (по спецификации JEDEC), то есть таких модулей, у которых доступ извне есть только к DRAM, а флеш-массив не виден. AMD рекомендует равномерно заполнять все восемь каналов, не смешивая при этом тип и объём модулей. В принципе, запустить систему можно даже с одним DIMM, но это странная затея сама по себе. При числе модулей меньше восьми, а этот вариант оптимален лишь для CPU с 32 ядрами и менее, рекомендуется размещать их парами буквально наискосок друг от друга относительно I/O Die. Внутреннюю топологию I/O Die разработчик не раскрывает, говоря лишь о том, что в среднем для всех восьми каналов одного сокета задержка обращения к памяти составляет около 100 нс. Конкретные значения зависят от частот памяти и ядер, типа модулей и сценария доступа. Формально все каналы равны и обеспечивают примерно равные задержки и пропускную способность для всех CCD, но они всё же разбиты на условные пары (“paired” internally) для оптимизации производительности PCI Express и других компонентов. Отдельно стоит отметить, что при использовании двух DIMM на канал максимальная скорость падает с 3200 до 2933 MT/s, а при наборе 3DS-модулями 2S2R/2S4R — до 2666 MT/s. Впрочем, те, кому действительно нужны большие объёмы, это может быть не так критично — для NUMA, например, который тоже улучшился в Rome. К тому же контроллер памяти достаточно умён для того, чтобы оптимальным образом распределять запросы между разными рангами памяти. Есть и другой ограничитель производительности, даже два. Но первый скучный, так как касается совместимости между платформами EPYC первого и второго поколения. На бумаге всё выглядит гладко — один и тот же Socket P3, полное совпадение по пинам. На практике ставить новый процессор в старую плату не всегда имеет смысл, потому что PCI-E будет работать в режиме 3.0, а скорость памяти не поднимется выше 2667 MT/s. Более того, «штраф» за установку двух DIMM на канал суровей. В лучшем случае будет 2400 MT/s, в худшем — 1866. Обратная совместимость «наборот» — установка старых процессоров в новые платы — в большинство случаев потребует смены BIOS, а часть возможностей Rome может оказаться недоступной. Микроархитектура Zen2 Rome
Второй, и самый очевидный, ограничитель — это TDP. В таблице явно не обозначены, но, по словам инженеров, существуют процессоры с двумя базовыми уровнями тепловыделения. При меньшем значении происходит откат к вышеупомянутым характеристикам PCI-E и DDR4 первого поколения EPYC. Данные о TDP непосредственно IO Die не приводятся, но вот этот самый откат может «стоить» и пару десятков Вт, хотя всё очень сильно зависит от параметров всей системы. Для всех моделей указана не просто стандартная величина TDP, а дан диапазон, который может простираться как в сторону увеличения, так и уменьшения. Настроить конкретный уровень можно с точностью до 1 Вт. Чем выше лимит и чем лучше соответственно охлаждение, тем дольше процессор сможет работать на турбочастотах. С PCI Express ситуация примерно та же, что и была. Да, у нас есть 128 линий PCI-E 4.0 для одного сокета. Да, у нас есть 128 линий PCI-E 4.0 для двух сокетов. Потому что по 64 линии (xGMI) от каждого CPU забирает Infinity Fabric. Все линии процессора разбиты на восемь групп по x16. Каждая группа поддерживают бифуркацию вплоть до x1, но суммарное число слотов на группу не должно быть больше 8. Половина групп также поддерживает переключение 8 линий PCI-E в режим SATA3. В сумме получается до 32 SATA- или NVMe-накопителей x4 на сокет. Чисто технически есть ещё одна, так называемая WAFL-линия x1 для подключения BMC, но она в любом случае занята. Как и прежде, AMD упирает на то, что EPYC это SoC, а не просто процессор, поэтому он может работать без отдельного чипсета и ряда дополнительных компонентов, что должно положительно сказываться на стоимости платформы. Фактически часть линий всё равно уйдёт на базовые адаптеры и контроллеры, на что в своё время упирала Intel, напоминая как минимум о нормальном сетевом контроллере в собственном чипсете и VROC (Virtual RAID on CPU). С приходом Xeon Scalable добавился ещё один аргумент, хотя и слабый — поддержка Intel Optane DCPMM в DIMM-формате. Однако в Rome всё-таки полновесный PCI-E 4.0, который хоть и считается многими временным, переходным стандартом, всё равно позволит выжать больше даже из меньшего числа линий. Так что для DCPMM вполне может найтись альтернатива из быстрых NVMe SSD вкупе с технологиями ScaleMP. На брифинге по Rome один из докладчиков вскользь упомянул про варианты с большим, чем 128, числом линий PCI-E. Для двухсокетных систем действительно есть возможность получить 192 линии PCI-E. Однако в этом случае часть линий забирается у шины Infinity Fabric, связывающей процессоры, поэтому её производительность будет хуже. Ещё одно важное обновление — как минимум для виртуализированных и облачных окружений — заключается в расширении возможностей шифрования оперативной памяти по алгоритму AES-128, влияние которого на производительность составляет, как утверждается, менее 1%. В основе всё тот же AMD Secure Processor на базе ARM Cortex-A5, интегрированный непосредственно в CPU. Ключевое отличие от прошлого поколения — увеличение числа ключей шифрования до 509. Впрочем, это нужно для защиты с помощью Secure Encrypted Virtualization (SEV), а для простого полного шифрования всей оперативной памяти, то есть функции Secure Memory Encryption (SME), достаточно одного ключа. SEV же позволяет изолировать друг от друга гипервизор, виртуальные машины и контейнеры или их группы, а также отдельные приложения. Однако в последнем случае требуется поддержка со стороны ОС. Особенностью реализации SEV является полная прозрачность, то есть (де-)шифровка на лету, для остальных аппаратных средств, обращающихся к памяти посредством DMA. Помимо прочего, есть и другие обновления касающиеся безопасности и производительности: аппаратные патчи против Spectre, расширенные управление и мониторинг памяти и L3-кеша (вплоть до отдельных CCD), а также некоторые другие инструкции. На уровне ПО совместимость начинается как минимум с версии ядра Linux 4.19. Ключевые дистрибутивы также поддерживают новые процессоры. Microsoft и VMWare должны подтянуться к выходу на рынок и пока дают бета-версии. С компиляторами ситуация чуть сложнее. Ещё в LLVM Clang 9.0 появилась первичная поддержка оптимизации для ядер Zen 2 (znver2). В GCC полноценная оптимизация ожидается в версии 10 и что-то уже портировано в 9.2, но в репозиториях они появятся не сразу. Что касается собственного оптимизирующего компилятора AMD, то релиз AOCC 2.0, «заточенный» под EPYC, намечен на момент официального анонса. На тестовой системе под кодовым именем Daytona, которая для EPYC Rome произведена Quanta (оригинал ссылки был спешно удалён ещё в прошлом году), использовалось по возможности наиболее общедоступная платформа: Ubuntu 19.04 с ядром 5.0.0-21-generic, компилятор GCC 8.3.0. ОС была установлена на 2,5” SATA SSD Micron 1100 ёмкостью 256 Гбайт. Шесть U.2 NVMe-дисков Micron 9300 объёмом 3,84 Тбайт каждый были собраны в программный md-массив RAID-10. На массиве была создана ФС xfs, смонтированная с параметрами по умолчанию (defaults), а на неё положена директория /var. В неё в свою очередь был установлен Phoronix Test Suite (PTS) текущей стабильной версии 8.8.1, и все тесты работали именно в ней. В тестовой системе установлено два процессора AMD EPYC Rome 7742: 64 ядра, 128 потоков, 2,25/3,2 ГГц, L3-кеш 128 Мбайт, TDP выставлен на базовые 225 Вт. Параметр governor для теста был переведён в режим performance. Авторазгон ядер хоть и не совсем корректно детектировался в ОС, всё же работал — те самые 3,2 ГГц на нескольких ядрах можно было увидеть. На каждый из 16 каналов памяти приходился один RDIMM-модуль Micron DDR4-3200 ECC ёмкостью 32 Гбайт, что в сумме даёт 512 Гбайт RAM. Отслеживать энергопотребление и температуры во время тестирования AMD не рекомендовалось, потому что это скорее отладочная платформа. Первый показатель для тестового стенда, пожалуй, не очень важен, а второй нужен лишь для управления системой охлаждения. Впрочем, в нашем случае это всё несущественно, так как физически сервер располагался в Мюнхене. Что же со всем этим добром делать? Любоваться, не иначе! Дело в том, что конфигурация 2 × 64 ядра, мягко говоря, не средняя. Она ближе к сегменту HPC, а не корпоративным серверам. Сравнивать её попросту не с чем. Если взять те же публично доступные Intel Xeon Platinum 8280(L), то это будет не сравнение, а надругательство. Непубличные Cascade Lake AP серии 9200 Intel предоставить отказалась, но с ними всё равно сравнить цены не получилось бы, так как доступны они только в виде готовых систем тех же HPC-платформ. Сама AMD предоставить систему 32-ядерными Rome пока что тоже не смогла, равно как и систему с EPYC 7601 первого поколения. Поэтому в качестве временного решения приведены некоторые сравнения результатов EPYC 7742 с публично доступными тестами Xeon 8280 от Phoronix, которые дают возможность примерной оценки соотношения сил. Результаты тестовой платформы доступны здесь. Обратите внимание, что системы отличаются по железу и ПО. Впрочем, показатели тестовой системы практически идентичны результатам внутренних бенчмарков самой AMD, которые, увы, публиковать нельзя. Да и соотношение с конкурентами примерно то же. Отдельно стоит отметить, что, как всегда, многое зависит от оптимизации. Например, тот же Stream показывает значительно более высокие результаты благодаря только «правильному» компилятору AOCC. Да, EPYC 7742 зачастую выигрывает просто за счёт числа ядер. И тем более интересно будет взглянуть на 32-ядерные модели. Прямо сейчас есть только одна, но очень важная неизвестная — цена для партнёров компании. Либо AMD захочет всё-таки неплохо заработать на новинках, либо продолжит давление на конкурента. На это у неё, надо полагать, есть около года-полутора. Слегка неожиданный анонс Cooper Lake может удержать производителей от поползновений в сторону конкурента просто потому, что серверный рынок достаточно инертен. Но полностью от них не избавит. Основным фокусом должно стать выстраивание экосистемы ПО, его перенос и адаптация к новой аппаратной платформе. Фундамент для неё готов, ведь всё-таки есть что-то неуловимо приятное в сообщении очередного бенчмарка о подозрительно быстром завершении теста: мол, не может же такого быть. Может! Теперь может. Продолжение следует… P.S: если у вас есть пожелания по бенчмаркам (консольных, для Linux), оставляйте их в комментариях. Обзор NAS QNAP TVS-972XU-RP: 9 SATA в 1U
31.07.2019 [00:00],
Илья Коваль
Выход новой серии стоечных NAS для бизнеса QNAP TVS-x72XU был анонсирован ещё в конце прошлого года. Как обычно, модельный ряд включает хранилища высотой от 1U до 4U и с числом дисков от 8 до 24. Модель TVS-972XU — самая необычная среди них, потому что поддерживает сразу 9 SATA-накопителей в 1U-шасси. Как же так? Всё очень просто: над четырьмя передними лотками для 3,5”/2,5” дисков под верхней крышкой есть ещё пять посадочных мест для 2,5-дюймовых SSD. Конечно, это не обязательно должны быть именно твердотельные накопители, но в такой конфигурации можно сделать многоуровневое хранилище с разнесением «горячих» и «холодных» данных. Либо с тирингом, либо с кешем, либо и с тем и с другим. Технические характеристикиУ нас побывала модель TVS-972XU-RP-i3-4G. Индексы в названии указывают на то, что, во-первых, в системе предустановлено 4 Гбайт RAM — в данном случае из четырёх имеющихся слотов только один занят модулем DDR4-2400 UDIMM производства ADATA. Во-вторых, на то, что используется процессор Intel Core i3. У нас это i3-8100 (4 ядра @ 3,6 ГГц, TDP 65 Вт), который поддерживает до 64 Гбайт RAM, в том числе с ECC. Наконец, в-третьих, на то, что в устройстве есть два БП FSP320-20RGGBA мощностью 320 Вт каждый, которые поддерживают горячую замену. Аналогичная модель NAS без индекса RP поставляется с единственным блоком питания мощностью 250 Вт. Вентиляторы блоков питания дополняют общую систему охлаждения, которая состоит из трёх крыльчаток и массивного алюминиевого радиатора, накрывающего процессор, чипсет и прочие чипы на материнской плате. Из этих самых прочих интересен адаптер Mellanox ConnectX-4 Lx, дающий два интерфейса 10GbE SFP+ и поддерживающий функцию iSER, актуальную для VMware. Есть и два гигабитных интерфейса Intel I211 с портами RJ-45. Набор USB-портов впечатляет: два USB 3.0 Type-A, два USB 3.1 Type-A и два трёхамперных USB 3.1 Type-C. Также имеется видеовыход HDMI 2.0 (3840 × 2160 @ 60 Гц). Для подключения низкопрофильных карт расширения доступен один порт PCIe 3.0 ×16. Нам в комплекте с NAS досталась карта расширения QNAP QM2-2P10G1T. Эта карта с интерфейсом PCIe 2.0 x4 включает в себя 10GbE-контроллер Tehuti TN9710P с портом RJ-45 и два слота M.2 2280. Охлаждение у неё индивидуальное: собственный медный кулер, занимающий почти всю поверхность платы, и маленький вентилятор. Оба слота на карте были заняты Intel SSD 760p ёмкостью 128 Гбайт каждый (SSDPEKKW128G8XT). От производителя также достались три SATA SSD Kingston SSDNow V300 объёмом 60 Гбайт. Впрочем, они пригодились только для иллюстрации использования 2,5-дюймовых лотков, так как эти накопители сами по себе не слишком быстрые. В качестве основных HDD использовалась стандартная четвёрка Seagate Constellation CS ST3000NC002 (3 Тбайт, 64 Мбайт кеш, 7200 RPM, SATA III). В комплекте с устройством поставляются два кабеля питания, два патч-корда пятой категории, по паре ушек и уголков, два набора винтов для 2,5- и 3,5-дйюмовых накопителей, а также гарантийный талон и краткая инструкция. Винтов, правда, положили впритык, без запаса. Зато лотки для дисков хороши — они жёсткие, сделаны из толстого металла. Индикаторы активности не вынесены на них, а гирляндой расположены в правой части лицевой панели. В дополнение к девяти светодиодам для дисков есть ещё пара — для индикации активности сетевого подключения и состояния системы. Сзади иллюминацию дополняют яркие индикаторы работы блоков питания.
Невольным участником обзора стал компактный (43 × 285 × 233 мм, 2,15 кг) неуправляемый коммутатор QNAP QSW-1208-8C, который обладает 12 портами 10GbE (есть совместимость с 5/2,5/1/0,1 GbE): 4 SFP+ и 8 комбинированных SFP+/RJ-45. Внутренняя пропускная способность составляет 240 Гбит/с. Свитч можно установить как на столе, поскольку у него есть резиновые ножки снизу, так и в стойку — в комплект входят крепёжные уголки. Устройство оснащено двумя тихими вентиляторами (до 18,7 дБА), расположенными на боковой стенке. Блок питания встроенный: 100–240 В, 50/60 Гц. Заявленная потребляемая мощность не превышает 49 Вт. Производитель позиционирует коммутатор как недорогое решение для самостоятельной модернизации SMB-сети. ПроизводительностьДля тестов сетевой работы использовалась стабильная прошивка QTS 4.4.0.0979, а для знакомства с некоторыми функциями — бета-версия 4.4.1.0978, так как к моменту массовой доступности устройства на российском рынке она уже перейдет в статус стабильной. Это первое важное замечание. Второе же касается конфигурации накопителей. Жёсткие диски были собраны в массив RAID 10, часть которого отведена под полный (thick) том, а часть выделена для снепшотов. Такая конфигурация, на наш взгляд, оптимальна. Да, в этом случае производительность ниже, чем у просто статического тома, но зато есть дополнительная защита данных. Настройки HDD-пула
Накопители M.2 на PCIe-карте использовались в двух конфигурациях. Первая — массив RAID 0 со статическим томом. Вторая — RAID-0-кеш чтения/записи всей подсистемы ввода-вывода для основного HDD-массива, с политикой LRU. Обе конфигурации не совсем реалистичные, так как использование массивов без защиты для кеширования записи не лучшая идея, зато наиболее производительные. В глобальных настройках QTS кеширование записи («задержка аллокации EXT4») включено по умолчанию. Для каждого тома создавалась отдельная общая SMB-папка, которая подключалась на клиенте как сетевой диск. В настройках SMB версия 2.1 указана как минимально поддерживаемая. Настройка M.2-пула и кеширования
Конфигурация основной клиентской машины: Intel Core-i5 6600K, 32 Гбайт RAM, NVMe SSD GOODRAM IRDM Ultimate, Intel X540-T2, Windows 10 Home 1809. Порт SFP+ от встроенного в NAS адаптера Mellanox был подключён к свитчу посредством DAC, а уже от него до клиента шёл обычный кабель Cat.6. Именно поэтому и понадобился коммутатор. Таким образом, между NAS и клиентом имелось одно подключение 10 Гбит/с, плюс на обеих сторонах были включены Jumbo-кадры 9k. Порт на карте расширения не использовался, потому что она вряд ли будет работать лучшим образом одновременно и с дисками, и с сетью — там и так не слишком широкий внешний интерфейс, который разбивается между тремя устройствами внутренним PCIe-свитчем. Тесты на малых объёмах с SSD показывают, что в них скорость упирается уже не в диски, а в пропускную способность сетевого интерфейса. Впрочем, это практически идеальный синтетический сценарий, который к тому же успевает получить пользу от кеширования в RAM на стороне NAS. На бо́льших объёмах и при записи это преимущество нивелируется. Наиболее интересно выглядит связка жёстких дисков и кеша из твердотельных накопителей. Как и обещает QNAP, конфигурацию накопителей можно подобрать так, чтобы сочетались высокие ёмкость и скорость работы.
Второй тест — чуть более трудный для NAS, но и чуть более реалистичный — заключается в простом однопоточном копировании туда и обратно файлов средствами Windows 10. А точнее, утилитой robocopy, причём с параметром /j, явно отключающим кеширование на стороне файловой системы клиента. В качестве тестового набора используется пачка из нескольких сотен случайно сгенерированных файлов разного размера общим объёмом около 5,5 Гбайт. В рамках одной сессии, включающей по три прохода на чтение и запись, файлы оставались неизменными, а для каждой сессии создавались заново. Всё это нужно, чтобы оценить работу SSD-кеширования. И если при записи она не так заметна, то вот чтение кеш ускоряет значительно.
ВозможностиС основными возможностями современных версий ОС QTS мы уже немного знакомились в обзоре QNAP D2 Pro и в обзоре QNAP S2. Общая логика работы, структура веб-интерфейса и ключевое преимущество — большой набор приложений, существенно расширяющих возможности хранилища, — в новой версии ОС остались прежними. Для более детального знакомства рекомендуем обратиться к онлайн-демо QTS. О преимуществах QTS 4.4 для бизнес-задач написано здесь, а для беты QTS 4.4.1 есть даже отдельная страничка. Мы же познакомимся с некоторыми функциями, которые в деморежиме представлены слабо и которые на SOHO-устройствах не очень актуальны. А всякие мультимедийные штуки оставим в стороне. Мгновенные снимкиВ полной мере поддержка мгновенных снимков, или снепшотов, появилась в версии QTS 4.3.4. Особенность решения QNAP в том, что на самих NAS для томов используется файловая система Ext4, которая не обладает встроенными средствами для создания снимков, в отличие от набирающей популярность Btrfs. Отказ от Btrfs сделан осознанно. Среди причин производитель называет бóльшую стабильность и скорость работы, что, пожалуй, сейчас уже несколько спорно. Но основная причина проста, хотя не менее спорна: снимки Btrfs неотделимы от самих томов и отъедают на них место. Именно поэтому при создании тома или LUN’а система предупреждает о том, что в пуле неплохо бы оставить свободное место. По умолчанию предлагается заранее выделить 20 % от объёма пула. Этого должно хватить в большинстве случаев, так как в снимках хранятся лишь изменённые (copy-on-write) блоки и метаданные о них. Впрочем, место можно разметить вручную. Также стоит обратить внимание на два момента, связанных с производительностью. Во-первых, только статические тома дадут максимальную скорость, но они не поддерживают снепшоты. Во-вторых, толстые (полные, thick) и динамические тома (тонкие, thin), а также LUN’ы и просто общие папки с поддержкой снепшотов при активации мгновенных снимков «бонусом» получат стабильное снижение производительности на 5-30 %, о чём честно предупреждает производитель. Для LUN’ов есть дополнительные опции создания снимков. В частности, для Windows Server и VMware vCenter есть утилита QNAP Snapshot Agent, позволяющая отправить запрос на сброс данных на диск или создание снимка ВМ до того, как будет сделан снимок самого LUN’а на NAS, что ускоряет восстановление предыдущего состояния ВМ и томов в случае сбоя. Собственно говоря, для всех снепшотов QNAP предлагает не просто резервное копирование на самом NAS, а возможность отправки снимков на другой NAS QNAP или просто клонирования и экспорта. Для общих папок в обычных томах возможно восстановление в исходном расположении с перезаписью текущих файлов или создание ещё одной общей папки под новым именем. Для автоматического создания снепшотов есть простое расписание. Пожалуй, даже слишком простое, так как можно задать лишь одно правило. Периодичность задаётся с точностью от минут до месяцев. Доступные интервалы таковы: от 5 до 55 минут с шагом 5 минут, час, день, неделя, месяц. Есть опция отслеживания состояния тома/LUN’а: если с момента создания последнего снимка изменений не было, то и новый снимок создаваться не будет. Ограничения по хранению снимков настраиваются более гибко. Можно либо задать максимальный срок хранения в минутах/часах/днях/неделях/месяцах (но не более года), либо просто указать максимальное число всех хранимых снепшотов вообще, либо указать по отдельности лимит на число снимков разной периодичности. В последнем случае можно, например, хранить побольше ежечасных снепшотов и поменьше ежемесячных снимков. Параметры моментальных снимков
Hybrid Backup Sync 3Приложение QNAP Hybrid Backup Sync 3 (HBS) пока находится в статусе беты, так что даже устанавливать его приходится вручную. Основная задача HBS — резервное копирование и синхронизация данных между NAS и другими удалёнными и локальными сервисами и хранилищами. Список последних включает два с половиной десятка различных облачных служб, а также традиционные серверы FTP/SMB/rsync/RTRR + TimeMachine и USB-накопители. Дополнением к HBS служит утилита QuDedup Extract Tool для Windows, Mac OS и Ubuntu — она позволяет локально работать с резервными копиями в проприетарном формате .qdff, который поддерживает дедупликацию и шифрование содержащихся в нём файлов. Различие между бэкапом и синхронизацией очень простое: в случае резервного копирования результатом работы являются как раз qdff-файлы, а в случае синхронизации идёт перенос самих файлов и папок. Управлять обоими процессами позволяют задачи, про которые в целом надо знать то, что для каждой из них можно настроить весьма развесистое планирование, включающее до 30 отдельных расписаний запуска задачи с интервалами от минут до месяца. Имеется и опция запуска задачи после выполнения другой, то есть выстраивание цепочки. Ну и для каждой задачи в зависимости от типов источника и назначения передачи данных есть масса дополнительных настроек и опций. Создание задачи реализовано с помощью мастера, который лишь притворяется простым и состоящим всего из четырёх шагов. На практике для бэкапа есть десятки опций: пара вариантов версионирования, фильтрация по размеру/типу файла и его дате создания/модификации, шифрование, отслеживание изменения данных, удаление данных в источнике после копирования, перенос прав доступа (ACL), отслеживание скрытых файлов/папок и символических ссылок и так далее. Для синхронизации с удалёнными службами есть настройки работы с дубликатами, выбор режима работы (перенос, копирование, зеркалирование), возможность архивации на лету (в .bzip2), ограничение скорости передачи данных по расписание и прочие опции. Настройка задачи резервного копирования
Настройка задачи синхронизации
Среди возможностей есть также отслеживание ошибок выполнения задач — тайм-аут подключения и исполнения всего задания, число пропущенных файлов — и их перезапуск. Отдельно настраивается объём логирования выполняемых операций для каждой задачи. Виртуальный свитчНастройки сетевых интерфейсов вынесены в отдельную панель управления. Для физических сетевых интерфейсов есть возможность указать параметры IPv4/IPv6, размер кадра, идентификатор VLAN, статические маршруты. Базовые сервисы включают только DHCP-сервер и DDNS-клиент. Возможно объединение интерфейсов в группу в различных вариантах, включая и 802.3ad. Настройки физических сетевых интерфейсов
Виртуальные коммутаторы позволяют объединить как физические, так и виртуальные интерфейсы. Последние используются контейнерами и виртуальными машинами. Способов формирования коммутатора всего два. Первый — создание простого L2-свитча, объединяющего несколько физических интерфейсов. Это своего рода временный вариант на тот случай, когда отдельного коммутатора нет, а свободные сетевые порты в NAS есть. Второй — объединение различных интерфейсов с некоторыми дополнительными настройками вроде возможности подключения DHCP-сервера и трансляции адресов (NAT). Настройки виртуального коммутатора
Виртуальные машиныТак как в NAS используется полноценный процессор Core i, можно воспользоваться нормальной виртуализацией, а не только контейнерами, как на более слабых машинах. В основе QNAP Virtualization Station 3 лежит гипервизор KVM, так что решение достаточно универсальное. Есть готовые, хотя и не самые свежие, профили настроек для CentOS/Fedora/RHEL, Debian, openSUSE/SLES, Ubuntu, FreeBSD, Solaris, Android-x86 и Windows/Windows Server. Доступны импорт архивов ВМ .ova/.ovf, .vmx и собственного формата QNAP .qvm, а также конвертация образов накопителей .vmdk и .vdi. В бета-версии есть маленький и пока не совсем корректно работающий магазин готовых образов: шлюзы к AWS, pfSense и бесплатные варианты Windows с различными версиями IE и Edge. Общие настройки Virtualization Station 3
В общих настройках виртуализации можно указать путь для хранения файлов ВМ и порты для VNC-клиента, завести новых пользователей для доступа к настройкам и управлению ВМ, задать объём зарезервированной оперативной памяти для Virtualization Station, а также настроить подключение к удалённому NAS QNAP для экспорта бэкапов. Для ВМ есть собственная система создания снепшотов по расписанию с периодичностью от одного часа до месяца. Создание и настройка ВМ
Как ни странно, но какие-то особенности в работе с ВМ выделить трудно. QTS просто предлагает удобный веб-интерфейс над KVM и сопутствующими службами. Из «фишек» есть проброс устройств USB и PCI-E и встроенный веб-клиент VNC, так что для базового общения с машинами даже браузер покидать не надо, хотя в нём доступно разрешение лишь 800 × 600 — для полноценной работы лучше использовать отдельный клиент VNC или SPICE. Впрочем, QNAP TVS-972XU-RP-i3-4G подойдёт только для базовых задач, требующих виртуализации: если объём RAM ещё можно увеличить, то вот процессор уже не поменять. ЗаключениеИдея совмещения четырёх слотов 3,5” HDD и пяти 2,5” SSD не революционная, но хорошая. В эффективности кеширования (пусть и с простыми, несерверными M.2-дисками) мы убедились на практике. Несколько смущает только конфигурация, которая сейчас доступна в магазинах. Речь о памяти. Да-да, комплектные 4 Гбайт больше нужны для быстрого старта и проверки работоспособности системы, но на практике всё равно лучше сразу добавить хотя бы ещё один модуль для двухканального режима, особенно если планируется задействовать виртуализацию. Из действительно существенных претензий есть одна, и касается она вовсе не «железа», а QTS. Да, ОС с годами обросла функциями и приложениями, которые и отличают устройства QNAP от очередного x86/ARM-сервера. Но всё это «нажитое непосильным трудом» добро приобретает всё более нагромождённые интерфейсы управления. Когда из главного вроде бы меню, традиционно находящегося в левой колонке окна, клик за кликом открываются новые окна — даже не вкладки, а сразу приложения, причем с таким же меню, — работать не слишком комфортно. Отчасти помогают мастера настроек, но иногда приходится задумываться, где спрятана нужная сейчас опция. Впрочем, над этим уже работают — для того же HBS 3 главное изменение всё же касается интерфейса, а не возможностей. Как делают оптоволокно: фоторепортаж из Саранска
12.07.2019 [00:00],
Игорь Осколков
Поводом для экскурсии по заводу стал выпуск четырёхмиллионного километра оптического волокна. Ускорение производства произошло благодаря обновлению оборудования, средства на которое были получены в том числе от Фонда развития промышленности (ФРП), организовавшего это мероприятие. История заводаПопытки организовать массовое производство оптоволокна на территории страны предпринимались неоднократно: на рубеже веков дошло даже до закупок оборудования, но дальше дело не двинулось. Саранский завод тоже не сразу строился. Компания «Оптиковолоконные системы» была основана в 2008 году, ещё несколько лет ушло на переговоры относительно инвестиций с Газпромбанком, Роснано и Республикой Мордовия. В 2011 году был подписан договор с финской Nextrom (когда-то бывшей частью Nokia) о поставках оборудования, но только через два года началось строительство завода, который заработал в 2015 году. А первая продукция попала на рынок только в 2016 году. Впоследствии ФРП выдало предприятию заём на модернизацию производства — обновлённые линии как раз и были продемонстрированы в ходе экскурсии. Сейчас на заводе работают около 130 человек. Практически все они местные, за исключением некоторых руководителей. В основном на работу берут выпускников локальных университетов, обучавшихся по техническим специальностям в области физики и химии, — и потом их ещё два месяца доучивают. У многих из них научными руководителями были сотрудники НЦВО РАН и ИХВВ РАН. Впрочем, так было не всегда. Первый состав местных специалистов нужной квалификации пришлось искать с трудом, так как мало кто из них работал по специальности: кто-то занимался починкой компьютеров, кто-то продавал мобильные телефоны в одном из известных салонов связи. Как бы то ни было, производство работает. Сейчас оно состоит из двух частей: собственно вытяжки волокна и небольшого цеха по изготовлению преформ. Изготовление преформНа преформу или, говоря по-русски, заготовку, приходится более половины себестоимости продукции. Именно от неё во многом зависят качество и характеристики будущего оптоволокна. Сейчас заготовки закупаются у японской компании Sumitomo Electric — на данном этапе это экономически выгодно. Переход на полный цикл производства с собственным изготовлением преформ имеет смысл только при отгрузке более 10 млн км волокна ежегодно, тогда как сейчас спрос в России и Белоруссии (они рассматриваются как единый рынок) составляет только 9 млн км в год. Впрочем, про экономику мы ещё поговорим. Сейчас собственное опытное производство заготовок на заводе тоже имеется. Оно нужно для отработки технологического процесса и для изготовления преформ под особые нужды некоторых заказчиков. Сама преформа — это большой массивный цилиндр из кварцевого стекла. Конусообразный на одном конце и с тонкой «ручкой» на другом. Заготовка состоит из чистого — примесей не более одной частицы на миллиард — кварца с небольшим легированием германием в сердцевине. Это не единственный материал для создания оптоволокна, но самый распространённый. Конкретных способов изготовления тоже несколько. Это, например, спекание кварцевой крупки внутри полой стеклянной тубы или же парофазное осаждение. В последнем случае газовая смесь из тетрахлоридов кремния и германия вкупе с кислородом нагревается, реагирует и осаждается в виде оксидов на небольшую заготовку или на стенки полой трубы. На последнем этапе преформа спекается. Тетрахлориды нужной чистоты производятся в Дзержинске и Нижнем Новгороде, но пока в малых объёмах. Для маленьких преформ под спецзаказы на волокна с особыми характеристиками хватает. Другие газы, используемые в производстве — аргон, гелий, азот, углекислый, дейтерий, — закупаются в России. Защитное покрытие заказывается в Голландии, но пробуют и продукцию отечественных заводов. Вся прочая мелочёвка переведена на местное производство. Также на заводе есть опытный участок изготовления тестовых преформ для многомодового оптоволокна методом FCVD. Под все эти задачи есть отдельная небольшая линия производства, седьмая по счёту. Остальные шесть линий работают с обычными покупными заготовками. На заводе после модернизации используются типовые преформы диаметром 150 мм (возможна модернизация до Ø230 мм) и длиной чуть больше полутора метров, которые позволяют получить около 2000 км волокна. Ранее использовался стандарт 115 мм на 1000 км волокна. Производство оптоволокнаЕсли описывать процесс производства совсем уж упрощённо, то он сводится к плавлению заготовки и вытягиванию из неё ниточки. Кажется, что всё довольно просто, но на практике есть масса нюансов. Каждая производственная линия вытянута по вертикали и занимает восемь этажей. На последнем этаже находятся печи. В них и помещается преформа, которая подвешивается за «ручку» и аккуратно центруется, а в процессе её положение дополнительно корректируется. По мере расхода материала заготовка постепенно опускается всё глубже и глубже в печь, хотя заметить это невооружённым глазом затруднительно, так как скорость погружения на полной мощности составляет около одного миллиметра в минуту. Внутри печи находятся графитовые элементы, повторяющие форму заготовки. Они нагреваются от высокочастотного индуктора и передают тепло преформе в нужных местах, а она, в свою очередь, постепенно плавится. Температура держится около 2000 °C, и лишь во время смены преформы «на горячую» — то есть без полного цикла охлаждения и последующего разогрева длительностью несколько часов — опускается примерно до 1200 °C. Под внешней обшивкой печи проходят трубы охлаждения, по которым постоянно циркулирует вода. Однако находиться около работающей установки даже на расстоянии пары метров уже не очень комфортно — от неё буквально пышет жаром. Верхняя часть печи закрыта кварцевыми створками, а снизу из неё выходит стеклянная труба, которая заканчивается в дли-и-инном шкафу высотой в несколько этажей. Сделано это не просто так — до определённого момента весь рабочий материал находится в изолированной среде. Внутри печи циркулирует аргон, который защищает нагретый графит от контакта с кислородом воздуха. В самой башне воздух соответствует классу чистоты ИСО 7, а внутри вышеупомянутого шкафа классу ИСО 6. На первом этапе после начального разогрева заготовки формируется довольно крупная капля, которая отрезается на уровне 7-го этажа, а оставшийся кончик толщиной 3-4 мм уходит вниз и стягивается, постепенно утончаясь. Больше половины пути будущее волокно, по сути, равномерно остывает. Попутно несколько раз лазерными датчиками измеряется его положение в пространстве, уровень натяжения (по длине стоячей волны) и диаметр. На уровне третьего этажа его температура падает с почти 2000 °C до примерно 350 °C и оно попадает в трубу охлаждения. Труба омывается водой из чиллера, а внутри неё находится гелий, изолированный азотными затворами. На выходе из трубы температура волокна равна примерно 60 °C. Последний этап — нанесение полимерного слоя. Волокно проходит через блок цилиндров с фильерами, куда подаётся акрилатное покрытие, предварительно очищенное и разогретое до температуры 55-57 °C: первичное, а сразу за ним и вторичное. Далее оно проходит в азотной среде мимо пяти УФ-ламп для полимеризации покрытия, которое в итоге значительно улучшает механические свойства оптоволокна. «Голое» волокно не получится согнуть с диаметром изгиба менее 10-15 сантиметров, а с покрытием его можно свернуть в колечко радиусом несколько миллиметров. В конце концов уже на первом этаже волокно попадает в протяжный механизм, который автоматически регулирует натяжение для сохранения толщины и формы нити в соответствии с данными измерений вышестоящих лазерных датчиков. После этого оно наматывается на катушки, способные вместить до 250 км волокна. Рабочая скорость намотки составляет 1700-1800 метров в минуту. В тестовом режиме одна из линий работает на скорости 2100 м/мин. Её можно разогнать до 2500 м/мин. А вообще это не предел — на зарубежных заводах скорость приближаются к порогу в 3000 м/мин., но там и объёмы другие. Ускорение процесса зависит в первую очередь от эффективности охлаждения и числа УФ-ламп, а также приёмников волокна. На этом путь оптоволокна вовсе не заканчивается. Впереди ещё перемотка с большой катушки на малые (обычно на них умещается 25-50 км волокна) с дополнительным натяжением и тестированием на дефекты порядка одного микрона. Далее идут тесты, связанные с оптическими и механическими параметрами продукции: длиной волокна в катушке; коэффициентом затухания; диаметром/некруглостью/концентричностью сердцевины, оболочки и обоих слоёв защитного покрытия; длиной волны отсечки; диаметром модового поля; хроматической дисперсией и так далее. Всего тестируется полтора десятка различных параметров. Но и это ещё не всё! После всех тестов катушки с волокном на четверо суток отправляются принимать азотно-дейтериевые ванны. Дейтерий образует OD-группы, препятствуя появлению OH-групп. Так что волокно, проще говоря, не мутнеет со временем и сохраняет свои свойства на протяжении 25 лет — именно такую гарантию даёт завод на свою продукцию. Правда, производители кабелей, которые и закупают волокно, дают уже существенно меньший гарантийный срок на изделия — это могут быть и 5 лет. ПродукцияГотовое одномодовое оптоволокно состоит из нескольких частей. В центре находится кварцевая сердцевина диаметром 8-10 мкм, именно она легирована германием. Вокруг неё — кварцевая же оболочка на 125 мкм. Всё это покрыто защитным слоем, так что итоговая толщина составляет 242 мкм. Опционально внешняя оболочка может быть окрашена в разные цвета: предлагается 8 вариантов, в том числе с рисунком. Окрашивание нужно лишь для удобства — при последующей сварке так гораздо проще отличить одно волокно от другого. Сейчас основная продукция завода — это волокна стандарта G.652D и его изгибостойкого варианта G.657A1. Помимо упомянутых выше многомодовых версий и вариантов специального назначения, есть и опытные образцы волокон толщиной 200 мкм (требования к ним те же, что и для 242-мкм). Они актуальны для европейских заказчиков — в Европе в канализации уже просто не хватает места, поэтому большее число волокон при том же сечении кабеля крайне важно. Основными потребителями оптоволокна являются кабельные заводы, реже — очень крупные телеком-операторы. Сейчас продукция поставляется трём заводам в ЕАЭС и ещё с семью налаживаются отношения, а около четверти продукции экспортируется в Италию, Великобританию, Австрию, Чехию, Польшу, Нидерланды — для европейских стран важна логистика и быстрая доставка, в течение недели. Экспорт идёт и в США, Китай, Пакистан, Индию. Быть или не быть?Правда, структура сбыта поменялась — в первые годы упор был на экспорт (98%), сейчас же осваивается отечественный рынок. Связано это с непростой экономикой рынка. Общая мощность производства оптоволокна в мире составляет около 300 млн км в год. Но потребление его неравномерно. В частности, приводятся данные о том, что в России протяжённость оптоволоконных линий связи на душу населения в 4-5 раз меньше, чем в США, Южной Корее и Японии. Ещё один крупный, но непростой регион — Китай. Там, с одной стороны, правительство ещё 15 лет назад ввело заградительные пошлины, а с другой — были масштабные программы по развитию FTTx и 4G-сетей, которые привели к строительству новых заводов и резкому увеличению объёмов производства волокна. Прямо сейчас наступило затишье перед внедрением 5G, поэтому китайские вендоры готовы продавать волокно даже себе в убыток — по $5/км, тогда как среднерыночная цена составляет $7/км, а в 2017 году она была на уровне $10/км. Такая ситуация, к слову, стала поводом для обращения в ФАС, так как есть опасения, что Corning, крупнейший производитель волокна в мире (60-70% рынка), вынудил кабельные заводы подписать долгосрочные контракты, и поэтому даже сейчас они не берут дешёвое, но достаточно качественное китайское волокно, не говоря уж об российском. Ситуация осложняется ещё и тем, что, в отличие от кабелей, оптоволокно не является конечным продуктом, а потому под различные льготы и преференции в области импортозамещения не подпадает. К тому же любая перенастройка или обновление линий и материалов приводит к необходимости дополнительных тестов и прохождения сертификации у заказчиков, чего, кстати, с зарубежными поставщиками почему-то не происходит. Есть и другие аспекты. В целом же руководство завода считает, что выбранный путь развития — постепенное освоение различных этапов полного цикла производства, которое продолжается до сих пор, и (пере)ориентация на нужные рынки — оказался верным. Попутно происходит и постепенная локализация, которая сейчас составляет около 50 %: если уж оборудование нужного класса в России не создаётся, то хотя бы материалы и вспомогательные компоненты вроде тех же катушек уже можно частично получать не у иностранных компаний. И всё же очень странно, конечно, осознавать, что такое предприятие — единственное в России. Хотя, казалось бы… Обзор дисков Seagate IronWolf: SSD и HDD для NAS
29.06.2019 [00:00],
Илья Коваль, Валерий Косихин
Серия накопителей IronWolf создана Seagate специально для использования в составе NAS. Накопители этой серии снабжены функцией IronWolf Health Management (IHM), которая в случае совместимости с ОС NAS (заявлена поддержка всех популярных решений) предоставит расширенный мониторинг состояния системы и дисков и позволит настроить автоматическое резервное копирование, чтобы сохранить важные данные при выявлении каких-либо проблем. Серия IronWolf состоит из моделей двух типов: IronWolf и IronWolf Pro. По названию несложно догадаться о позиционировании этих продуктов на рынке. Жёсткие диски IronWolf ориентированы на использование в NAS для личных нужд и SOHO-систем. Накопители IronWolf Pro подойдут малому и среднему бизнесу, а также профессионалам в области создания и обработки «тяжёлого» мультимедийного контента. Для той же группы пользователей Seagate предлагает и твердотельные накопители IronWolf SSD как решения для оптимизации и ускорения работы NAS. Для крупных предприятий и ЦОД Seagate предлагает уже другую серию накопителей — Exos. Она ориентирована на круглосуточную работу с действительно огромными объёмами данных. В обеих сериях в начале июня состоялось пополнение — Seagate представила 16-Тбайт накопитель Exos X16 и накопители IronWolf (Pro) такой же ёмкости. Seagate IronWolf 110 SSDДля экспериментов по использованию SSD в составе NAS мы взяли твердотельный накопитель компании Seagate. Почему? Очень просто: этот производитель теперь предлагает специализированные накопители, предназначенные именно для сетевых дисковых хранилищ. И в этом нет ничего странного: активное снижение цен на твердотельные накопители приводит к тому, что сфера их применения постепенно расширяется. Накопители на флеш-памяти уже давно используются в системах хранения корпоративного уровня, но извлечь пользу из применения подобных решений вполне может и небольшой бизнес, и даже домашние пользователи. Полностью переводить NAS на твердотельные накопители, может, все ещё достаточно накладно, однако их можно применять в качестве кеширующих накопителей для ускорения работы сетевых дисковых массивов, построенных на базе HDD. IronWolf 110 SSD — этот как раз и есть модель, которую производитель определяет как первый в мире твердотельный накопитель для сетевых хранилищ. Такие накопители выполнены в 2,5-дюймовом форм-факторе и имеют традиционный интерфейс SATA. Модельный ряд представлен широким диапазоном объёмов — от 240 Гбайт до 3,84 Тбайт. Безусловно, в NAS вполне допустимо использовать и обычные твердотельные накопители потребительского уровня. Однако преимущество IronWolf 110 SSD заключается в том, что с точки зрения «начинки» он относится к классу корпоративных носителей информации. Это находит отражение в дополнительных специализированных алгоритмах, обеспечивающих минимизацию числа ошибок при работе с данными, с одной стороны, и увеличивающих надёжность и продлевающих время жизни — с другой. В случае накопителя Seagate ключевая технология носит название DuraWrite, и это название наверняка покажется знакомым многим, кто следит за развитием рынка SSD. Раньше технология с таким названием присутствовала в SSD, построенных на контроллерах SandForce, и именно она же теперь реализована в IronWolf 110 SSD. Дело в том, что в 2014 году компания Seagate приобрела SandForce, и контроллеры, используемые в её накопителях, действительно базируются на технологиях этого разработчика. Суть DuraWrite, напомним, заключается в предварительной компрессии помещаемых в флеш-память данных. За счёт этого достигается увеличение ресурса накопителя. В частности, для IronWolf 110 SSD производитель гарантирует ресурс на уровне 1 DWPD, то есть в рамках пятилетней гарантии разрешено ежедневно полностью перезаписывать весь объём SSD. При этом IronWolf 110 SSD основывается на стандартной 64-слойной TLC 3D NAND, выпущенной компанией Toshiba, которая поставляется Seagate по долгосрочному контракту, заключенному между компаниями. Стоит упомянуть, что ресурс на уровне 1 DWPD всё-таки ниже ресурса накопителей, которые обычно предлагаются для серверного рынка. Однако производитель утверждает, что в сценариях, типичных для NAS, операции чтения преобладают над записью, поэтому относительно пригодности IronWolf 110 SSD в качестве решения для сетевых хранилищ сомневаться не нужно. Любопытно, что IronWolf 110 SSD основывается на точно такой же аппаратной базе, как и более тяжеловесный твердотельный накопитель компании Seagate, Nytro серии 1000, нацеленный на корпоративный сегмент. Однако в IronWolf 110 SSD заложены существенные отличия на уровне микропрограммы. Эта модель имеет специальный код AgileArray, который не только оптимизирован для постоянной многопользовательской нагрузки, характерной для NAS, но и поддерживает специальные расширения. В частности, утилиту мониторинга и резервного копирования NAS Health Management, совместимую с основными операционными системами, используемыми в составе распространённых моделей NAS. Кеширование операций в сетевых хранилищах, собранных на основе механических жёстких дисков, зачастую имеет первоочередной смысл там, где используются скоростные сетевые подключения, например с пропускной способностью 10 Гбит/с. Именно в таких случаях добавление кеша из IronWolf 110 SSD может поднять отзывчивость NAS на новый уровень. Производительности такого SSD, даже несмотря на то, что в нём используется SATA-интерфейс, должно быть более чем достаточно. Накопители этой серии с ёмкостью более 480 Гбайт имеют свойственные добротным SATA SSD характеристики быстродействия. Мы же получили возможность подробно познакомиться с моделью накопителя ёмкостью 240 Гбайт. Это – наиболее медленная версия среди представителей серии IronWolf 110 SSD, и она, к сожалению, не обеспечивает полной утилизации пропускной способности SATA при операциях записи. Поэтому её реальные показатели производительности выглядят следующим образом. ![]() Однако не стоит считать скорость IronWolf 110 SSD при записи слишком низкой. Да, скоростные характеристики потребительских моделей в CrystalDiskMark действительно обычно бывают выше, но это связано с особенностями накопителя Seagate. Дело в том, что в нём реализована очень специфическая технология SLC-кеширования, проявляющаяся лишь при случайных мелкоблочных операциях. А это значит, что те показатели быстродействия при линейной записи, которые приведены на скриншоте, – это скорость прямой работы контроллера с массивом TLC-памяти. Для решения, направленного на кеширование операций в NAS, отказ от привычных алгоритмов SLC-кеширования – исключительно правильный выбор, поскольку благодаря этому IronWolf 110 SSD может предложить высокую стабильную производительность при долговременных нагрузках. При этом не стоит всё-таки забывать о том, что контроллер IronWolf 110 SSD разрабатывался инженерами SandForce и сохранил привычные черты решений семи-восьмилетней давности. А именно, несмотря на то, что теперь в основе накопителя используется TLC-память и его аппаратная платформа обрела выделенный DRAM-буфер на основе DDR3-1866, его производительность всё равно сильно зависит от того, с данными какого характера выполняются операции. Технология сжатия DuraWrite увеличивает быстродействие при записи в том случае, если поступающие файлы удаётся хорошо сархивировать, но оказывается бессильна на несжимаемых (предварительно сжатых) файлах. В результате скорость записи IronWolf 110 SSD может «плавать» в процессе работы, и этот эффект нужно иметь в виду. Проиллюстрировать его можно следующим графиком, на котором показана зависимость скорости последовательных операций от степени сжимаемости данных, с которыми выполняются операции. ![]() Впрочем, главное оружие IronWolf 110 SSD кроется всё же не в показателях производительности, а в программных оптимизациях под применение в NAS. С параметрами тестового стенда можно ознакомиться в обзоре Synology RackStation RS1619xs+. Часть тестов — с двумя клиентами в первую очередь — представлена именно в нём. В качестве базового набора дисков использовались штатные и, строго говоря, уже не самые современные накопители Seagate Constellation CS ST3000NC002 (3 Тбайт, 64 Мбайт кеш, 7200 RPM, SATA III), которые несколько лет участвуют в тестах сетевых хранилищ. Конкуренцию им составят три HDD Seagate IronWolf. В обоих случаях жёсткие диски были собраны силами NAS в массив RAID5. ![]() Отдельно в качестве кеширующего диска к массиву HDD IronWolf был добавлен Seagate IronWolf SSD 110. Обратим внимание на несколько моментов. Во-первых, по-хорошему, для полноценного кеширования чтения и записи надо иметь минимум два SSD, а у нас есть только один. Во-вторых, согласно рекомендациям производителя NAS, кеширование последовательных операций ввода-вывода было отключено. Поэтому на графике последовательной нагрузки в IOMeter — параметры теста те же, что и для SSD в составе ПК — данные о работе с кешем не приведены. В-третьих, для одного клиента всё, по большому счёту, упирается в скорость проводного соединения, и хоть что-то можно заметить только на мелких случайных операциях. И, честно говоря, было бы гораздо интереснее увидеть работу all-flash-array на этих накопителях, то есть набрать массив исключительно из SSD IronWolf. Благо в серии есть модели ёмкостью 4 Тбайт. ![]() Seagate IronWolf HDDВ последние годы мы уделяем жестким дискам куда меньше внимания по сравнению с твердотельными накопителями. Это совсем не удивительно, ведь с тех пор, как у большинства пользователей появилась возможность установить SSD в десктоп или ноутбук, механические устройства больше не применяют для запуска ОС и рассматривают лишь как хранилище холодных данных. Быстродействие различных моделей HDD в таком качестве не вызывает особенного интереса. С другой стороны, и объем, которого достигли жесткие диски в 3,5-дюймовом форм-факторе, явно превышает запросы большинства владельцев настольных ПК или домашних сетевых хранилищ. Другое дело — коммерческие задачи: в офисных NAS и тем более стоечных СХД всегда востребована дополнительная плотность размещения данных. Эту сферу традиционно обслуживают жесткие диски enterprise-категории, обладающие максимально высокими характеристиками быстродействия и отказоустойчивости. Но с тех пор как в каталоге производителей HDD появились модели, ориентированные на отдельно стоящие сетевые хранилища, которые поначалу представляли собой вариант «зеленых» винчестеров с пониженной скоростью вращения шпинделя, граница между дисками для NAS, с одной стороны, и бескомпромиссными серверными моделями, с другой, отчасти стирается. HDD для сетевых хранилищ производятся на основе того же аппаратного шасси, что и корпоративные 3,5-дюймовые модели (т. н. nearline-накопители), и между ними, как правило, нет разницы по максимальному объему на шпиндель, а по некоторым ключевым параметрам быстродействия различия не очень велики. Сегодняшние HDD для NAS вполне могут заменить устройства корпоративного класса в СХД со сравнительно небольшим числом дисковых корзин и при умеренных требованиях к ресурсу износа. С точки зрения аппаратной платформы жесткие диски под маркой IronWolf и IronWolf Pro вобрали в себя самые передовые технологии, которыми располагает Seagate на сегодняшний день. Так, в этих сериях появились винчестеры объемом 14 и 16 Тбайт с применением т. н. двухмерной магнитной записи (TDMR — Two-dimensional Magnetic Recording), которая в действительности представляет собой методику считывания дорожки при помощи двух головок одновременно. За счет этого возрастает соотношение «сигнал — шум» при чрезвычайно плотной компоновке доменов на магнитной пластине, ведь две старших модели в семействе IronWolf достигли высочайшего уровня полезной емкости пластины — 1750–1778 Гбайт. Однако одной лишь плотности записи пока недостаточно, чтобы довести совокупный объем накопителя до 14–16 Тбайт. Разработчики HDD продолжают совершенствовать механику дисков, которая за счет более тонких пластин и уменьшенного зазора между ними позволила разместить в стандартном 3,5-дюймовом корпусе с гелиевым наполнением вплоть до девяти «блинов». Любые диски серии IronWolf, начиная с объема в 4 Тбайт, имеют ряд общих аппаратных особенностей, влияющих на отказоустойчивость. Так, блок магнитных пластин каждого винчестера индивидуально сбалансирован в двух плоскостях, а датчики вращательной вибрации обеспечивают стабильную работу в стоечной СХД или отдельно стоящем NAS с числом дисковых корзин вплоть до восьми. IronWolf рассчитан на умеренный режим эксплуатации с расчетной нагрузкой в 180 Тбайт/г и временем наработки на отказ (MTBF — Mean Time Between Failures) 1 млн часов. Производитель дает на устройство трехлетнюю гарантию. Для более ответственных случаев у Seagate есть серия IronWolf Pro, в которой максимальная нагрузка увеличена до 300 Тбайт/г, параметр MTBF — до 1,2 млн часов, а срок гарантийного обслуживания — до пяти лет. Кроме того, в отличие от стандартных дисков IronWolf, диски Pro-серии допускают установку в 24-корзинные СХД. И наконец, максимальной плотности хранения данных в стойке позволяют добиться диски Seagate Exos. Расчетная нагрузка у моделей этой марки составляет 550 Тбайт/г, наработка на отказ — 2,5 млн часов, и нет ограничений на число корзин. К тому же только в семействе Exos есть устройства с интерфейсом SAS 12 Гбит/с, функцией сквозного шифрования и нативным доступом к 4-килобайтной разметке секторов. Хотя в сериях IronWolf и IronWolf Pro Seagate уже достигла объема в 16 Тбайт — а это на сегодняшний день максимальный результат с применением технологии перпендикулярной магнитной записи, жесткие диски столь высокой емкости еще не фигурировали в обзорах на 3DNews и Servernews (впрочем, в данный момент мы работаем над сравнительным тестом HDD объемом 14 Тбайт). Для знакомства с современными винчестерами Seagate для сетевых хранилищ нам прислали образец IronWolf на 12 Тбайт. Он построен на иной версии шасси с герметичным корпусом и содержит восемь пластин полезной емкостью 1500 Гбайт (в такой конфигурации еще не требуется использовать TDMR). Однако по тем индикаторам быстродействия, которые указал производитель в паспортных данных, три старшие модели IronWolf объемом 12, 14 и 16 Тбайт не отличаются друг от друга: при скорости вращения шпинделя 7200 об/мин максимальная устойчивая скорость произвольного чтения/записи у всех из них составляет 210 Мбайт/с.
Что касается стоимости, то специализированные HDD для NAS всегда пользуются большим спросом и продаются в рознице по более высоким ценам, чем устройства, рассчитанные на другие сценарии использования. Так, за диск IronWolf объемом 12 Тбайт придется отдать не менее $420 (на американской площадке newegg.com) или 26 145 руб. (по данным market.yandex.ru), в то время как нижний предел ценового диапазона для HDD такой емкости составляет $350 и 22 062 руб. Примечательно, что выбором за минимальную сумму в данном случае является не что иное, как Seagate Exos X12 — накопитель с принципиально лучшими параметрами отказоустойчивости и пятилетним сроком гарантийного обслуживания, и такую парадоксальную ситуацию на рынке HDD мы наблюдаем уже не в первый раз. В объеме 14 Тбайт у IronWolf тоже есть более дешевые аналоги из категории серверных nearline-дисков, а вот модель на 16 Тбайт уже является самым доступным предложением среди немногочисленных HDD столь высокой емкости — как и предполагает рыночное позиционирование серии IronWolf. Методика тестирования Изолированные тесты производительности Выполняются с помощью программы Iometer 1.1.0. Объем и скорость передачи данных указывается в бинарных единицах (1 Кбайт = 1024 байт). Границы блоков в операциях произвольной записи выровнены относительно разметки по 4 Кбайт.
Тесты эмуляции приложений
Участники тестирования
Основные параметры производительности Последовательное чтение/запись Для сравнения с Seagate IronWolf в тестах производительности мы взяли два накопителя объемом 10 Тбайт — Toshiba S300 и Seagate Exos X10. Среди жестких дисков высокой емкости эти модели идеально подходят для того, чтобы оценить рабочие параметры NAS-овского винчестера Segate: в них используются магнитные пластины с сопоставимой плотностью записи, а микропрограмма также рассчитана на эксплуатацию в многопользовательской среде, но нельзя ставить их в один ряд. Диски корпоративного класса рассчитаны на круглосуточную работу с колоссальными объемами данных в гипермасштабируемых средах и ЦОД, где от накопителей требуется низкое энергопотребление и стабильно высокая производительность, в то время как диски серии IronWolf предназначены для домашних офисов и малых предприятий, у которых данных для обработки по определению меньше и для которых уровень энергопотребления не столь критичен. Действительно, IronWolf объемом 12 Тбайт лишь ненамного превосходит 10-терабайтные аналоги по скорости линейного доступа — дополнительная пластина в данном тесте не приносит ему никаких преимуществ. Впрочем, плотность записи около 1500 Гбайт на одну пластину обеспечивает чрезвычайно высокий уровень пропускной способности в абсолютных показателях. Результат 240 Мбайт/с приближает IronWolf к винчестерам форм-фактора SFF, вращающими шпиндель со скоростью 10 тыс. об/мин. Указав 210 Мбайт/с в паспортных характеристиках, Seagate явно дала этому устройству слишком скромную оценку. ![]() Произвольное чтение/запись По скорости произвольного доступа в операциях за секунду IronWolf 12 Тбайт уступает обеим моделям меньшего объема, и если в бенчмарке чтения блоков мы не нашли существенной разницы между IronWolf и Toshiba S300, то в тесте записи на отставание накопителя Seagate для NAS уже нельзя не обратить внимание.
![]() Расширенный анализ производительности Время отклика По сравнению с другими участниками тестирования Seagate IronWolf объемом 12 Тбайт испытывает более длительные задержки при одиночном доступе к мелким блокам данных. Впрочем, если отбросить результаты Seagate Exos X10, то IronWolf и Toshiba S300 не так уж сильно различаются по реакции актуатора и скорости DRAM-буфера, которые оценивают эти тесты. По-видимому, определенный дефицит быстродействия IronWolf в нагрузке с длинной очередью команд вызван скорее особенностями микропрограммы, нежели несовершенством аппаратных компонентов устройства. ![]() Зависимость пропускной способности от длины очереди команд Накопители с интерфейсом SATA в силу ограничений протокола не могут наращивать количество операций за секунду при попытке увеличить очередь команд свыше 32. Результаты быстродействия в верхней точке кривой соответствуют тому, что мы уже видели в упрощенном тесте произвольного чтения/записи, — IronWolf 12 Тбайт существенно уступает nearline-модели Seagate Exos X10 и незначительно отстает от Toshiba X300. При коротких очередях конкурирующие модели HDD для NAS уже невозможно отличить друг от друга, но Exos X10 по-прежнему работает более эффективно. ![]() Смешанное чтение/запись Смешанная нагрузка — вот где IronWolf по-настоящему засиял. NAS-овский и серверный жесткие диски Seagate идут практически вровень и оставляют Toshiba S300 далеко позади, как только система выходит из ситуации с чистым чтением или записью. ![]() Многопоточное чтение/запись Как подобает всякому накопителю, предназначенному для работы в СХД, IronWolf честно выполнил задачу чтения в несколько потоков без попытки выделить приоритет какому-либо из них. Вместе с тем микроконтроллер диска эффективно планирует перемещения актуатора для того, чтобы выжать максимум пропускной способности в тесте, столь сильно зависимом от реакции механики HDD. Seagate Exos X10 справляется с этой нагрузкой еще более успешно, а вот Toshiba S300 уже не идет с IronWolf ни в какое сравнение. ![]() При многопоточной записи данных определяющее значение имеет эффективное использование DRAM-буфера — в этом IronWolf оказался ничуть не хуже, чем серверный Exos X10, и опять-таки радикально превосходит возможности Toshiba S300. ![]() Постоянство времени отклика Результаты IronWolf при чтении блоков в этом тесте лишь дополняют ту картину, которую мы увидели в самых первых бенчмарках. Диск Seagate незначительно уступает Toshiba S300 не только по средней пропускной способности, но и по дисперсии времени доступа.
![]() А вот в задаче записи блоков IronWolf пусть не отличается выдающимися показателями среднего и максимального времени доступа, но зато продемонстрировал весьма небольшой разброс этого параметра по сравнению с Toshiba S300. Впрочем, серверный Exos X10 гораздо лучше оптимизирован с расчетом на постоянство производительности, будь то преимущественно чтение или запись, чем оба накопителя для NAS.
![]() Эмуляция рабочих приложений Жесткие диски (за исключением, пожалуй, 2,5-дюймовых SFF-моделей) уже не принято использовать для высоконагруженных СХД. Тем не менее по быстродействию в трех тестах, эмулирующих приложения, по-прежнему актуальные для магнитных накопителей (база данных, файловый сервер и рабочая станция), IronWolf стоит гораздо ближе к nearline-диску Seagate Exos X10, нежели к Toshiba S300 — последний для таких задач явно не годится. ![]() ![]() ![]() ![]() PCMark 8 Покупателям HDD большого объема для эксплуатации в качестве вторичного хранилища настольного ПК будет интересно узнать, что типичные десктопные приложения не видят практически никакой разницы между IronWolf и Exos X10, а вот Toshiba S300 для этой цели явно не будет лучшим выбором. ![]() ВыводыМагнитные накопители Seagate IronWolf для NAS имеют много общего с серверными моделями Seagate Exos — у них такое же аппаратное шасси с технологией компенсации вращательной вибрации, высокие показатели быстродействия и допускается работа в «полках» на восемь дисковых корзин. По профилю быстродействия в различных типах задач винчестер IronWolf объемом 12 Тбайт, который мы протестировали, также сильно напоминает аналоги под маркой Exos. Высокая плотность записи на магнитных пластинах IronWolf HDD гарантирует соответствующую пропускную способность в операциях с линейным доступом к данным — фактически на уровне твердотельного IronWolf объемом 256 Гбайт, когда речь идет о записи блоков. Жесткий диск отлично подходит для смешанной нагрузки с произвольным соотношением операций чтения и записи и неплохо справляется с обработкой запросов в несколько потоков. Тем не менее диски корпоративного класса рассчитаны на круглосуточную работу с колоссальными объемами данных в гипермасштабируемых средах и ЦОД, где от накопителей требуется стабильно высокая производительность, в то время как диски серии IronWolf предназначены для домашних офисов и малых предприятий, у которых данных для обработки по определению меньше. Единственный изъян, который мы нашли в нашем образце HDD IronWolf, как раз таки иллюстрирует это различие — у него не слишком выдающееся время реакции и, соответственно, пропускная способность в операциях за секунду при случайном чтении и записи блоков. Но в целом это не мешает применять IronWolf не только в домашних NAS и для хранения бэкапов, но и в более требовательных сценариях — таких как файловый север или вторичное хранилище в рабочей станции. Что касается SSD Seagate IronWolf 110, то это твердотельный накопитель, который не ставит рекорды быстродействия, но зато оптимизирован для решения конкретной задачи — работы в составе NAS. Здесь он способен почувствовать себя как рыба в воде, главным образом за счёт специальной микропрограммы AgileArray, которая оптимизирует работу хранилища в условиях круглосуточной нагрузки и в многопользовательских средах, а также за счёт использования специальной аппаратной платформы серверного уровня с повышенной надёжностью. Тем не менее не следует забывать, что IronWolf 110 — это накопитель, построенный на технологиях SandForce c системой сжатия DuraWrite со всеми её традиционными плюсами и минусами. Обзор Synology RackStation RS1619xs+: NAS для бизнеса от мала до велика
13.06.2019 [18:00],
Илья Коваль
Впервые с малыми стоечными x86-решениями компании мы познакомились около года назад в обзоре Synology RS818+ — четырёхдискового NAS высотой 1U. В этот раз до нас добралась модель RS1619xs+. Она тоже рассчитана на установку четырёх дисков и сделана на базе почти идентичного 1U-шасси. Но если 818-ю модель ещё можно было отнести к SOHO-решениям, то вот версия 1619 всё же ближе к SMB. В первую очередь благодаря вычислительной мощности, так как в данной модели используется не Intel Atom, а Xeon D-1527 (4/8; 2,2/2,7 ГГц; L3 6 Мбайт). В базовой комплектации установлено 8 Гбайт DDR4-2133 ECC UDIMM, но объём памяти можно увеличить до 64 Гбайт — всего на плате разведено четыре слота. Кроме того, данная модель отличается поддержкой двух NVMe/SATA-накопителей M.2-2280 и возможностью установки низкопрофильной карты расширения PCI-E 3.0 x8. А ещё RS1619xs+ оснащена двумя — резервирование 1+1 — блоками питания мощностью 156 Вт каждый. Блоки питания расположены в задней части корпуса — их можно быстро поменять, просто вытащив из гнёзд. Оба снабжены собственными кулерами, а вот охлаждением всего шасси в целом занимаются два высокоскоростных кулера: 16000 RPM, статическое давление 39 мм вод. ст., поток 25,9 CFM, уровень шума 51,5 дБА. Оперативная память и процессор с радиатором от недостатка воздуха страдать вряд ли будут. На заднюю панель выведены и все основные разъёмы: консольный порт, четыре гигабитных Ethernet-порта RJ45, два порта USB 3.0, а также порт для подключения внешней дисковой полки. В числе совместимых пока указана только 12-дисковая модель серии RX1217. А для слота PCI-E компания предлагает в качестве опции расширения сетевые карты, в том числе двухпортовые 10GbE-модели, хотя ими список карт не ограничивается. В комплекте поставляются, помимо стандартной бумажной документации, только наборы винтов (запасные есть), ключ для дисковых лотков, кабели питания и «ушки». Направляющие придётся докупить отдельно или использовать уже имеющиеся, так как по габаритам и массе шасси ничем особенным не выделяется: 44 × 480 × 519 мм и 8,2 кг. Верхняя крышка крепится на четырёх винтах и легко снимается, открывая доступ к довольно просторным внутренностям NAS. Там, наверное, стоит обратить внимание только на конструкцию слотов: карта PCI-E может частично нависать над модулями M.2. Наконец, последний элемент шасси — дисковая корзина — нам тоже уже знаком по модели RS818+. Лотки всё так же сделаны из решётчатой жести, имеют замочек и позволяют установить 3,5” и 2,5” SATA-накопители. Список проверенных и совместимых моделей дисков приведён на сайте производителя. Такой же список есть и для M.2-устройств, которые в первую очередь пригодятся для кеширования. Индикаторы состояния дисков в корзине выведены на фронтальную часть. Там же находятся кнопки питания и отключения звукового уведомления, а также стандартные индикаторы: питания, состояния системы, предупреждения.
Впрочем, мы прекрасно знаем, что без ПО это всего лишь неплохой x86-сервер начального уровня. С ключевым компонентом продуктов Synology — DiskStation Manager (DSM) — мы уже неоднократно знакомились (например, в том же обзоре RS818+ или в тесте DS418play). Поэтому отдельно останавливаться на базовых функциях не будем. В случае с RS1619xs+ используется самая последняя LTS-версия DSM 6.2, которая получила несколько важных дополнений: увеличенный до 2023 года срок поддержки и выпуска обновлений; интеллектуальную систему апдейтов и новый менеджер пакетов; улучшения системы миграции и синхронизации; совершенно новую подсистему iSCSI и так далее. В общем, в DSM 6.2 есть целый ряд нововведений, связанных с комплексным увеличением безопасности, надёжности, быстродействия и управляемости NAS Synology. Настройки Synology RackStation RS1619xs+
Каталог приложений
От себя лично добавим, что, наконец, появилась опция управления активностью работы с массивом (фактически это настройка приоритета mdadm), которая позволяет или ускорить синхронизацию массива, или, наоборот, минимизировать влияние этого процесса на всю систему в целом. По умолчанию включён именно последний вариант, и именно с ним производилось тестирование NAS. В галерее выше приведены остальные настройки и параметры DSM для теста. Впрочем, ничего особенного там нет. Для базовых бенчмарков использовался набор из четырёх Seagate Constellation CS ST3000NC002 (3 Тбайт, 64 Мбайт кеш, 7200 RPM, SATA III), собранных сначала в RAID1, а потом в RAID5. Поверх массива был создан Btrfs-том c общей SMB-директорией, а также том для iSCSI. Мониторинг Synology RackStation RS1619xs+
На конечных результатах это сказалось несильно, так как основной клиентской машиной был ПК со следующими характеристиками: Intel Core i5 6600K, 32 Гбайт RAM, NVMe SSD GOODRAM IRDM Ultimate, Intel I219-V, Windows 10 Home 1809. Дополнительный клиент: Intel Core i7 3770, 16 Гбайт RAM, SATA SSD GOODRAM Iridium Pro, Realtek RTL8168, Windows 7 SP1 x64. Для одного клиента всё по факту упиралось именно в гигабитное подключение, но для двух итоговая суммарная скорость уже не всегда была ограничена сверху только пропускной способностью двух гигабитных клиентов, причём подключённых к двум разным портам самого NAS и работающих с двумя разными общими папками. Но дело тут не только в NAS, но и в самих дисках. В качестве альтернативной конфигурации мы собрали массивы с использованием более современных накопителей Seagate IronWolf ST12000VN0007 (12 Тбайт, 256 Мбайт кеш, 7200 RPM, SATA III), а также для пробы и Seagate IronWolf SSD 110 ZA240NM10001 (240 Гбайт, 3D TLC, SATA III) в качестве кеширующего диска. Более подробно с ними можно будет познакомиться в отдельном обзоре дисков Seagate IronWolf. Впрочем, на практике вся разница нивелировалась именно сетевой частью. Если отдельно смонтированный SSD ещё показывал превосходство над таким же единичным HDD (в особенности на больших объёмах), то в случае массива RAID1/5 — что из старых дисков, что из новых — отличия в скорости уже были несущественными. В соответствии с рекомендациями, кеширование последовательного ввода-вывода было отключено, так как оно и без ухищрений достаточно быстрое. С одним SSD в данном случае особо не развернёшься — его можно использовать только для кеширования операций чтения. Фактически он просто образует массив нулевого уровня с основным HDD-массивом. Для организации кеширования и чтения, и записи из соображений надёжности требуется минимум два SSD (но не более 12), которые можно подключить только к массивам RAID1/5/6. Кроме того, есть ещё один нюанс — на каждый гигабайт ёмкости кеширующего SSD система забирает около 416 Кбайт RAM, но суммарно не более четверти от общего объёма оперативной памяти. Для оценки необходимого для текущих нагрузок размера кеша есть отдельный инструмент SSD Cache Advisor, который анализирует частоту обращений к тем или иным данным и классифицирует их как горячие/тёплые/холодные/архивные (hot/warm/cold/archived). При этом учитываются данные и в сетевых папках, и в LUN’ах. Настройки SSD-кеширования
Synology Active Backup for Business В целом Synology RackStation RS1619xs+ — это действительно мощное и масштабируемое решение для малых предприятий и корпоративного сектора. Однако мы-то знаем, что просто в качестве файлохранилища такую мощь расходовать неразумно. Вся сила DSM в приложениях, причём конкретно для бизнес-задач у Synology есть ряд готовых решений, к тому же бесплатных. И раз уж мы заговорили именно о бизнесе, то нельзя не упомянуть о, пожалуй, наиболее интересном расширении функциональности, связанном с резервным копированием — естественно, с глобальной дедупликацией и офсайт-бэкапом. Речь идёт о целой серии приложений: Active Backup for Business, Active Backup for Office 365, Active Backup for G Suite и HyperBackup. Synology HyperBackup
HyperBackup позволяет делать резервные копии файлов с основного хранилища на другой NAS Synology, а также на целый ряд сетевых и облачных сервисов, включая как локальные rsync/WebDAV/Swift, так и несколько облачных. Среди cloud-площадок есть все ключевые игроки этого рынка, да и сама компания предлагает собственное решение Synology C2 Backup. Оно, к слову, весьма недорогое и функциональное — есть система управления версиями, защита данных, поддержка множественных NAS. Причём учёт места ведётся только для последней копии, хотя откатиться можно к любой более ранней. Приложение-компаньон HyperBackup Vault нужно для работы с резервными копиями, полученными из других хранилищ Synology. А вообще доступ к копиям можно получить напрямую по SMB и AFP, а для удобства компания предлагает утилиту Hyper Backup Explorer для Windows, Mac OS и Ubuntu/Fedora. Для резервного копирования данных облачного хранилища, контактов, календаря и почты из сервисов Microsoft Office 365 и Google G Suite на NAS Synology есть утилиты с говорящими названиями Active Backup for Office 365 и Active Backup for G.Suite соответственно. Как и HyperBackup, оба приложения бесплатны. То же относится и к гораздо более функциональной утилите Active Backup for Business. Это универсальное решение для резервного копирования с системой управления версиямии глобальной дедупликацией (и последующим восстановлением, конечно) для клиентских ОС, физических и виртуальных машин, а также внешних файловых хранилищ. Оно позволяет консолидировать в одном месте все типичные для бизнеса задачи бэкапа, что на практике очень удобно. И именно оно обеспечивает непрерывность бизнес-процессов, которые могут пострадать в результате сбоев из-за заражения машин и неполадок с оборудованием. Для клиентских машин и серверов доступно как копирование отдельных томов, так и снятие образов целиком. Для Windows на текущий момент предлагается установка отдельного агента, который управляется со стороны NAS, а не клиента. Есть возможность массового развёртывания агентов и дальнейшее их централизованное обновление. Для минимизации трафика используется служба теневых копий (VSS), отслеживающая изменение блоков ФС. Восстановление систем из резервных копий возможно несколькими способами. Это и собственно извлечение отдельных файлов, и перенос томов, и создание образа восстановления на внешнем носителе. Для Windows Server также возможен запуск новой ВМ из образа на стороннем сервере или непосредственно на NAS, так как данная модель поддерживает Virtual Machine Manager. В скором времени обещана поддержка агентов для Linux. Файловый бэкап с SMB-хранилищ тоже умеет работать с VSS, если эта служба есть на конечном хосте. Альтернативный вариант — rsync версии не ниже 3.0. Поддерживаются три варианта резервного копирования файлов: простое зеркалирование, инкрементальный бэкап и создание индивидуальных копий при каждом бэкапе. Работать со всеми копиями и версиями файлов можно на специальном веб-портале, доступ к которому настраивается отдельно. То есть управлять архивами может выделенный администратор или группы пользователей, которым доступ к остальным настройкам и сервисам NAS совершенно необязателен. На портале имеется довольно удобная временная шкала для выбора конкретной версии бэкапа. Есть возможность скачивания и/или восстановления отдельных файлов. Это касается вообще всех хранимых копий, так как для работы с виртуальными машинами есть свои инструменты. Портал Active Backup for Business
И вот как раз работа с ВМ — это довольно простая и прелестная возможность Active Backup for Business. На текущий момент она умеет работать с VMware ESXi/vSphere, а в будущем появится поддержка Hyper-V. Всё взаимодействие с гипервизором осуществляется посредством API, так что никаких агентов внутри виртуальных окружений устанавливать не надо. На практике есть нюансы: резервировать ВМ можно и с API 6.7, а вот восстанавливать только с 6.5. Впрочем, сейчас это общее место для всех подобных решений. В любом случае управляться с бэкапом ВМ невероятно просто. Как и для любой другой задачи, в Active Backup for Business можно составить расписание, по которому будут делаться (и впоследствии удаляться) резервные копии. Но для ВМ есть ещё и опция запуска скриптов в процессе создания бэкапа. Это позволяет, например, приостановить работу приложений внутри ВМ или заставить их сохранить текущий рабочий набор данных, чтобы впоследствии при восстановлении из бэкапа они беспроблемно запустились. Настройка резервного копирования ВМ VMware в Active Backup for Business
Полное восстановление ВМ в vSphere
Восстановление возможно несколькими способами. Прежде всего, в live-режиме с минимальным простоем. Полное восстановление предлагает либо замену уже работающей ВМ новой и в нужном состоянии, либо создание клона ВМ с возможностью изменения некоторых настроек (как минимум сетевых, чтобы не было конфликтов). Но есть и альтернативный вариант — так называемое мгновенное (instant) восстановление. В этом случае ВМ из резервной копии можно развернуть либо непосредственно в гипервизоре VMM на NAS либо напрямую смонтировать в vSphere/ESXi по NFS имеющийся образ и запустить ВМ с него, чтобы не ждать, пока он скопируется на сервер. Всё это не требует каких-то особых знаний и умений от администратора бэкапов, так как операция восстановления сводится к простому пошаговому мастеру. Мгновенное восстановление ВМ
Заключение Говоря сухим языком пресс-релиза, Synology RackStation RS1619xs+ — это высокопроизводительный масштабируемый NAS-сервер в 1U-шасси, оптимизированный для предприятий малого и среднего бизнеса и позволяющий наращивать потенциал СХД на разных этапах в соответствии с потребностями потребителя. На практике всё так и есть: четырёхдисковая корзина и два слота M.2 NVMe обеспечат достаточные объём и скорости на начальном этапе развёртывания СХД. В дальнейшем рост потребностей можно легко удовлетворить, подключив ещё одну дисковую полку, а не покупая новое оборудование, — обновлённая аппаратная платформа позволит это сделать. Она же кроме собственно классических задач СХД и уже привычных сетевых и бизнес-сервисов также обеспечивает и виртуализацию. Помимо прочего последние версии ОС DSM конкретно для бизнес-задач бесплатно предлагают целый ряд служб резервного копирования и восстановления, способных обеспечить непрерывность работы IT-инфраструктуры и компании в целом, избавляя от расходов на приобретение дополнительных аппаратных и программных средств. |
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |