Теги → кластер
Быстрый переход

Фото дня: галактический кластер в созвездии Жирафа

Очередное завораживающее изображение простор Вселенной опубликовано на сайте Национального управления США по воздухоплаванию и исследованию космического пространства (NASA).

На снимке запечатлено скопление галактик MS 0735.6+7421, расположенное в созвездии Жирафа на расстоянии около 2,6 млрд световых лет от нас. Этот кластер примечателен тем, что в нём наблюдается одно из самых мощных (из известных) космических извержений — выброс раскалённого газа.

Обнародованное изображение представляет собой комбинацию снимков от космической рентгеновской обсерватории «Чандра» (синий цвет), радиотелескопа «Сверхбольшая антенная решётка» (красный цвет) и космического телескопа «Хаббл» (оранжевые объекты).

Добавим, что скопления галактик представляют собой гравитационно-связанные системы галактик: это одни из самых массивных структур во Вселенной. Они характеризуются диаметром в десятки миллионов световых лет и массой от 1013 до 1015 масс Солнца. 

AMD считает ускорители FirePro лучшими в своём классе

Когда речь идёт о профессиональных графических картах, многие автоматически вспоминают NVIDIA Qudro, однако в арсенале AMD есть не менее производительные и многофункциональные решения аналогичного класса. Поскольку компания испытывает ряд затруднений в секторе центральных процессоров и представит решения нового поколения не ранее 2016 года, ей, как неоднократно упоминалось, приходится активно маневрировать на других рынках. Не исключение и рынок профессиональных графических карт. Не так давно AMD опубликовала слайды, на которых сравниваются её профессиональные решения FirePro с решениями конкурента.

Как видите, Advanced Micro Devices не без оснований полагает, что её решения выгоднее, причём, речь идёт не только о чистой стоимости, но, как настаивает компания, и о производительности в пересчёте на доллар. Всё это так, но необходимо отметить, что AMD в данном случае умалчивает о ещё одном, не менее важном параметре, а именно — об уровне энергопотребления и тепловыделения, а мы знаем, что графические процессоры AMD текущего поколения имеют весьма горячий нрав. В итоге, выгода от оснащения мощных вычислительных кластеров ускорителями AMD может оказаться не столь уж высокой, если учитывать стоимость потребляемой электроэнергии и затраты на охлаждение. В случае с небольшими системами и рабочими станциями, впрочем, вопрос стоит не столь остро.

Также стоит упомянуть, что, говоря о решениях конкурента, AMD имеет в виду только те, в основе которых лежит новая архитектура Maxwell, а это, в профессиональном сегменте на сегодняшний день практически наверняка означает чип GM107. К примеру, в списке отсутствует флагманская Quadro K6000, которая построена на базе архитектуры Kepler, а также двухпроцессорный Tesla K80, да и FirePro W9100 почему-то не упоминается. Тем не менее, надо признать, что на рынке профессиональных ускорителей дела у AMD идут действительно неплохо — в частности, первое место в рейтинге энергоэффективных суперкомьютеров Green500 на данный момент принадлежит системе L-CSС, установленной центре по изучению тяжёлых ионов имени Гельмгольца (GSI Helmholtz Center), а она построена на базе ускорителей AMD FirePro S9150. Следовательно, энергоэффективность решений AMD FirePro достаточно высока. И это хорошо, поскольку компании сейчас важна каждая победа на любом из фронтов войны разработчиков процессоров и GPU.

Ubuntu Orange Box: компактный кластер на базе Intel NUC

Компании Tranquil PC и Canonical представили оригинальное устройство под названием Ubuntu Orange Box — компактный кластер, выполненный на основе мини-компьютеров Intel NUC.

Внутри ярко-оранжевого корпуса Ubuntu Orange Box расположены десять модулей NUC на аппаратной платформе Intel Ivy Bridge. Каждый из них содержит 22-нанометровый процессор Core i5-3427U с двумя ядрами, функционирующими на тактовой частоте 1,8 ГГц (повышается до 2,8 ГГц в турбо-режиме). В состав чипов входит интегрированный графический контроллер Intel HD Graphics 4000, а максимальное значение рассеиваемой тепловой энергии равно 17 Вт.

Кроме того, каждый блок NUC несёт на борту 16 Гбайт оперативной памяти, твердотельный накопитель ёмкостью 120 Гбайт и контроллер Gigabit Ethernet. Для охлаждения используется пассивная система; единственный вентилятор установлен на блоке питания.

Таким образом, Ubuntu Orange Box в общей сложности располагает 160 Гбайт ОЗУ и 1,2 Тбайт пространства на SSD-накопителях. Внутрь также установлен коммутатор D-Link DGS-1100-16. Роль программной платформы играет операционная система Ubuntu Server 14.04 LTS.

Предполагается, что Ubuntu Orange Box пригодится для локальной демонстрации возможностей новых сетевых сервисов и проведения разработок в области облачных платформ. Цена компактного кластера начинается с 9270 евро. 

В 2012 году IBM Blue Gene/Q преодолеет рубеж в 20 петафлопс

На сегодняшний день самым мощным суперкомпьютером в мире по праву является «K Computer», производительность которого превышает 10 петафлопс. Но если его разработчики не позаботятся о дальнейшем наращивании мощности, то уже в следующем году японскую систему сместить с трона может новое детище IBM – Blue Gene/Q.

 

 

Отметим, Blue Gene/Q попал в ноябрьскую редакцию рейтинга TOP500 под номером 17. Система включает 65536 процессорных ядер, функционирующих на тактовой частоте 1,6 ГГц. Его максимальная производительность составляет всего 677 терафлопс, что почти в 15 раз ниже достижения лидера. Но уже к 2012 году IBM пообещала увеличить производительность своей системы до 20 петафлопс!

Проект разворачивается на базе Национальной лаборатории имени Лоренца в Ливерморе. При достижении своей пиковой производительности суперкомпьютер окажет неоценимую помощь исследователям и инженерам.

Материалы по теме:

Источник:

Лаборатория I-SCALARE создала суперкомпьютер для биомедицины и фармакологии

В прошлом году доктор технических наук Владимир Мстиславович  Пентковский, известный разработчик и заслуженный исследователь Intel, совместно со специалистами Московского физико-технического института (МФТИ) представил на конкурс Министерства образования и науки программу по разработке программно-аппаратных архитектур, которые были бы максимально эффективны при решении сложных задач биоинформатики и фармакологии. На конкурс было подано более 500 заявок. Проект доктора Пентковского вошёл в число 40 победителей и получил грант в размере 150 млн руб. на создание лаборатории в МФТИ и проведение исследований.

 

Доктор технических наук Владимир Мстиславович Пентковский выступает на пресс-конференции по проекту I-SCALARE (THG.ru)
Доктор технических наук Владимир Мстиславович Пентковский выступает на пресс-конференции по проекту I-SCALARE
Логотип МФТИ

Главным направлением деятельности лаборатории суперкомпьютерных технологий для биомедицины, фармакологии и малоразмерных структур I-SCALARE является разработка проблемно-ориентированных архитектур вычислительных систем для задач, связанных с моделированием вирусов, клеточных  мембран, а также взаимодействия белков и внешних полей с клеточными мембранами — все они, по заявлению разработчиков, не могут быть решены на существующих архитектурах вычислительных кластеров.

 

Московский физико-технический институт

 

Логотип группы компаний РСК

Группа компаний РСК в рамках контракта с МФТИ разработала и установила пилотную систему, которая стала основой вычислительного кластера в лаборатории I-SCALARE. Новый суперкомпьютер основан на архитектуре «РСК Торнадо», впервые продемонстрированной на европейской отраслевой выставке ISC в Гамбурге в июне 2011 года. «РСК Торнадо» — это суперкомпьютерное решение с жидкостным охлаждением для массово доступных стандартных серверных плат на базе процессоров Intel Xeon.

 

Директор по развитию корпоративных проектов корпорации Intel Николай Местер показывает пилотный кластер лаборатории I-SCALARE (THG.ru)
Директор по развитию корпоративных проектов корпорации Intel Николай Местер показывает пилотный кластер лаборатории I-SCALARE

На текущий момент пилотная кластерная система в МФТИ обладает производительностью в 2,5 Тфлопс и состоит из 16 вычислительных узлов, каждый из которых содержит по два высокопроизводительных процессора Intel Xeon 5680 с тактовой частотой 3,33 ГГц. На каждый узел приходится по 36 Гбайт оперативной памяти и система хранения данных ёмкостью 3 Тбайт. Коммуникационная сеть построена на базе высокоскоростного интерфейса Infiniband QDR. В дальнейшем в рамках планового расширения уже в этом году производительность вычислительного кластера МФТИ будет увеличена до 30 Тфлопс.

Вычислительный кластер обладает следующими особенностями:

  • экономическая эффективность;
  • простота, надёжность, компактность и масштабируемость;
  • возможность использования ускорителей архитектуры Intel MIC.
  • на охлаждение расходуется не более 20% энергопотребления;
  • коэффициент вычислительной эффективности составляет более 90% в тесте LINPACK;

 

Пилотный вычислительный кластер в лаборатории I-SCALARE

 

Биоинформатика и моделирование лекарственных препаратов являются одними из самых быстрорастущих областей, где существует острая необходимость использования высокопроизводительных вычислений на суперкомпьютерах.

В сотрудничестве с I-SCALARE учёные Института биоорганической химии проводят исследование взаимодействия ряда природных антибиотиков с определёнными видами клеточных мембран, что позволит выявить тонкие механизмы действия лантибиотиков и разработать подход к компьютерному конструированию нового класса молекул с заданным спектром антибактериальной активности.

Исследовательская группа химического факультета МГУ им. М. В. Ломоносова решает совместно с I-SCALARE задачу моделирования структуры и молекулярной динамики опасных для человека вирусов типа Flavivirus и процессов их взаимодействия с клетками организма. Изучение этих сложных молекулярных явлений позволит помочь в создании лекарств для лечения опасных вирусных заболеваний — клещевого энцефалита, лихорадки Денге, лихорадки Западного Нила, жёлтой лихорадки и т. д.

Проектная группа КИНТЕХ Лаб разрабатывает интегрированную модель взаимодействия электромагнитного излучения с клеточными тканями для описания  процессов образования пор и транспорта через них молекулярных веществ и наноструктур. Для этого методы атомистического моделирования интегрируются с моделями, описывающими распределение электромагнитного поля и температуры в масштабе всей клетки.

Материалы по теме:

Источник:

Intel продолжает заниматься кластерами на базе Atom

Согласно заявлениям Intel, компания не заинтересована в продвижении процессоров с низким потреблением из семейства Atom в серверном сегменте. В то же время, в питтсбургской лаборатории Intel продолжаются работы над проектом FAWN (Fast Array of Wimpy Nodes), представляющим собой вычислительный кластер на базе соединенных сетью миниатюрных системных плат, оснащенных процессорами Atom и твердотельными накопителями. В проекте участвуют также исследователи из Университета Карнеги-Меллона.

«Мощность становится существенным бременем» – сказал в интервью Майкл Камински (Michael Kaminsky), один из специалистов лаборатории Intel. Посредством проекта FAWN компания пытается «вдвое или втрое уменьшить энергопотребление на нагрузках с большим количеством данных». По словам Камински, исследователи движутся в нескольких направлениях. Одно их них – балансировка нагрузки, ключ к возможности масштабирования производительности в рамках кластера. Система хранения ключевых данных (key-value storage systems) FAWN-KV предусматривает использование одного или нескольких высокопроизводительных узлов, перераспределяющих нагрузку между собственно узлами кластера. Результаты исследования показывают, что предложенный подход позволяет добиться балансировки нагрузки и масштабирования производительности на относительно дешевом оборудовании.

Еще одно направление исследований, называемое WideKV, является поиском способов эффективной и консистентной репликации данных между многочисленными ЦОД – сообщает Intel. В дополнение к этому, лаборатория занимается изысканиями алгоритмов, которые могли бы улучшить производительность в рамках парадигмы параллельного программирования Map-Reduce, позволяющей проецировать вычислительные задачи на узлы кластера. Для ее наиболее эффективного применения в условиях «облака» узлов FAWN необходимо учитывать особенности аппаратного обеспечения. Так, использование преимущества в виде хорошей производительности SSD на операциях случайного чтения позволит дополнительно снизить уровень энергопотребления.

Проект FAWN изучает пути снижения требований к объему памяти, предъявляемых программным обеспечением и операционными системами. Большинство современных приложений не ориентированы на выполнение в условиях высокопараллельных вычислительных средств с ограниченными ресурсами – сказал Камински.

В то время, как основным путем для уменьшения энергопотребления ЦОД Intel и Advanced Micro Devices считают дальнейшее совершенствование своих серверных чипов, некоторые поставщики ищут альтернативные подходы к решению этой проблемы. Например, начинающая компания SeaMicro представила систему SM10000, содержащую 512 процессоров Atom. Совсем уж оригинальные варианты предлагают компании Tilera и Lyric Semiconductor, разрабатывающие мультиядерные чипы с собственной архитектурой, задуманные в качестве конкурентов процессорам Intel и AMD по количеству ядер, производительности и энергоэффективности.

Компания ARM, разработчик энергоэффективных процессоров для смартфонов и другой малогабаритной электроники, официально не продвигают свои чипы для использования в массовых серверах общего назначения. Вместе с тем, в ARM считают, что чипы на базе недавно представленной платформы Cortex-A15, предполагающей наличие до 16 ядер, могут найти применение в сетевых приложениях с высокой степенью параллелелизма. Можно предположить также появление нишевых серверных решений от небольших производителей на базе таких процессоров, появление которых ожидается в конце 2011- начале 2012 г.

Материалы по теме:

На Тайване построят вычислительный кластер в морском контейнере

Тайваньский Исследовательский институт промышленных технологий (Industrial Technology Research Institute, ITRI) планирует сформировать консорциум разработчиков для создания вычислительной системы в контейнере к концу следующего года. Об этом было объявлено на церемонии открытия Исследовательского центра облачных вычислений и мобильных технологий (Cloud Computing Research Center for Mobile Application, CCMA). К работе над "компьютером в контейнере 1.0" будут привлечены 4 или 5 партнёров.
Внутри контейнера ЦОД Microsoft
Под контейнером подразумевается стандартная металлическая ёмкость длиной 12 м, которая используется в частности в морских перевозках грузов. Внутрь исследователи рассчитывают поместить до 1000 серверов. Если проект не встретит непреодолимых препятствий, в следующем году в Азии появится первый вычислительный кластер подобного типа. Его средняя стоимость должна составить около $5 млн, и он может быть использован как строительный блок для инфраструктуры любого вычислительного центра, в том числе для облачной обработки данных. Президент ITRI Джонси Ли (Johnsee Lee) надеется, что облачная концепция послужит развитию индустрий аппаратного и программного обеспечения и изменит экономическую структуру страны. Идея ITRI совсем не оригинальна. В октябре мы рассказывали о новом ЦОД компании Microsoft, где контейнеры с серверами уже используются. Каждый из них вмещает 2000 серверов, а в общей сложности $500-млн центр софтверного гиганта может обеспечить крышу 224 тыс. серверов. Материалы по теме: - Дата-центр Microsoft: что стоит за Bing, Hotmail и Live;
- Исландия станет домом глобальных вычислений?;
- Центр обработки данных. Экскурсия в картинках.

FASTRA II: настольный ПК с тринадцатью GPU, или 12 Тфлопс за 6000 евро

В прошлом году в рамках проекта FASTRA Университет Антверпа собрал настольный суперкомпьютер, отличающийся компактностью и сравнительно невысокой себестоимостью. Он оказался довольно мощным, но его производительности не хватает для последних исследований, поэтому было принято решение разработать ещё более быструю систему. Так появился один из самых мощных суперкомпьютеров типоразмера обычного настольного ПК – FASTRA II. Компактная система с производительностью 12 терафлопс обошлась создателям в шесть тысяч евро.
fastra small
FASTRA II будет использоваться исследовательской группой ASTRA, которая занимается разработкой новых вычислительных методов для томографии. Суперкомпьютер включает шесть двухчиповых ускорителей NVIDIA GTX 295, а также одночиповый NVIDIA GTX 275. Для обеспечения питанием такого количества мощных видеокарт используются сразу четыре блока питания. Новый суперкомпьютер пока ещё испытывает проблемы со стабильностью работы, что, возможно, вызвано конфликтами между BIOS, драйверами видеокарт и используемой модификацией Linux. Более детально о новинке рассказано в следующем видеоролике.
Материалы по теме: - NVIDIA GTC 2009: технологии, которые пока даже не снятся;
- ASUS ESC 1000 – настольный суперкомпьютер с 1,1 Тфлопс;
- В Австралии создан кластер «с игровым прошлым».

В Австралии создан кластер «с игровым прошлым»

Специалисты из австралийского научно-исследовательского центра CSIRO заявили о создании компьютерного кластера, в значительной мере основанного на графических процессорах, изначально ориентированных на применение в играх. Система, занимающая шесть шкафов, является первой из подобного рода проектов, реализованных на этом континенте. Она насчитывает 61440 вычислительных ядер, принадлежащих как традиционным центральным процессорам, так и графическим чипам.
объемная реконструкция микроструктуры дерева
Сочетание центральных процессоров с мощными графическими чипами позволяет достичь наибольшей эффективности – сказал доктор Джон Тейлор (John Taylor), ведущий научный специалист CSIRO по вычислительным системам и моделированию. «GPU ускоряют обработку данных, позволяя организовывать интенсивные многозадачные параллельные вычисления» – добавил он. Во многих случаях на определенных задачах графические процессоры демонстрируют выигрыш в производительности по сравнению с центральными процессорами, а кластеры на базе GPU обычно оказываются дешевле и энергоэффективнее по сравнению с системами на базе CPU. Специалисты CSIRO заявили, что намерены использовать созданную систему для моделирования возможного места размещения фрагментов генетического кода в геноме, объемного реконструирования медицинских изображений, получаемых с помощью находящегося в Мельбурне синхротрона, а также моделирования взаимодействия между питательными веществами и океаническим планктоном. Пока же ученые «разминаются» на растениях – на иллюстрации приведена объемная реконструкция микроструктуры деревьев, воссозданная из множества плоских изображений. Тейлор отметил, что для эффективного использования кластера специалистам центра придется освоить новые подходы к написанию кода приложений, позволяющие в полной мере использовать возможности параллельных вычислений. Материалы по теме: - Appro HyperPower: NVIDIA Tesla и Intel Nehalem «в одной упряжке»;
- Персональный суперкомпьютер от NVIDIA и Dell.

Cray CX1-iWS: гибрид рабочей станции и HPC-кластера

Компания Cray, специализирующаяся на разработке суперкомпьютеров, заявила об открытии новой эры технических вычислений с представлением рабочей станции нового поколения – CX1-iWS. Эта система представляет собой комбинацию из рабочей станции, работающей под управлением Windows 7, и HPC-кластера на базе HPC Server 2008.
Cray CX1-iWS
Индекс “iWS” в названии модели обозначает “integrated workstation” (интегрированная рабочая станция). Каждая система CX1-iWS включает двухпроцессорную рабочую станцию, трёхузловой вычислительный кластер, ускоритель профессионального уровня NVIDIA Quadro с поддержкой подключения двух HD-мониторов для визуализации, накопитель и 16-портовый коммутатор Gigabit Ethernet. Три стандартные конфигурации CX1-iWS построены на базе процессоров Intel Xeon 5500 Series. Модели High-End уровня включают восемь чипов Intel Xeon 5500 с тактовой частотой 2,93 ГГц, 24 Гб оперативной памяти (шесть модулей емкостью 4 Гб каждый) на узел, 160 Гб дискового пространства на узел, графику NVIDIA Quadro FX 5800.
Cray CX1-iWS
Эксклюзивное право на поставки систем CX1-iWS получила компания Dell. Базовая модель обойдется покупателям в $40 тыс. Материалы по теме: - Заметки на полях. Что быстрее, CPU или GPU?
- Домашний суперкомпьютер уже совсем близко;
- Суперкомпьютеры на столе: популярность неизбежна.

HyperTransport как интерконнект для кластеров

Консорциум HyperTransport до конца текущего года намерен обнародовать больше подробностей относительно своих планов продвижения одноименной технологии для обеспечения интерконнектов между компонентами высокопроизводительных кластерных систем. Ожидается, что будут представлены расширения физического уровня HyperTransport, поддерживающие объединение разнородных процессоров и систем с использованием как когерентных, так и некогерентных соединений. Данная инициатива, называемая также High Node Count (HNC), была анонсирована ранее в этом году. В частности, она предусматривает реализацию инкапсулированных версий HyperTransport, способных работать «поверх» Gigabit Ethernet или Infiniband – популярных в настоящее время разновидностей кластерных интерконнектов. Ожидается, что внедрение предлагаемых технологий позволит сократить латентность современных кластерных сред, но для этого еще предстоит обновить программное обеспечение, с тем, чтобы обеспечить поддержку смешанных когерентных и некогерентных соединений в кластере. «Программное обеспечение – большой знак вопроса для нас» – сказал Марио Кавалли (Mario Cavalli), генеральный менеджер консорциума HyperTransport. По его словам, сразу несколько представителей отрасли работают над различными вариантами реализации HNC, включая группу из Университета Манхейма (University of Mannheim), «наводящую последний лоск на дизайн коммутатора HNC». Кавалли выразил уверенность в наличии «критической массы» разработок, которая уже способна убедить разработчиков ПО в необходимости поддержки подобной архитектуры. По его мнению, предложения консорциума позволят отрасли уйти от протоколов передачи, перегруженных задержками. При этом Кавалли говорит, что видит роль HNC не в полном вытеснении существующих интерконнектов, но в добавлении к ним новых возможностей. Спецификация High Node Count предусматривает масштабирование HyperTransport для объединения около сотни узлов кластера когерентными соединениями. Работа над спецификацией уже завершена, но пока что она доступна только участникам консорциума. Авторству этой организации принадлежит также еще ряд разработок на базе HyperTransport, включая разъем системных плат стандарта HNX, так и не нашедшего применения в массовом производстве. Как и в случае HNC, основной идеей HNX было создание альтернативного решения с низкой латентностью, в данном случае – стандарту PCI Express. Несмотря на отсутствие поддержки, консорциум не намерен сдаваться: «Мы находимся в процессе дополнения HTX другими технологиями физического уровня, о которых скоро заявим» – сказал Кавалли. Технология HyperTransport изначально была разработана компанией Advanced Micro Devices как процессорная шина для серверных чипов семейства Operton. В 2001 г. AMD решила сделать свою шину открытым стандартом, надеясь на ее широкое использование в отрасли. Действительно, HyperTransport был использован во многих сетевых процессорах, но лишь единицы из них имели относительный успех на рынке. Материалы по теме: - HyperTransport 3.0 уже здесь!;
- Новая спецификация шины HyperTransport.

FAWN – кластер с экономичными процессорами и флеш-памятью

Исследователи из Университета Карнеги-Меллона при поддержке одной из лабораторий Intel объединили встраиваемые процессоры с низким энергопотреблением и флеш-память для создания серверной архитектуры, способной выполнять приложения с высокой интенсивностью обращения к данным при минимальной расходуемой мощности. Экспериментальный вычислительный кластер, не без иронии названный создателями FAWN (сокращение от Fast Array of Wimpy Nodes, – быстрый массив дрянных узлов), способен выполнить в десятки и сотни раз больше запросов по сравнению с традиционными кластерами, использующими жесткие диски, при условии одинакового количества затраченной энергии.
FAWN 3G
В текущем варианте кластер FAWN состоит из 21 узла, каждый из которых включает процессор и карту памяти Compact Flash емкостью 4 Гб. Даже на пике производительности система потребляет не больше энергии, чем 100-ваттная лама накаливания. Работа исследователей была отмечена дипломом Ассоциации вычислительной техники на недавно прошедшем ежегодном симпозиуме этой организации. Планируется, что работа над проектом продолжится, и следующее поколение FAWN будет основано на процессорах Intel Atom. Создание энергоэффективных серверных архитектур для ЦОД рассматривается в качестве одной из приоритетных задач их развития. В настоящее время стоимость потребленной за время эксплуатации электроэнергии уже догоняет, или даже превышает стоимость самого оборудования. Крупные ЦОД иногда требуют собственных электрических подстанций, а их потребляемая мощность может достигать десятков или даже сотен мегаватт. Создатели FAWN заявили, что их система, конечно, не может заменить собой все оборудование ЦОД, но вполне может применяться для задач, требующих быстрого доступа к относительно небольшому количеству информации. Подобные решения, относящиеся к классу систем хранения ключевых данных (key-value storage systems), все шире применяются для поддержки разнообразной интернет-активности, включая работу социальных сетей и сопровождение процесса покупок в онлайновых магазинах. Флеш-память по многим скоростным характеристикам превосходит жесткие диски, и при этом она заметно дешевле динамической памяти. Хотя процессоры с низким энергопотреблением и не блещут рекордной производительностью, все же архитектура FAWN представляет собой разумный баланс вычислительной мощности и пропускной способности подсистем ввода-вывода. В традиционных же системах отрыв производительности процессоров от пропускной способности других подсистем со временем все более увеличивается, что приводит к образованию «узких мест». Процессор, не способный работать в полную меру своих возможностей из-за не успевающей за ним памяти – весьма распространенное явление, но при этом он продолжает потреблять непропорционально большую мощность. Материалы по теме: - Энергосберегающая… маршрутизация;
- Клавиатура Microsoft превращается....

Наследники легенды: системы SGI Octane III

Компания Silicon Graphics, как и Sun Microsystems, начинала свой путь в отрасли информационных технологий в качестве производителя рабочих станций для компьютерных фанатов. Хотя с тех пор прошло много лет, и подобные системы сейчас чаще называют персональными суперкомпьютерами, в целом идея остается неизменной – обеспечить энтузиастов вычислительными ресурсами, сопоставимыми с производительностью центра обработки данных, но предоставить эти ресурсы в личное безраздельное пользование, избавив от посредников в лице сопровождающих IT-специалистов. Sun, находящаяся в стадии затянувшегося поглощения ее компанией Oracle, вряд ли помышляет о возрождении былых линеек, а вот имя обанкротившейся SGI не кануло в лету, и будет связано с новыми персональными суперкомпьютерами серии Octane III, унаследовавшими название легендарных рабочих станций. В августе производитель нишевых серверных систем Rackable Systems, завершив приобретение активов SGI, решил использовать это имя для объединенной компании, и представил ее роадмап. В нем, например, присутствует «кластер для рабочих групп» CloudRackX2, представляющий собой усеченную версию систем Rackable CloudRack. Несмотря на «усеченность», CloudRackX2 остается весьма мощной системой, содержащей до 216 ядер X64 и имеющей совсем не бюджетную стоимость. Гораздо реалистичнее в роли мостика между просто мощными настольными системами и «большими» серверными кластерами выглядит серия персональных суперкомпьютеров Octane III, анонсированная «новой SGI». SGI Octane III будет иметь три варианта конфигурации, каждый из которых будет кардинально отличаться от других представителей семейства. Первая из них позиционируется как продвинутая графическая рабочая станция, и напоминает аналоги с двумя видеокартами, присутствующие в номенклатуре, например, Hewlett-Packard или Dell. Модель OC3-TY11 рассчитана на установку двух четырехъядерных процессоров Xeon 5500 Nehalem EP, а 18 слотов DDR3 позволяют инсталлировать память общим объемом до 144 Гб. Системная плата содержит два порта Gigabit Ethernet и два слота PCI-Express x16 для установки двух видеокарт (это могут быть Quadro FX1800, FX3800, FX4800 или FX5800) или до двух карт сопроцессоров Tesla C1060 (в случае установки двух Tesla придется довольствоваться встроенной графической системой). Конфигурация OC3-10TY12 уже в полной мере будет соответствовать статусу персонального суперкомпьютера. В ней предполагается установка до десяти двухпроцессорных плат плюс коммутатора Gigabit Ethernet или InfiniBand. Каждая серверная плата содержит 12 слотов памяти, до 96 Гб на узел, один 2,5" SATA-диск, два порта Gigabit Ethernet, и адаптер InfiniBand в качестве опции. В максимальном варианте система может содержать 80 ядер и 960 Гб оперативной памяти, но, по заверениям производителя, даже в этом случае она будет обеспечивать относительно низкий уровень шума, позволяющий размещать шасси непосредственно в офисе. Возможно, именно в связи с этим возможности теплоотвода в данной конфигурации ограничены, и поэтому в ее максимальном варианте допускается использовать только Xeon L5520 с TDP 60 Вт, работающие на частоте 2,26 ГГц. При меньшем количестве серверных плат можно применять и более быстрые, но и более «горячие» модели из серии Xeon 5500 с TDP 95 Вт. Производительность в максимальной комплектации оценивается на уровне 726 гигафлопс. Цена очень скромного базового варианта, включающего, помимо шасси, единственную серверную плату с 24 Гб памяти и коммутатор Gigabit Ethernet, составляет около 8000 долл. Наконец, третья конфигурация Octane III, OC3-19DV1, представляет собой настольную кластерную систему, способную нести до девятнадцати плат с одним процессором Atom 330 и 2 Гб памяти на каждой. Эти двухъядерные чипы работают на частоте 1,6 ГГц и оснащены по 1 Мб кэш-памяти. В данной конфигурации узлы MicroSlice объединяются только посредством Gigabit Ethernet, а единственный 2,5" диск устанавливается на головном узле. Такой вариант Octane III, хотя и может содержать до 38 ядер, но все же не претендует на выдающуюся производительность, и представляет собой скорее модель системы в стиле распределенных приложений Web 2.0, пригодную для использования при разработке. Все три конфигурации объявлены доступными для приобретения. По желанию заказчика, системы могут быть сконфигурированы с Red Hat Enterprise Linux, Novell SUSE Linux, Windows Server 2008 или Windows HPC Server 2008. Материалы по теме: - «Молекула» SGI из «атомов» Intel;
- Intel и SGI построят суперкомпьютер для NASA.

Как создать петабайтный кластер за $117 тыс.

Дисковые массивы бизнес-класса от компаний вроде NETGEAR, QNAP, Synology, Thecus и других не отличаются дешевизной, и не всегда высокая стоимость обусловлена только превосходной функциональностью и качеством. Иногда разница между тем, что можно построить самостоятельно и тем, за что необходимо выложить немалую сумму, оказывается не настолько критичной и побуждает заняться небольшой технической творческой работой. Компания Backblaze, занимающаяся системами восстановления, посчитала так же, когда оценила доступные на рынке предложения. Backblaze предоставляет сервис "облачного" резервирования данных с неограниченным объемом хранимой информации за $5 в месяц, поэтому ей требуется много дискового пространства, измеряемого петабайтами (1 Пб = 1024 Тб). Рассмотрев коммерческие решения, компания посчитала, что выгоднее будет разработать кластер собственными силами. В итоге, каждый 67-Тб сервер форм-фактора 4U обошёлся в $7867. Петабайт - $117 тыс.
Предложения на рынке
Каждый сервер - Storage Pod – включает материнскую плату с четырьмя SATA-картами. 9 кабелей интерфейса SATA подключены к девяти платам расширения, к каждой из которых подключены по 5 дисков. В общей сложности количество устройств составляет 45.
Концепция сервера
Для начала разработчикам пришлось потрудиться над металлическим корпусом собственного дизайна. Возможно, это не продукт от грандов индустрии, но работа профессиональная. Электронные платы расширения монтируются на белых нейлоновых стойках, поглощающих вибрацию, создаваемую 45 дисками. Кабели питания и интерфейсные проложены под платами. Корпус имеет 6 120-мм вентиляторов, работающих на затягивание воздуха в конструкцию и вытяжку уже нагретого. Целью было достичь постоянной температуры 50° С. Хотя для большинства винчестеров допустимо значение в 60° С, блоки питания не рассчитаны на такой режим. В конечном итоге удалось добиться 40° С. Тем не менее, даже с одним или двумя работающими вентиляторами условия были допустимыми, но относительно высокая степень отказа этих компонентов заставила придать системе избыточную надёжность.
Корпус с винчестерами, платами и БП
В качестве материнской платы была выбрана Intel BOXDG43NB LGA 775 G43 форм-фактора ATX. Причём, наличие разъёмов SATA на ней не повлияло на выбор. Storage Pod вообще их не использует, потому что, несмотря на декларирование Intel поддержки южным мостом ICH10 множества соединений SATA, Backblaze отмечала "странные результаты" в тестах производительности. Поэтому разработчики обратили внимание на внешние контроллеры и платы расширения, чтобы добиться работы 45 дисков на одной BOXDG43NB. Экзотических требований к памяти не предъявлялось, поэтому в два разъёма DIMM установлено 4 Гб DDR2-800.
Схематическое изображение компонентов
Подсистема SATA включает три карты Syba SD-SA2PEX-2IR PCI Express SATA II с двумя разъёмами каждая и одну Addonics ADSA4R5 4-Port SATA II PCI с 4 разъёмами. Из 10 доступных используются 9 разъёмов, кабели от которых подключены к платам Chyang Fun Industry (CFI Group) CFI-B53PM с пятью интерфейсами SATA на каждой. Выбор решений был ограничен продуктами компании Silicon Image, которые, по мнению Backblaze, функционируют оптимальным образом. В CFI-B53PM используется чип SiI3726, в Syba SD-SA2PEX-2IR - SiI3132 и в Addonics ADSA4R5 - SiI3124. Поскольку карты Addonics используют интерфейс PCI, скорость передачи данных не высока – всего 25 Мб/с, однако этого оказалось достаточно для потребностей компании, ведь обмен данными между серверами и польхователями происходит по интернет-каналам. 2 Тб дискового пространства могут быть заполнены за день, а весь сервер Storage Pod – за месяц. Питание одного 4U обеспечено двумя 760-Вт БП Zippy PSM-5760, при этом один из них предназначен для трёх вентиляторов и пяти плат CFI-B53PM, другому отдано всё остальное.
Карты SATA и платы расширения CFI-B53PM
Главный компонент системы – диски. Выбор Backblaze пал на Seagate 1,5 Тб Barracuda 7200.11 (ST31500341AS) по причине стабильности их работы в RAID-массиве по сравнению с WD, к тому же соотношение стоимости и ёмкости оказалось подходящим. По словам компании, также тестировались винчестеры Samsung и Hitachi, но их 1,5-Тб продукты не удовлетворили разработчиков дискового кластера по совокупности характеристик.
Подсистема обмена данными
Storage Pod функционирует под управлением 64-битной операционной системы Debian 4 Linux, использующей файловую систему JFS, а доступ к информации на дисках обеспечивается через протокол HTTPS. Выбор JFS обусловлен необходимостью поддержки больших дисковых ёмкостей, ОС Debian и наличием широкой базы опытных пользователей. В свою очередь, Debian 4 Linux – потому что "вправду бесплатна", как считают в Backblaze. Для начала с помощью утилиты fdisk был создан один раздел на диск. Затем 15 1,5-Тб устройств были объединены в массив RAID 6 с помощью приложения mdadm и, наконец, отформатированы под JFS с 4-Кб блоками. Итоговое свободное пространство составило 87% от 67-Тб сервера, или 58 Тб на один Storage Pod. Система работает под Apache Tomcat 5.5 и, как уже упоминалось, протоколом HTTPS. Сервер потребляет ток 4,8 A в простое, а при полной нагрузке – 5,6 А. В качестве процессоров взяты двухъядерные Intel E8600 Wolfdale 3,33 ГГц.
Стойки с серверами Storage Pod
Материалы по теме: - Thecus N4100 PRO - NAS для серьезных людей;
- Мощный NAS Thecus N7700SAS с процессором Core 2 Duo;
- Тестирование четырех HDD объемом 1 Тб.

Созданы модульные масштабируемые материнские платы

Группа специалистов в области аппаратного обеспечения компьютеров и электроники в соответствии со своими амбициозными планами разработала "самодостаточные" вычислительные блоки, которые должны существенно повысить эффективность ПК. Энтузиасты создали прототип материнской платы, использующей независимые модули, каждый из которых имеет свои процессор, память и устройство хранения. Отдельная ячейка выступает в роли мини-платы и сетевого узла и способна независимо решать, принимать или отклонять конкретный входящий поток данных и программные обращения. Определенное количество модулей формирует кластер с суммарной производительностью всех входящих компонентов.
Модули Illuminato X Machina
Разработка называется Illuminato X Machina и значительно отличается от принципа организации вычислительной структуры сегодняшних массовых ПК. "Мы взяли все, что входит в состав обычной системной платы и "измельчили", - объясняет адъюнкт-профессор компьютерных наук из Университета Нью-Мексико (University of New Mexico) Дэвид Экли (David Ackley). – У нас имеется CPU, RAM, носитель информации и последовательные порты на каждых двух квадратных дюймах (13 см2)". Модульная архитектура предназначена для параллельных и распределенных вычислений и может поднять эти операции на новый уровень. Например, вместо выхода из строя всей системы в случае неработоспособности некоторого компонента, ошибка в одиночной ячейке слабо повлияет на вычислительную машину. "Мы находимся в точке, где каждый компьютерный процессор работает максимум на 3 ГГц, что приводит к необходимости увеличивать количество ядер, но ресурсы чипа по-прежнему распределяются на целую систему, - говорит Джастин Хайн (Justin Huynh), один из ключевых членов проекта. – Добавление ядер – это путь, которому индустрия будет подчинена еще десятилетие". Хайн и его единомышленники – не новички в воплощении новаторских идей. Ранее в этом году Джастин вместе с товарищем создали Open Source Hardware Bank – клуб с равноправным участием, поддерживающий открытые проекты разработки аппаратного обеспечения. Над X Machina же работа началась около 10 месяцев назад.
Модули Illuminato X Machina
Сегодняшняя компьютерная архитектура зиждется на модели Джона фон Неймана, подразумевающей наличие вычислительного устройства и устройства хранения данных и инструкций. Но такой принцип организации обуславливает наличие существенного препятствия, известного как "бутылочное горло фон Неймана": хотя процессоры становятся все быстрее, канал между памятью и CPU не способен поддерживать достаточную производительность, ограничивая общие возможности ПК. Создавая модульную структуру, Хайн надеется получить более параллельную и распределенную архитектуру. Впрочем, кластерная организация не нова – она активно используется в высокопроизводительных мэйнфреймах. Но Illuminato X Machina призвана принести идею в массы. "Об этом можно размышлять как о комплексе из многих работающих вместе бактерий вместо одноклеточной амёбы", - обращается к несколько необычной аналогии разработчик нового беспроводного стандарта Dash 7, выпускник факультета компьютерной инженерии Принстонского Университета (Princeton University) Джон Пол Норэйр (JP Norair). Каждый модуль X Machina имеет 72-МГц процессор (в данный момент это ARM), флэш-память объемом 16 Кб и чип EEPROM (electrically erasable programmable read-only memory – электрически стираемое перепрограммируемое ПЗУ) объемом 128 Кб. Также есть LED-индикаторы и кнопка включения. Небольшая плата содержит четыре разъема для соединения с соседними электронными ячейками, через которые передается питание и информация. Контролируемые на программном уровне переключатели позволяют управлять проходящим через систему питанием "на лету", а исполняемый программный код может передаваться прямо из одного модуля в другой без обращения к находящемуся на компьютере ПО для "прошивки". Кроме того, все мини-системы имеют загрузчик, перепрограммируемый при необходимости соседними устройствами, даже когда весь комплекс находится в рабочем состоянии. Несмотря на неплохие достижения, разработчикам есть над чем трудиться. Хайн еще не тестировал производительность системы для сравнения с традиционными ПК, чтобы установить разницу в энергопотреблении и скорости выполнения операций. Более того – приложения, свидетельствующие о применимости Illuminato X Machina для решения повседневных задач, возлагаемых на компьютер, также не написаны. С целью дать ответ на эти вопросы Экли планирует привлечь к адаптации привычных концепций программирования для новой разработки своих студентов из Университете Нью-Мексико. А пока, по словам Хайна, идея делает свои первые шаги. Норэйр солидарен: "Если они добьются хотя бы половины производительности процессоров Intel с кластером микроконтроллеров, это станет большим успехом, потому как энергопотребление их модульных кластеров очень низкое, а надежность - высока". Но устройства уже можно приобрести по цене от $57 за единичный модуль до $790 за массив из 16 штук. Материалы по теме: - Электронный Франкенштейн: видеокарта из плат AMD и NVIDIA;
- MSI готовит плату с чипом Lucid HYDRA на борту;
- Обзор ASUS EAH4890. Покоряем гигагерц!.

window-new
Soft
Hard
Тренды 🔥