Сегодня 17 ноября 2017
18+
Главные новости

Tesla представила электрический грузовик с запасом хода около 800 км

Итак, свершилось. Компания Tesla официально представила свой первый электрический грузовик, слухи о котором ходили в Интернете на протяжении последних месяцев.

Как и предполагалось, машина получила футуристический дизайн, благодаря которому достигается низкий коэффициент лобового сопротивления. Это положительно отражается на запасе хода: утверждается, что на одной зарядке блока аккумуляторных батарей грузовик способен преодолеть расстояние до 800 км.

Конфигурация предусматривает использование одной оси спереди и двух сзади. Силовая платформа включает четыре электрических мотора, которые позаимствованы у «народного» электрокара Model 3.

Заявленный разгон с 0 до 60 миль/ч (примерно 96 км/ч) занимает всего пять секунд (без груза). С фурой общей массой в 36 тонн этот показатель возрастает до 20 секунд.

Для подзарядки грузовиков предлагается использовать новые станции Megacharger высокой мощности. За 30 минут расположенные в основании батареи могут накопить достаточно энергии для преодоления расстояния в 400 миль (около 640 км). На прохождение этого пути без пробок понадобится 6–7 часов, так что подзарядка вполне может осуществляться во время остановок водителя на отдых — тратить дополнительное время исключительно на восполнение запаса энергии при грамотно просчитанном графике езды не придётся.

Большое внимание Tesla уделила комфорту водителя. Его кресло располагается в центральной части кабины, а позади предусмотрено дополнительное откидное сиденье. Высота кабины составляет около 2 метров, так что внутри можно вставать в полный рост.

Слева и справа от рулевого колеса с лаконичным дизайном располагаются 15-дюймовые дисплеи с поддержкой сенсорного управления. На них отображается вся необходимая информация, кроме того, эти экраны заменяют боковые зеркала, показывая картинку с камер.

Разумеется, предусмотрены функции автопилотирования. Уже на начальном этапе система сможет удерживать грузовик в полосе движения, выполнять автоматическое торможение и пр. В дальнейшем возможности автопилота будут расширяться.

Производство электрических грузовиков планируется начать в 2019 году. Цена пока держится в секрете. 

Источник:

OnePlus 5T: безрамочный «убийца флагманов» анонсирован официально

Второй год подряд компания OnePlus выпускает улучшенную версию своего флагманского смартфона, прибавляя к её названию литеру T. Впервые схема была опробована на OnePlus 3: модификация 3T имела тот же дизайн, что и оригинальная модель, но отличалась от неё процессором — вместо Snapdragon 820 использовался Snapdragon 821. Однако в случае с OnePlus 5T производитель пошёл другим путём, поэтому новинка оказалась непохожа на предшественницу, получив модный сейчас «безрамочный» дизайн.

Представленный 16 ноября OnePlus 5T собран на той же аппаратной платформе, что и OnePlus 5, увидевший свет в июне. Речь идёт об однокристальной системе Qualcomm Snapdragon 835 с восемью ядрами Kryo (4 × 2,45 ГГц + 4 × 1,9 ГГц) и графическим ускорителем Adreno 540. Объёмы оперативной (LPDDR4X) и флеш-памяти (UFS 2.1) остались 6 или 8 Гбайт и 64 либо 128 Гбайт соответственно.

Главное нововведение — вертикально вытянутый дисплей с соотношением сторон 2:1 и заметно сузившимися рамками в нижней и верхней частях лицевой панели. За счёт новых пропорций диагональ экрана увеличилась до 6,01 дюйма без ущерба для удобства управления аппаратом одной рукой. Матрица выполнена по технологии Optic AMOLED, а её разрешение составляет 2160 × 1080 точек, что соответствует формату Full HD+ и пиксельной плотности 402 ppi. От внешних воздействий дисплей защищён закалённым стеклом Corning Gorilla Glass 5.

Тыльная камера в OnePlus 5T состоит из двух модулей. Основной 16-мегапиксельный Sony IMX398 содержит крупные 1,12-мкм пиксели и оборудован объективом с диафрагмой f/1,7. Вспомогательный Sony IMX376K состоит из более мелких светочувствительных элементов размером 1 мкм и построен на базе 20-Мп сенсора. Длиннофокусная оптика, отвечавшая в OnePlus 5 за оптический зум, заменена на обычный объектив со светосилой f/1,7. Главное назначение второго модуля теперь заключается в улучшении качества снимков в условиях недостаточного освещения и наложении на фотографии эффекта боке. Максимальное качество записи видео — 2160p@30fps.

Фронтальная камера — это 16-Мп датчик Sony IMX371 с 1-мкм пикселями, разрешением 16 Мп и диафрагмой f/2,0.

Корпус OnePlus 5T выполнен из анодированного алюминия и имеет габариты 156,1 × 75 × 7,3 мм при массе 162 грамма. На его тыльной стороне под камерой расположен сканер отпечатков пальцев, который «переехал» туда с лицевой панели, так как на прежнем месте он не поместился. Разблокировать устройство можно и по лицу — как утверждают разработчики, система Face Unlock безошибочно срабатывает в 90 % случаев. 3,5-мм аудиоразъём остался, он находится на верхнем торце. На нижней грани разместился порт USB Type-C.

Перечень адаптеров беспроводной связи включает Wi-Fi 802.11ac, 4G VoLTE, Bluetooth 5.0, GPS/GLONASS/Beidou и NFC. Источником питания смартфону служит аккумулятор ёмкостью 3300 мА·ч, поддерживается технология быстрой зарядки Dash Charge (5V/4A).

Работает OnePlus 5T под управлением операционной системы Android 7.1.1 Nougat с фирменной оболочкой Oxygen OS 4.7. Обещано, что впоследствии прошивка будет обновлена до Android 8.0 Oreo.

В продажу новинка поступит 21 ноября в единственном цвете Midnight Black («Полночный чёрный») по цене $500 за младшую версию 6/64 Гбайт и $560 за максимальную конфигурацию 8/128 Гбайт.

Источник:

Origin PC представила игровые ноутбуки на платформе Intel Coffee Lake

Компания Origin PC представила обновлённые версии игровых ноутбуков EON15-X, EON17-X и EON17-SLX, а также мощных портативных компьютеров ND-17, NS-17 и NS-15.

Все лэптопы полагаются на аппаратную платформу Intel Coffee Lake. В максимальной конфигурации используется 14-нанометровый процессор Core i7-8700K, который содержит шесть вычислительных ядер с возможностью одновременной обработки до двенадцати потоков инструкций. Базовая частота составляет 3,7 ГГц; максимальная тактовая частота с технологией Turbo Boost — 4,7 ГГц.

Помимо чипа Core i7-8700K, можно выбрать конфигурацию с другим процессором семейства Coffee Lake. В частности, доступна установка изделия Core i3-8100 с четырьмя ядрами без поддержки многопоточности: частота этого решения составляет 3,6 ГГц. Кроме того, предлагаются процессоры Core i5-8400 и Core i5-8600K с шестью вычислительными ядрами, частота которых равна соответственно 2,8–4,0 ГГц и 3,6–4,3 ГГц.

Модели EON17-X, EON17-SLX, NS-17 и ND-17 оснащены 17,3-дюймовым дисплеем. При этом покупатели могут выбирать между панелью Full HD (1920 × 1080 точек) с частотой обновления 120 Гц и экраном 4К (3840 × 2160 пикселей). Допускается использование ускорителя NVIDIA GeForce GTX 1080 (до двух видеокарт в случае EON17-SLX и ND-17).

Лэптопы EON15-X и NS-15, в свою очередь, оборудованы 15,6-дюймовым дисплеем Full HD. Графическая составляющая в топовой версии полагается на ускоритель NVIDIA GeForce GTX 1070.

Все ноутбуки могут нести на борту до 64 Гбайт оперативной памяти DDR4-3000. Для подсистемы хранения данных доступен широчайший выбор жёстких дисков и твердотельных накопителей в формате 2,5 дюйма, а также твердотельных модулей PCIe NVMe M.2.

Более подробно с техническими характеристиками ноутбуков можно ознакомиться здесь

Источники:

Google рассказала о решении проблем стабилизации видео на примере Pixel 2

Смартфоны Google Pixel 2 имеют весьма качественную систему стабилизации видео, объединяющую электронную и оптическую технологии, так что результат получается весьма неплохим. Но как компании удалось столь удачно совместить две технологии? Google недавно опубликовала подробный текст, в котором детально рассказала о ключевых проблемах стабилизации видео и способах их решения. Оказывается, Google применила технологии машинного обучения, чтобы интегрировать оба метода стабилизации там, где многие смартфоны могут использовать только один из них.

Для начала стоит рассказать о главных препятствиях, которые стоят на пути качественной программной стабилизации. Прежде всего, это, конечно, собственно дрожания: пользователи обычно снимают с рук, и дрожания существенно влияют на конечный результат, порой делая ролики крайне некомфортными для просмотра:

Размытия в движении — вторая важная проблема. Особенно актуальна она для роликов, снятых при недостатке освещения и, соответственно, с длительной выдержкой. Каждое движение камеры в таком режиме приводит к размытию, а обычная программная стабилизация приводит к неприятным артефактам неравномерной потери чёткости:

Третья проблема связана с принципом работы CMOS-сенсора. Данные с матрицы считываются линия за линией сверху вниз и потому при резких движениях наблюдаются существенные вертикальные искажения изображения — этот эффект называется Rolling shutter (плавающий затвор). Такое видео трудно стабилизировать:

Слева — правильное видео, справа — со стандартными искажениями Rolling shutter

Наконец, при изменении фокусного расстояния между расположенными на большой дистанции объектами порой существенно меняется угол обзора, так что все объекты сцены визуально смещаются ближе или дальше к оператору. Профессионалы называют этот эффект «дыханием», и он тоже усложняет задачу стабилизации.

Влияние всех этих проблем существенно снижается при использовании оптической стабилизации (OIS). Обычно это достигается за счёт применения в объективе плавающей линзы, подвешенной на пружинах и электромагнитах, чутко реагирующей на движения камеры и компенсирующей их. Однако OIS не может устранить сильные дрожания, особенно во время ходьбы оператора и к тому же добавляет собственные артефакты. На следующем видео используется чисто оптическая стабилизация Pixel 2 и, хотя по центру видео стабильное, на его краях наблюдается эффект «желе» — будто вся картинка движется единой плоскостью.

Электронная система стабилизации (EIS) анализирует движения камеры. Фильтрует ненужные части, синтезирует новое видео, обрабатывая должным образом каждый кадр. Финальное качество сильно зависит от используемого алгоритма и оптимизаций. Обычно EIS гораздо гибче OIS, потому что может более агрессивно корректировать движения, но есть и ограничения: алгоритму приходится отбрасывать заметную часть изображения по краям, из-за чего снижается угол обзора или разрешение конечного видео. Вдобавок EIS в сравнении с OIS или внешним стабилизатором требует намного больше вычислений, а это ограниченный ресурс на смартфонах.

Поэтому Google разработала технологию смешанной стабилизации видео, объединяющую сильные стороны OIS и EIS и компенсирующую все упомянутые проблемы. Для начала устройство анализирует движения с помощью синхронизации информации с гироскопа (на частоте 200 Гц), данных об изменении фокусного расстояния, положений OIS-линзы и других параметров. В результате алгоритм может сформировать картину векторов движений для максимально точной оценки перемещений камеры и искажений.

На втором этапе происходит фильтрация движений с использованием машинного обучения и технологий обработки сигналов, чтобы предсказать дальнейшие перемещения камеры и наложить на них фильтрацию по Гауссу, чтобы добиться максимальной плавности. Предиктивное сглаживание движений возможно благодаря технологии машинного обучения и позволяет эффективнее реагировать на будущие перемещения камеры. Например, если система поймёт, что пользователь производит панорамное горизонтальное движение, то она примет решение о более агрессивном подавлении артефактов плавающего затвора и так далее. OIS и любые механические системы стабилизации могут реагировать лишь на текущие и прошлые движения.

Важной технологией, повышающей качество результирующего видео в Pixel 2, является подавление размытия в движении. Даже при работе OIS порой перемещения камеры оказываются слишком сильными, и при недостатке освещения возникают нежелательные эффекты размытия. Чтобы их снизить, специалисты Google используют точную информацию о движениях камеры и на её основании с помощью алгоритмов машинного обучения подавляют эффект:

Слева — Pixel 2 со стабилизацией OIS и EIS; справа — с дополнительным подавлением артефактов размытия в движении

На заключительном этапе синтеза кадра удаляются искажения плавающего затвора и «дыхания» фокуса: реальные движения камеры на основании данных из предыдущих этапов приводятся к желаемым. Всё изображение разбивается на сетку и деформируется по частям:

Google добилась того, что её технология достаточно эффективна, чтобы работать даже в разрешении 4K. Результаты получаются действительно впечатляющими. По словам Google, к разработке технологии приложили силы многие команды внутри компании, включая специалистов по алгоритмам и аппаратной разработке камер и сенсоров. Думается, и этой технологии есть куда развиваться, и в будущих версиях смартфонов или программных камерах появятся ещё более изощрённые и совершенные алгоритмы.

Видео записаны на два смартфона Pixel 2, закреплённые на одном ручном держателе. Слева стабилизация отключена

Видео записаны на два смартфона Pixel 2, закреплённые на одном ручном держателе. Оператор прыгает вместе с объектом съёмки. Слева стабилизация отключена

Источник:

Вьетнамская компания «обманула» Face ID в iPhone X с помощью маски

Вьетнамская компания из области кибербезопасности Bkav утверждает, что сумела «обмануть» функцию Face ID в iPhone X с помощью специальной маски. Она выглядит как голова мумии с вырезами для глаз, носа и рта и вводит в заблуждение систему создания карт глубины Apple.

Bkav говорит, что маска создана с использованием популярного 3D-принтера, двухмерных изображений и макияжа. Также были проделана «особая обработка в зоне щёк и вокруг лица», где кожи больше, чем в других местах. Нос, в свою очередь, сделан вручную из силикона, чтобы его форму при необходимости можно было легко изменить (что и потребовалось в ходе эксперимента). В видео ниже показано, как исследователь разблокирует iPhone X сначала с помощью своего лица, а затем с помощью маски.

Компания начала работать над маской 5 ноября, сразу после того, как получила новый смартфон Apple. На то, чтобы обойти защиту Face ID, у вьетнамских исследователей ушло меньше недели. Они признают, что технология требует подробного сканирования лица пользователя iPhone X. Стоимость производства одного «поддельного лица» составляет $150, что относительно недорого.

Фирма отмечает, что маску ещё нужно дорабатывать. «Руководители стран, лидеры крупных корпораций… должны знать о проблеме, поскольку их устройства вполне могут попытаться взломать, — пишет Bkav на своём сайте. — Это сложная задача для обычных пользователей, но простая для профессионалов».

Apple

Apple

Несколько недель назад Apple подробно рассказала о технологиях, которые лежат в основе Face ID. Компания написала, что iPhone X использует нейронную сеть, которая «защищает от попыток разблокировать ваш телефон с помощью фотографий и масок». Издания Wired и The Wall Street Journal ранее сделали силиконовые маски, но не смогли ввести Face ID в заблуждение.

На вопрос о том, почему метод Bkav сработал, а другие попытки взломать защиту Face ID оказались провальными, вьетнамцы ответили так:  «Потому что… мы ведущая фирма в области кибербезопасности ;) Достаточно трудно сделать «правильную» маску без определённых знаний. Мы, как уже было сказано, сумели обвести вокруг пальца ИИ Apple, потому что понимали, как этот ИИ работает и как его обойти. В 2008 году мы впервые показали, что распознавание лиц не является эффективной мерой защиты ноутбуков».

По словам купертинской компании, для тренировки нейронной сети использовались маски, созданные профессионалами. Впрочем, согласно официальным данным, с вероятностью один к миллиону случайный человек всё-таки может взломать Face ID.

Источник:

NVIDIA пока не определилась с кодовым названием для следующих GeForce

Прежде мы неоднократно отмечали неторопливость NVIDIA при подготовке игровых видеокарт с архитектурой, которая придёт на смену 14- и 16-нм решениям Pascal. На фоне не самого привлекательного соотношения цены и производительности адаптеров AMD семейства Radeon RX Vega (особенно в первые месяцы после анонса) продукты GeForce 10 пользуются большим спросом у геймеров, причём настолько, что NVIDIA, например, решила предложить поклонникам ускоритель TITAN Xp просто в новом дизайне, не меняя прикладных характеристик.

Рано или поздно GPU Pascal всё-таки придётся отправиться на пенсию. Как известно, карты с новой микроархитектурой Volta — Tesla V100 — доступны в составе серверов начиная с середины лета. В то же время об их игровых собратьях практически ничего не известно. По мнению немецкого ресурса Heise, видеокарты GeForce 2018 года будут принадлежать к новому семейству, которое получит имя в честь знаменитого французского физика конца XVIII — начала XIX века Андре-Мари Ампера (André-Marie Ampère). По версии источника, именно Ampere, а не Volta будут противостоять продуктам AMD Radeon в новом году.

Прогноз немецких коллег на первый взгляд слишком смел, ведь о графических ускорителях Volta генеральный директор компании NVIDIA Дженсен Хуанг (Jen-Hsun Huang) рассказывал ещё на мероприятии GTC в марте 2013 года, а кодовое название Ampere применительно к семейству GeForce 20 (или GeForce 11) упоминается впервые.

Четыре с половиной года назад NVIDIA планировала перейти от Maxwell сразу к Volta

Четыре с половиной года назад NVIDIA планировала перейти от Maxwell сразу к Volta

Тем не менее разделение между HPC-ускорителями с одной стороны, и обычными потребительскими видеокартами с другой может побудить NVIDIA использовать разные кодовые имена. В Tesla V100 задействованы блоки матричных вычислений и память HBM2. В свою очередь, у готовящихся игровых карт GeForce блоков Tensor, по всей видимости, не будет, а в качестве буферной памяти ожидается GDDR6. Кроме того, за то немалое время, которое прошло с момента дебюта Volta в форме адаптера Tesla V100, архитектура GPU NVIDIA могла претерпеть определённые изменения. Что точно останется неизменным относительно появившейся ранее HPC-модели на чипе GV100, так это техпроцесс выпуска — 12 нм.

Отметим, что в недавнем финансовом отчёте NVIDIA сообщила о квартальной выручке в размере $2,64 млрд (+31,5 % в годовом исчислении) и чистой прибыли $838 млн (+54,6 %), которыми компания обязана поставкам графических процессоров различного назначения.

Источники:

Первое фото процессора Intel Kaby Lake-G с графикой AMD

Проект Kaby Lake-G компании Intel, в рамках которого чипмейкер собирается выпустить как минимум два x86-процессора с графикой AMD и памятью HBM2, в последние дни не сходит с первых полос интернет-изданий. Ещё бы, ведь совместных проектов такого уровня у Intel и AMD не было со времён Intel 80286 (i286), когда компания из Саннивейла выпускала CPU, разработанные в Санта-Кларе.

Как мы уже отмечали в недавнем материале, посвящённом процессорам семейства Kaby Lake-G Core i7-8809G и Core i7-8705G, вычислительными системами, в которых точно будут применяться эти решения, будут мини-компьютеры Intel NUC 2018 года с кодовыми названиями Hades Canyon и Hades Canyon VR. Фотографию материнской платы одного из готовящихся NUC (либо родственного ПК) обнародовал участник форума китайского ресурса Chiphell под ником gtx9.

На снимке мы, скорее всего, наблюдаем объединённые в одну связку процессор Intel с 14-нм архитектурой Kaby Lake, находящийся поодаль 14-нм графический чип AMD Polaris (цифра 8 в аббревиатуре «gfx804» исключает использование Vega), а также сообщающийся с GPU посредством промежуточного кремниевого слоя кристалл HBM2. Внушительного размера батарея кремниевых кристаллов обрамлена асимметричной металлической рамкой, препятствующей сколу чипов. По всему видно, что CPU Core i7/Kaby Lake-G имеют BGA-, а не LGA-исполнение, как и основная масса процессоров для ноутбуков и других тонких компьютеров.

Над системой питания CPU с графическим процессором и памятью по соседству инженерам пришлось основательно потрудиться. Насчитывает она, похоже, 14 фаз, сгруппированных по схеме «5 + 2 + 7». Предварительно, они питают четыре x86-ядра с частотой не менее 3,1 ГГц, 24 CU-блока (1536 шейдера) Polaris и 4-Гбайт чип HBM2 с 1024-битной шиной. В соответствии с высказывавшимися ранее предположениями, кристаллы Intel и AMD соединены между собой посредством линий PCI Express. Кроме трёхкристального Core i7, на текстолите распаяны два вертикальных слота SO-DIMM DDR4 (установлены модули оперативной памяти производства Micron), такое же количество портов SATA 6 Гбит/с, как минимум один разъём M.2 Key M для накопителя (занят 120-гигабайтным SSD Samsung), разъём для внешнего адаптера питания, несколько портов USB 3/3.1, цифровые видеовыходы и другие разъёмы.

Материнские платы для NUC с 65- и 100-ваттным процессорами Intel Kaby Lake-G (Core i7-8809G и Core i7-8705G) вряд ли будут существенно отличаться друг от друга внешне. Суффикс VR в названии Hades Canyon VR может означать, что у старшего решения будет, к примеру, два-три разъёма HDMI (для одновременного подключения шлема виртуальной реальности и монитора), а у младшего — один-два. Различия также могут проявляться в модели адаптера Wi-Fi/Bluetooth, количестве портов USB 3.1 и других особенностях отнюдь не первостепенной важности.

Источник:

Intel создаёт группу по разработке дискретных GPU и нанимает Раджу Кодури

В четверг вечером корпорация Intel объявила о создании Core and Visual Computing Group, подразделения по разработке дискретных графических процессоров для игровых ПК, а также ускорителей вычислений для суперкомпьютеров и различных перспективных приложений. Новую группу возглавит известный специалист Раджа Кодури (Raja Koduri), успевший поработать в ATI, Apple и AMD Radeon Technologies Group. Сам факт того, что в Intel решили вернуться к созданию дискретных графических процессоров в третий раз, говорит о том, что компания существенно меняет стратегию на нескольких рынках.

«Раджа является одним из самых опытных, новаторских и уважаемых визионеров в области графических и системных архитектур в индустрии и ещё одним примером того, как лучшие таланты присоединяются к Intel — сказал Мурти Рендучинтала (Murthy Renduchintala), президент группы Client and Internet of Things Business & Systems Architecture Group (CISA). «У нас есть захватывающие планы по активному расширению наших вычислительных и графических возможностей с использованием нашего всеобъемлющего портфеля интеллектуальной собственности. С Раджей во главе Core and Visual Computing Group мы добавим в наш портфель непревзойдённые возможности, продвинем нашу стратегию в области вычислений и графики и, впоследствии, станем движущей силой революции обработки данных».

Раджа Кодури

Раджа Кодури

Intel возвращается на рынок дискретных GPU

Принимая во внимание характер анонса, трудно ожидать, что Intel раскроет перспективный план по разработке графических и вычислительных технологий, который будет реализовываться под руководством господина Кодури. Тем не менее, пресс-релиз Intel раскрывает ряд деталей о характере будущих решений компании.

Ключевой задачей Раджи Кодури в Intel станет создание семейства высокопроизводительных дискретных графических решений для различных приложений. Данные решения будут базироваться на унификации различных архитектур и интеллектуальной собственности Intel, а конечные продукты будут использоваться для обработки графики, суперкомпьютерных вычислений, искусственного интеллекта и ряда других перспективных направлений.

Хотя задача господина Кодури кажется однозначной, её исполнение означает существенный сдвиг в стратегии Intel по целому ряду направлений, а потому есть смысл вспомнить подходы Intel к разработке GPU и суперкомпьютерным ускорителям.

Intel 740 и графические адаптеры стоимостью похода в кафе

Глядя на взрывной рост популярности графических ускорителей для игровых ПК в 1990-х годах прошлого века, в Intel осознали, что подобные микросхемы могут стать новым рынком сбыта, а потому корпорация должна выпустить собственный графический процессор. Поскольку у Intel не было собственной команды разработчиков графических адаптеров, то для работы над проектом Auburn компания решила объединить усилия с другими игроками рынка — Real3D (изначально подразделение General Electric, затем — Lockheed Martin) и Chips and Technologies.

Графическая карта на базе Intel 740. Фото Wikipedia.org

Графическая карта на базе Intel 740. Фото Wikipedia.org

Auburn появился на свет в начале 1998 года под именем Intel 740, а его главной особенностью стало использование инновационной по тем временам шины AGP. В теории AGP позволяла хранить текстуры в системной памяти, тем самым снижая требования к объёму оперативной памяти на графическом адаптере и его себестоимость. На практике хранить текстуры в системной памяти было невыгодно с точки зрения производительности, драйверы Intel 740 оказались очень несовершенны, а конкуренция со стороны традиционных разработчиков графических адаптеров столь серьёзной, что в Intel приняли решение прекратить продажи i740 осенью 1999 года. Чуть позже Intel попыталась выпустить ещё один дискретный графический процессор (Intel 752), но не смогла сделать его сколько-то массовым.

Неудачи i740 и i752 показали Intel, что компания не может выдержать конкуренции с ATI и NVIDIA на рынке видеокарт. Однако имеющиеся на тот момент возможности полупроводникового гиганта в области интеграции, производства и продаж подсказали Intel, что она в состоянии создавать дешевые интегрированные графические решения для недорогих ПК. Таким образом, в недрах Intel родилось подразделение под руководством Тома Пиаццы (Tom Piazza), которое занималось разработкой графических процессоров Graphics & Media Accelerator (GMA), чья стоимость для конечных пользователей была равна цене похода в кафе. Поскольку Intel жёстко ограничивала развитие своих встроенных GPU транзисторным бюджетом, размерами на кристалле и устаревшими технологическими процессами производства, GMA имели довольно скромные возможности и посредственную репутацию.  

Микросхема Intel 740 на материнской плате

Микросхема Intel 740 на материнской плате

Через несколько лет в Intel пожалели о таком подходе, но до того времени недорогая графика Intel стала весьма популярной среди желающих снизить себестоимость производителей ПК.

Intel Larrabee: x86 от игрового ПК до суперкомпьютера

Шло время, в начале 2000-х годов в отрасли заговорили о том, что GPU можно использовать для определённых вычислений общего назначения в суперкомпьютерах, получив преимущество от их «параллельности». Помимо GPU, на рынке появлялись гетерогенные (Niagara/Sun UltraSPARC T1) и гомогенные (Cell BE) многоядерные процессоры, также направленные в т. ч. на суперкомпьютеры. Разумеется, как GPU, так и многоядерные CPU представляли прямую угрозу для Intel. Помимо этого, несмотря на то, что интегрированные GPU Intel использовались в огромном количестве недорогих ПК, рынок дорогих дискретных GPU рос, равно как средняя стоимость графических карт. Таким образом, в 2005 году руководство Intel приняло решение возобновить работу над дискретными графическими процессорами, но при этом не пытаться улучшить архитектуру GMA до уровня дискретных GPU ATI и NVIDIA, а создать нечто иное. Впоследствии это стало проектом Larrabee.

Intel Xeon Phi

Intel Xeon Phi

Основные требования к разрабатываемой GPU-архитектуре были просты: большое количество вычислительных ядер общего назначения на базе архитектуры x86, высокая тактовая частота, максимальное количество операций с плавающей запятой в секунду (TFLOPS), минимальное количество специфических для GPU блоков. Учитывая требования и многоцелевой характер будущего продукта, изначально проект получил название SMAC (Simple, Massive Array of Cores — простой огромный массив ядер). В руководстве Intel считали, что «гибкие» высокочастотные x86-ядра смогут выполнять те же задачи, что и специализированное аппаратное обеспечение в GPU с приемлемой скоростью, их количество даст возможность максимизировать вычислительную мощность для суперкомпьютеров, а совместимость с x86 облегчит работу HPC-программистов, привыкших к Intel Xeon.

Карты Xeon Phi

Карты Intel Xeon Phi

По словам разработчиков, для эмуляции аппаратных возможностей GPU на 62-ядерном графическом процессоре Larrabee запускали операционную систему FreeBSD и программу DirectXGfx. Последняя не только позволяла играть в DirectX 11-игры (разумеется, на обычной Windows-системе), но и добавлять Larrabee новые возможности. К сожалению, такой подход не позволил Larrabee показывать конкурентоспособную производительность в сравнении с AMD Radeon и NVIDIA GeForce, что и послужило причиной отказа Intel от выпуска Larrabee в качестве GPU. Тем не менее, архитектура Larrabee была использована для сопроцессоров, а потом и процессоров Xeon Phi, призванных конкурировать с ускорителями NVIDIA Tesla. Глядя на пиковую производительность топовых Xeon Phi 7290 (3,5 FP64 TFLOPS) и NVIDIA Tesla P100 (4 – 4,6 FP64 TFLOPS для PCIe карты, 4,7 – 5,3 FP64 TFLOPS для NVLink ускорителя), довольно очевидно, что сегодняшний Xeon Phi на базе x86 не может противостоять GPU на основе ядер с современной проприетарной архитектурой. Можно констатировать, что на сегодняшний день Larrabee не преуспел ни в одной из своих изначальных задач: он не стал быстрым GPU и едва ли может конкурировать с NVIDIA на рынке суперкомпьютеров.

HD и Iris Graphics: гадкий утёнок превращается в лебедя

Larrabee был не единственным графическим проектом Intel, стартовавшим в середине 2000-х годов. Как несложно вспомнить, операционные системы и графические интерфейсы становились всё более требовательными к ресурсам GPU с появлением Apple Mac OS X (2000), Microsoft Windows Vista (2006), Apple iPhone OS (2007) и других. В какой-то момент Intel не смогла убедить Apple использовать её микросхемы в своих мобильных устройствах вследствие того, что у компании не было сколько-то мощных встроенных GPU. Кроме того, Стив Джобс (Steve Jobs) настоятельно требовал от Пола Отеллини (Paul Otellini, исполнительный директор Intel c 2005 по 2013 год) увеличить производительность интегрированных графических процессоров (iGPU), поскольку использование дискретных GPU становилось всё более проблематичным в мобильных ПК.

Проигрыш многомиллионного контракта, а также настойчивые требования важного партнёра сделали своё дело: в 2007 году господин Отеллини объявил о планах увеличить производительность встроенных GPU в 10 раз к 2010 году. Именно в этот момент настал золотой час группы Тома Пиаццы, некогда разработавшей Intel 740.

Прогресс в развитии iGPU Intel в последние годы

Прогресс в развитии iGPU Intel в последние годы

Получив финансирование, транзисторный бюджет, достаточное место на кристалле, а затем и передовые технологии производства (вследствие перемещения iGPU в процессор), команда смогла разработать графическое решение, которое превосходило производительность iGPU образца 2007 года в 25 раз. В последующие годы производительность интегрированных графических процессоров Intel росла не только благодаря улучшениям в области архитектуры, но и появлению более мощных версий этих iGPU c большим количеством исполнительных устройств (EU, execution units). Так, если наиболее мощное графическое ядро класса GT3 в процессоре поколения Haswell обладало 40 EU, то CPU поколения Skylake уже могут похвастаться iGPU класса GT4 с 72 EU. Как показала практика партнёрства Intel c AMD в области интеграции дискретного Radeon в один корпус с процессором Kaby Lake, Intel готова идти ещё дальше, чтобы представить своим пользователям более высокую производительность.

Intel Core с графикой AMD Radeon

Intel Core с графикой AMD Radeon

Раджа Кодури в Intel: чего ожидать?

Принятие на работу ключевого сотрудника конкурента, с которым только что был заключен контракт на поставку важного компонента, говорит о том, насколько специалист уровня господина Кодури необходим Intel.

Как видно, в отличие от начала 2000-х годов, в Intel более не считают графические ускорители уделом любителей игр и развлечений. Быстрая эволюция iGPU компании последних лет подтверждает это. Судя по всему, Intel готова инвестировать в графические процессоры, а потому Раджа Кодури получит все необходимые ему ресурсы. Сам факт принятия на работу специалиста такого уровня говорит об очень серьёзных намерениях.

Примечательно, что в Intel говорят об унификации архитектур и интеллектуальной собственности на фоне того, что Xeon Phi на базе x86 не может конкурировать с NVIDIA Tesla в том, что касается производительности. Неизвестно, означает ли фраза Intel об унификации, что компания планирует отказаться от x86-ядер в решениях для суперкомпьютеров, однако едва ли это стало бы удивительным развитием событий.

AMD Radeon Vega Frontier Edition

AMD Radeon Vega Frontier Edition

Пожалуй, самый главный вопрос, на который пока нет ответа, это то, когда именно Intel планирует выпустить свой новый дискретный GPU. В случае, если у компании нет уже готовой архитектуры, способной масштабироваться от небольшого iGPU для ноутбука до дискретного графического процессора размером 550 мм2 и более, то работа над дискретным GPU Intel потребует нескольких лет. Таким образом, едва ли мы увидим плоды деятельности Раджи Кодури ранее 2022 года. Если же текущая (Gen 9.5) или будущая (Gen 10, Gen 11) графическая архитектура Intel (чья разработка уже завершена) способна масштабироваться и показывать производительность сравнимую с будущими решениями AMD и NVIDIA, мы вполне можем рассчитывать увидеть дискретный GPU компании уже в 2019–2020 году (но не раньше, иначе в партнёрстве Intel c AMD не было бы смысла).

Стоит помнить, что поскольку в описании рабочих задач господина Кодури значится не только проектирование нового GPU, но и унификация различных архитектур и интеллектуальной собственности Intel, очень вероятно, что мы увидим несколько поколений продукции для разных приложений, прежде чем поставленная Intel задача будет выполнена.

Источник:

Раджа Кодури покинул ряды AMD

Глава Radeon Technologies Group, подразделения компании AMD, Раджа Кодури (Raja Koduri) принял решение покинуть свой пост. Об этом удалось разузнать журналисту ресурса Hexus.net Тариндеру Сандху, лично знакомому с Раджой более 10 лет. Таким образом, продолжительный творческий отпуск руководителя RTG, начавшийся 25 сентября, оказался бессрочным, а управление графическим подразделением AMD непосредственно генеральным директором компании Лизой Су (Lisa Su) — более длительным, чем планировалось.

«У меня нет никаких сомнений в том, что RTG и AMD двигаются в правильном направлении, поскольку высокопроизводительные вычисления приобретают всё бóльшую важность во всех аспектах нашей жизни, — пишет Раджа Кодури в обращении к коллегам. — Я искренне верю в наши проекты — Vega, Navi и последующие, и невероятно горжусь тем, как далеко мы зашли и куда направляемся... Поскольку я часто размышляю о том, как будут развиваться вычисления в дальнейшем, то всё больше чувствую, что хочу выйти за рамки аппаратного обеспечения, взять на себя более широкие обязанности и преуспеть в этом».

Похоже, момент для расставания г-на Кодури с Radeon Technologies Group и AMD в целом был подобран довольно удачно: основы архитектуры Navi уже заложены (пусть мы этого и не видим), а доработка Vega лишена смысла ввиду значительного отставания от NVIDIA Pascal в игровых приложениях, с одной стороны, и нового витка криптовалютного бума, с другой. Согласно Тариндеру Сандху и Hexus.net, Раджа Кодури является настоящим энтузиастом своего дела и с искренним увлечением берётся за те или иные проекты. В свете этого можно предположить, что добытчики криптовалют могли сбить боевой настрой главы RTG, ведь немалая часть видеокарт Radeon теперь трудится не в игровых компьютерах и рабочих станциях, а в криптовалютных фермах, где многое не важно.

Второе пришествие Раджи Кодури в AMD датировано апрелем 2013 года: после четырёх лет в Apple он занял должность руководителя подразделения AMD Visual Computing, а в сентябре 2015-го возглавил Radeon Technologies Group. Успехи и неудачи г-на Кодури на должности ведущего разработчика графических архитектур по горячим следам оценивать, наверное, не стоит, ведь мы ещё не видели в деле 7-нм GPU Navi, которые или позволят красному лагерю реабилитироваться в глазах геймеров, или останутся незамеченными ими, как Radeon RX Vega. К числу заслуг Раджи стоит отнести повышение стабильности работы графических драйверов AMD и сопутствующего ПО, и систематизацию их выпуска. С другой стороны, в RTG фактически признали свою неспособность справиться с проблемами в работе многочиповых связок CrossFire.

В любом случае, полагаем, что такой опытный специалист, как Раджа Кодури недолго будет оставаться в статусе безработного. В ближайшие месяцы он наверняка объявится в одной из крупных компаний, связанных с высокопроизводительными вычислениями.

Источник:

Дуэт CPU Intel и GPU AMD: новая глава саги с главным героем Core i7-8809G

Официальное подтверждение существования процессора Intel с «внешним» графическим ядром AMD на одной подложке вызвало оживлённые дискуссии на просторах Интернета. По всему видно, что чипмейкер из Санта-Клары готовится представить нерядовой продукт, который превзойдёт возможности имеющихся APU AMD и, тем более, процессоров Intel с графической составляющей Iris Pro. Собственно, новых моделей будет как минимум две — Core i7-8809G и Core i7-8705G (последняя местами упоминается как Core i7-8706G).

Поскольку подробностей ни Intel, ни AMD не сообщили, нам остаётся довольствоваться плодами «коллективного разума» из англоязычных источников и собственными соображениями. Пока всё сводится к тому, что процессоры семейства Intel Kaby Lake-G (название предварительное) получены из четырёхъядерных CPU Kaby Lake или Kaby Lake Refresh со встроенной графикой класса Intel GT2, «внешних» графических ядер AMD с архитектурой Polaris или Vega и кристалла(-ов) буферной по отношению к GPU памяти HBM2.

Здесь стоит подчеркнуть, что ни процессорная, ни графическая составляющая Kaby Lake-G сами по себе не уникальны, хотя GPU вполне может быть заказным, как у консоли Xbox One X. На выходе имеем разнесённые по краям подложки CPU Core и GPU Radeon, и соединяющий их интерфейс (предположительно, PCI Express). Практический смысл всей затеи не только и не столько в уменьшении себестоимости систем с аналогичным сочетанием узлов, сколько в экономии места на текстолите и упрощении дизайна ПК в целом, включая цепи питания и средства охлаждения дуэта CPU и GPU. Ну и в качестве фона выступают политические игры Intel и AMD против NVIDIA, которая слишком уверенно держится на рынках ИИ и дискретной графики.

CPUЯдра/потокиКеш L3, МбайтЧастота, ГГцGPUSP/TMUHBM2, ГбайтTDP, Вт
Core i7-8809G 4/8 6 3,1/4,2 AMD 694C:C0 1536/96 4 100
Core i7-8705G 4/8 6 ≤3,1/4,2 AMD 694E:C0 ≤1536/96 4 65

История проекта Kaby Lake-G тянется с весны текущего года. Некоторое время данный концепт и «симбиоз CPU Intel и GPU AMD» сосуществовали на страницах прессы параллельно, но есть все основания полагать, что в реальности «винегрета» Intel/AMD в одном кристалле не будет (как минимум в обозримом будущем). Похоже, что на деле AMD, как и в случае с игровыми консолями, продаёт заказчику (Intel) свои кристаллы и, заметим, не посвящает инженеров Intel в детали архитектуры чипов. Для Advanced Micro Devices сделка выигрышна в финансовом плане, но в то же время компания расписывается в собственном неверии в ещё не вышедшие 14-нм APU Raven Ridge с высоким тепловыделением. Быть может, в прямом противостоянии Kaby Lake-G и Raven Ridge и не сойдутся, однако ввиду того, что у последних ожидается значительно меньше шейдерных блоков, заявлениям о «самых мощных в мире APU» (а таковые, несомненно, прозвучат) можно будет только посочувствовать.

Вся надежда на HPC APU, но не поздно ли он выйдет?

Вся надежда на HPC APU, но не поздно ли он выйдет?

В широкий «ареал обитания» Core i7-8809G и Core i7-8705G, в любом случае, верится с трудом. Со стопроцентной вероятностью пока можно говорить только об их включении в состав NUC Hades Canyon и Hades Canyon VR — нишевых игровых мини-ПК 2018 года. Учитывая сегодняшние предпочтения геймеров, почти невероятным кажется сценарий, при котором другие производители игровых мини-компьютеров и ноутбуков начнут массово отказываться от дуэта Core и GeForce в пользу Core и Radeon. Стало быть, для чего ещё могут пригодиться Kaby Lake-G? Ответом может быть видение Apple своих будущих платформ для создателей контента, в частности iMac и/или MacBook Pro.

Планы Intel по расширению семейства мини-ПК NUC

Планы Intel по расширению семейства мини-ПК NUC

Наш материал был бы неполным без упоминания имеющихся в онлайн-базах результатов тестирования опытных образцов Kaby Lake-G. Один из них — 76 607 очков в Geekbench 4 — датируется 9 июня. Частота процессора определилась как 2,81 ГГц, объём кеш-памяти третьего уровня — 6 Мбайт. Четырёхъядерный CPU функционировал с активированной технологией Hyper-Threading. Графический кристалл AMD gfx804 на PCB модели 694C:C0 оперировал 24 CU-кластерами (1536 потоковыми процессорами) с частотой 1 ГГц и взаимодействовал с 4 Гбайт буферной памяти.

Core i7-8809G в Geekbench 4

Core i7-8809G в Geekbench 4

Сам результат близок к показателям видеокарт Radeon R9 200/300 на чипах Tonga, а также GeForce GTX 960.

В базе GFXBench обнаружились и Core i7-8809G (GPU 694C:C0), и Core i7-8705G (GPU 694E:C0). Разница в производительности между ними весьма значительная, что может объясняться значениями частот CPU и GPU, разным количеством активных шейдерных блоков и/или более высоким лимитом мощности у старшего решения.

Преимущество Core i7-8809G неоспоримо

Преимущество Core i7-8809G неоспоримо

В более надёжном бенчмарке 3DMark 11 (предустановка Performance) Core i7-8809G как минимум на треть быстрее сородича в графических тестах. В процессорном, в свою очередь, чуть лучше (на 1,6 %) показывает себя Core i7-8705G. Стало быть, блок CPU у моделей Kaby Lake-G, вероятнее всего, одинаков, а частоты — сопоставимы.

Core i7-8809G против Core i7-8705G

Результаты Core i7-8809G и Core i7-8705G (справа)

Среди результатов, полученных во встроенном бенчмарке игры Ashes of the Singularity, нашлись два на графическом ядре 694E:C0 модели CPU Core i7-8705G. Большой разброс (3900 и 4800 очков) мог возникнуть из-за многих факторов, и не в последнюю очередь — из-за самого теста. На предустановке 1080p Low (низкие настройки качества) блок GPU при поддержке CPU выдал 48,4 к/с, а затем — 62,9 к/с.

Источники: