Сегодня 15 июня 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → машина
Быстрый переход

Мозговой имплант Neuralink позволил обезьяне увидеть несуществующий предмет

Идея создания интерфейса между мозгом человека и компьютером не является для стартапа Neuralink Илона Маска (Elon Musk) единственным направлением разработок в сфере мозговых имплантов. Устройство Blindsight призвано вернуть способность видеть незрячим пациентам, и недавно в ходе испытаний на обезьяне представителям компании удалось добиться определённого успеха.

 Источник изображения: Neuralink

Источник изображения: Neuralink

Выступая на конференции в пятницу, инженер Neuralink Джозеф О’Доэрти (Joseph O’Doherty) рассказал о том, что ему и его коллегам удалось оказать стимулирующее воздействие на мозг обезьяны с вживлённым имплантом Blindsight, вызвав у неё своего рода зрительную галлюцинацию. Как считают авторы эксперимента, по меньшей мере две трети времени животное могло видеть некий предмет, которого в реальности не существовало. Об этом они могли судить по движению глаз подопытной обезьяны.

Neuralink впервые открыто говорит о своих тестах импланта Blindsight. О клинических испытаниях с привлечением людей пока говорить преждевременно, поскольку в США это устройство не получило соответствующих одобрений со стороны регулирующих органов. Илон Маск ранее заявлял, что возвращение людям зрения является лишь базовой задачей проекта Blindsight, в идеале стартап хотел бы развить этот канал восприятия человеком действительности до пределов, не предусмотренных природой. Например, такие импланты могут наделить человека способность видеть в инфракрасном спектре. В марте он признался, что испытания Blindsight на обезьянах проводятся уже несколько лет, но вживить имплант первому человеку компания надеется до конца текущего года.

Попутно инженер Neuralink поведал о прогрессе в испытаниях первой модели импланта, который позволяет транслировать нервные импульсы в компьютерные команды. На данный момент имплантом пользуются пять пациентов с той или иной формой паралича конечностей или мышц. Отдельные участники клинических испытаний пользуются возможностями импланта по 60 часов в неделю.

Представитель Neuralink на конференции рассказал об экспериментах компании, в ходе которых имплант использовался для стимуляции мышечных сокращений обезьяны через головной мозг. В перспективе, подобная технология позволит вернуть подвижность парализованным пациентам без необходимости использования протезов или экзоскелета. В отношении дальнейших перспектив развития Blindsight было сказано, что стартап планирует использовать в сочетании с мозговым имплантом пару специальных очков, которые позволят вернуть зрение лишившимся его людям. Отвечающая за зрение часть головного мозга обезьяны расположена ближе к его поверхности, чем у человека, и это упрощает тестирование чипа на данном этапе. В случае с человеческим мозгом электроды импланта будут размещаться в более глубоких областях при помощи хирургического робота, разработанного Neuralink.

В Китае создали ИИ, который сам проектирует процессоры не хуже людей

Исследователи Китайской государственной лаборатории по разработке процессоров и Исследовательского центра интеллектуального программного обеспечения сообщили о создании ИИ-платформы для автоматизированной разработки микросхем. Проект с открытым исходным кодом QiMeng использует большие языковые модели (LLM) для «полностью автоматизированного проектирования аппаратного и программного обеспечения», а также может применяться для проектирования «целых CPU».

 Источник изображений: Китайская академия наук

Источник изображений: Китайская академия наук

По словам разработчиков, чипы, разработанные QiMeng, соответствуют производительности и эффективности тех микросхем, которые были созданы экспертами-людьми. На базе QiMeng исследователи в качестве примера уже спроектировали два процессора: QiMeng-CPU-v1, сопоставимый по возможностям с Intel 486; и QiMeng-CPU-v2, который, как утверждается, может конкурировать с чипами на Arm Cortex-A53. Стоит отметить, что разница между этими продуктами составляет 26 лет. Чип Intel 486 был представлен в 1986 году, а Arm Cortex-A53 — в 2012-м.

QiMeng состоит из трёх взаимосвязанных слоёв: в основе лежит доменно-специфическая модель большого процессорного чипа; в середине — агент проектирования аппаратного и программного обеспечения; верхним слоем выступают различные приложения для проектирования процессорных чипов. Все три слоя работают в тандеме, обеспечивая такие функции, как автоматизированное front-end-проектирование микросхем, генерация языка описания оборудования, оптимизация конфигурации операционной системы и проектирование цепочки инструментов компилятора. По словам разработчиков платформы, QiMeng может за несколько дней сделать то, на что у команд, состоящих из людей-инженеров, уйдут недели работы.

В опубликованной статье, описывающей особенности платформы QiMeng, её разработчики также освещают проблемы, с которыми приходится сталкиваться при текущем проектировании чипов, включая «ограниченную технологию изготовления, ограниченные ресурсы и разнообразную экосистему». QiMeng же стремится автоматизировать весь процесс проектирования и проверки чипов. По словам разработчиков, цель заключалась в повышении эффективности, снижении затрат и сокращении циклов разработки по сравнению с ручными методами проектирования микросхем, а также в содействии быстрой настройке архитектур микросхем и программных стеков, специфичных для конкретной области.

Как пишет Tom’s Hardware, крупные западные технологические компании, занимающиеся проектированием микросхем, такие как Cadence и Synopsys, тоже активно внедряют ИИ в процессы создания чипов. Например, Cadence использует несколько ИИ-платформ для ключевых этапов проектирования и проверки. В свою очередь, ИИ-платформа DSO.ai от Synopsys, по последним подсчётам, помогла с разработкой более 200 проектов микросхем.

Анонс платформы QiMeng произошёл на фоне давления властей США на ведущих поставщиков программного обеспечения для автоматизации проектирования электроники (EDA), чтобы те прекратили продажу инструментов для проектирования микросхем в Китай, что ещё больше усложнило задачу Пекина по укреплению своей полупроводниковой промышленности. Разработчики QiMeng отмечают, что Китай должен отреагировать, поскольку технология проектирования чипов является «стратегически важной отраслью». Издание South China Morning Post со ссылкой на данные последнего анализа Morgan Stanley сообщает, что на долю Cadence Design Systems, Synopsys и Siemens EDA в прошлом году пришлось в общей сложности 82 % выручки на китайском рынке EDA.

Figure похвалилась успехами человекоподобного робота Helix на работе, но посылки продолжают летать по складу

Три месяца назад робототехнический стартап Figure «устроил на работу» в почтовое отделение своего передового гуманоидного робота Helix. Сегодня представители компании подробно рассказали о накопленном за это время опыте и успехах робота в сортировке посылок. Однако при просмотре опубликованного компанией почти часового видеоролика мы заметили множество ошибок, совершаемых Helix. Пожалуй, свои посылки мы ему пока доверить не готовы.

 Источник изображений: Figure

Источник изображений: Figure

«Теперь Helix может обрабатывать более широкий спектр упаковок и приближается к ловкости и скорости человеческого уровня, приближая нас к полностью автономной сортировке посылок. Этот быстрый прогресс подчёркивает масштабируемость основанного на обучении подхода Helix к робототехнике, который быстро переносится в реальное применение», — так оценил успехи робота представитель Figure. По его словам, за счёт масштабирования данных и усовершенствования архитектуры возможности Helix существенно повысились:

  • Освоены новые типы упаковок, такие как полиэтиленовые пакеты и плоские конверты.
  • Пропускная способность возросла на 20 % до 4,05 секунд на упаковку при сохранении точности.
  • Улучшилось распознавание штрих-кодов с 70 до 95 процентов.
  • Робот демонстрирует адаптивное поведение, разглаживая складки для улучшения считывания штрих-кодов.
  • Модуль памяти зрения обеспечивает Helix доступ к истории прошлых состояний.
  • Обратная связь по усилию обеспечивает более точный захват и манипулирование посылками.

Помимо стандартных жёстких коробок система теперь обрабатывает полиэтиленовые пакеты, мягкие конверты и другие деформируемые или тонкие посылки. Эти предметы могут складываться, мяться или изгибаться, что затрудняет захват и распознавание этикеток. Helix решает эту задачу, корректируя стратегию захвата на лету — например, отбрасывая мягкий пакет для его динамического переворота или используя специальные захваты для плоских почтовых отправлений.

Робот должен поворачивать упаковку штрих-кодом вниз для сканирования. Helix старается расправить пластиковую упаковку, чтобы сканер смог успешно считать штрих-код. Такое адаптивное поведение подчёркивает преимущества сквозного обучения — робот выполняет действия, которые не были жёстко запрограммированы, чтобы компенсировать несовершенства упаковки.

Многие достижения стали возможны благодаря целенаправленным улучшениям визуально-моторной политики робота. Он получил новые модули памяти и машинного зрения, что позволило ему лучше воспринимать состояние окружающей среды и быстро адаптироваться к изменениям ситуации.

Helix оснащён модулем неявной визуальной памяти, который обеспечивает поведение с учётом текущего состояния — робот запоминает, какие стороны упаковки он уже осмотрел, либо какие зоны конвейера свободны. Модуль памяти помогает устранять избыточные движения, давая Helix ощущение временного контекста и позволяя ему действовать более стратегически при выполнении многошаговых манипуляций.

Отслеживание истории недавних состояний позволяет роботу осуществлять более быстрое и реактивное управление. В результате ускоряется реакция на неожиданности и помехи: если пакет смещается или попытка захвата оказывается неудачной, Helix корректирует движение «на лету». Это значительно сократило время обработки каждого пакета.

Helix использует аналог человеческого осязания благодаря интегрированной обратной связи по усилию. Робот способен определить момент соприкосновения с объектом и использовать это для модуляции движения, например, приостанавливая опускание при контакте с конвейерной лентой.

Хотя основной задачей Helix в логистическом сценарии является автономная сортировка, он легко адаптируется к новым взаимодействиям. Например, протянутая к нему рука человека интерпретируется как сигнал к передаче предмета: робот отдаёт посылку, а не размещает её на конвейере — подобное поведение заранее явно не программировалось, система самостоятельно обучилась ему.

 Источник изображений: Figure

«Helix неуклонно масштабируется в плане ловкости и надёжности, сокращая разрыв между освоенными роботизированными манипуляциями и требованиями реальных задач. Мы продолжим расширять набор навыков и обеспечивать стабильность на ещё больших скоростях и рабочих нагрузках», — заявил представитель Figure.

В реальности всё далеко не так радужно, как описывают маркетологи Figure — по следующим ссылкам можно увидеть, что робот совершает много ошибок, путается, роняет посылки и порой откровенно зависает. Так что какое-то время «кожаные мешки» на этой работе ещё будут востребованы. Но, учитывая нынешние темпы развития робототехники и бум искусственного интеллекта, почтовым служащим пора подумать о смене профессии.

Гейб Ньюэлл готовится залезть к нам в головы — он скоро выпустит мозговой имплантат

Секретный стартап Гейба Ньюэлла (Gabe Newell) — Starfish Neuroscience — вышел из тени и объявил о планах. Молодая компания разработала собственный мозговой имплантат и представит его в конце 2025 года. Устройство обещает оказаться проще в установке и эксплуатации, чем имплантат конкурирующей с ней компании Neuralink Илона Маска (Elon Musk).

 Ни один Гэйб Ньюэлл не пострадал, фото — постановочно. Источник изображения: Valve

Ни один Гейб Ньюэлл не пострадал, фото — постановочное. Источник изображения: Valve

Борьба за мозги граждан разгорается в буквальном смысле этого слова. Это не мифическое чипирование Билла Гейтса (Bill Gates). Это всерьёз. На стареющую человеческую цивилизацию надвинулась тень болезней Альцгеймера и Паркинсона. Стимуляция мозга с помощью имплантатов обещает помочь с их лечением, как и потенциально способна решить множество проблем с болезнями мозга. Наконец, интерфейс мозг-компьютер — это следующий уровень компьютеризации со всеми вытекающими преимуществами.

Основатель и директор Valve и платформы Steam Гейб Ньюэлл около десяти лет вынашивает идею мозговых имплантатов. Проповедуемый его стартапом Starfish Neuroscience подход отличается от реализации Neuralink. В частности, инженеры Starfish нацелены работать одновременно с несколькими участками мозга, а не с одним, как это делает Neuralink.

Последние медицинские работы в сфере изучения нейродеградации мозга тоже указывают на то, что проблему нельзя устранить или смягчить, воздействуя только на один локальный участок нервной ткани, где установлен имплантат. Более того, если воздействие на мозг рассредоточить, это открывает путь к более компактным имплантатам с ощутимо меньшим потреблением энергии, а это решает задачу поддержки питания датчиков в голове.

Более десяти лет назад штатные психологи Valve изучали биологическую реакцию людей на видеоигры. Работа вылилась в разработку датчиков для мочек ушей — своеобразное дополнение к гарнитуре виртуальной реальности, создаваемой тогда в компании. Позже, в 2019 году, компания впервые на конференции GDC озвучила идею интерфейса мозг-компьютер для игр. Тогда же была организована компания Starfish Neuroscience, чтобы начать воплощать мечту в реальность.

Первый чип для заявленных целей пока не станет полноценным мозговым имплантатом. Это будет специальный «электрофизиологический» чип, предназначенный для записи активности мозга. Эту активность можно расшифровывать и соотносить с теми или иными пожеланиями носителя. Похожим образом это делает чип Neuralink. По словам Starfish, у компании уже есть возможность питать такой чип и устанавливать его или элементы платформы в голову человека.

«Мы ожидаем, что наши первые чипы появятся в конце 2025 года, и мы заинтересованы в поиске партнёров, для которых такой чип откроет новые и захватывающие возможности», — пишет нейроинженер Starfish Нейт Сермак (Nate Cermak).

Цель компании состоит в том, чтобы создать имплантат меньшего размера и с меньшей инвазивностью, чем у конкурентов. Этот имплантат должен «обеспечивать одновременный доступ к нескольким областям мозга» вместо одной. При этом он не должен требовать питания. Разработчик утверждает, что при «обычной записи» имплантат потребляет всего 1,1 мВт и может работать с беспроводной передачей энергии.

О спецификациях чипа известно следующее:

  • Низкая мощность: общее энергопотребление 1,1 мВт при обычной записи.
  • Физические размеры: 2 × 4 мм (шаг BGA 0,3 мм).
  • Способность записывать спайки (импульсы) и локальные полевые потенциалы, а так же стимулировать мозг (бифазные импульсы).
  • Архитектура: 32 электрода, 16 каналов одновременной записи на частоте 18,75 кГц и один источник тока для стимуляции произвольных пар электродов.
  • Мониторинг: внутреннее сопротивление и измерение переходных процессов в стимулирующем напряжении.

Цифровая обработка данных на борту и обнаружение скачков напряжения позволяют устройству работать через беспроводные интерфейсы с низкой пропускной способностью. Чип изготовлен компанией TSMC по 55-нм техпроцессу. Для сравнения, у Neuralink N1 1024 электрода на 64 имплантированных в мозг нитях потребляют (по данным 2019 года) около 6 мВт. Чип Neuralink содержит аккумулятор, а размеры имплантата составляют 23 × 23 × 8 мм. Чип Neuralink уже установлен трём пациентам и показал нестабильность положения датчиков — тонкие нити имеют тенденцию к смещению в процессе движений человека.

Добавим, компания Starfish также работает над «термальными пушками» для уничтожения опухолей внутри тела человека с помощью точного локального повышения температуры. Кроме того, она разрабатывает методы транскраниальной магнитной стимуляции (TMS) с роботизированным управлением для лечения неврологических заболеваний, таких как биполярное расстройство и депрессия.

MSI показала на Computex 2025 игровой десктоп MEG Vision X AI 2nd с человеко-машинным интерфейсом

Компания MSI показала на выставке Computex 2025, проходящей сейчас на Тайване, игровой настольный компьютер MEG Vision X AI 2nd с новым человеко-машинным интерфейсом (HMI) от MSI с ИИ. Фронтальная панель десктопа представляет собой сенсорный экран, позволяющий взаимодействовать с разными ИИ-моделями.

MEG Vision X AI 2nd получил 13-дюймовый сенсорный экран с разрешением Full HD, который выступает в качестве динамического центра управления с интерфейсом HMI и функциями фирменного приложения MSI Robot AI. На дисплей выводятся данные мониторинга работы компьютерных комплектующих, а с помощью ИИ, который поддерживает голосовое управление с помощью встроенного микрофона и динамика, можно управлять настройками компьютера и монитора, регулировать производительность и управлять периферийными устройствами, например, громкостью звука в наушниках или яркостью подсветки.

С помощью ИИ-приложения MSI можно не только управлять голосом настройками компьютера, но и записывать деловые переговоры, заказывать билеты и т.д. Система способна сама выполнять поиск в интернете, предлагая пользователю готовые ответы, или подборки товаров по запросам.

Базовая конфигурация MEG Vision X AI 2nd включает процессор Intel Core Ultra 9 285K, видеокарты Nvidia GeForce RTX 50-q серии (включая RTX 5080 и 5090), поддержку до 192 Гбайт оперативной памяти DDR5‑6000 и NVMe SSD PCIe 5.0 с ёмкостью от 2 Тбайт. Для ускорения выполнения ИИ-задач и интеллектуальной оптимизации настройки системы на основе пользовательских предпочтений используется нейронный сопроцессор (NPU) в процессорах Intel Core Ultra. Система обеспечивает производительность более 3400 TOPS.

Отмечается и передовая система охлаждения Silent Storm Cooling AI от MSI, которая формирует многокамерную конструкцию воздушного потока, с помощью ИИ-алгоритмов, непрерывно регулируя скорость вращения вентиляторов, обеспечивает оптимальную температуру на всех компонентах компьютера. В дополнение радиаторы Glacier Armor обеспечивают значительное улучшение тепловых характеристик компонентов даже в ходе игровых марафонов на максимальных нагрузках. При этом система отличается тихой работой — в режиме Silent Mode уровень шума составляет 17,7 дБ.

MEG Vision X AI 2nd работает под управлением и Windows 11 Home или Pro. Коммуникационные возможности десктопа включают 4 порта USB Type-A, 2 порта USB Type C, интерфейс Thunderbolt 4. Также сообщается о поддержке стандарта DP 2.1a и сетевых подключений Killer 5 GbE и Wi‑Fi 7.

Стоимость новинки не уточняется, но определённо она будет не из дешёвых.

Человекоподобные роботы Boston Dynamics Atlas получат «зрение» от LG

Многие участники рынка компонентов для смартфонов не против добавить своему бизнесу динамики за счёт переключения на более активно растущие направления. LG Innotek в этом смысле рассчитывает на контракты с производителем человекоподобных роботов Boston Dynamics, которые обретут систему зрения на основе компонентов этого поставщика.

 Источник изображения: Boston Dynamics

Источник изображения: Boston Dynamics

О достигнутой между компаниями договорённости сообщает издание Business Korea. Речь идёт о следующем поколении человекоподобных роботов Atlas американской компании Boston Dynamics, которая принадлежит корейскому холдингу Hyundai Motor Group. С последним у LG Innotek уже сложились взаимовыгодные отношения, поскольку последняя из компаний снабжает автопроизводителя светотехникой для транспортных средств и прочими электронными системами.

LG Innotek и Boston Dynamics будут совместно разрабатывать систему машинного зрения для человекоподобных роботов Atlas следующего поколения. Первая будет отвечать за поставку датчиков камер, позволяющих чётко определять взаимное расположение снимаемых объектов даже в условиях ограниченной видимости, а вторая займётся разработкой сопутствующего программного обеспечения. Если учесть, что Hyundai намеревается десятками тысяч использовать роботов Boston Dynamics на своих автосборочных предприятиях, то соответствующий контракт с LG Innotek обещает быть выгодным.

Беспилотные автомобили выйдут на российские дороги общего пользования к 2027 году

Российские власти подготовили «дорожную карту» по развитию беспилотного автотранспорта до 2028 года — документ предусматривает выход машин с автопилотом на дороги общего пользования к 2027 году, пишет РБК со ссылкой на Минтранс.

 Источник изображения: yandex.ru/blog

Источник изображения: yandex.ru/blog

«План мероприятий позволит вывести беспилотные авто на дороги общего пользования к 2027 году. Тесты грузовиков без водителя за рулём прошли успешно, но ещё нужно доработать технологии и согласовать правила», — рассказали в ведомстве. Там провели заседание рабочей группы, в котором приняли участие представители Минэкономразвития, Госавтоинспекции, ассоциации «Цифровой транспорт и логистика», а также компаний — разработчиков технологий автопилота: «КамАЗ», Navio и «Яндекс». В рамках проекта ещё предстоит выработать единые нормы и сформировать инфраструктуру: обеспечить дороги необходимого качества, оснастить их умными датчиками и произвести интеграцию с цифровыми платформами.

В 2023 году на соединяющей две столицы трассе М-11 начались испытания беспилотных фургонов, а на минувшей неделе по Центральной кольцевой автодороге (ЦКАД) в Московской области пустили четыре грузовые машины с автопилотом — два «КамАЗа» и два автомобиля Navio. В этом году новой площадкой также станет трасса М-12 «Восток». На российских дорогах также проводит испытания свои машины «Яндекс». По состоянию на февраль 2025 года в России были зарегистрированы 36 ДТП с участием беспилотных автомобилей, и только в двух из них виноватым был автопилот — в остальных ответственность лежала на других участниках дорожного движения.

Google представила рассуждающую ИИ-модель Gemini 2.5 Flash с высокой производительностью и эффективностью

Google выпустила новую ИИ-модель, призванную обеспечить высокую производительность с упором на эффективность. Она называется Gemini 2.5 Flash и вскоре станет доступна в составе платформы Vertex AI облака Google Cloud для развёртывания и управления моделями искусственного интеллекта (ИИ).

 Источник изображения: Google

Источник изображения: Google

Компания отмечает, что Gemini 2.5 Flash предлагает «динамические и контролируемые» вычисления, позволяя разработчикам регулировать время обработки запроса в зависимости от их сложности.

«Вы можете настроить скорость, точность и баланс затрат для ваших конкретных нужд. Эта гибкость является ключом к оптимизации производительности Flash в высоконагруженных и чувствительных к затратам приложениях», — написала компания в своём официальном блоге.

На фоне растущей стоимости использования флагманских ИИ-моделей Gemini 2.5 Flash может оказаться крайней полезной. Более дешёвые и производительные модели, такие как 2.5 Flash, представляют собой привлекательную альтернативу дорогостоящим флагманским вариантам, но ценой потери некоторой точности.

Gemini 2.5 Flash — это «рассуждающая» модель по типу o3-mini от OpenAI и R1 от DeepSeek. Это означает, что для проверки фактов ей требуется немного больше времени, чтобы ответить на запросы. Google утверждает, что 2.5 Flash идеально подходит для работы с большими объёмами данных и использования в реальном времени, в частности, для таких задач, как обслуживание клиентов и анализ документов.

«Эта рабочая модель оптимизирована специально для низкой задержки и снижения затрат. Это идеальный движок для отзывчивых виртуальных помощников и инструментов резюмирования в реальном времени, где эффективность при масштабировании является ключевым фактором», — описывает новую ИИ-модель компания.

Google не опубликовала отчёт по безопасности или техническим характеристикам для Gemini 2.5 Flash, что усложнило задачу определения её преимуществ и недостатков. Ранее компания говорила, что не публикует отчёты для моделей, которые она считает экспериментальными.

Google также объявила, что с третьего квартала планирует интегрировать модели Gemini, такие как 2.5 Flash в локальные среды. Они будут доступны в Google Distributed Cloud (GDC), локальном решении Google для клиентов со строгими требованиями к управлению данными. В компании добавили, что работают с Nvidia над установкой Gemini на совместимые с GDC системы Nvidia Blackwell, которые клиенты смогут приобрести через Google или по своим каналам.

Google представила свой самый мощный ИИ-процессор Ironwood — до 4,6 квадриллиона операций в секунду

В рамках конференции Cloud Next на этой неделе компания Google представила новый специализированный ИИ-чип Ironwood. Это уже седьмое поколение ИИ-процессоров компании и первый TPU, оптимизированный для инференса — работы уже обученных ИИ-моделей. Процессор будет использоваться в Google Cloud и поставляться в системах двух конфигураций: серверах из 256 таких процессоров и кластеров из 9216 таких чипов.

 Источник изображений: Google

Источник изображений: Google

«Ironwood — это наш самый мощный, самый производительный и самый энергоэффективный TPU. Он разработан для ускорения инференса ИИ-моделей в масштабах облачной инфраструктуры», — прокомментировал анонс процессора вице-президент Google Cloud Амин Вахдат (Amin Vahdat).

Анонс Ironwood состоялся на фоне усиливающейся конкуренции в сегменте разработок проприетарных ИИ-ускорителей. Хотя Nvidia доминирует на этом рынке, свои технологические решения также продвигают Amazon и Microsoft. Первая разработала ИИ-процессоры Trainium, Inferentia и Graviton, которые используются в её облачной инфраструктуре AWS, а Microsoft применяет собственные ИИ-чипы Cobalt 100 в облачных инстансах Azure.

Google заявляет, что Ironwood обладает пиковой вычислительной производительностью 4614 Тфлопс или 4614 триллионов операций в секунду. Таким образом кластер из 9216 таких чипов предложит производительность в 42,5 Экзафлопс.

Каждый процессор оснащён 192 Гбайт выделенной оперативной памяти с пропускной способностью 7,4 Тбит/с. Также чип включает усовершенствованное специализированное ядро ​​SparseCore для обработки типов данных, распространённых в рабочих нагрузках «расширенного ранжирования» и «рекомендательных систем» (например, алгоритм, предлагающий одежду, которая может вам понравиться). Архитектура TPU оптимизирована для минимизации перемещения данных и задержек, что, по утверждению Google, приводит к значительной экономии энергии.

Компания планирует использовать Ironwood в своём модульном вычислительном кластере AI Hypercomputer в составе Google Cloud.

Экспериментальный мозговой имплантат на лету превратил мысли пациента в беглую речь

Утратившие способность говорить пациенты могут вернуться к активному речевому общению, если новая технология перевода мысленных слов в голосовую трансляцию будет доведена до клинического использования. Эксперименты с новым имплантатом и методом преобразования мысленно произнесённых слов в речь показали хорошие перспективы, буквально вернув голос пациентке, которая утратила способность говорить 20 лет назад.

 Источник изображения: Nature Neuroscience 2025

Источник изображения: Nature Neuroscience 2025

Новый имплантат и технологию обучения нейросети для распознавания активности речевых центров мозга разработали учёные Калифорнийского университета в Беркли (UC Berkeley) и Калифорнийского университета в Сан-Франциско (UCSF). Главной особенностью платформы стало сканирование активности мозга каждые 80 мс. Предложенный метод устраняет раздражающую задержку, обычно свойственную подобным решениям.

Система обычно сначала распознаёт активность мозга, затем подключает обучаемую модель, анализирует (как правило) большой фрагмент текста и лишь после этого воспроизводит мысленно произнесённую речь. Живое общение в таком случае затруднено, поскольку постоянно прерывается паузами. Учёные из Калифорнии предложили решение, которое позволяет воспроизводить речь сразу в процессе мысленного произнесения слов пациентом с имплантатом.

Также в новом исследовании учёные обошли проблему обучения модели (интерфейса) с помощью воспроизведения звуков и слов пациентом. Не все потерявшие речь способны на это, поэтому исключение данного этапа позволит расширить круг потенциальных пользователей технологии.

Эксперимент был проведён с 47-летней пациенткой, которая в 30 лет из-за болезни потеряла способность разговаривать. В процессе обучения нейросети она мысленно произносила 100 уникальных предложений из словаря, насчитывающего чуть более 1000 слов. Также использовалась вспомогательная схема для общения, основанная на 50 фразах с использованием меньшего набора слов.

В отличие от предыдущих методов, в новом процессе участница не пыталась произносить слова вслух — она просто проговаривала предложения про себя. Система успешно декодировала оба способа коммуникации, причём среднее количество переводимых в речь слов в минуту почти вдвое превышало показатели предыдущих методов. А при использовании метода прогнозирования мысли переводились в речь на лету в восемь раз быстрее, чем в случае альтернативных способов трансляции.

Для достижения большей естественности звучания использовались старые записи голоса пациентки, что позволило ей говорить фактически своим голосом. Более того, когда процесс распознавания мыслей запустили в автономном режиме без ограничения времени, система смогла перевести в слова даже ту активность мозга, которой интерфейс не обучали.

Авторы отмечают, что метод ещё нуждается в доработке, прежде чем его можно будет считать клинически применимым.

Первый пациент с Neuralink провёл год с имплантом в голове — побочных эффектов нет

На днях первый пациент с имплантатом Neuralink в голове сообщил об отсутствии каких-либо побочных эффектов от устройства — как физических, так и психологических. Зонды находятся в его голове около года, чего достаточно для первой серьёзной оценки этой нейронной платформы. Практика показала, что Neuralink помогает людям с параличом конечностей обрести самостоятельность в работе с компьютером и начать общение в социальных сетях.

 Источник изображения: Neuralink

Источник изображения: Neuralink

Ноланд Арбо (Noland Arbaugh), неспособный двигать руками и ногами, поделился своим самочувствием в соцсети X. В частности, он отметил, что за всё время со дня установки имплантата Neuralink «не было никаких негативных побочных эффектов, ни физических, ни психологических, если не считать ненасытного желания заполучить женский конец штекера» — шутку о подключении имплантата к внешней платформе. Судя по всему, имплантат Neuralink имеет разъём типа «папа», а «маму» подключают родственники или специалисты.

Главная проблема Neuralink в том, что тонкие иглы-зонды, углублённые в ткани головного мозга, могут постепенно смещаться из-за подвижности нервных тканей внутри черепа. Часть зондов способна покинуть своё место или серьёзно сдвинуться уже через несколько часов после операции. Это требует постоянной калибровки нейроимплантата. У первого пациента (Арбо) 85 % зондов вышли из зоны установки, поэтому он регулярно работает с командой Neuralink, чтобы улучшить и упростить процесс неизбежных калибровок.

Тем не менее год ежедневного использования имплантата показал его высокую степень надёжности и безопасности. С его помощью пациент смог отказаться от джойстика, которым управлял ртом, и стал перемещать курсор исключительно силой мысли, освоив гонки и стратегии, включая легендарную «Цивилизацию». По его словам, он мог бы даже управлять своей коляской мысленно и постоянно просит у команды Neuralink роботизированную руку для повседневных дел. Пока это остаётся в планах, но Neuralink открыт для усовершенствований и стремится расширить число пользователей, чтобы имплантат стал привычной частью жизни.

На Nvidia GTC показали в деле нейроинтерфейс с ИИ, который соединил мозг с компьютером без операции на мозге

Издание eWeek сообщило, что на конференции Nvidia GTC 2025 лидерам отрасли вживую показали работу малоинвазивного нейронного интерфейса на базе ИИ. Демонстрацию провела компания Synchron, которая заявляет о превосходстве своей технологии интерфейса «мозг-компьютер» над конкурирующими проектами, включая разрекламированный Neuralink Илона Маска.

 Источник изображений: Synchron

Источник изображений: Synchron

Мозговой датчик Synchron устанавливается без хирургического вмешательства в головной мозг. Он напоминает стент для расширения сосудов и вводится в яремную вену в районе шеи. Операция простая: стент по вене подводится к моторной зоне коры головного мозга, где считывает её активность. Передатчик сигналов устанавливается под кожу на груди пациента, откуда данные по беспроводной сети передаются на компьютер. Такие имплантаты установлены четырём гражданам Австралии и шести гражданам США.

На GTC компания Synchron продемонстрировала бесшовную интеграцию нескольких новых технологий: Apple Vision Pro, мультимодальной платформы обработки данных Holoscan от Nvidia и Sentrode — запатентованного компанией Synchron интерфейса, который устанавливает связь мыслей человека с физической средой. Данные о желаниях пациента (его мозговой активности) считывались имплантатом-стентом и передавались в систему AssistiveTouch гарнитуры Vision Pro.

«Мы создаём модель мозга, используя методы предварительного генеративного обучения, которые обучаются непосредственно на нейронных данных, абстрагируясь от основ человеческого разума, чтобы создавать функции, улучшающие жизнь наших пользователей, — сказал генеральный директор и основатель Synchron Том Оксли (Thomas Oxley). — Это возможно благодаря нашей способности масштабировать большие наборы данных, обещая сделать [интерфейс] BCI таким же распространённым, как установка [обычного] стента».

Во время демонстрации пользователь по имени Родни с помощью имплантированной системы силой мысли настроил температуру, освещение и музыку в своём доме, что компания демонстрировала в процессе экспериментов задолго до мероприятия.

Согласно целям компании, её интерфейс может помочь людям с параличом и другими серьёзными физическими нарушениями управлять технологиями без помощи рук и лучше взаимодействовать с окружающим миром. Данные, собранные в реальных условиях, помогут обучить «когнитивный ИИ», предназначенный как для медицинских целей, так и для более широкого использования. Для этого, в частности, Synchron вместе с Nvidia работают над концепцией Chiral. Это будущая система интерфейса «мозг-компьютер», которая сочетает в себе нейронную обработку в реальном времени с передовым искусственным интеллектом. Чтобы реализовать эту концепцию, необходимо будет достичь трёх ключевых целей.

Во-первых, разработать систему нейронного декодирования двигательных функций в реальном времени, что позволит пользователям управлять цифровой средой напрямую с помощью мозговых имплантатов с минимальной задержкой. Во-вторых, добавить информацию о реальном мире с помощью среды Nvidia Cosmos для составления карты окружения и понимания реалистичной физики. В-третьих, создать модель ИИ на основе анонимных пользовательских данных. Всё это станет основой Chiral — «самосовершенствующейся универсальной» модели как для медицинского, так и для общего использования.

Компания Synchron называет эту развивающуюся модель «когнитивным ИИ». Конечная цель — выйти «за рамки распознавания намерений, заложив основу для перехода от намерений к действиям в реальном времени» и создать «полномасштабную базовую модель мозга». Смелая идея, но в компании признают, что эта концепция пока остаётся гипотетической.

Парализованный пациент обрёл способность управлять роботизированной рукой силой мысли

Учёные из Калифорнийского университета в Сан-Франциско (UCSF) создали платформу, способную вернуть парализованным людям возможность самостоятельных действий с помощью роботизированных рук. Управлять манипулятором можно силой мысли, представляя себе нужное действие. Ключевую роль в этом процессе играет искусственный интеллект.

 Источник изображений: UCSF

Источник изображений: UCSF

Разработанная учёными платформа опирается на электрокортикографию (ЭКоГ) — систему выявления активных участков коры головного мозга. Обычно её применяют перед операциями на мозге, чтобы хирург не затронул критически важные зоны. Система и имплантаты ЭКоГ достаточно дорогие, но в данном случае они продемонстрировали высокую эффективность.

Пациент с полной парализацией всех конечностей был подключён через ЭКоГ к компьютеру с ИИ, который, в свою очередь, передавал команды на роботизированную руку. Алгоритм на основе машинного обучения распознавал активность участков мозга, отвечающих за движения рукой, и передавал соответствующие команды манипулятору. Пациент наблюдал за процессом и в режиме реального времени мысленно корректировал движения руки, что тут же передавалось на роборуку.

Исследователи отмечают, что такой метод обучения алгоритма с моментальной коррекцией ошибок на основе желаний пациента показал высокую эффективность. Более того, ИИ научился отслеживать смещение активности ответственных за движения участков мозга в соседние области коры.

В целом рисунок активности не изменялся, но зона активности «дрейфовала» по коре, отметили учёные. Обычно это потребовало бы перекалибровки имплантатов каждые несколько дней. Однако разработанная платформа на основе ИИ смогла самостоятельно учитывать этот сдвиг и оставалась работоспособной более семи месяцев без существенного вмешательства в настройки. Уже одно это делает проект многообещающим.

С помощью роборуки пациент смог брать и опускать предметы, пользоваться посудой и наполнять стакан жидкостью из диспенсера. Учёные также считают, что могут усовершенствовать платформу, например, снабдив роборуку машинным зрением. Это позволит машине помогать пациенту точнее выполнять действия, а также улучшит процесс обучения ИИ.

«Я полностью уверен, что теперь мы знаем, как создать систему, и сможем заставить её работать», — поделился мыслями один из участников исследования, результаты которого опубликованы в журнале Cell.

Беспилотный суперкар Maserati MC20 установил рекорд скорости, разогнавшись до 318 км/ч

На взлётно-посадочной полосе NASA в Космическом центре имени Кеннеди (KSC) автономный суперкар Maserati MC20 Coupe установил новый рекорд скорости среди беспилотных автомобилей, разогнавшись до 318 км/ч. Прежний рекорд 310 км/ч был установлен в апреле 2022 года. Заезд был организован Indy Autonomous Challenge (IAC) в сотрудничестве с Политехническим университетом Милана (Politecnico di Milano). Новый рекорд подчёркивает стремительное развитие технологий автономного вождения, создавая перспективы для повышения безопасности самоуправляемых автомобилей.

 Источники изображений: TechSpot, Maserati

Источники изображений: TechSpot, Maserati

Испытания прошли на исторической 4,5-километровой взлётно-посадочной полосе, где ранее приземлялись космические шаттлы NASA. Заезд организован IAC — международной инициативой, развивающей технологии беспилотного вождения через соревнования автономных болидов. Важным партнёром выступил Политехнический университет Милана, чьи специалисты разработали алгоритмы для автономного управления. С 2021 года IAC проводит гонки среди беспилотных автомобилей, тестируя ИИ-системы в высокоскоростных условиях.

В испытаниях использовался Maserati MC20 Coupe, относящийся к числу итальянских суперкаров. Стоимость модели начинается от $239 000. Автомобиль оснащён 3,0-литровым V-6 двигателем Nettuno с двойным турбонаддувом, выдающим 621 л.с. и 730 Н·м крутящего момента. Заднеприводная трансмиссия включает восьмиступенчатую роботизированную коробку передач с двумя сцеплениями. Эти характеристики обеспечили необходимый уровень динамики для достижения рекордной скорости.

Управление автомобилем взяла на себя система, разработанная PoliMOVE-MSU, подразделением Artificial Intelligence Driving Autonomous (AIDA) при Политехническом университете Милана. ИИ анализировал окружающую среду, рассчитывал оптимальные параметры ускорения, торможения и корректировки траектории движения. В ходе испытания алгоритмы работали в экстремальных условиях высоких скоростей, проверяя возможности автономных систем на грани их технических возможностей.

Генеральный директор IAC Пол Митчелл (Paul Mitchell) отметил, что испытания на экстремальных скоростях способствуют повышению безопасности беспилотных автомобилей в повседневных условиях. Тестирование алгоритмов в динамически сложных ситуациях позволяет разработчикам выявлять потенциальные слабые места системы, улучшая реакцию ИИ на резкие изменения дорожной обстановки. Профессор Политехнического университета Милана Серджо Маттео Саварези (Sergio Matteo Savaresi) добавил, что ИИ-системы, используемые в этих испытаниях, уже проходили тестирование в рамках гонок Indy Autonomous Challenge с 2021 года.

Помимо рекордного Maserati MC20 Coupe, в автономных испытаниях участвовал Maserati MC20 Cielo, оснащённый аналогичной системой беспилотного управления. Этот суперкар был задействован в «Тысяча миль» во Флориде (1000 Miglia Experience Florida) — мероприятии, вдохновлённом исторической гонкой 1000 Miglia. В 2023 году MC20 Cielo преодолел около 60 км без вмешательства человека в рамках классического итальянского автопробега, демонстрируя возможности автономного вождения в реальных дорожных условиях.

ChatGPT потребляет не так много энергии, как считалось ранее, показало новое исследование

Согласно более ранним оценкам, ChatGPT потребляет около 3 Вт·ч энергии для ответа на один запрос, что в 10 раз больше средней мощности, необходимой при использовании поиска Google. Однако свежий отчёт исследовательского института Epoch AI, занимающегося изучением ключевых трендов и вопросов, которые будут определять траекторию развития и управление искусственным интеллектом, опровергает эту статистику и указывает на то, что энергозатраты чат-бота OpenAI значительно меньше, чем предполагалось ранее.

 Источник изображения: OpenAI

Источник изображения: OpenAI

В отчёте Epoch AI говорится, что ChatGPT на базе модели GPT-4o потребляет всего 0,3 Вт·ч энергии при генерации ответа. В разговоре с порталом TechCrunch дата-аналитик Epoch AI Джошуа Ю (Joshua You) отметил: «Потребление энергии на самом деле не так уж и велико по сравнению с использованием обычных бытовых приборов, отоплением или охлаждением дома или использованием автомобиля».

По словам эксперта, предыдущие оценки энергозатрат ChatGPT были основаны на устаревших данных. Специалист отмечает, что предполагаемая «универсальная» статистика энергопотребления ChatGPT была основана на предположении, что OpenAI для запуска и работы ИИ использует старые и неэффективные чипы.

«Кроме того, некоторые из моих коллег обратили внимание, что наиболее широко распространённая оценка в 3 Вт·ч на выполнение запроса была основана на довольно старых исследованиях. И если судить по каким-то приблизительным расчётам, эта статистика показалась слишком завышенной», — добавил Ю.

И всё же следует добавить, что оценку энергозатрат ChatGPT от Epoch AI тоже нельзя считать непреложной, поскольку она не учитывает некоторые ключевые возможности ИИ, такие как генерация изображений чат-ботом.

По словам эксперта, он не ожидает роста энергопотребления у ChatGPT, но по мере того, как ИИ-модели становятся более продвинутыми, им будет требоваться больше энергии для работы. Ведущие компании по разработке ИИ, включая OpenAI, склоняются к развитию так называемых рассуждающих моделей ИИ, которые не просто дают ответ на поставленный вопрос, но также описывают весь процесс, который привёл к получению того или иного ответа, что в свою очередь требует больших энергозатрат.

Множество отчётов последних лет показывают, что такие технологии, как Microsoft Copilot и ChatGPT (а точнее оборудование, на котором они работают) потребляют эквивалент объёма одной бутылки воды для охлаждения при генерации ответа на запрос. Эти выводы следуют за более ранним отчётом, в котором говорится, что совокупные энергозатраты Microsoft и Google превышают потребление электроэнергии более чем в 100 странах мира.

В одном из наиболее свежих исследований подробно описывалось, что модель OpenAI GPT-3 потребляет в четыре раза больше воды, чем считалось ранее, в то время как GPT-4 потребляет объёмы до трёх бутылок воды, чтобы сгенерировать всего лишь 100 слов. Вполне очевидно, что модели ИИ начинают потреблять больше ресурсов по мере того, как становятся более продвинутыми. Однако, выводы последнего исследования показывают, что тот же ChatGPT может быть не таким прожорливым, как считалось ранее.


window-new
Soft
Hard
Тренды 🔥
Власти США намерены надавить на союзников с целью синхронизации санкций против Китая 4 ч.
Тайвань наложил экспортные ограничения на китайские компании Huawei и SMIC 5 ч.
Администрация Трампа решила разобраться в госконтрактах со SpaceX, чтобы узнать, как лишить Маска финансирования 14 ч.
AMD представила Pensando Pollara 400 — первую 400-Гбит/с сетевую карту стандарта Ultra Ethernet 15 ч.
Asus ROG Astral GeForce RTX 5090 Dhahab Edition с автографом Дженсена Хуанга продали на аукционе за $24 200 15 ч.
Китайские учёные изготовили уникальный радиотелескоп для исследования тёмной энергии 16 ч.
Тайвань отправил в тюрьму капитана китайского судна, обвинив его в умышленном повреждении подводного кабеля 16 ч.
Intel выпустит недорогой шестиядерник Core 5 120F для платформы LGA 1700 16 ч.
Apple внесла iPhone XS в список винтажных гаджетов 18 ч.
AWS переведёт ещё 100 дата-центров на использование очищенных сточных вод для охлаждения 19 ч.