Сегодня 28 августа 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Швейцарский мозговой чип обогнал Neuralink по скорости и точности чтения мыслей

В журнале IEEE Journal of Solid-State Circuits учёные Федеральной политехнической школы Лозанны (EPFL) сообщили о создании нейрочипа, способного быстро и с точностью 91 % распознавать рукописные буквы по сигналам мозга. Разработка учёных из Лозанны значительно превзошла чип Neuralink по многим параметрам. На фоне MiBMI-чипа швейцарцев изделие Neuralink выглядит откровенно устаревшим. Однако у Маска есть преимущество — его чип уже помогает людям.

 Источник изображения: EPFL

Источник изображения: EPFL

Экспериментальный чип MiBMI для считывания активности мозга в зоне формирования образов рукописных символов в 23 раза меньше современного чипа Neuralink. Площадь MiBMI составляет всего 8 мм². Более того, ему не нужно, как чипу Neuralink, запускать иглы десятков зондов в нервную ткань (с чем у разработчиков Neuralink уже возникли проблемы — зонды часто выскакивают или смещаются). Зонд MiBMI считывает информацию с поверхности коры головного мозга, что не повлияло на точность его работы.

Швейцарские учёные подошли к решению проблемы распознавания мысленных рукописных символов несколько иначе. Они присвоили буквам алфавита кодовые комбинации — нейронные маркеры. В своей работе учёные обнаружили, что во время мысленного представления пациентами написания той или иной буквы (также это могут быть цифры или другие символы) проявляется серия специфических маркеров. Эти маркеры назвали отличительными нейронными кодами (Distinctive Neural Codes, DNC).

Коды DNC стали своего рода сокращениями для каждой буквы, что позволяет чипсету MiBMI обрабатывать только сами маркеры. Это позволило обрабатывать по сотне байт нейросигналов на каждый код (символ) вместо обычных тысяч байт информации о нервной активности при традиционных методах распознавания «мыслей». Использованное упрощение значительно снизило энергопотребление чипа и ускорило обработку данных. Также это позволит сократить время обучения других пациентов, пожелавших воспользоваться имплантатом.

На современном этапе чип распознаёт 31 рукописный символ (код), но его возможности будут расширены до сотни символов. Приложение не ограничится только чтением текстов в головах пациентов. Чип можно научить распознавать и другие виды мозговой активности. В проведённых экспериментах чип MiBMI распознавал мысленное написание рукописных текстов с точностью 91 %. Стоит отметить, что чип не тестировался на живых людях; он обрабатывал сигналы, полученные в предыдущих экспериментах. В этом плане чип Neuralink, каким бы он ни казался устаревшим по сравнению с новинкой, уже разрешён для клинических испытаний на людях. А это, пожалуй, самое сложное в такой работе — доказать безопасность использования и начать помогать людям.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Из Intel ушёл один из директоров из-за проблем с раздутым штатом и несогласия с планом оздоровления компании 2 ч.
Corsair выпустила свои самые доступные игровые мыши — проводную M55 и беспроводную M55 Wireless 2 ч.
В России начались продажи беспроводных наушников-вкладышей HONOR CHOICE Earbuds X7 с шумоподавлением и длительным временем работы 4 ч.
Xiaomi представила смарт-часы Redmi Watch 5 Active с автономностью до 18 дней 5 ч.
Швейцарский мозговой чип обогнал Neuralink по скорости и точности чтения мыслей 5 ч.
SpaceX готова рассылать оповещения экстренных служб через спутниковую сотовую связь Starlink 5 ч.
До 60 ядер для настольных ПК и рабочих станций: Intel готовит чипы Xeon W-2500 и W-3500 6 ч.
Sony представила свои самые компактные беспроводные наушники WF-C510 по цене $60 6 ч.
Оборудование для выпуска электроники для российских производителей подорожало на 40–50 % 6 ч.
ИИ-ускорители Rebellions Rebel Quad получат 144 Гбайт памяти Samsung HBM3e 7 ч.