Сегодня 22 декабря 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Швейцарский мозговой чип обогнал Neuralink по скорости и точности чтения мыслей

В журнале IEEE Journal of Solid-State Circuits учёные Федеральной политехнической школы Лозанны (EPFL) сообщили о создании нейрочипа, способного быстро и с точностью 91 % распознавать рукописные буквы по сигналам мозга. Разработка учёных из Лозанны значительно превзошла чип Neuralink по многим параметрам. На фоне MiBMI-чипа швейцарцев изделие Neuralink выглядит откровенно устаревшим. Однако у Маска есть преимущество — его чип уже помогает людям.

 Источник изображения: EPFL

Источник изображения: EPFL

Экспериментальный чип MiBMI для считывания активности мозга в зоне формирования образов рукописных символов в 23 раза меньше современного чипа Neuralink. Площадь MiBMI составляет всего 8 мм². Более того, ему не нужно, как чипу Neuralink, запускать иглы десятков зондов в нервную ткань (с чем у разработчиков Neuralink уже возникли проблемы — зонды часто выскакивают или смещаются). Зонд MiBMI считывает информацию с поверхности коры головного мозга, что не повлияло на точность его работы.

Швейцарские учёные подошли к решению проблемы распознавания мысленных рукописных символов несколько иначе. Они присвоили буквам алфавита кодовые комбинации — нейронные маркеры. В своей работе учёные обнаружили, что во время мысленного представления пациентами написания той или иной буквы (также это могут быть цифры или другие символы) проявляется серия специфических маркеров. Эти маркеры назвали отличительными нейронными кодами (Distinctive Neural Codes, DNC).

Коды DNC стали своего рода сокращениями для каждой буквы, что позволяет чипсету MiBMI обрабатывать только сами маркеры. Это позволило обрабатывать по сотне байт нейросигналов на каждый код (символ) вместо обычных тысяч байт информации о нервной активности при традиционных методах распознавания «мыслей». Использованное упрощение значительно снизило энергопотребление чипа и ускорило обработку данных. Также это позволит сократить время обучения других пациентов, пожелавших воспользоваться имплантатом.

На современном этапе чип распознаёт 31 рукописный символ (код), но его возможности будут расширены до сотни символов. Приложение не ограничится только чтением текстов в головах пациентов. Чип можно научить распознавать и другие виды мозговой активности. В проведённых экспериментах чип MiBMI распознавал мысленное написание рукописных текстов с точностью 91 %. Стоит отметить, что чип не тестировался на живых людях; он обрабатывал сигналы, полученные в предыдущих экспериментах. В этом плане чип Neuralink, каким бы он ни казался устаревшим по сравнению с новинкой, уже разрешён для клинических испытаний на людях. А это, пожалуй, самое сложное в такой работе — доказать безопасность использования и начать помогать людям.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Продажи AirPods превысили выручку Nintendo, они могут стать третьим по прибыльности продуктом Apple 25 мин.
Прорывы в науке, сделанные ИИ в 2024 году: археологические находки, разговоры с кашалотами и сворачивание белков 9 ч.
Arm будет добиваться повторного разбирательства нарушений лицензий компанией Qualcomm 13 ч.
Японцы предложили отводить тепло от чипов на материнских платах большими медными заклёпками 14 ч.
Поставки гарнитур VR/MR достигнут почти 10 млн в 2024 году, но Apple Vision Pro занимает лишь 5 % рынка 15 ч.
Первая частная космическая станция появится на два года раньше, но летать на неё будет нельзя 16 ч.
В США выпущены федеральные нормы для автомобилей без руля и педалей 17 ч.
Для невыпущенного суперчипа Tachyum Prodigy выпустили 1600-страничное руководство по оптимизации производительности 18 ч.
Зонд NASA «Паркер» пошёл на рекордное сближение с Солнцем 19 ч.
Qualcomm выиграла в судебном разбирательстве с Arm — нарушений лицензий не было 23 ч.