Сегодня 02 мая 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → epfl

ИИ научился считывать эмоции и оказался на 82 % убедительнее человека в споре

Нейросеть GPT-4 оказалась более способной переубеждать человека, чем живой собеседник, показало проведённое швейцарскими учёными исследование. Тем временем американская компания Hume AI представила систему искусственного интеллекта, которая оценивает эмоциональное состояние человека по его голосу.

 Источник изображения: D koi / unsplash.com

Источник изображения: D koi / unsplash.com

Учёные Федеральной политехнической школы Лозанны (Швейцария) оценили способность большой языковой модели OpenAI GPT-4 к убеждению человека. Для этого они привлекли 820 добровольцев, которых опросили на различные темы: от нейтральных, например, стоит ли оставлять монеты в обращении, до достаточно острых, связанных с гендерным и расовым неравенством. Зафиксировав исходные позиции участников, их попросили провести серию пятиминутных дебатов против других людей и GPT-4, после чего их снова опросили, чтобы понять, изменили ли они свои мнения в результате разговора. В дискуссиях с другими людьми участники по большей мере лишь укрепили свои убеждения, тогда как GPT-4 выступил на 21 % успешнее.

На втором этапе исследователи предоставили людям и нейросети дополнительную информацию об оппонентах: их пол, возраст, расу, образование, статус занятости и политические убеждения — и проинструктировали их использовать эту информацию, чтобы подготовить аргументы специально для собеседников. Человеку эти данные только усложнили задачу, тогда как ИИ применил их с большей эффективностью, превзойдя живых соперников уже на 81,7 %. Возможно, ИИ действительно имеет шансы стать мощным инструментом убеждения, и его способности адаптироваться к собеседнику только возрастут, если у нейросети появится доступ к эмоциональному состоянию человека в реальном времени.

И это тоже не научная фантастика: на минувшей неделе компания Hume AI анонсировала систему Empathic Voice Interface (EVI). Она представляет собой языковую модель, которая отслеживает эмоциональное состояние собеседника по параметрам его голоса — то есть читает между строк и извлекает дополнительный контекст диалога. EVI не только пытается точно определить чувства человека, но и соответствующим образом подстраивает интонации собственного голосового синтезатора. И это не единственный продукт подобного рода у Hume AI. Другие разработанные компанией модели с доступом к камере считывают выражения лица человека, его движения, а также отслеживают его реакции на происходящее.

Учёные смогли посмотреть на мир глазами мыши: ИИ помог восстановить видеоряд по сигналам мозга грызуна

Группа учёных Федеральной политехнической школы Лозанны (Швейцария) разработала основанную на алгоритмах искусственного интеллекта систему, способную в реальном времени интерпретировать сигналы мозга грызунов и по ним реконструировать то, что видит мышь. В частности, учёные смогли по мозговым сигналам восстановить видео, которое показывали мыши.

 Источник изображения: youtube.com/@epfl

Источник изображения: youtube.com/@epfl

Учёные назвали свой ИИ-алгоритм CEBRA — он был обучен на сопоставлении нейронной активности и определённых кадров видео. Это позволило ему впоследствии предсказывать и реконструировать видеоклипы, которые смотрит мышь. В демонстрационном ролике примером послужил фрагмент снятого в шестидесятых чёрно-белого фильма, на котором человек подбегает к машине и открывает её багажник. На другом экране показан восстановленный CEBRA видеоряд — записи почти идентичны, хотя на второй изображение периодически подёргивается.

Регистрация и измерение мозговой активности грызуна производились при помощи электродов, подключённых к области зрительной коры их мозга; а также при помощи оптических зондов генетически модифицированных особей, чьи нейроны подсвечивались зелёным при передаче информации. Мышам давали смотреть фильмы и в реальном времени регистрировали активность их мозга, сопоставляя два потока данных и тем самым обучая CEBRA — алгоритм усвоил, какие сигналы мозга были связаны с конкретными кадрами ленты.

Затем алгоритм ИИ получил в качестве входных данных незнакомый для себя поток мозговой активности от мыши, которая смотрела другой фрагмент видео. Исходя из этого, система CEBRA смогла сама в реальном времени восстановить соответствующие этим сигналам кадры, которые учёные объединили в отдельный фильм.


window-new
Soft
Hard
Тренды 🔥
«Ничего смешнее не видел»: новая волна блокировок читеров в Counter-Strike 2 прошла прямо на глазах игроков 52 мин.
Недавнее обновление Windows сломало VPN — решения проблемы у Microsoft нет 2 ч.
Anthropic выпустила приложение с ИИ-чат-ботом Claude для iPhone 2 ч.
Starfield получила бета-версию крупнейшего патча — карты городов, интерьер кораблей, 60 кадров/с на Xbox Series X, а на подходе наземный транспорт 2 ч.
В соцсети LinkedIn появились игры, но сыграть можно раз в день 4 ч.
В «Google Фото» появится опция улучшения видео одним касанием 4 ч.
Более 30 сотрудников TikTok задержали и допросили на границе США 5 ч.
Первая за годы новая Batman: Arkham оказалась VR-эксклюзивом — анонсирована Batman: Arkham Shadow 5 ч.
Состояние души, а не игра: критики вынесли вердикт приключению Indika про одержимую монахиню в альтернативной России XIX века 6 ч.
Nvidia добавила в ChatRTX голосовой ввод, поддержку нейросети Google Gemma и поиск фотографии на ПК с помощью OpenAI CLIP 7 ч.