Опрос
|
реклама
Быстрый переход
Casio представила пушистого робота Moflin — он поможет побороть стресс за $400
12.10.2024 [10:56],
Павел Котов
Casio открыла предварительные заказы на пушистого роботизированного питомца Moflin. Он не ходит за хозяином по дому, а выполняет антистрессовую функцию: его держат в руках и обнимают, а тот налаживает с владельцем нечто вроде эмоциональной связи, которая выражается уникальными звуками и движениями. Разработка игрушки велась при участии японского стартапа Vanguard Industries, но производством и распространением занимается теперь только Casio. Стоимость Moflin по предварительному заказу составляет 59 400 японских иен ($398), в продажу робот поступит 7 ноября. Casio предлагает также подписку Club Moflin за 6600 иен ($44) в год — в эту сумму входят скидка на ремонт, чистку и даже полную замену мехового покрытия. Casio Moflin — это не игрушка вроде Sony Aibo, а антистрессовое устройство. Когда его держат на руках, он двигает телом и головой, будто пытается прижаться к хозяину; у робота есть и некоторые функции искусственного интеллекта. Moflin со временем пытается по голосу и манере обращения распознать человека, который взаимодействует с ним больше всего, и выделяет отношение к нему уникальными звуками и движениями, имитируя эмоциональную связь. У робота также развиваются собственные симулированные чувства и личность, которые могут со временем меняться. При регулярном взаимодействии он выражает счастье, спокойствие и защищенность. Если же Moflin игнорировать, он начнёт изображать напряжение, тревожность и грусть, хотя и не станет досаждать этим владельцу. Определить его эмоциональный настрой наверняка можно через мобильное приложение, оно же позволяет регулировать громкость издаваемых им звуков. Ещё сильнее усиливает иллюзию того, что Moflin является живым существом, отсутствие необходимости подключать к нему кабель. Робот поставляется с небольшой кроваткой, в которой он «спит» во время зарядки. Полностью заряженной батареи Casio Moflin хватит на пять часов работы; зарядка занимает три с половиной часа. Разработан ИИ, распознающий эмоции человека по голосу — он поможет в работе кризисных линий
01.05.2024 [16:47],
Павел Котов
Модель искусственного интеллекта оказалась эффективным инструментом для выявления таких эмоций как страх и беспокойство в голосах людей, которые звонят на телефонные линии психологическом помощи. Автор проекта надеется, что она окажется полезной для телефонных операторов на линиях по предотвращению самоубийств. Оценка эмоционального состояния звонящих на кризисные телефонные линии на предмет текущего уровня суицидального риска имеет решающее значение для выявления и предотвращения самоубийств. Речь человека способна при помощи невербальных средств передавать полезную информацию о психическом и эмоциональном состоянии человека, содержа подсказки о том, испытывает он грусть, злобу или страх. Исследования суицидальной речи начались более 30 лет назад — уже удалось выявить в ней объективные звуковые признаки, которые можно использовать для определения различных психических состояний и расстройств, включая депрессию. Но для человека, слушающего собеседника по телефону, оценка риска самоубийства может оказаться сложной задачей, потому что на кризисные линии звонят люди, пребывающие в крайне эмоционально нестабильном состоянии, и характеристики их речи могут быстро меняться. Решение этой задачи предложил Алаа Нфисси (Alaa Nfissi), аспирант университета Конкордия (Канада, г. Монреаль). Он обучил распознаванию речевых эмоций модель ИИ. Обычно такую оценку проводили психологи, из-за чего она требовала значительных временных затрат и опыта, но модель глубокого обучения оказалась способной эффективно распознавать эмоции. Для обучения модели автор проекта использовал базу реальных записей звонков на кризисные линии для предотвращения самоубийств, а также записи актёров, которым было поручено изображать определённые эмоции. Записи были разбиты на сегменты и снабжены аннотациями, отражающими соответствующее состояние психики: злость, грусть, нейтральное состояние, страх или беспокойство. В результате модель научилась достаточно точно распознавать четыре эмоции: страх/беспокойство (правильный ответ в 82 % случаев), грусть (77 %), злость (72 %) и нейтральное состояние (78 %). Особенно хорошо модель справлялась с оценкой фрагментов записей настоящих звонков: грусть (78 %) и злость (100 %). Алаа Нфисси считает, что разработанная им модель ИИ сможет использоваться в качестве вспомогательного инструмента для работы на кризисных линиях, помогая операторам в реальном времени оценивать состояние собеседников и выбирать подходящие стратегии разговора. Возможно, это будет способствовать предотвращению самоубийств. ИИ научился считывать эмоции и оказался на 82 % убедительнее человека в споре
02.04.2024 [15:44],
Павел Котов
Нейросеть GPT-4 оказалась более способной переубеждать человека, чем живой собеседник, показало проведённое швейцарскими учёными исследование. Тем временем американская компания Hume AI представила систему искусственного интеллекта, которая оценивает эмоциональное состояние человека по его голосу. Учёные Федеральной политехнической школы Лозанны (Швейцария) оценили способность большой языковой модели OpenAI GPT-4 к убеждению человека. Для этого они привлекли 820 добровольцев, которых опросили на различные темы: от нейтральных, например, стоит ли оставлять монеты в обращении, до достаточно острых, связанных с гендерным и расовым неравенством. Зафиксировав исходные позиции участников, их попросили провести серию пятиминутных дебатов против других людей и GPT-4, после чего их снова опросили, чтобы понять, изменили ли они свои мнения в результате разговора. В дискуссиях с другими людьми участники по большей мере лишь укрепили свои убеждения, тогда как GPT-4 выступил на 21 % успешнее. На втором этапе исследователи предоставили людям и нейросети дополнительную информацию об оппонентах: их пол, возраст, расу, образование, статус занятости и политические убеждения — и проинструктировали их использовать эту информацию, чтобы подготовить аргументы специально для собеседников. Человеку эти данные только усложнили задачу, тогда как ИИ применил их с большей эффективностью, превзойдя живых соперников уже на 81,7 %. Возможно, ИИ действительно имеет шансы стать мощным инструментом убеждения, и его способности адаптироваться к собеседнику только возрастут, если у нейросети появится доступ к эмоциональному состоянию человека в реальном времени. И это тоже не научная фантастика: на минувшей неделе компания Hume AI анонсировала систему Empathic Voice Interface (EVI). Она представляет собой языковую модель, которая отслеживает эмоциональное состояние собеседника по параметрам его голоса — то есть читает между строк и извлекает дополнительный контекст диалога. EVI не только пытается точно определить чувства человека, но и соответствующим образом подстраивает интонации собственного голосового синтезатора. И это не единственный продукт подобного рода у Hume AI. Другие разработанные компанией модели с доступом к камере считывают выражения лица человека, его движения, а также отслеживают его реакции на происходящее. «Яндекс» научил ИИ распознавать человеческие эмоции
14.03.2024 [13:23],
Павел Котов
«Яндекс» представил нейросеть, способную распознавать эмоции человека во время разговора. Она поможет в работе голосовых помощников и виртуальных операторов кол-центров, пишет «Коммерсантъ» со ссылкой на разработчиков системы. Созданная «Яндексом» нейросеть распознаёт нецензурную лексику, отмечает неформальные и негативные высказывания, идентифицирует пол говорящего человека и фразы, которые он произносит в диалоге. В перспективе большая языковая модель YandexGPT поможет платформе в понимании неуверенности и сарказма. Для оценки эмоций нейросеть анализирует содержимое речи собеседника, её тембр, скорость, высоту и другие параметры. Она также определяет, кто в общем разговоре произнёс ту или иную реплику. Это поможет искусственному интеллекту эффективно реагировать на возникающие в разговоре с клиентами нештатные ситуации — к примеру, если речь человека приобретает негативную окраску, система переключит его на сотрудника кол-центра. Нейросеть работает в фоновом режиме и анализирует эмоциональный фон диалога прямо во время разговора. Она изучает не только позвонившего клиента, но и оператора, и если оператор нагрубит клиенту, отчёт об инциденте будет автоматически направлен руководству. Последующий анализ поможет понять, какая формулировка или тема вызвала отрицательную реакцию клиента, чтобы оптимизировать общение с ним. Запущен открытый проект Open Empathic по созданию ИИ с распознаванием человеческих эмоций
28.10.2023 [13:42],
Павел Котов
Некоммерческая организация LAION сообщила о запуске проекта Open Empathic — открытой платформы для разработки модели искусственного интеллекта с распознаванием человеческих эмоций. К созданию массива обучающих данных привлекли добровольцев. Организация LAION (Large-scale Artificial Intelligence Open Network) приступила к работе в начале 2021 года. Её основал немецкий школьный учитель Кристоф Шуман (Christoph Schuhmann) при содействии единомышленников с сервера Discord для энтузиастов в области ИИ. LAION существует за счёт пожертвований, государственных исследовательских грантов, а также отраслевых партнёрских проектов, таких как стартап Hugging Face и компания Stable Diffusion. Последней она создавала массив данных для обучения генеративного ИИ — с изображениями и их текстовыми описаниями. Целью проекта Open Empathic является создание ИИ, который понимает не только слова человека. «Мы стремимся, чтобы он улавливал нюансы выражений и изменения интонации, что сделает взаимодействие человека с ИИ более аутентичным и эмпатичным», — пояснил господин Шуман. На начальном этапе проекта в LAION запустили сайт, на котором добровольцам предлагается составлять описания к видеозаписям на YouTube. На этих роликах обычно демонстрируется речь одного человека — часть видео подобрана командой LAION, а некоторые предлагают добровольцы. По каждому клипу заполняется список полей: расшифровка текста; описание изображения и звука; возраст, пол и языковой акцент героя видео; уровень эмоционального возбуждения; психологический вектор («удовольствие» или «недовольство»). Есть и технические поля, в которых предлагается указать качество звука и наличие либо отсутствие посторонних шумов. Но основное внимание уделяется эмоциональной стороне. Добровольцы выбирают подходящие к видео эмоции из готового перечня в выпадающем списке. Авторы проекта Open Empathic говорят, что этот механизм поможет создать обширную базу эмоциональных аннотаций с учётом различных языков и культур. После отправки отчёта доброволец может повторить процесс — количество клипов для участника проекта не ограничивается. В ближайшие время LAION предполагает собрать базу из 10 тыс. записей, чтобы к следующему году её объём составил при оптимистическом сценарии от 100 тыс. до 1 млн. Некоторые правозащитные организации ранее призывали к полному запрету на разработку и применение систем распознавания эмоций — соответствующая норма есть и в европейском «Законе об ИИ», и она не допускает внедрение таких технологий правоохранительными органами, пограничниками, на рабочих местах и в школах. От подобных проектов перед лицом недовольства общественности ранее отказались некоторые компании, включая Microsoft. Но в LAION уверены, что открытый характер проекта даёт им моральное право продолжать работу над Open Empathic — в качестве примера приводится поддерживаемая силами сообщества «Википедия». |