Опрос
|
реклама
Быстрый переход
«Яндекс» научил ИИ распознавать человеческие эмоции
14.03.2024 [13:23],
Павел Котов
«Яндекс» представил нейросеть, способную распознавать эмоции человека во время разговора. Она поможет в работе голосовых помощников и виртуальных операторов кол-центров, пишет «Коммерсантъ» со ссылкой на разработчиков системы. Созданная «Яндексом» нейросеть распознаёт нецензурную лексику, отмечает неформальные и негативные высказывания, идентифицирует пол говорящего человека и фразы, которые он произносит в диалоге. В перспективе большая языковая модель YandexGPT поможет платформе в понимании неуверенности и сарказма. Для оценки эмоций нейросеть анализирует содержимое речи собеседника, её тембр, скорость, высоту и другие параметры. Она также определяет, кто в общем разговоре произнёс ту или иную реплику. Это поможет искусственному интеллекту эффективно реагировать на возникающие в разговоре с клиентами нештатные ситуации — к примеру, если речь человека приобретает негативную окраску, система переключит его на сотрудника кол-центра. Нейросеть работает в фоновом режиме и анализирует эмоциональный фон диалога прямо во время разговора. Она изучает не только позвонившего клиента, но и оператора, и если оператор нагрубит клиенту, отчёт об инциденте будет автоматически направлен руководству. Последующий анализ поможет понять, какая формулировка или тема вызвала отрицательную реакцию клиента, чтобы оптимизировать общение с ним. Запущен открытый проект Open Empathic по созданию ИИ с распознаванием человеческих эмоций
28.10.2023 [13:42],
Павел Котов
Некоммерческая организация LAION сообщила о запуске проекта Open Empathic — открытой платформы для разработки модели искусственного интеллекта с распознаванием человеческих эмоций. К созданию массива обучающих данных привлекли добровольцев. Организация LAION (Large-scale Artificial Intelligence Open Network) приступила к работе в начале 2021 года. Её основал немецкий школьный учитель Кристоф Шуман (Christoph Schuhmann) при содействии единомышленников с сервера Discord для энтузиастов в области ИИ. LAION существует за счёт пожертвований, государственных исследовательских грантов, а также отраслевых партнёрских проектов, таких как стартап Hugging Face и компания Stable Diffusion. Последней она создавала массив данных для обучения генеративного ИИ — с изображениями и их текстовыми описаниями. Целью проекта Open Empathic является создание ИИ, который понимает не только слова человека. «Мы стремимся, чтобы он улавливал нюансы выражений и изменения интонации, что сделает взаимодействие человека с ИИ более аутентичным и эмпатичным», — пояснил господин Шуман. На начальном этапе проекта в LAION запустили сайт, на котором добровольцам предлагается составлять описания к видеозаписям на YouTube. На этих роликах обычно демонстрируется речь одного человека — часть видео подобрана командой LAION, а некоторые предлагают добровольцы. По каждому клипу заполняется список полей: расшифровка текста; описание изображения и звука; возраст, пол и языковой акцент героя видео; уровень эмоционального возбуждения; психологический вектор («удовольствие» или «недовольство»). Есть и технические поля, в которых предлагается указать качество звука и наличие либо отсутствие посторонних шумов. Но основное внимание уделяется эмоциональной стороне. Добровольцы выбирают подходящие к видео эмоции из готового перечня в выпадающем списке. Авторы проекта Open Empathic говорят, что этот механизм поможет создать обширную базу эмоциональных аннотаций с учётом различных языков и культур. После отправки отчёта доброволец может повторить процесс — количество клипов для участника проекта не ограничивается. В ближайшие время LAION предполагает собрать базу из 10 тыс. записей, чтобы к следующему году её объём составил при оптимистическом сценарии от 100 тыс. до 1 млн. Некоторые правозащитные организации ранее призывали к полному запрету на разработку и применение систем распознавания эмоций — соответствующая норма есть и в европейском «Законе об ИИ», и она не допускает внедрение таких технологий правоохранительными органами, пограничниками, на рабочих местах и в школах. От подобных проектов перед лицом недовольства общественности ранее отказались некоторые компании, включая Microsoft. Но в LAION уверены, что открытый характер проекта даёт им моральное право продолжать работу над Open Empathic — в качестве примера приводится поддерживаемая силами сообщества «Википедия». Microsoft ограничит доступ к ИИ-решениям для распознавания эмоций
22.06.2022 [11:29],
Руслан Авдеев
Компания Microsoft объявила о прекращении продаж технологий, позволяющих распознавать эмоции по выражениям лиц, и более не будет предоставлять неограниченный доступ к программным решениям для распознавания лиц. Известно, что ещё с прошлого года в Microsoft пытаются определить, насколько системы распознавания эмоций основаны на научном подходе. По словам представителя подразделения Microsoft Azure AI, эти попытки подняли ряд вопросов, связанных с обеспечением конфиденциальности, отсутствием консенсуса относительно самого определения термина «эмоции», невозможностью обобщить связь между выражением лица и настроением в разных обстоятельствах, регионах или половозрастных группах. Хотя продажи технологии прекращены со вчерашнего дня, использующие сервис клиенты смогут ещё год пользоваться ИИ-инструментами, позволяющими распознавать эмоции, пол, возраст, улыбки, растительность на лице, волосы и макияж. В прошлом году сервис Google Cloud также заблокировал распознавание 13 видов эмоций в своих инструментах, поставив под вопрос распознавание ещё четырёх, включая, например, радость и печаль. Компания оценивала возможность внедрения новой системы, позволяющей описать мимику вроде хмурости или улыбок без привязки её к эмоциям. Дополнительно Microsoft заявила, что теперь клиенты должны получить разрешение на использование сервисов распознавания лиц, которые позволяют людям авторизоваться на сайтах или, например, открывать двери с помощью сканирования лиц. Компания призвала клиентов избегать ситуаций, нарушающих конфиденциальность пользователей, или тех, в которых технологиям будет сложно справляться — вроде определения возраста и распознавания несовершеннолетних. Тем не менее, прямого запрета на использование подобных технологий пока не предусмотрено. |