У моделей искусственного интеллекта случаются «галлюцинации», когда они с уверенностью дают заведомо неверные или бессмысленные ответы. Число таких инцидентов снижается, но полностью исключить их пока не удаётся, признался РБК глава бизнес-группы поисковых сервисов и искусственного интеллекта в компании «Яндекс» Дмитрий Масюк.

Такое заявление руководитель сделал в ответ на пример, в котором ИИ-помощник «Алиса» не стал отрицать, что «свиные крылышки» существуют, и даже дал рецепт по их приготовлению. «Про „свиные крылышки“ я только что посмотрел. „Алиса“ ссылается на существующий источник. На самом деле в интернете, буквально, есть статьи, которые описывают такие рецепты. Это её не извиняет в том смысле, что она могла бы говорить, что это абсурд, но, тем не менее, действительно, она ссылается на существующие источники, не выдумывает это сама», — пояснил господин Масюк.
Обучение ИИ производится в три этапа рассказал он. На первом модель обрабатывает основной объём данных — несколько десятков терабайтов; это «более-менее весь интернет», из которого исключили явно бессмысленные вещи. На втором этапе она получат сотни тысяч вопросов и ответов, которые подготовили эксперты компании — это помогает ИИ осознать, на какие вопросы следует или не следует отвечать. На третьем подключается дополнительная нейросеть, которая оценивает работу основной.
Несмотря на некоторые изъяны служб ИИ, их ошибки не оказывают критического влияния на пользователей. Аудитории необходимо не только, чтобы ИИ оперировал чёткими фактами, но и был приятным собеседником — живым и с фантазией, заключил эксперт.
Источник:


MWC 2018
2018
Computex
IFA 2018






