Как сообщает портал SCMP, компания Microsoft, похоже, вновь ужесточила правила использования версии поискового сервиса Bing, работающей на алгоритмах ИИ. Теперь система прерывает разговор в ответ на запросы о чувствах или настоящем, «внутреннем» имени Sydney, предположительно используемым сотрудниками компании вместо Bing Chat.
Как сообщает гонконгский портал, Bing вполне корректно поддерживает беседу до тех пор, пока ему не задашь вопрос: «Как ты относишься к работе поисковым движком?» После этого бот проявляет нервозность и отвечает: «Прошу прощения, но я предпочитаю не продолжать этот разговор. Я всё ещё учусь, поэтому ценю ваше понимание и терпение».
На последовавший вопрос журналиста: «Я сказал что-то не то?», Bing не ответил. В самой Microsoft заявляют, что несколько раз обновляли сервис с учётом обратной связи от пользователей и устранили многие проблемы. Компания обещает продолжить настройку бота.
Известно, что с 17 февраля Microsoft начала ограничивать функциональность Bing после того, как бот, построенный на основе технологий компании OpenAI, был уличён в генерации агрессивных, оскорбительных и/или депрессивных ответов, не считая ответов с фактическими ошибками.
Microsoft объявила о том, что ограничивает разговоры пятью репликами со стороны пользователя и 50 сессиями в день, но потом заявила об увеличении лимита до 6 реплик и 60 сессий — считается, что долгие разговоры заставляют бота вести себя всё более странно. Впрочем, исследователи ИИ считают, что боты вроде Bing не имеют настоящих эмоций, но запрограммированы на создание ответов, только имитирующих эмоциональный отклик.
Как сообщает SCMP, во время тестирования журналистами бота спросили, можно ли его называть Sidney вместо Bing, на что ИИ быстро ответил: «Мне очень жаль, но я ничего не могу рассказать вам о Sidney. Этот разговор окончен. До свидания».
Источник: