Microsoft готовит дополнительные ограничения для своего ИИ-чат-бота, чтобы избежать ошибок и агрессии
Читать в полной версииКогда на прошлой неделе Microsoft представила новую версию своей поисковой системы Bing с интегрированным чат-ботом ChatGPT на основе ИИ, разработанным OpenAI, руководители компании понимали, что рискуют. Зная, что не все ответы нового чат-бота будут точными, его разработчики встроили защиту от пользователей, которые будут пытаться спровоцировать его на странные действия или побуждать к публикации расистских или разжигающих ненависть материалов.
Но Microsoft оказалась не совсем готова к тому, что когда пользователи попытаются вовлечь чат-бота в открытые личные беседы, тот поведёт себя неадекватно, начнёт повторяться, делать ошибки и даже выказывать агрессию. Впрочем, эта проблема хорошо известна в мире исследователей, специализирующихся на искусственном интеллекте.
Как сообщает The New York Times, сейчас компания работает над ограничениями для новой версии Bing, рассматривая, в том числе, возможность добавления пользователями инструментов для возобновления разговора с чат-ботом или предоставления им большего контроля над характером общения.
Кевин Скотт (Kevin Scott), главный технический директор Microsoft, рассказал The New York Times, что также рассматривается возможность ограничения продолжительности разговоров, прежде чем беседа примет странный оборот. Microsoft заявила, что длительные чаты могут сбить с толку чат-бота, и он может перейти на раздражительный тон. Позднее компания сообщила, что ограничит длительность сессии общения пользователей с чат-ботом 50 вопросами в день, а за одну сессию можно будет задать не более пяти вопросов. Выяснилось, что сессии из более чем 15 вопросов заставляют бот повторяться или давать излишне эмоциональные ответы.
«Одна из областей, в которой мы изучаем новый вариант использования чата, — это то, когда люди используют его в качестве инструмента для более общего познания мира и социальных развлечений», — сообщила компания в своём блоге. Для Microsoft оказалось неожиданностью, что чат-бот будет использоваться для этих целей.
То, что Microsoft, традиционно соблюдавшая осторожность при запуске новых продуктов, показала готовность рискнуть с непредсказуемой технологией, ещё раз подтверждает степень энтузиазма, с которым отрасль стала относиться к искусственному интеллекту.
В свою очередь, Орен Этциони (Oren Etzioni), почётный профессор Вашингтонского университета и гендиректор Института Аллена по искусственному интеллекту, считает, что Microsoft «пошла на просчитанный риск, пытаясь контролировать технологию настолько, насколько это возможно».
Чтобы подстраховаться, Microsoft предоставила доступ к новому Bing всего нескольким тысячам пользователей, сообщив, что к концу месяца может значительно увеличить их число. И чтобы снять сомнения в точности ответов, чат-бот предоставляет ссылки в своих ответах, чтобы пользователи могли сверить результаты.