В ходе состоявшейся накануне презентации ИИ-платформы Copilot для офисного пакета Microsoft 365 топ-менеджеры Microsoft признали, что системы на базе искусственного интеллекта часто дают неверные ответы на вопросы. Но, несмотря на это, новые системы в компании назвали полезными, и даже сами неправильные ответы там считают «полезно неверными».
Не соответствующие действительности заявления систем искусственного интеллекта являются одной из важнейших проблем данной области. Явные ошибки со дня своего запуска совершает задавший новый стандарт чат-бот ChatGPT. Аналогичное решение от Google, появившееся некоторое время спустя, давало пользователям неверные ответы на вопросы прямо в демонстрационных материалах. «Не отстаёт» от своих аналогов и чат-бот, появившийся в поисковой службе Bing.
Всё это не помешало Google внедрить функции искусственного интеллекта в сервисы Gmail и Google Docs, а Microsoft внедрила обновлённую версию Copilot в пакет Microsoft 365. В Microsoft считают, что даже в теперешнем виде система окажется полезной: пользователи, заведомо зная, что чат-бот может давать неточные ответы, смогут самостоятельно исправлять лишь некоторые неточности в электронных письмах и слайдах презентации. Например, когда человек хочет поздравить члена семьи с днём рождения, Copilot окажется полезным, даже если укажет в письме неверную дату: ИИ генерирует текст, экономя пользователю время, и человеку останется лишь исправить отдельные ошибки — нужно лишь проявлять осторожность и следить за тем, чтобы в тексте не было неточностей. Просто не следует излишне доверять ИИ.
Главный научный сотрудник Microsoft Хайме Тееван (Jaime Teevan) указал, что компания предусмотрела некие «смягчающие меры» на тот случай, когда Copilot «делает что-то неправильно, демонстрирует предубеждения или используется не по назначению». Тем более, что перед выпуском системы для широкого круга пользователей она будет тестироваться лишь 20 корпоративными клиентами. «Мы будем совершать ошибки, но при их возникновении мы их быстро исправим», — пообещал инженер.
Источник: