«Хуже, чем бесполезный»: сотрудники Google раскритиковали ИИ-бота Bard и назвали его патологическим лжецом
Читать в полной версииСотрудники Google неоднократно выступали с критикой чат-бота Bard в рабочем мессенджере, называя систему «патологическим лжецом», и обращались с призывами к руководству компании не выпускать продукт. Об этом сообщает Bloomberg со ссылкой на бывших и нынешних сотрудников Google.
В ходе внутренних дискуссий один из сотрудников компании заявил, что Bard часто давал пользователям опасные советы, в том числе на такие темы как посадка самолёта и подводное плавание. Компания «отвергла оценку рисков» — отчёт службы безопасности, согласно которому система не готова для выпуска для широкого круга пользователей. Однако доступ к «экспериментальному» проекту был открыт ещё в марте.
Руководство Google, предполагают в Bloomberg, отодвинуло на второй план этические соображения в попытке не отставать от конкурентов — Microsoft и OpenAI. Компания нередко подчёркивает, что проводит работу, направленную на обеспечение безопасности и соблюдение этических норм в области ИИ, но в реальности чаще отдаёт приоритет соображениям бизнеса. В конце 2020-го — начале 2021 года из компании уволили исследователей Тимнита Гебру (Timnit Gebru) и Маргарет Митчелл (Margaret Mitchell), которые написали работу, раскрывающую недостатки языковых ИИ-моделей, подобных той, что лежит в основе Bard.
«Заработавший репутацию гигант интернет-поиска предоставляет информацию низкого качества в конкурентной гонке, уделяя меньше внимания своим этическим обязательствам», — делает вывод Bloomberg по результатам бесед с сотрудниками компании. Тем временем представитель Google Брайан Гэбриел (Brian Gabriel) продолжает настаивать, что этика остаётся приоритетом для компании: «Мы продолжаем развивать команды, работающие над применением наших принципов искусственного интеллекта к нашим технологиям».