Microsoft, Meta✴, Google, Amazon и Twitter оказались в числе компаний, которые сократили свои команды «ответственного развития ИИ», которые консультировали разработчиков по вопросам общественной безопасности и этичности потребительских продуктов с искусственным интеллектом. Хотя это лишь десятки сотрудников, и они теряются на фоне многотысячных сокращений по всей IT-отрасли, сокращение таких команд может привести к распространению вредных ИИ-инструментов.
Компании заявляют, что по-прежнему привержены внедрению безопасных продуктов ИИ, но эти сокращения вызывают беспокойство экспертов, поскольку злоупотребления обычно обнаруживаются как раз в тот момент, когда технология становится по настоящему массовой. Эта обеспокоенность особенно возросла после успеха чат-бота ChatGPT и его конкурентов, таких как Microsoft Bing.
«Шокирует то, сколько ответственных за ИИ сотрудников увольняют в то время, когда, возможно, таких команд требуется больше, чем когда-либо», — говорит Эндрю Стрейт (Andrew Strait), бывший исследователь этики и политики в DeepMind, принадлежащем Alphabet.
В январе Microsoft распустила всю свою команду по этике ИИ. Компания утверждает, что под сокращение попали менее 10 сотрудников, а в Microsoft по-прежнему работают сотни людей, ответственных за ИИ. «Мы значительно расширили наши усилия в области ответственного искусственного интеллекта и усердно работали над их институционализацией во всей компании», — заявила Наташа Крэмптон (Natasha Crampton), главный ответственный сотрудник Microsoft по искусственному интеллекту.
Twitter сократил более половины своего персонала, включая небольшую команду по вопросам этики ИИ. В задачи команды входило, в том числе, исправление предвзятости в алгоритме Twitter, который, по-видимому, отдавал предпочтение белым лицам при выборе способа обрезки изображений в социальной сети.
Потоковая платформа Twitch, принадлежащая Amazon, на прошлой неделе сократила свою команду по этике ИИ, назвав всех сотрудников, работающих над продуктами ИИ, ответственными за проблемы, связанные с предвзятостью. Meta✴ ещё в сентябре 2022 года распустила свою команду по этике ИИ, состоящую примерно из 20 инженеров и специалистов по этике, которым была поручена оценка гражданских прав и этики в Instagram✴ и Facebook✴.
Некоторые сотрудники, отвечающие за этический надзор за искусственным интеллектом в Google, также были уволены в рамках более масштабных сокращений штата Alphabet, насчитывающего более 12 000 человек. Google не уточнила, сколько должностей было сокращено, но ответственный подход к ИИ остаётся «главным приоритетом в компании, и мы продолжаем инвестировать в эти команды».
Роль внутренних команд по этике ИИ подверглась тщательному анализу, поскольку давно ведутся споры о том, должно ли вмешательство человека в алгоритмы быть прозрачным для общественности и регулирующих органов. «Команды ответственного развития искусственного интеллекта являются одними из немногих внутренних бастионов, которые должны быть у Big Tech, — говорит бывший исследователь этики ИИ в Facebook✴ Джош Саймонс (Josh Simons). — Скорость, с которой они сокращаются, оставляет алгоритмы Big Tech на милость рекламных императивов, подрывая благополучие детей, уязвимых людей и нашу демократию».
Ещё одна проблема заключается в том, что большие языковые модели, лежащие в основе чат-ботов, таких как ChatGPT, «галлюцинируют» — выдают ложные утверждения за факты — и могут использоваться преступниками для мошенничества и распространения дезинформации. К сожалению, сейчас ответственный подход компаний к использованию ИИ отходит на задний план из-за конкуренции и ради быстрого выхода на рынок.
Источник: