Сотрудники Департамента эффективности правительства (DOGE) Илона Маска (Elon Musk) принимали кадровые решения, исходя из данных, которые предоставляла модель искусственного интеллекта Meta✴ Llama 2.

Источник изображения: x.com/elonmusk
В конце января Маск разослал федеральным чиновникам электронное письмо, получившее название «Развилка» (Fork in the Road), в котором предоставил адресатам выбор: вернуться на рабочее место в соответствии с политикой правительства или уйти в отставку. Ответы чиновников на это письмо проверялись при помощи модели Meta✴ Llama 2, узнало издание Wired. Этим занимались сотрудники DOGE при Управлении кадровой службы США. Meta✴ разрабатывает модели ИИ и публикует их как проекты с открытым исходным кодом, поэтому частные лица и организации, включая правительственные ведомства, могут свободно использовать их без явного согласия разработчика.
Значительных подробностей о случившемся выяснить не удалось: нет ясности, почему в DOGE решили задействовать Llama 2, ведь к тому моменту у Meta✴ уже были Llama 3, а впоследствии вышло и семейство Llama 4; но известно, что модель развернули локально, то есть данные, вероятно, вообще не проходили через каналы интернета, и угрозы конфиденциальности в связи с этим не возникло. Есть также информация, что один из сотрудников DOGE, выходец из SpaceX, разработал помощника ИИ на основе модели xAI Grok-2 и использовал чат-бот GSAi для анализа данных о контрактах и закупках. DOGE также связали с ПО AutoRIF, которое способствовало ускорению увольнений чиновников.
Впоследствии DOGE направил госслужащим письма, в которых предлагал еженедельно отчитываться о своих рабочих достижениях в пяти пунктах, но подтвердить, что ИИ использовался и для обработки этих ответов, не удалось. Ведомство развернуло модель Llama вместо Grok, вероятно, по той причине, что по состоянию на январь Grok была доступна лишь как закрытая модель; но в дальнейшем DOGE будет проще задействовать её: уже на этой неделе Microsoft намерена размещать модели семейства xAI Grok 3 на платформе Azure AI Foundry, что откроет множество сценариев её практического применения.
Журналистам Wired не удалось найти подтверждения, что сотрудники DOGE передавали конфиденциальные данные на внешние ресурсы, но недовольные деятельностью Маска политики, в том числе более сорока американских законодателей, уже потребовали расследовать, как его ведомство использует ИИ. Они потребовали обеспечить прозрачность в этом вопросе, а также выразили обеспокоенность по поводу угроз утечки данных и сопутствующих всем системам ИИ сбоев — галлюцинаций, при которых модели дают заведомо не соответствующие действительности ответы на запросы.
Источники: