Представители Google и OpenAI готовы выступить в суде в поддержку Anthropic в деле о конфликте с Пентагоном
Читать в полной версииПроцессуальные процедуры традиционно растянуты во времени, но Anthropic не стала особо медлить с подачей судебного иска против Пентагона, пытаясь оспорить своё включение в список неблагонадёжных поставщиков. Поддержать позиции компании в суде готовы представители конкурирующих OpenAI и Google, но только как частные лица, обладающие определённой экспертизой в рассматриваемом споре.
Источник изображения: OpenAI
Почти 40 сотрудников OpenAI и Google, включая руководителя разработки Gemini Джеффа Дина (Jeff Dean), направили в суд процессуальный документ, формально позволяющий помочь судье составить более полное представление о предмете спора между истцом и ответчиком. По мнению составителей документа, включение Anthropic в перечень неблагонадёжных поставщиков является некорректным проявлением мести, которое вредит интересам общества. Как считают подписавшие обращение к суду представители указанных компаний, обозначенные Anthropic «красные линии» реальны и требуют конкретного ответа. Даже в ответственных руках, по мнению авторов письма, инструменты тотальной слежки за гражданами представляют серьёзный риск для демократических институтов, да и создание полностью автономных систем вооружения представляет собой риск, требующий особого внимания. Авторы письма относят себя к учёным, разработчикам и инженерам, занятым в создании передовых американских систем ИИ.
По их замыслу, обращение к суду направлено не на решение проблем какой-то конкретной компании, а на представление интересов всей отрасли. Подписавшие письмо эксперты считают себя достаточно компетентными, чтобы предупреждать власти США о неприятных последствиях рассматриваемого ими применения ИИ в военных и разведывательных целях. Как поясняют авторы письма, сейчас данные о гражданах США существуют в разрозненном виде, и никто пока не объединял эти массивы с помощью ИИ для подробного анализа в масштабе реального времени. По сути, при желании американские власти могли бы составить подробное досье на сотни миллионов человек одновременно, с учётом постоянных изменений в этих данных.
В части использования ИИ для выбора целей системами вооружения, как предупреждают эксперты, опасность таится в возможности появления ошибок из-за различий между условиями обучения профильных моделей и реальной обстановкой на поле боя. Как отмечают авторы обращения, ИИ не в состоянии оценивать возможный сопутствующий ущерб при выборе тех или иных целей, как это способен сделать человек. Кроме того, склонность ИИ к «галлюцинациям» делает военное применение таких технологий ещё более опасным без контроля со стороны человека. Авторы письма резюмируют, что на текущем этапе развития технологий предлагаемые Пентагоном сферы применения ИИ представляют серьёзную опасность и требуют ограничений либо на техническом уровне, либо на административном.