Сегодня 17 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → пентагон
Быстрый переход

У американских законодателей возникли вопросы к OpenAI из-за сделки с Пентагоном

Спешно заключённая OpenAI сделка с Министерством войны США, как признался глава компании Сэм Альтман (Sam Altman), потребовала доработки некоторых пунктов контракта, но публично он выражал лояльность идее использования ИИ в военных целях. При этом даже у американских конгрессменов возникли вопросы к руководителю OpenAI на данную тему.

 Источник изображения: Unsplash, Ma Ti

В четверг на этой неделе, как отмечает CNBC, генеральный директор OpenAI Сэм Альтман встретился с группой американских конгрессменов в Вашингтоне. Сенатор Марк Келли (Mark Kelly), например, заявил о наличии у него «серьёзных вопросов» по поводу подходов OpenAI к использованию технологий компании в боевых действиях и самой сделке с Пентагоном в целом. В своём интервью каналу CNBC сенатор Келли признался, что группа его коллег в подробностях обсудила с Альтманом подходы к слежению за гражданами и использованию ИИ в боевых условиях. Разговор сенатор назвал «хорошей дискуссией».

«Должны быть определённые ограничения, и мы должны быть уверены, что всё время думаем о Конституции и обеспечиваем соблюдение её основных положений», — подчеркнул сенатор. Напомним, что сделка американского военного ведомства с конкурирующей Anthropic развалилась после того, как руководство этой компании потребовало исключить использование её разработок при массовом слежении за американскими гражданами и применении систем вооружений без согласия человека. Конфликт между сторонами сделки привёл к тому, что Anthropic оказалась включена в перечень неблагонадёжных поставщиков, а подрядчикам Пентагона было запрещено использовать её разработки. На поиск альтернативы у самого ведомства и его подрядчиков остаётся шесть месяцев, но применять ИИ-модели Anthropic им запрещается уже сейчас.

Примечательно, что глава OpenAI Сэм Альтман именно упоминаемые выше ограничения включил в текст контракта с Пентагоном, и конфликт ведомства с Anthropic стал носить характер «наказания непокорного», а не последствия реальных противоречий. Хотя Альтман и выразил несогласие с отнесением Anthropic к числу неблагонадёжных поставщиков, он подчеркнул, что «именно правительство должно решать, как именно будут работать самые важные вещи в стране». Сенатор Келли заявил, что группа парламентариев работает над законопроектом, определяющим характер взаимоотношений Министерства войны США с разработчиками ИИ, и что должно существовать законодательство, определяющее некоторые границы применения таких технологий. Конгрессмен посетовал, что в парламенте США вопросы рассматриваются не так быстро, как развиваются новые технологии.

Microsoft первой среди крупных компаний встала на сторону Anthropic в её тяжбе с Пентагоном

Microsoft стала первой крупной технологической компанией, вставшей на сторону Anthropic в её споре с Пентагоном по поводу условий военного использования её ИИ-моделей. Она призвала суд к временному запрету на исполнение решения Министерства обороны США о признании Anthropic фактором риска для цепочки поставок, пока рассматривается дело по иску стартапа.

 Источник изображения: Wesley Tingey/unsplash.com

Источник изображения: Wesley Tingey/unsplash.com

Microsoft предупредила, что «радикальные» и «беспрецедентные» шаги против Anthropic будут иметь «широкие негативные последствия» для американской технологической индустрии.

После отказа стартапа предоставить Пентагону право использования своей модели Claude без каких-либо ограничений, военное ведомство включило его в чёрный список поставщиков, представляющих риск для цепочки поставок. Также администрация президента США потребовала, чтобы все федеральные агентства прекратили использование чат-бота Claude.

После этого Anthropic подала в суд на администрацию Дональда Трампа (Donald Trump), назвав действия правительства «беспрецедентными и незаконными» и отметив, что они «наносят Anthropic непоправимый ущерб», ставя под угрозу контракты на сотни миллионов долларов.

Microsoft заявила, что её «позиция заключается в том, что ИИ должен быть сосредоточен на законных и надлежащим образом защищённых вариантах использования». ИИ, по её словам, «не должен использоваться для проведения внутреннего массового наблюдения или для того, чтобы поставить страну в положение, когда автономные машины могут самостоятельно начать войну».

Microsoft утверждает, что временный запрет необходим для предотвращения дорогостоящих сбоев для поставщиков, которым в противном случае пришлось бы быстро перестраивать свои продукты, зависящие от продукции Anthropic.

В то время как Пентагон отвёл себе шесть месяцев на поэтапное прекращение использования технологий Anthropic, он не предоставил такой же переходный период для подрядчиков, использующих продукцию или услуги Anthropic для выполнения работ в рамках Министерства обороны, сообщила Microsoft. IT-гигант добавил, что временный запретительный приказ позволит выработать решение путём переговоров, одновременно защищая доступ военных к передовым технологиям и гарантируя, что ИИ не будет использоваться для массового наблюдения за гражданами или для проведения военных действий без участия человека. Это «обеспечит более упорядоченный переход и позволит избежать сбоев в продолжающемся использовании передового ИИ американскими военными», отметила компания.

Свои выводы Microsoft указала в поданном в окружной суд США в Сан-Франциско заключении Amicus Curiae. Такие документы подаются сторонами, которые не указаны в деле, но обладают соответствующей экспертизой, или на которых может повлиять исход рассматриваемого дела.

Google обеспечит Пентагон ИИ-агентами на базе Gemini

Google начала внедрение ИИ-агентов на базе большой языковой модели Gemini для более чем 3 млн гражданских и военных сотрудников Министерства обороны США. На начальном этапе ИИ-агенты будут работать в незащищённых сетях, но уже ведутся переговоры о расширении доступа к сетям, внутри которых ведётся работа с секретными документами. Об этом заявил заместитель министра обороны по научно-исследовательским и опытно-конструкторским работам Эмиль Майкл (Emil Michael).

 Источник изображения: Getty Images, Unsplash+

Источник изображения: Getty Images, Unsplash+

В сообщении сказано, что восемь предварительно созданных ИИ-агентов будут задействованы для автоматизации таких задач, как обобщение заметок с совещаний, составление бюджетов и проверка предлагаемых действий на соответствие стратегии национальной безопасности. Вице-президент Google Джим Келли (Jim Kelly) написал в блоге, что сотрудники Министерства обороны также смогут создавать собственных ИИ-агентов, используя для этого описания на естественном языке.

Чат-ботом Google на базе искусственного интеллекта, который доступен на портале Пентагона, с декабря прошлого года воспользовались 1,2 млн сотрудников Министерства обороны в процессе работы в незащищённых сетях. За этот период они отправили 40 млн уникальных запросов и загрузили более 4 млн документов. Отмечается, что обучение персонала отстаёт от темпов внедрения: с декабря обучение работе с ИИ прошли всего 26 тыс. человек, а будущие занятия полностью забронированы. Это указывает на то, что всё больше сотрудников ведомства вовлекается в работу с ИИ.

Расширение сотрудничества Пентагона с Google происходит на фоне недавнего противостояния ведомства с компанией Anthropic, которая отказалась убрать из своих алгоритмов ограничения, запрещающие использовать их для слежки за пользователями или создания полностью автономного оружия. С тех пор Минобороны внесло Anthropic в список организаций, создающих риск для цепочек поставок, но компания намерена оспорить это решение в суде. Около 900 сотрудников Google и около 100 сотрудников OpenAI подписали открытое письмо, в котором призвали своих работодателей придерживаться аналогичных ограничений. В феврале Google без лишнего шума скорректировала свои «Принципы в области ИИ» в части именно таких вариантов использования.

Anthropic предупредила, что включение в «чёрный список» Пентагона принесёт ей многомиллиардные убытки

Клиентам и инвесторам Anthropic может говорить о последствиях своего включения в перечень неблагонадёжных поставщиков Пентагона одно, а в исковом судебном заявлении указывать совершенно иную информацию. В последнем случае она старается «нагнать жути» и заявить, что подобные санкции повлекут многомиллиардные убытки не только в текущем году, но и в последующие периоды.

 Источник изображения: Unsplash, David Veksler

Источник изображения: Unsplash, David Veksler

Агентство Reuters проанализировало текст искового заявления Anthropic, с которым компания обратилась в суд с просьбой отменить решение Пентагона о включении её в список неблагонадёжных с точки зрения национальной безопасности США поставщиков. Ситуация возникла вскоре после отказа Anthropic передать американским военным полный контроль над применением своих ИИ-моделей, включая поголовную слежку за американскими гражданами и автоматизацию применения оружия с учётом выбора целей искусственным интеллектом.

Оспаривая данное решение американского военного ведомства, Anthropic упоминает ряд значимых финансовых доводов. Одна только потеря контракта с Пентагоном лишит компанию сотен миллионов долларов США в текущем году (потери составят не менее $150 млн). По мнению руководства Anthropic, последствия включения компании в «чёрный список» окажут необратимое негативное воздействие на бизнес стартапа. Он потеряет от 50 до 100 % выручки от контрактов с подрядчиками Пентагона, а подрыв доверия инвесторов может усложнить привлечение необходимых для развития бизнеса средств. В общей сложности готовые потери Anthropic могут достичь нескольких миллиардов долларов США.

Даже за пределами оборонных контрактов скандал может повлечь для Anthropic потери, связанные с отказом клиентов сотрудничать с компанией. В период с декабря 2025 года по январь 2026 года Anthropic в четыре раза увеличила приведённый размер годовой выручки от контрактов с представителями публичного сектора экономики США, в следующие пять лет эта выручка могла бы вырасти до нескольких миллиардов долларов. Компании публичного сектора в случае утраты доверия к Anthropic со стороны клиентов могут лишить её более чем $500 млн выручки по итогам текущего года.

Anthropic успела понести прямой ущерб от действий Пентагона, как отмечается в иске. Один из партнёров стартапа, заключивший контракт с одним из американских правительственных ведомств, перешёл от использования Claude к конкурирующему решению, лишив Anthropic ожидаемой годовой выручки в размере более $100 млн. Прерваны переговоры с финансовыми учреждениями на сумму около $180 млн, один из контрактов на $15 млн был поставлен на паузу, а некая французская компания уменьшила сумму выплат Anthropic в два раза до $5 млн после действий Пентагона. В целом, компания успела получить обращения от более чем 100 корпоративных клиентов, в которых они выражали своё сомнение по поводу целесообразности дальнейшего сотрудничества с Anthropic. Все эти данные должны быть учтены судом при вынесении вердикта по делу.

Представители Google и OpenAI готовы выступить в суде в поддержку Anthropic в деле о конфликте с Пентагоном

Процессуальные процедуры традиционно растянуты во времени, но Anthropic не стала особо медлить с подачей судебного иска против Пентагона, пытаясь оспорить своё включение в список неблагонадёжных поставщиков. Поддержать позиции компании в суде готовы представители конкурирующих OpenAI и Google, но только как частные лица, обладающие определённой экспертизой в рассматриваемом споре.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Почти 40 сотрудников OpenAI и Google, включая руководителя разработки Gemini Джеффа Дина (Jeff Dean), направили в суд процессуальный документ, формально позволяющий помочь судье составить более полное представление о предмете спора между истцом и ответчиком. По мнению составителей документа, включение Anthropic в перечень неблагонадёжных поставщиков является некорректным проявлением мести, которое вредит интересам общества. Как считают подписавшие обращение к суду представители указанных компаний, обозначенные Anthropic «красные линии» реальны и требуют конкретного ответа. Даже в ответственных руках, по мнению авторов письма, инструменты тотальной слежки за гражданами представляют серьёзный риск для демократических институтов, да и создание полностью автономных систем вооружения представляет собой риск, требующий особого внимания. Авторы письма относят себя к учёным, разработчикам и инженерам, занятым в создании передовых американских систем ИИ.

По их замыслу, обращение к суду направлено не на решение проблем какой-то конкретной компании, а на представление интересов всей отрасли. Подписавшие письмо эксперты считают себя достаточно компетентными, чтобы предупреждать власти США о неприятных последствиях рассматриваемого ими применения ИИ в военных и разведывательных целях. Как поясняют авторы письма, сейчас данные о гражданах США существуют в разрозненном виде, и никто пока не объединял эти массивы с помощью ИИ для подробного анализа в масштабе реального времени. По сути, при желании американские власти могли бы составить подробное досье на сотни миллионов человек одновременно, с учётом постоянных изменений в этих данных.

В части использования ИИ для выбора целей системами вооружения, как предупреждают эксперты, опасность таится в возможности появления ошибок из-за различий между условиями обучения профильных моделей и реальной обстановкой на поле боя. Как отмечают авторы обращения, ИИ не в состоянии оценивать возможный сопутствующий ущерб при выборе тех или иных целей, как это способен сделать человек. Кроме того, склонность ИИ к «галлюцинациям» делает военное применение таких технологий ещё более опасным без контроля со стороны человека. Авторы письма резюмируют, что на текущем этапе развития технологий предлагаемые Пентагоном сферы применения ИИ представляют серьёзную опасность и требуют ограничений либо на техническом уровне, либо на административном.

Anthropic подала в суд на власти США из-за включения её в «чёрный список» Пентагона

Компания Anthropic подала иск в федеральный суд Калифорнии в связи с её включением Министерством обороны США в список поставщиков, представляющих риск для национальной безопасности США. В своем иске Anthropic назвала это решение незаконным и нарушающим её права на свободу слова и надлежащую правовую процедуру, пишет агентство Reuters.

 Источник изображения: Anthropic

Источник изображения: Anthropic

«Эти действия беспрецедентны и незаконны. Конституция не позволяет правительству использовать свою огромную власть для наказания компании за её защищённую законом свободу слова», — заявила Anthropic. На основании этого компания обратилась к суду с просьбой отменить решение Пентагона и запретить федеральным агентствам применять его.

На прошлой неделе Пентагон официально присвоил компании Anthropic статус представляющей риск для цепочки поставок из-за отказа предоставить военному ведомству право использования своей модели Claude без каких-либо ограничений. В частности, Министерство обороны США требовало от Anthropic отменить запрет на использование Claude для массового слежения за американскими гражданами и полностью автоматизированных систем вооружений. Как сообщило агентство Reuters, напряжённые переговоры по поводу этих ограничений между сторонами велись в течение нескольких месяцев.

В Anthropic заявили, что судебный иск не исключает возобновления переговоров с Пентагоном и достижения соглашения. Компания сообщила, что не хочет конфликтовать с правительством США. В свою очередь, представитель Пентагона неделю назад заявил, что переговоры между сторонами прекращены.

Президент Дональд Трамп (Donald Trump) поручил правительству прекратить сотрудничество с Anthropic, среди инвесторов которой Google и Amazon.com. Также сообщалось, что прекращение сотрудничества правительства с компанией займёт шесть месяцев.

Глава робототехнического направления OpenAI уволилась из компании на фоне скандала с Anthropic и Пентагоном

Ещё на прошлой неделе OpenAI вызвалась занять место взбунтовавшейся Anthropic в качестве подрядчика Пентагона, снабжающего ИИ-системами для осуществления военных операций. Не всем сотрудникам стартапа это могло понравиться, поэтому руководительница робототехнического направления OpenAI сочла нужным уйти из компании.

 Источник изображения: Caitlin Kalinowski

Источник изображения: Caitlin Kalinowski

Речь идёт о Кейтлин Калиновски (Caitlin Kalinowski), которая руководила командами разработчиков аппаратных решений и робототехники OpenAI с ноября 2024 года. Из текста её открытых обращений к коллегам на страницах социальных сетей становится понятно, что для неё уход из OpenAI был непростым решением, его мотивы не имеют ничего общего с межличностными отношениями, а обусловлены исключительно этическими принципами. Кейтлин Калиновски осознаёт, что ИИ имеет важное значение для национальной безопасности, но убеждена, что поголовная слежка за гражданами США без юридических оснований и автоматизация летальных вооружений становятся теми линиями, которые лично её побуждают выразить протест. При этом Калиновски выражает глубокое уважение к главе OpenAI Сэму Альтману (Sam Altman) и его коллегам, а также гордится их совместными достижениями. Калиновски до перехода в OpenAI принимала активное участие в разработке очков дополненной реальности Meta✴ Platforms. Перед этим она девять лет работала в подразделении Oculus, а ещё раньше помогала Apple разрабатывать дизайн ноутбуков MacBook.

Калиновски стала не единственным сотрудником OpenAI, выразившим своё недовольство ситуацией с Пентагоном и Anthropic, но при спешном заключении соглашения с американским военным ведомством в прошлую пятницу Сэм Альтман делал упор на главенство государства в вопросах применения оружия и разведки, призывая подчинённых ставить государственные интересы выше принципов частной компании. Представители OpenAI выражают надежду, что в текущей редакции соглашение с Министерством войны США чётко очерчивает те границы, которые не следует пересекать при применении ИИ. Не допускается массовая слежка за гражданами и применение автономных средств вооружений без сохранения права человека принимать решение по выбору целей.

Anthropic заверила, что санкции Пентагона не повлияют на основную часть клиентов

Прошла неделя с того момента, как Anthropic вступила в конфликт с руководством американского военного ведомства по поводу определения границ допустимого применения искусственного интеллекта в военной сфере и слежением за гражданами США. Руководство стартапа теперь утверждает, что на её бизнес последствия внесения в «чёрный список» Пентагона повлияют незначительно.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) накануне подтвердил, что получил от Министерства войны США официальное уведомление о включении его компании в список неблагонадёжных поставщиков. Предполагалось, что данный запрет на сотрудничество с Anthropic вынудит многих подрядчиков государственных структур США отказаться от использования ИИ-сервисов этой компании. Её приведённая к году выручка недавно превысила $19 млрд, но как и многие конкуренты, Anthropic продолжает оставаться убыточной. Правда, её выраженная зависимость от корпоративного рынка позволяла до недавних пор рассчитывать на более быстрое достижение окупаемости по сравнению с той же OpenAI.

Как подчеркнул глава Anthropic, запрет на использование её продуктов подрядчиками Министерства войны США распространяется только непосредственно на контракты с этим ведомством, а не всю прочую деятельность соответствующих компаний. Другими словами, даже подрядчики Пентагона смогут продолжить использовать решения Anthropic в тех сферах, которые не имеют отношения к контрактам с этим ведомством. Применение ИИ-моделей Anthropic в системах компании Palantir будет прекращено, а именно они помогают американским военным выбирать цели при атаках на Иран в настоящее время. Ряд прочих американских правительственных ведомств уже заявили о своём решении отказаться от использования услуг Anthropic. Попутно Дарио Амодеи подчеркнул, что не считает попадание Anthropic в указанный список законным, а потому не имеет иного выхода, кроме как обратиться в суд для оспаривания данного решения.

Представители Министерства войны США отдельно отметили, что ведомство изначально придерживалось принципа наличия у военных права использования технологий Anthropic для достижения любых законных целей. Пентагон никогда не допустит, чтобы поставщик вмешивался в цепочку управления, ограничивая законное применение критических технологий, тем самым подвергая риску военнослужащих. Дарио Амодеи не стал отрицать, что в последние дни принял участие в довольно продуктивных контактах с представителями Министерства войны США, и надеется предоставлять ему услуги так долго, как получится. Заместитель министра обороны США Эмиль Майкл (Emil Michael) подчеркнул, что на данный момент все переговоры между ведомством и Anthropic прекращены. Главе Anthropic пришлось извиняться за свои недавние резкие высказывания в адрес Пентагона и других участников рынка, которые он допустил в письменном обращении к сотрудникам своей компании. Он отметил, что тон высказываний не отображает его взвешенных взглядов на ситуацию.

Пентагон официально уведомил руководство Anthropic о включении компании в список неблагонадёжных поставщиков

Если прошлая пятница завершилась для Anthropic только угрозами со стороны представителей американского военного ведомства по включению в «чёрный список», не позволяющий более претендовать на правительственные контракты, то к концу этой рабочей недели данный статус был закреплён за ИИ-стартапом официально.

 Источник изображения: Getty Images, Unsplash+

Источник изображения: Getty Images, Unsplash+

Как поясняет Bloomberg со ссылкой на представителей Министерства войны США, соответствующее уведомление поступило руководству Anthropic официально только накануне. Ведомство определило, что компания и её продукты представляют риск для цепочек поставок, связанных с государственными заказами и проектами. Данное определение вступает в силу немедленно, по информации источника. Нюанс заключается в том, как добавляет Bloomberg, что решения Anthropic технически продолжают использоваться Пентагоном самым активным образом в ходе иранской операции. Существующая процедура предусматривает шестимесячный переходный период, на протяжении которого американские военные структуры и их подрядчики должны будут перейти от использования разработок Anthropic к альтернативам.

Ранее уже отмечалось, что данное определение Anthropic собирается оспорить в суде. Более того, компания предпринимает попытки возобновить переговоры с представителями Пентагона, чтобы вернуть всё в прежнее русло. Неясно при этом, как будет развиваться сотрудничество Министерства войны США с конкурирующей OpenAI, которая буквально в считанные часы после отлучения Anthropic от госконтракта попыталась занять её место, спешно пересматривая условия работы с Пентагоном уже на этой неделе.

Представители Пентагона сочли нужным отметить, что изначально руководствуются принципом, согласно которому американские военные имеют право использовать технологии для всех законных целей. Ведомство не намерено позволять никакой компании вмешиваться в цепочку командования и ограничивать законное применение таких технологий, потенциально ставя под удар военнослужащих. По данным Bloomberg, ИИ-модель Claude компании Anthropic была интегрирована в систему управления Maven, разработанную Palantir Technologies для Пентагона, и теперь активно используется в ходе боевых действий против Ирана. Хотя потенциально ссора с американскими военными может привести к сокращению выручки Anthropic на направлении государственных контрактов, в краткосрочной перспективе спрос на решения компании растёт среди рядовых пользователей, которые переходят на них из соображений солидарности с этической позицией руководства стартапа.

Anthropic возобновила переговоры с Пентагоном в надежде исправить ситуацию

Прошлая пятница стала не очень удачной для истории развития ИИ-стартапа Anthropic, поскольку конфликт с Пентагоном по поводу этических ограничений на использование фирменных технологий привёл к отказу американского военного ведомства от сотрудничества с этой компанией. Она возобновила переговоры с Министерством войны США в надежде исправить ситуацию.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Об этом сообщает Bloomberg со ссылкой на собственные информированные источники. Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) вернулся к переговорам с Пентагоном, рассчитывая найти применение фирменным ИИ-моделям в инфраструктуре этого ведомства. Со стороны последнего контактным лицом изначально выступал заместитель министра Эмиль Майкл (Emil Michael), отвечающий за разработки и инженерное направление. Стороны надеялись заключить контракт, определяющий возможности использования ИИ-технологий Anthropic американским военным ведомством, но в прошлую пятницу сделка развалилась из-за несогласия компании дать контрагенту полную свободу в использовании ИИ. Стартап моментально попал в перечень неблагонадёжных поставщиков, а конкурирующая OpenAI умудрилась заключить аналогичное соглашение с Пентагоном, причём на тех условиях, которых со скандалом пыталась добиться сама Anthropic.

С минувшей пятницы переговоры с Anthropic успели возобновиться, как сообщает источник. Если стороны достигнут соглашения, это позволит компании сохранить доступ к обслуживанию американского военного ведомства, а также избежать окончательной блокировки на рынке правительственных услуг в США. Возможно, возвращение Anthropic на эту арену усложнит жизнь конкурирующей OpenAI, которая не преминула воспользоваться открывшейся возможностью занять место первой из компаний. О возобновлении переговоров между Пентагоном и Anthropic первым сообщило издание Financial Times.

Противостояние с американскими властями могло бы дорого обойтись Anthropic, тогда как по приведённой годовой выручке компания уже догнала OpenAI, а по капитализации вышла на уровень $380 млрд. На стороне Anthropic выступили и другие технологические компании, включая Google и Apple, которые призвали президента США Дональда Трампа (Donald Trump) не включать компанию в список неблагонадёжных, поскольку прецедент имел бы губительные последствия для всей национальной отрасли.

После Пентагона OpenAI нацелилась на контракт с НАТО — Альтман попросил сотрудников не спорить о политике

Поскольку недавняя поспешная сделка OpenAI с Министерством войны США вызвала протест даже среди сотрудников стартапа, генеральный директор Сэм Альтман (Sam Altman) призвал их не давать оценок действиям Пентагона, добавив, что все операционные решения будут оставаться за властями США. По слухам, OpenAI также пытается заключить контракт с НАТО в целом.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Вчера, как отмечает CNBC, состоялось общее собрание сотрудников OpenAI, на котором обсуждалась тема недавней сделки с Пентагоном. Позиция Альтмана осталась неизменной с прошлой недели — сама компания не может влиять на то, как военные используют её технологии. «Может быть, вы думаете, что удар по Ирану был хорошей идеей, а вторжение в Венесуэлу плохой, но вам не нужно об этом рассуждать», — пояснил глава OpenAI. Компания, по его словам, не способна принимать операционные решения по использованию разработанных ею технологий ИИ американскими военными.

Альтман добавил, что Пентагон с уважением относится к техническому опыту OpenAI, прислушивается к рекомендациям по оптимальному использованию ИИ, а также позволит определять границы безопасного применения технологий в тех случаях, когда сочтёт это уместным. При этом военное ведомство США чётко дало понять, что операционные решения останутся за его главой Питом Хегсетом (Pete Hegseth). Считается, что ИИ-решения конкурирующей Anthropic уже использовались Пентагоном не только при операции по захвату президента Венесуэлы в январе, но и при недавних атаках на Иран. Пентагон с прошлого года использует решения OpenAI в несекретных сферах своей деятельности, сумма профильного контракта составила $200 млн. Теперь профильные технологии смогут применяться и в секретных видах активности.

«Я верю, что у нас будут лучшие ИИ-модели, которые вдохновят правительство работать с нами, даже если наши ограничения в сфере безопасности будут их раздражать. Но будет как минимум ещё одно действующее лицо, которым, я полагаю, станет xAI, которое фактически скажет: "Мы сделаем всё, что вы захотите"», — заявил Сэм Альтман.

Агентство Reuters сообщило со ссылкой на The Wall Street Journal, что OpenAI рассматривает возможность заключения контракта с НАТО на использование технологий ИИ данной компании в несекретных системах. Альтман также заявил об этом на общем собрании персонала OpenAI. Учитывая главенствующую роль американского военного комплекса в функционировании альянса, в подобных намерениях стартапа нет ничего удивительного. Пентагон настаивает, что считает возможным использование ИИ в любых законных целях. Anthropic, а затем и OpenAI считают необходимым исключить использование ИИ для массовой слежки за гражданами США и управления системами вооружений, которые автоматически выбирают и уничтожают цели. OpenAI добивается того, чтобы её ИИ-системы не использовались АНБ и другими разведывательными структурами США, а в военной сфере применение ИИ ограничивалось только облачной инфраструктурой ведомства, а не конечными устройствами, управляющими оружием. Само заключение сделки с Пентагоном Альтман назвал крайне трудным, но правильным решением, которое будет иметь негативные последствия для имиджа OpenAI в краткосрочной перспективе.

Сэм Альтман пообещал, что OpenAI внесёт поправки в «скользкий» контракт с Минобороны, чтобы защитить людей от слежки

Вскоре после того, как Пентагон отказался от использования ИИ-моделей Anthropic из-за сопротивления руководства компании предоставить ведомству полную свободу их применения, соответствующая сделка была заключена с конкурирующей OpenAI. Глава последней Сэм Альтман (Sam Altman) признал, что этот шаг выглядел не очень красиво в сложившихся обстоятельствах.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Напомним, что до заключения сделки с Министерством войны США, как оно теперь называется, Альтман выражал солидарность с позицией своего бывшего соратника Дарио Амодеи (Dario Amodei), который ныне возглавляет Anthropic. Однако, как только военное ведомство США отказалось от услуг этой компании и начало искать альтернативу для внедрения в свою секретную инфраструктуру, сделка с OpenAI была заключена поспешно и на не самых прозрачных условиях. Альтман назидательно повторял после заключения контракта с Пентагоном, что интересы правительства выше принципов любой частной компании. В конце прошлой недели Альтман настаивал, что изначальный вариант соглашения OpenAI с Пентагоном подразумевал больше ограничений, чем все предыдущие случаи применения ИИ в секретных системах, включая сделку с Anthropic.

К понедельнику генеральный директор OpenAI Сэм Альтман заявил, что заключать соглашение с Пентагоном не следовало бы в такой спешке, а его условия будут пересматриваться уже после сделки, и изменения вносятся в настоящий момент. Он отметил, что в тексте соглашения следовало бы явно прописать, что «ИИ-система не должна намеренно использоваться для наблюдения за гражданами и жителями США на территории страны». Как подчеркнул Альтман, Министерство войны понимает, что существуют подобного рода ограничения на применение ИИ, даже если данные о гражданах были получены третьей стороной. Соответствующие правки будут внесены в текст соглашения OpenAI с военным ведомством США.

OpenAI также удалось получить от Министерства войны США гарантии того, что ИИ-инструменты компании не будут использоваться разведывательными структурами типа АНБ. Альтман пояснил: «Есть много вещей, к которым технология пока не готова, и много сфер, в которых мы не понимаем, какими должны быть уступки для обеспечения безопасности». Компания, по его словам, готова сотрудничать с Пентагоном для создания технических ограничений, обеспечивающих безопасное применение ИИ. Поспешность заключения сделки в пятницу он объяснил желанием снизить градус эскалации и избежать гораздо худшего исхода, но он понимает, что со стороны всё выглядело «оппортунистическим и скользким». Ещё в пятницу глава OpenAI сообщил, что Пентагон согласился на ограничения использования технологий, выдвинутые компанией. Публичное недовольство действиями OpenAI уже привело к тому, что люди начали отказываться от ChatGPT в пользу решений Anthropic. Последняя с момента своего основания в 2021 году делает особый упор на безопасное применение ИИ.

Условия соглашения OpenAI с Пентагоном были пересмотрены не в последнюю очередь под давлением общественности. Даже сотрудники компании начали выражать недовольство первоначальным вариантом сделки. В минувшие выходные перед штаб-квартирой OpenAI в Сан-Франциско появилась выполненная мелом надпись "Нет массовой слежке!". Альтман добавил, что в тексте соглашения с Anthropic фигурировали простые формулировки ограничений, но не было ссылок на соответствующие законодательные акты, тогда как сама OpenAI в предоставлении таких ссылок проблем не видела.

OpenAI подтверждает, что может ограничивать применение своих технологий для массовой слежки за гражданами США и управления вооружениями, предназначенными для автоматического выбора и уничтожения целей. Компания разрешила Пентагону применять свои ИИ-модели только в облачной части инфраструктуры с сохранением доступа к ним со стороны своих сотрудников, но не на конечном оборудовании военной техники, которое используется для управления оружием.

В действительности OpenAI уступила Пентагону в вопросах применения ИИ для слежки и в военных целях

OpenAI заключила с Пентагоном соглашение об использовании разработанных компанией систем искусственного интеллекта, сменив Anthropic, у которой возникли серьёзные сомнения в моральной стороне такого сотрудничества. В ответ на обеспокоенность общественности глава OpenAI Сэм Альтман (Sam Altman) объявил, что компания успешно договорилась с Министерством обороны США о новых условиях соглашения, но на деле это не вполне так, пишет The Verge.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

«Два важнейших для нас принципа безопасности — это запрет на внутреннюю массовую слежку и ответственность человека за применение силы, в том числе с автономными системами вооружения. Министерство обороны согласилось с этими принципами, отражая их в законах и политике, и мы включили их в наше соглашение», — подчеркнул Альтман. В соцсетях, однако, стали выражать сомнения по поводу того, что OpenAI удалось договориться с Пентагоном о соблюдении этих ограничений. Эксперты считают, что в действительности Министерство обороны США не уступило, и сделка с OpenAI предполагает более мягкие условия для ведомства — всё упирается в формулировку «любое законное применение».

В ходе переговоров, сообщил осведомлённый источник издания, Пентагон не отступал от желания собирать и анализировать большие объёмы данных, связанных с гражданами США; OpenAI же открыла военным возможность выполнять любые действия, которые с технической точки зрения являются законными. За последние десятилетия американские власти в значительной мере расширили представления о том, что «технически законно», и в это определение сейчас включаются программы массовой слежки. В OpenAI, впрочем, такую интерпретацию отвергли. «Систему нельзя использовать для сбора или анализа данных американцев в больших объёмах, в неограниченном объёме или в обобщённом виде», — заявила представитель компании.

Важнейшим достоинством систем ИИ является их умение находить закономерности, а поведение человека — это как раз набор закономерностей. ИИ способен объединять источники данных для каждого человека: информацию о местоположении, о просмотре веб-страниц, личную финансовую информацию, записи с камер видеонаблюдения, данные о регистрации избирателей и многое другое — часть из этого массива находится в открытом доступе, а часть приобретается у брокеров данных. Anthropic добивалась того, чтобы эти действия не допускались вне зависимости от их правового статуса, а OpenAI ограничилась существующими законодательными ограничениями. Упоминаются, в частности, Четвёртая поправка к Конституции США, «Закон о национальной безопасности» от 1947 года, «Закон о внешней разведке и наблюдении» от 1978 года, Исполнительный указ номер 12333, а также директивы ведомства, в которых указываются конкретные цели в области внешней разведки.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

После трагедии 11 сентября 2001 года американские спецслужбы усилили систему слежки, сохранив её, по их мнению, в пределах действующего законодательства. В 2013 году подрядчик Агентства национальной безопасности Эдвард Сноуден (Edward Snowden) раскрыл истинные масштабы происходящего: запись телефонных разговоров абонентов оператора Verizon и сбор данных о физических лицах у технологических компаний, в том числе Microsoft, Google и Apple. А исполнительный указ 12333 позволяет спецслужбам перехватывать данные вне США, даже если эти данные содержат сведения о гражданах страны, отмечают эксперты.

Глава Anthropic Дарио Амодеи (Dario Amodei) отмечал, что закон ещё не описывает всех возможностей ИИ по проведению массовой слежки. Альтман, в свою очередь подчеркнул, что контракт OpenAI с Пентагоном ограничен действующим законодательством, то есть если в США начнут действовать новые нормы, формулировки соглашения останутся прежними. Эксперты, однако, обращают внимание, что использованные представителем компании формулировки не дают возможности определить, что именно запрещается в соглашении. «Использование слов „неограниченный“, „обобщённый“, „открытый“ способ — это не полный запрет. Это формулировка, призванная дать руководству свободу выбора. <..> Она также позволяет руководству не лгать сотрудникам, если Пентагон на законных основаниях будет использовать большие языковые модели без ведома руководства OpenAI», — говорят эксперты. Соглашение с OpenAI и действующие правовые ограничения позволяют Пентагону, например, искать информацию об американцах по базам иностранных разведок, скупать базы у брокеров данных и создания профилей граждан по их типичному поведению на основе материалов видеонаблюдения, публикаций в соцсетях, новостей онлайн, данных о регистрации избирателей и других источников.

Сомнения вызывает и позиция OpenAI по поводу автономного летального оружия. В контракте компании с Пентагоном говорится о том, что её ИИ «не будет использоваться для самостоятельного управления автономным оружием в тех случаях, когда закон, нормативные акты или политика Министерства требуют контроля со стороны человека», что соответствует директиве Пентагона от 2023 года, но не предполагает иных запретов и ограничений. Для сравнения, Anthropic добивалась полного запрета на неконтролируемое летальное автономное оружие как минимум до тех пор, пока разработчик сам не сочтёт эту технологию готовой к работе.

 Источник изображения: Gavin Phillips / unsplash.com

Источник изображения: Gavin Phillips / unsplash.com

Альтман указывает и на другие решения, способные гарантировать, что Пентагон не станет злоупотреблять возможностями ИИ-моделей OpenAI. Некоторые сотрудники компании получат доступ к секретной информации для проверки систем; будут развёрнуты «классификаторы» — небольшие модели ИИ, способные следить за работой больших и по необходимости блокировать для них некоторые операции. На практике эти меры могут не помочь. Классификатор не сможет подтвердить, проверял ли человек решение системы о нанесении удара, а также является ли запрос на составление профиля американского гражданина единичным или входящим в систему массового наблюдения. И если власти объявят какую-либо операцию законной, классификатор не сможет предотвратить её выполнение.

OpenAI говорит об «ответственности человека за применение силы, в том числе в случае с автономными системами вооружения»; Anthropic же требовала вообще не развёртывать эти системы «без надлежащего контроля [со стороны человека]». Это может значить, что в сценарии OpenAI можно будет привлечь к ответственности некое лицо уже после факта нанесения удара, а сценарий Anthropic предусматривает участие людей до и/или во время принятия ИИ решения об уничтожении других людей. OpenAI говорит о технической защите своих систем от возможности строить «роботов-убийц»: для этого применяются средства дополнительного обучения ИИ, а также запуск моделей только в облачной инфраструктуре, а не локально на устройствах. В случае массового наблюдения, однако, подойдёт только способная работать в облаке модель; а в сценарии с автономным оружием непосредственное решение об атаке может принимать сторонняя локальная модель, тогда как система OpenAI возьмёт на себя все предшествующие этапы.

«Полностью автономное оружие (то, что полностью исключает участие человека в автоматическом выборе и поражении целей) может оказаться критически важным для нашей национальной обороны. Но сегодня передовые системы ИИ просто недостаточно надёжны для обеспечения [его] работы», — предупредил глава Anthropic Дарио Амодеи.

Скандал между Anthropic с Пентагоном может обойтись стартапу потерей инвестиций на $60 млрд

Как и OpenAI, конкурирующий стартап Anthropic остаётся частной компанией, хотя привлекает для своего развития весьма серьёзные суммы денег. Более 200 венчурных инвесторов вложили в Anthropic в общей сложности более $60 млрд, и теперь их доверие будет испытано на прочность скандалом, в который компания оказалась втянута из-за противоречий с Пентагоном.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Напомним, что в конце прошлой недели американское военное ведомство отказалось от использования ИИ-разработок Anthropic в секретной части своей инфраструктуры, поскольку стартап настаивал на блокировке использования своих систем для массового слежения за гражданами США и управления теми видами вооружений, которые способны принимать решение о выборе и уничтожении целей без участия человека. Проблем в переговорах добавили и некоторые другие факторы, но они не были первостепенными.

Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) настаивает, что для применения в указанных видах вооружений ИИ пока не достиг адекватного развития, а в случае с массовым сбором информации о гражданах США не готова законодательная база. Контракт с Пентагоном был сорван, решения Anthropic были запрещены к использованию всеми американскими правительственными структурами, за шесть месяцев им предстоит найти альтернативу. Публикация Амодеи на страницах корпоративного блога, в которой обсуждались коренные причины спора с Министерством войны США, как отмечает Axios, вызвала в Белом доме дополнительное раздражение. Чиновники опасаются, что своими публичными выступлениями руководство Anthropic «заразит» специалистов других ИИ-компаний, с которыми Пентагон хотел бы наладить сотрудничество.

Если запрет на сотрудничество с Anthropic распространится на прочих подрядчиков Пентагона, компания может пострадать серьёзным образом. По крайней мере, та же Nvidia может лишиться возможности снабжать Anthropic своими ускорителями вычислений, а без них развитие бизнеса стартапа станет проблематичным. Как известно, Anthropic своё отнесение к числу сомнительных поставщиков хочет оспорить в суде.

По данным Axios, венчурные инвесторы исторически старались избегать вложения средств в капиталы компаний, связанных с правительственными заказами, поскольку эта сфера казалась довольно рискованной и непредсказуемой. Исключением была сфера только биотехнологий, но в последние годы венчурные капиталисты стали посматривать и на другие области, в которых стартапы вели активное сотрудничество с властями. Ситуация с Anthropic снова заставляет инвесторов задуматься, а нужно ли слепо доверять компаниям, пытающимся наладить сотрудничество с правительством. На репутации Anthropic, которая в основном зарабатывает на корпоративных заказах, данный скандал тоже скажется не лучшим образом.

ChatGPT подвергли «отмене» за сотрудничество OpenAI с Пентагоном

Обеспокоенные сомнительным сценарием сотрудничества компании OpenAI и Министерства обороны США представители американской общественности сформировали движение по «отмене ChatGPT». Цель движения — поддержать попавшую в «чёрный список» Пентагона компанию Anthropic, которая запретила использовать свои модели искусственного интеллекта для некоторых целей.

 Источник изображения: Levart_Photographer / unsplash.com

Источник изображения: Levart_Photographer / unsplash.com

Конфликт Anthropic и Пентагона разгорелся на почве двух «красных линий», которые разработчик ИИ переходить отказался. Компания не захотела, чтобы её модели самостоятельно принимали решения о применении оружия по человеку, а также чтобы они использовались для наблюдения за американскими гражданами. В результате соглашение с Anthropic расторгли, а саму компанию поместили в «чёрный список», запретив всем оборонным подрядчикам с ней сотрудничать.

Место Anthropic в системах Пентагона заняла OpenAI. Глава компании Сэм Альтман (Sam Altman) пообещал, что её модели не станут использоваться для массового наблюдения, но представитель американского правительства опроверг это утверждение и заявил, что они будут работать во «всех законных сценариях», а принятый после трагедии 11 сентября 2001 года «Патриотический акт» позволяет, в частности, собирать метаданные в сетях связи, даже с учётом того, что некоторые его аспекты в последние годы ограничили.

 Источник изображения: Dima Solomin / unsplash.com

Источник изображения: Dima Solomin / unsplash.com

Этот шаг вызвал резко отрицательную реакцию в сетевых сообществах — люди, которые заявляли, что прекращают пользоваться ChatGPT, стали получать положительные оценки. Следует отметить, что пересекать указанные Anthropic «красные линии» отказываются далеко не все крупные разработчики ИИ. Во внутренних правилах Google такой запрет значился ранее, но теперь компания его отменила. Microsoft не возражает против использования оружия с ИИ, если собственно выстрел производит человек. Amazon ограничивается расплывчатой формулировкой об «ответственном использовании» ИИ.

Впоследствии Сэм Альтман повторил тезис, что Министерство обороны США будет соблюдать заявленные компанией «красные линии» в отношении автономного оружия и массового наблюдения за гражданами США, но не внёс ясности, как эти гарантии будут реализованы. Глава OpenAI сослался на действующее в США законодательство, а оно, в частности, допускает наблюдение за лицами без американского гражданства, и в этих целях позволяет косвенным или случайным образом собирать данные о гражданах страны.

В глазах общественности, однако, OpenAI предоставила Пентагону возможность интерпретировать, что считается законным, а Anthropic решила сохранить полный контроль над использованием своих технологий. В результате приложение Anthropic Claude AI выбилось в лидеры официальных магазинов как для Android, так и для iOS; оно также выпущено для Windows 11.


window-new
Soft
Hard
Тренды 🔥
Fortnite вернётся в Play Store по всему миру вместе с запуском сезона «Противостояние» 19 мин.
Хардкорная сложность, вырезанный контент и новые кошмары: с выходом ПК-версии Death Stranding 2: On the Beach получит крупное обновление 60 мин.
Скандал с почтовым ПО Horizon не утихает: тысячи невинно осуждённых британцев до сих пор без выплат 3 ч.
Bethesda разразилась новостями о Starfield — сюжетное дополнение Terran Armada, крупное обновление Free Lanes и версия для PS5 3 ч.
Alibaba запустила платформу для ИИ-агентов Wukong с интеграцией Slack и Teams 4 ч.
Чат-бот Anthropic Claude научился генерировать шрифты на основе рукописного текста 4 ч.
Disco Elysium, Resident Evil 7, Like a Dragon: Infinite Wealth и многие другие: Microsoft раскрыла последние новинки Game Pass в марте 5 ч.
В мобильном Chrome появилась панель закладок — но только для планшетов и складных смартфонов 6 ч.
В Google Gemini появится ветвление беседы — как в ChatGPT 6 ч.
«Алиса AI» начала обучать школьников — ИИ поможет разобраться с задачами по математике 6 ч.
Microsoft возьмётся за проблему раздробленного Copilot — направление ИИ получит нового главу 12 мин.
Чудо-материал из отходов: учёные научились превращать скорлупу арахиса в «почти графен» 27 мин.
Samsung выпустила 140-долларовый смартфон Galaxy M17e — Dimensity 6300, 50-Мп камера и батарея на 6000 мА·ч 30 мин.
Oppo представила смарт-часы Watch X3 с титановым корпусом, мониторингом глюкозы и выявлением гипертонии 3 ч.
AWS и NVIDIA расширят сотрудничество: в следующие 12 месяцев AWS внедрит более 1 млн ИИ-ускорителей NVIDIA 3 ч.
Тим Кук к 50-летию Apple похвалился достижениями компании, а заодно обсудил таможенные пошлины и свою пенсию 3 ч.
Nvidia выпустила однослотовый серверный ускоритель RTX Pro 4500 Blackwell Server Edition для ИИ и других задач 3 ч.
TCL представила Max163M Pro — «ультра-флагманский» 163-дюймовый Micro LED-телевизор за $50 000 3 ч.
Энтузиаст оснастил процессорный кулер 15 мини-вентиляторами — они оказались не хуже большого, но сильно шумят 3 ч.
Глобальный дефицит кобальта продлится до 2030 года — цены уже выросли более чем на 160 % 5 ч.