Сегодня 13 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Сэм Альтман пообещал, что OpenAI внесёт поправки в «скользкий» контракт с Минобороны, чтобы защитить людей от слежки

Вскоре после того, как Пентагон отказался от использования ИИ-моделей Anthropic из-за сопротивления руководства компании предоставить ведомству полную свободу их применения, соответствующая сделка была заключена с конкурирующей OpenAI. Глава последней Сэм Альтман (Sam Altman) признал, что этот шаг выглядел не очень красиво в сложившихся обстоятельствах.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Напомним, что до заключения сделки с Министерством войны США, как оно теперь называется, Альтман выражал солидарность с позицией своего бывшего соратника Дарио Амодеи (Dario Amodei), который ныне возглавляет Anthropic. Однако, как только военное ведомство США отказалось от услуг этой компании и начало искать альтернативу для внедрения в свою секретную инфраструктуру, сделка с OpenAI была заключена поспешно и на не самых прозрачных условиях. Альтман назидательно повторял после заключения контракта с Пентагоном, что интересы правительства выше принципов любой частной компании. В конце прошлой недели Альтман настаивал, что изначальный вариант соглашения OpenAI с Пентагоном подразумевал больше ограничений, чем все предыдущие случаи применения ИИ в секретных системах, включая сделку с Anthropic.

К понедельнику генеральный директор OpenAI Сэм Альтман заявил, что заключать соглашение с Пентагоном не следовало бы в такой спешке, а его условия будут пересматриваться уже после сделки, и изменения вносятся в настоящий момент. Он отметил, что в тексте соглашения следовало бы явно прописать, что «ИИ-система не должна намеренно использоваться для наблюдения за гражданами и жителями США на территории страны». Как подчеркнул Альтман, Министерство войны понимает, что существуют подобного рода ограничения на применение ИИ, даже если данные о гражданах были получены третьей стороной. Соответствующие правки будут внесены в текст соглашения OpenAI с военным ведомством США.

OpenAI также удалось получить от Министерства войны США гарантии того, что ИИ-инструменты компании не будут использоваться разведывательными структурами типа АНБ. Альтман пояснил: «Есть много вещей, к которым технология пока не готова, и много сфер, в которых мы не понимаем, какими должны быть уступки для обеспечения безопасности». Компания, по его словам, готова сотрудничать с Пентагоном для создания технических ограничений, обеспечивающих безопасное применение ИИ. Поспешность заключения сделки в пятницу он объяснил желанием снизить градус эскалации и избежать гораздо худшего исхода, но он понимает, что со стороны всё выглядело «оппортунистическим и скользким». Ещё в пятницу глава OpenAI сообщил, что Пентагон согласился на ограничения использования технологий, выдвинутые компанией. Публичное недовольство действиями OpenAI уже привело к тому, что люди начали отказываться от ChatGPT в пользу решений Anthropic. Последняя с момента своего основания в 2021 году делает особый упор на безопасное применение ИИ.

Условия соглашения OpenAI с Пентагоном были пересмотрены не в последнюю очередь под давлением общественности. Даже сотрудники компании начали выражать недовольство первоначальным вариантом сделки. В минувшие выходные перед штаб-квартирой OpenAI в Сан-Франциско появилась выполненная мелом надпись "Нет массовой слежке!". Альтман добавил, что в тексте соглашения с Anthropic фигурировали простые формулировки ограничений, но не было ссылок на соответствующие законодательные акты, тогда как сама OpenAI в предоставлении таких ссылок проблем не видела.

OpenAI подтверждает, что может ограничивать применение своих технологий для массовой слежки за гражданами США и управления вооружениями, предназначенными для автоматического выбора и уничтожения целей. Компания разрешила Пентагону применять свои ИИ-модели только в облачной части инфраструктуры с сохранением доступа к ним со стороны своих сотрудников, но не на конечном оборудовании военной техники, которое используется для управления оружием.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Anthropic отодвинула OpenAI на второй план по итогам главной ИИ-конференции HumanX 17 ч.
Франция начнёт переводить госcистемы с Windows на Linux и отказываться от американского софта 21 ч.
Rockstar подтвердила утечку данных через стороннюю ИИ-платформу аналитики Anodot 24 ч.
Новая статья: Super Meat Boy 3D — как в старые добрые, но не совсем. Рецензия 12-04 00:03
Новая статья: Gamesblender № 771: Gamesblender — 15 лет! Отвечаем на вопросы зрителей 11-04 23:30
К 20-летию облака AWS в Amazon S3 появился файловый доступ 11-04 20:56
OpenAI обнаружила взлом стороннего компонента своих приложений — данные пользователей в безопасности 11-04 15:39
OpenAI обвинила Илона Маска в создании юридической «засады» по делу на $100 млрд 11-04 15:02
Anthropic ускорила рост в США и заметно сократила отставание от OpenAI на корпоративном рынке ИИ-сервисов 11-04 14:14
ИИ оказался никудышным в ставках на спорт — он проиграл всё на матчах английской Премьер-лиги 11-04 13:04
Apple готовит четыре варианта дизайна умных очков с оправой из ацетата 41 мин.
Китайский робот Unitree H1 продемонстрировал способность бегать со скоростью 36 км/ч 3 ч.
Новая статья: Обзор материнской платы MSI MAG B850 TOMAHAWK: лучшее предложение? 7 ч.
Бизнес-компьютеры MSI Cubi NUC TWG с активным и пассивным охлаждением выполнены в 0,55-литровом корпусе 14 ч.
AAEON представила промышленную рабочую станцию Boxer-6845-BTL с поддержкой ускорителя NVIDIA Blackwell 14 ч.
Рынок смартфонов вырос на 1% в I квартале, но к концу года ожидается спад на 15 % 14 ч.
ПО Tesla для автономного вождения впервые одобрено в европейской стране 24 ч.
За пределами Китая человекоподобных роботов Unitree скоро можно будет купить через AliExpress 12-04 06:36
Tesla решила распродать прощальную серию из 350 электромобилей Model S и Model X среди коллекционеров 12-04 05:49
Глава Amazon допустил продажу собственных чипов сторонним заказчикам 11-04 23:18