Сегодня 22 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Глава OpenAI заявил, что частные компании не могут иметь больше власти, чем правительство США

Вечером в пятницу Сэм Альтман (Sam Altman) заявил, что возглавляемая им OpenAI заключила с Пентагоном контракт на внедрение технологий ИИ в секретные системы этого ведомства. Чтобы развеять страхи и сомнения общественности по поводу её условий, Альтман провёл сессию вопросов и ответов, заявив о верховенстве демократически избранного правительства над принципами любых частных компаний.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Напомним, попытки Пентагона внедрить ИИ разработки Anthropic в свои секретные системы без ограничений на его использование наткнулись на протест со стороны разработчиков, в результате контракт на $200 млн был расторгнут, а сама Anthropic попала в список неблагонадёжных поставщиков. Использовать её разработки всем американским правительственным структурам было запрещено, в течение шести месяцев они должны найти замену сервисам Anthropic.

Альтман на страницах социальной сети X сообщил, что сделка между OpenAI и Пентагоном была заключена очень быстро для снижения накала ситуации, в обычных условиях переговоры заняли бы больше времени. Он признал, что если сделка OpenAI позволит снизить напряжённость в отношениях Министерства обороны США (с недавних пор — Министерства войны) с представителями отрасли, то на имидже компании это скажется положительным образом. Если же устранить эти противоречия не удастся, то OpenAI обвинят в небрежности и поспешности заключения сделки, как заявил Альтман. Впрочем, пока он видит больше положительных для OpenAI сигналов в этой сфере.

Рассуждая, почему именно OpenAI была выбрана в роли подрядчика американскими военными, а не Anthropic, Альтман предположил, что на уровне «языка контракта» обе стороны пришли к согласию быстрее, чем в случае с конкурентом. Глава OpenAI выдвинул гипотезу, что Anthropic пыталась сохранить больше операционного контроля за использованием своих разработок Пентагоном, чем это пытается сделать его компания.

Говоря о так называемых «красных линиях», Альтман назвал три ключевых принципа, которых OpenAI готова придерживаться в сфере этики применения ИИ своими клиентами. С другой стороны, как отмечает глава компании, она готова пересматривать данные принципы по мере развития технологий, но при некотором стечении обстоятельств «красных линий» может стать больше. «Для нас нормально, если ChatGPT будет искать ответ на тот или иной противоречивый вопрос. Но я действительно не хотел бы, чтобы мы решали, что делать, если ядерная бомба будет направлена против США», — пояснил позицию OpenAI Альтман. Он добавил, что страной руководят демократически избранные лидеры, и было бы странно, если бы частная компания сама решала, что этично, а что нет, в самых важных областях.

По словам Альтмана, переговоры между OpenAI и Пентагоном по поводу использования ИИ-сервисов компании в несекретной части бизнес-процессов ведомства велись на протяжении долгих месяцев, но сферы секретных операций они коснулись лишь недавно. В своих переговорах с Министерством обороны США, как подчеркнул Альтман, OpenAI старалась добиться равных условий взаимодействия ведомства со всеми участниками рынка. Глава компании пояснил, что Anthropic в этой ситуации выглядит не очень красиво, поскольку она сперва поясняет правительству, что в сфере ИИ на международной арене имеются некоторые риски, а потом отказывается помогать ему, обвиняя в разного рода грехах. Реакцию властей США в этой ситуации можно понять, как считает Альтман. По его словам, руководители частных компаний не должны иметь столько же власти, как избранные правители, но помогать последним они могут.

Глава OpenAI привёл два примера использования ИИ в сфере национальной безопасности, которые способны продемонстрировать его реальную пользу. Во-первых, ИИ может применяться для защиты от массовых хакерских атак. Во-вторых, сфера биологической безопасности может стать тем полигоном применения ИИ, который позволит предотвратить новую пандемию, например.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Франция обвинила Илона Маска в завышении стоимости X и xAI дипфейками с обнажёнкой 2 ч.
OpenAI планирует удвоить штат ради укрепления корпоративных продаж ChatGPT 8 ч.
Новая статья: John Carpenter's Toxic Commando — весёлый экшен для совместного отдыха. Рецензия 15 ч.
Apple хотела поглотить разработчика приложения камеры Halide, но рассорила учредителей стартапа 19 ч.
Реклама в ChatGPT забуксовала: крупные агентства вложили сотни тысяч, но аудитории не хватает 22 ч.
«Google Переводчик» научит пользователей правильному произношению с помощью ИИ 21-03 14:39
На PlayStation появится ИИ-генератор кадров, как у Radeon — но не в ближайшее время 21-03 12:55
Чиновников обяжут пользоваться мессенджером Max 21-03 12:22
Пентагон принял боевую ИИ-систему Palantir Maven в качестве основной для армии США 21-03 12:18
Microsoft представила MAI-Image-2 — ИИ-генератор изображений, который оказался неожиданно хорош в фотореализме и инфографике 21-03 12:07
Почти втрое быстрее NVIDIA H20: Huawei представила ИИ-ускоритель Atlas 350 для инференса 2 ч.
Apple распродала запасы MacBook Neo — новым покупателям придётся ждать до середины апреля 4 ч.
Huawei представила ИИ-ускоритель Atlas 350, превосходящий Nvidia H20 по производительности 4 ч.
Tesla и SpaceX построят гигантскую фабрику по выпуску ИИ-чипов в Техасе 7 ч.
Micron сейчас способна покрывать спрос на память от силы на две трети от требуемого уровня 7 ч.
Китайские мозговые импланты на три года отстают от американских Neuralink 8 ч.
Supermicro выгнала сооснователя компании, попавшегося на контрабанде в Китай подсанкционного ИИ-оборудования 17 ч.
Скандал с контрабандой обрушил акции Supermicro на 33 % — компания запустила реорганизацию 21 ч.
AMD «забыла» представить Ryzen 9 9950X3D2 с двойным 3D V-Cache на этой неделе, показал пресс-релиз ASRock 22 ч.
«Ты получаешь лучшее из обоих миров»: Apple объяснила, почему в процессорах M5 стало три типа ядер 22 ч.