Сегодня 10 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → openai
Быстрый переход

OpenAI выпустила GPT-5.4 — флагманскую LLM с улучшенными навыками работы с компьютером в режиме агента

OpenAI объявила о выходе новой версии модели искусственного интеллекта GPT-5.4. Она, утверждает разработчик, сочетает в себе достижения в области логического мышления, программирования, а также профессиональной работы с текстовыми документами, электронными таблицами и презентациями. Это первая модель компании, изначально поддерживающая выполнение задач на компьютере пользователя и в различных приложениях.

 Источник изображения: Zac Wolff / unsplash.com

Источник изображения: Zac Wolff / unsplash.com

OpenAI GPT-5.4 — очередной шаг в направлении повсеместного использования ИИ-агентов, способных от лица пользователя выполнять сложные задачи онлайн и управлять ПО. Технологическую основу для этих возможностей компания заложила ещё в прошлом году, когда вышла функция ChatGPT Agent, позволяющая ИИ брать ПК под контроль для выполнения таких задач как, например, закупка продуктов для приготовления блюд.

Модель OpenAI GPT-5.4 уже доступна через API и в приложении для ИИ-программирования Codex, а в ChatGPT дебютировала её рассуждающая версия GPT-5.4 Thinking. Новая GPT-5.4 умеет писать код для управления компьютерами, эмулировать команды мыши и клавиатуры по запросам в виде скриншотов. Она стала эффективнее предшественниц управлять браузерами и обращаться к API сторонних сервисов. Модель лучше справляется с вопросами, предполагающими сбор информации из нескольких источников, умеет производить по нескольку поисковых сессий для определения наиболее релевантных источников, «особенно в вопросах типа „иголка в стоге сена“ и синтезировать данные в ясный, хорошо обоснованный ответ». GPT-5.4 является «самой достоверной моделью на сегодняшний день», уверяет OpenAI — число не соответствующих действительности утверждений сократилось на 33 % в сравнении с GPT-5.2.

При получении сложных запросов рассуждающая GPT-5.4 Thinking предлагает план работы, и пользователь может корректировать свой запрос прямо при получении ответа. «Это упрощает управление моделью для достижения желаемого результата без необходимости начинать всё сначала или производить дополнительные действия», — отметили в OpenAI. Базовая GPT-5.4 уже развёртывается в ChatGPT, Codex и API; рассуждающая GPT-5.4 Thinking будет доступна подписчикам платных тарифов Plus, Team и Pro; через API открыт доступ к мощной GPT-5.4 Pro «для максимальной производительности в решении сложных задач» — с ней также могут работать пользователи с учётными записями ChatGPT Enterprise и Edu.

OpenAI увеличила выручку до $25 млрд, сохранив лидерство над Anthropic — но до прибыли ещё далеко

Большинство крупнейших ИИ-стартапов остаются убыточными, но свою выручку они наращивают довольно быстро. Как отмечалось недавно, Anthropic недавно преодолела рубеж в $19 млрд годовой выручки в приведённом значении, полученном методом экстраполяции ежемесячной величины. OpenAI с выручкой в размере $25 млрд всё равно её опережает.

 Источник изображения: Unsplash, Дима Соломин

Источник изображения: Unsplash, Дима Соломин

Данными на эту тему делится Reuters со ссылкой на The Information. В конце прошлого года данный показатель OpenAI достиг $21,4 млрд. Получается, что за прошедшее время он вырос на 17 %. По сути, подобная динамика отражает способность ИИ-стартапа активно наращивать выручку. Однако, с учётом запланированных на ближайшие годы расходов в размере $600 млрд, выйти на безубыточность компания сможет в лучшем случае к концу десятилетия.

Руководство OpenAI, которому нередко приходится слышать упрёки инвесторов в непомерном росте расходов, на тематические вопросы обычно отвечает уклончиво и даже раздражительно, утверждая, что не следует сейчас жалеть денег, чтобы в будущем получить весьма хорошую финансовую отдачу. При этом большинство сделок OpenAI по финансированию строительства вычислительной инфраструктуры для её нужд организовано таким образом, что сам стартап ни за что не отвечает, а долговые обязательства ложатся на сторонние компании и подрядчиков. Выйдя на IPO, которое может оценить капитализацию OpenAI в $1 трлн, компания столкнётся с более пристальным вниманием инвесторов к своим финансовым показателям.

Понимая, что в корпоративном сегменте продавать технологии ИИ сейчас выгоднее, OpenAI уже заключила соглашения с четырьмя крупнейшими в мире консалтинговыми агентствами. По итогам 2025 года OpenAI смогла выйти на годовую величину выручки в $20 млрд, полученную методом умножения месячной выручки на 12. На тот момент конкурирующая Anthropic довольствовалась лишь $9 млрд приведённой годовой выручки, но смогла быстро наверстать отставание. Впрочем, сейчас OpenAI со своими $25 млрд годовой выручки всё равно оказывается впереди конкурента.

Хуанг подтвердил, что Nvidia передумала вливать $100 млрд в OpenAI — новых вложений в Anthropic тоже не предвидится

Ещё недавно считалось, что Nvidia вложит в капитал OpenAI обещанные $100 млрд, но позже условия сделки были пересмотрены в пользу единовременной инвестиции на сумму $30 млрд. На этой неделе основатель первой из компаний Дженсен Хуанг (Jensen Huang) вообще заявил, что данная инвестиция в капитал OpenAI, возможно, была последней, да и конкурирующей Anthropic нет смысла рассчитывать на дополнительные вложения.

 Источник изображения: Nvidia

Источник изображения: Nvidia

«Я думаю, что возможность вложить $100 млрд в OpenAI не рассматривается. Так что это вполне может оказаться последней возможностью вложить в столь важную компанию, как эта»,подчеркнул генеральный директор Nvidia, добавив, что OpenAI может выйти на IPO до конца текущего года. В прошлом месяце Nvidia вложила $30 млрд в капитал OpenAI вместе с рядом других стратегических инвесторов. По итогам недавнего раунда финансирования капитализация OpenAI выросла до $730 млрд.

Хотя Nvidia и уменьшила объёмы средств, направляемые в капитал OpenAI, никакого разочарования в этом стартапе она не испытывает, как дал понять в конце января Дженсен Хуанг. На конференции Morgan Stanley на этой неделе он добавил, что и вложенные недавно $10 млрд в капитал Anthropic могут стать последней инвестицией такого масштаба для данного ИИ-стартапа со стороны Nvidia. Как и OpenAI, компания Anthropic тоже рассчитывает выйти на IPO.

Опасения отдельных инвесторов по поводу формирования ИИ-пузыря Хуанг привычно отмёл, ссылаясь на генерирование прибыли соответствующими технологиями для компаний типа Microsoft. Именно вычислительные мощности сейчас сдерживают рост прибыли на этом направлении, как подчеркнул глава Nvidia. Если бы у них было в три раза больше вычислительных мощностей, то и выручка была бы в три раза выше, как резюмировал Хуанг. По мнению главы Nvidia, поставщики программного обеспечения для проектирования чипов типа Synopsys и Cadence в эпоху бума ИИ начнут наращивать свою значимость для всей отрасли. Она, по его словам, сейчас находится в самом начале большого цикла роста. Доходами своей компании за прошлый квартал Хуанг очень доволен.

OpenAI разрабатывает прямого конкурента платформы GitHub от Microsoft

Компания OpenAI разрабатывает платформу для размещения кода, которая станет конкурентом GitHub, принадлежащему Microsoft веб-сервису для хостинга IT-проектов и их совместной разработки, сообщает ресурс The Information со ссылкой на источник, знакомый с планами стартапа.

 Источник изображения: Mariia Shalabaieva/unsplash.com

Источник изображения: Mariia Shalabaieva/unsplash.com

На разработку нового продукта инженеров OpenAI подтолкнули участившиеся сбои в работе GitHub, из-за которых площадка зачастую недоступна в последние месяцы, рассказал источник The Information.

По его словам, проект OpenAI находится на ранней стадии и, по всей видимости, до его завершения ещё далеко. Сотрудники, занятые в разработке платформы, также рассматривают возможность предоставления репозитория кода в рассрочку клиентам OpenAI. В случае коммерциализации новой платформы этот шаг поставит OpenAI в прямую конкуренцию с Microsoft, владеющей значительной долей компании.

После недавнего раунда финансирования в размере $110 млрд с участием крупнейших технологических компаний, таких как Amazon, Nvidia и Softbank, рыночная стоимость OpenAI выросла до $840 млрд. Проведение столь масштабного раунда свидетельствует о том, что инвестиционная гонка в сфере ИИ продолжается, несмотря на опасения экспертов по поводу растущего пузыря переоценки стоимости ИИ-компаний, отмечает агентство Reuters.

После Пентагона OpenAI нацелилась на контракт с НАТО — Альтман попросил сотрудников не спорить о политике

Поскольку недавняя поспешная сделка OpenAI с Министерством войны США вызвала протест даже среди сотрудников стартапа, генеральный директор Сэм Альтман (Sam Altman) призвал их не давать оценок действиям Пентагона, добавив, что все операционные решения будут оставаться за властями США. По слухам, OpenAI также пытается заключить контракт с НАТО в целом.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Вчера, как отмечает CNBC, состоялось общее собрание сотрудников OpenAI, на котором обсуждалась тема недавней сделки с Пентагоном. Позиция Альтмана осталась неизменной с прошлой недели — сама компания не может влиять на то, как военные используют её технологии. «Может быть, вы думаете, что удар по Ирану был хорошей идеей, а вторжение в Венесуэлу плохой, но вам не нужно об этом рассуждать», — пояснил глава OpenAI. Компания, по его словам, не способна принимать операционные решения по использованию разработанных ею технологий ИИ американскими военными.

Альтман добавил, что Пентагон с уважением относится к техническому опыту OpenAI, прислушивается к рекомендациям по оптимальному использованию ИИ, а также позволит определять границы безопасного применения технологий в тех случаях, когда сочтёт это уместным. При этом военное ведомство США чётко дало понять, что операционные решения останутся за его главой Питом Хегсетом (Pete Hegseth). Считается, что ИИ-решения конкурирующей Anthropic уже использовались Пентагоном не только при операции по захвату президента Венесуэлы в январе, но и при недавних атаках на Иран. Пентагон с прошлого года использует решения OpenAI в несекретных сферах своей деятельности, сумма профильного контракта составила $200 млн. Теперь профильные технологии смогут применяться и в секретных видах активности.

«Я верю, что у нас будут лучшие ИИ-модели, которые вдохновят правительство работать с нами, даже если наши ограничения в сфере безопасности будут их раздражать. Но будет как минимум ещё одно действующее лицо, которым, я полагаю, станет xAI, которое фактически скажет: "Мы сделаем всё, что вы захотите"», — заявил Сэм Альтман.

Агентство Reuters сообщило со ссылкой на The Wall Street Journal, что OpenAI рассматривает возможность заключения контракта с НАТО на использование технологий ИИ данной компании в несекретных системах. Альтман также заявил об этом на общем собрании персонала OpenAI. Учитывая главенствующую роль американского военного комплекса в функционировании альянса, в подобных намерениях стартапа нет ничего удивительного. Пентагон настаивает, что считает возможным использование ИИ в любых законных целях. Anthropic, а затем и OpenAI считают необходимым исключить использование ИИ для массовой слежки за гражданами США и управления системами вооружений, которые автоматически выбирают и уничтожают цели. OpenAI добивается того, чтобы её ИИ-системы не использовались АНБ и другими разведывательными структурами США, а в военной сфере применение ИИ ограничивалось только облачной инфраструктурой ведомства, а не конечными устройствами, управляющими оружием. Само заключение сделки с Пентагоном Альтман назвал крайне трудным, но правильным решением, которое будет иметь негативные последствия для имиджа OpenAI в краткосрочной перспективе.

Anthropic почти догнала OpenAI по годовой выручке

В условиях бума искусственного интеллекта профильные стартапы редко задумываются о необходимости скорейшего выхода на окупаемость, но инвесторы то и дело напоминают им об этом. До скандала с Пентагоном финансовые показатели Anthropic росли уверенными темпами, в приведённом значении годовая выручка стартапа успела вырасти до более чем $19 млрд. Фактически, подобным значением в январе могла похвастаться и конкурирующая OpenAI.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Напомним, в конце прошлого года Anthropic вышла на $9 млрд приведённой ежегодной выручки. Как отмечает Bloomberg со ссылкой на собственные источники, уже в текущем году данный показатель поднялся до $14 млрд, и совсем недавно смог преодолеть рубеж в $19 млрд. В основном такая динамика последних недель была обусловлена активным использованием ИИ-ассистента Claude, который помогает разработчикам создавать программный код.

Текущая капитализация Anthropic достигла $380 млрд, хотя пока непонятно, как на финансовых показателях деятельности скажется недавний скандал с Пентагоном. Американское военное ведомство пыталось заключить с компанией контракт на использование ИИ-моделей Anthropic в секретной части своих операций, но руководство стартапа решило ставить ограничения на его применение. Договориться по примеру воспользовавшейся данной возможностью OpenAI не удалось, поэтому теперь Anthropic будет лишена возможности работать с правительственными учреждениями США в любом контексте, а также с большинством их подрядчиков.

Anthropic собирается оспорить в суде своё отнесение к числу неблагонадёжных поставщиков. Тем временем, заключившая аналогичный контракт с Пентагоном компания OpenAI его условия уже начала менять «задним числом». Позиции Anthropic традиционно были сильны в корпоративном сегменте, и пока сложно предсказать, как противостояние с Пентагоном скажется на способности компании удерживать клиентов. Рядовые пользователи начали переходить на продукты Anthropic в знак протеста против политики американских властей, но насколько данный порыв будет способствовать генерации устойчивой выручки, предугадать сложно.

OpenAI обновила модель для стандартных ответов в ChatGPT на более прямолинейную GPT 5.3 Instant

Состоялся релиз алгоритма GPT-5.3 Instant, который является обновлением самой используемой ИИ-модели ChatGPT. Благодаря этому процесс повседневного общения с ИИ-ботом станет более последовательным и естественным. По данным OpenAI, GPT-5.3 Instant повысит точность генерируемых ответов, позволит формировать более содержательные и соответствующие контексту сообщения при поиске в интернете, а также сократит количество отказов и категоричных формулировок.

 Источник изображений: unsplash.com

Источник изображений: unsplash.com

Нынешнее обновление сосредоточено на улучшении трёх аспектов взаимодействия с ChatGPT, с которыми пользователи сталкиваются ежедневно. Речь о тоне ответов алгоритма, их уместности и общей плавности диалогов. Предыдущая версия модели GPT-5.2 Instant зачастую чересчур осторожничала и не давала ответов на запросы, на которые могла бы безопасно ответить. В некоторых случаях вместо прямого отказа алгоритм мог углубиться в излишне осторожные формулировки или перейти к назидательным речам. С выходом GPT-5.3 Instant количество необоснованных отказов заметно сократится, а выражения, которые могли расцениваться как снисходительные, должны исчезнуть.

Параллельно с этим GPT-5.3 Instant улучшит качество ответов при обработке данных из веб-источников. Модель стала лучше сопоставлять найденную в интернете информацию с собственными знаниями. К примеру, алгоритм может добавить актуальный контекст к какой-либо новости из интернета вместо того, чтобы просто пересказать её в ответ на пользовательский запрос. GPT-5.3 Instant реже чрезмерно опирается на найденные в поиске данные, что прежде могло приводить к появлению длинного списка ссылок или слабой связанности информации в ответах. Алгоритм лучше распознаёт подтекст вопросов и выделяет основные моменты, за счёт чего ответы будут более релевантными.

Обновление улучшит стиль общения ChatGPT, который прежде мог казаться навязчивым, особенно в случаях, когда алгоритм делал необоснованные предположения о намерениях или эмоциях пользователя. Новый стиль общения более сфокусированный и естественный, из него исчезнут лишние замечания, такие как «Стоп. Сделай вдох». OpenAI продолжает работать над тем, чтобы алгоритм был более последовательным в разных беседах, сохраняя при этом возможность изменения тона ответов в зависимости от предпочтений пользователей.

Модель GPT-5.3 Instant уже доступна всем пользователям ChatGPT, а также через соответствующий API разработчикам под именем gpt-5.3-chat-latest. Обновлённые алгоритмы версий Thinking и Pro будут запущены в ближайшее время. Модель GPT-5.2 Instant перемещается в раздел Legacy Models и будет оставаться доступной платным подписчикам ещё три месяца, а 3 июня её выведут из эксплуатации.

Сотрудники Google и OpenAI призывают к ужесточению ограничений на использование ИИ в военных целях

Сотрудники Google и OpenAI опубликовали открытое письмо «Мы не будем разделены», собравшее почти 900 подписей, с призывом к более строгим ограничениям на использование искусственного интеллекта военными. Напряжённость в технологической индустрии возросла в последние несколько дней после того, как Министерство обороны США внесло технологии Anthropic в чёрный список.

Свои подписи под письмом поставили около ста работников OpenAI и около восьмисот сотрудников Google. В письме критикуются действия Министерства обороны США против компании Anthropic, которая отказалась разрешить использование своих технологий для массового наблюдения или создания полностью автономного оружия.

«Они пытаются разделить каждую компанию, надеясь, что другая уступит, — говорится в письме. — Эта стратегия работает только в том случае, если никто из нас не знает, какова позиция другой стороны. Это письмо призвано создать взаимопонимание и солидарность перед лицом этого давления со стороны Министерства обороны».

Напряжённость в технологической отрасли нарастает уже несколько месяцев. Работники отрасли требуют большей прозрачности в отношении работы, которую их работодатели выполняют с правительством, особенно в отношении контрактов на облачные технологии и искусственный интеллект. Для Google последняя волна критики связана с тем, что компания, как сообщается, ведёт переговоры с Пентагоном о внедрении своей модели ИИ Gemini в секретную военную систему.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

В пятницу группа No Tech For Apartheid, которая давно критикует сделки по облачным технологиям между правительством США и технологическими гигантами, опубликовала совместное заявление под названием «Amazon, Google, Microsoft должны отклонить требования Пентагона». Эти компании, по мнению правозащитников, должны отказаться от условий Министерства обороны, которые позволят осуществлять массовое наблюдение или иное неправомерное использование ИИ.

Группа прямо указала на Google, сославшись на потенциальную сделку с Пентагоном, которая может быть аналогична соглашению, позволяющему Министерству обороны развёртывать Grok от xAI «в секретных средах — насколько нам известно, без каких-либо ограничений». В то время как Anthropic и OpenAI сделали публичные заявления относительно своих переговоров с Министерством обороны, Alphabet, материнская компания Google, хранит молчание.

Сотни сотрудников технологических компаний подписали открытое письмо в поддержку Anthropic, призывающее Министерство обороны отменить присвоение компании статуса «риска для цепочки поставок». В список подписантов вошли десятки сотрудников OpenAI, а также работники таких компаний, как Salesforce, Databricks, IBM и Cursor. В письме содержится призыв к Конгрессу «изучить вопрос о целесообразности использования этих чрезвычайных полномочий против американской технологической компании».

Аналогичные опасения высказывались внутри Google на прошлой неделе, когда более 100 сотрудников, работающих над технологиями искусственного интеллекта, обратились к руководству, выразив опасения по поводу сотрудничества компании с Министерством обороны. Сообщается, что они попросили провести те же «красные линии», что ранее сделала Anthropic.

 Источник изображения: Axios

Источник изображения: Axios

Главный научный сотрудник Google Джефф Дин (Jeff Dean) считает, что «массовое наблюдение нарушает Четвёртую поправку и оказывает сдерживающее воздействие на свободу выражения мнений», а системы слежки «склонны к злоупотреблениям в политических или дискриминационных целях».

Похоже, что далеко не все менеджеры Google согласны с ним. В 2018 году компания пережила настоящий бунт тысяч сотрудников из-за проекта Maven, программы Пентагона, которая использовала ИИ для анализа видеозаписей с дронов. Позже компания разработала свои «Принципы ИИ», определяющие порядок использования этих технологий.

Тем не менее, ситуация продолжает вызывать беспокойство. В 2024 году Google уволила более 50 сотрудников после протестов по поводу проекта Nimbus, совместного контракта с Amazon на сумму $1,2 млрд на работу с правительством Израиля. Хотя руководители утверждали, что контракт не нарушает ни один из «Принципов ИИ», документы и отчёты показывают, что это соглашение позволяло предоставлять Израилю инструменты ИИ, включая категоризацию изображений, отслеживание объектов и положения для государственных производителей оружия.

Сообщается, что в начале прошлого года Google пересмотрела свои принципы в области искусственного интеллекта и удалила формулировки, которые прямо запрещали «создание оружия» или «технологий слежки».

Сэм Альтман пообещал, что OpenAI внесёт поправки в «скользкий» контракт с Минобороны, чтобы защитить людей от слежки

Вскоре после того, как Пентагон отказался от использования ИИ-моделей Anthropic из-за сопротивления руководства компании предоставить ведомству полную свободу их применения, соответствующая сделка была заключена с конкурирующей OpenAI. Глава последней Сэм Альтман (Sam Altman) признал, что этот шаг выглядел не очень красиво в сложившихся обстоятельствах.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Напомним, что до заключения сделки с Министерством войны США, как оно теперь называется, Альтман выражал солидарность с позицией своего бывшего соратника Дарио Амодеи (Dario Amodei), который ныне возглавляет Anthropic. Однако, как только военное ведомство США отказалось от услуг этой компании и начало искать альтернативу для внедрения в свою секретную инфраструктуру, сделка с OpenAI была заключена поспешно и на не самых прозрачных условиях. Альтман назидательно повторял после заключения контракта с Пентагоном, что интересы правительства выше принципов любой частной компании. В конце прошлой недели Альтман настаивал, что изначальный вариант соглашения OpenAI с Пентагоном подразумевал больше ограничений, чем все предыдущие случаи применения ИИ в секретных системах, включая сделку с Anthropic.

К понедельнику генеральный директор OpenAI Сэм Альтман заявил, что заключать соглашение с Пентагоном не следовало бы в такой спешке, а его условия будут пересматриваться уже после сделки, и изменения вносятся в настоящий момент. Он отметил, что в тексте соглашения следовало бы явно прописать, что «ИИ-система не должна намеренно использоваться для наблюдения за гражданами и жителями США на территории страны». Как подчеркнул Альтман, Министерство войны понимает, что существуют подобного рода ограничения на применение ИИ, даже если данные о гражданах были получены третьей стороной. Соответствующие правки будут внесены в текст соглашения OpenAI с военным ведомством США.

OpenAI также удалось получить от Министерства войны США гарантии того, что ИИ-инструменты компании не будут использоваться разведывательными структурами типа АНБ. Альтман пояснил: «Есть много вещей, к которым технология пока не готова, и много сфер, в которых мы не понимаем, какими должны быть уступки для обеспечения безопасности». Компания, по его словам, готова сотрудничать с Пентагоном для создания технических ограничений, обеспечивающих безопасное применение ИИ. Поспешность заключения сделки в пятницу он объяснил желанием снизить градус эскалации и избежать гораздо худшего исхода, но он понимает, что со стороны всё выглядело «оппортунистическим и скользким». Ещё в пятницу глава OpenAI сообщил, что Пентагон согласился на ограничения использования технологий, выдвинутые компанией. Публичное недовольство действиями OpenAI уже привело к тому, что люди начали отказываться от ChatGPT в пользу решений Anthropic. Последняя с момента своего основания в 2021 году делает особый упор на безопасное применение ИИ.

Условия соглашения OpenAI с Пентагоном были пересмотрены не в последнюю очередь под давлением общественности. Даже сотрудники компании начали выражать недовольство первоначальным вариантом сделки. В минувшие выходные перед штаб-квартирой OpenAI в Сан-Франциско появилась выполненная мелом надпись "Нет массовой слежке!". Альтман добавил, что в тексте соглашения с Anthropic фигурировали простые формулировки ограничений, но не было ссылок на соответствующие законодательные акты, тогда как сама OpenAI в предоставлении таких ссылок проблем не видела.

OpenAI подтверждает, что может ограничивать применение своих технологий для массовой слежки за гражданами США и управления вооружениями, предназначенными для автоматического выбора и уничтожения целей. Компания разрешила Пентагону применять свои ИИ-модели только в облачной части инфраструктуры с сохранением доступа к ним со стороны своих сотрудников, но не на конечном оборудовании военной техники, которое используется для управления оружием.

Двуличность OpenAI возмутила пользователей — число удалений приложения ChatGPT выросло вчетверо

Количество удалений мобильного приложения ChatGPT в США подскочило на 295 % всего за один день. Это произошло после того, как OpenAI объявила о подписании соглашения с Министерством обороны США. Об этом говорится в отчёте платформы Sensor Tower, где также отмечается, что типичный показатель удалений приложения ChatGPT день ото дня за последний месяц составлял 9 %.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

На этом фоне количество загрузок приложения Anthropic Claude в США выросло на 37 % через день после объявления OpenAI, и на 51 % ещё через день после того, как Anthropic объявила, что не будет сотрудничать с Пентагоном. Компания сообщила, что условия сделки не удалось согласовать из-за опасений по поводу того, что созданные ею алгоритмы будут использоваться для создания инструментов слежки за американцами или полностью автономного оружия. Данные Sensor Tower указывают на то, что часть потребителей поддерживает позицию Anthropic.

Новость о партнёрстве OpenAI с военными повлияла и на количество загрузок приложения ChatGPT. Через день после объявления о сделке количество скачиваний снизилось на 13 %, а ещё через день — на 5 %. За день до объявления о партнёрстве с военными количество загрузок ChatGPT выросло на 14 % по сравнению с предыдущим днём.

Это также отразилось на положении приложения Claude в американском App Store. В минувшую субботу приложение заняло первую строчку рейтинга бесплатных приложений и продолжало оставаться на этой позиции по состоянию на понедельник. Всего за неделю приложение Claude сделало скачок в рейтинге более чем на 20 позиций.

Потребители также делятся своим мнением о сделке OpenAI с Министерством обороны США в социальных сетях. В минувшую субботу количество отзывов с одной звездой для ChatGPT подскочило на 775 %, а затем выросло ещё на 100 % в воскресенье. Количество пятизвёздочных отзывов за тот же период уменьшилось на 50 %.

В действительности OpenAI уступила Пентагону в вопросах применения ИИ для слежки и в военных целях

OpenAI заключила с Пентагоном соглашение об использовании разработанных компанией систем искусственного интеллекта, сменив Anthropic, у которой возникли серьёзные сомнения в моральной стороне такого сотрудничества. В ответ на обеспокоенность общественности глава OpenAI Сэм Альтман (Sam Altman) объявил, что компания успешно договорилась с Министерством обороны США о новых условиях соглашения, но на деле это не вполне так, пишет The Verge.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

«Два важнейших для нас принципа безопасности — это запрет на внутреннюю массовую слежку и ответственность человека за применение силы, в том числе с автономными системами вооружения. Министерство обороны согласилось с этими принципами, отражая их в законах и политике, и мы включили их в наше соглашение», — подчеркнул Альтман. В соцсетях, однако, стали выражать сомнения по поводу того, что OpenAI удалось договориться с Пентагоном о соблюдении этих ограничений. Эксперты считают, что в действительности Министерство обороны США не уступило, и сделка с OpenAI предполагает более мягкие условия для ведомства — всё упирается в формулировку «любое законное применение».

В ходе переговоров, сообщил осведомлённый источник издания, Пентагон не отступал от желания собирать и анализировать большие объёмы данных, связанных с гражданами США; OpenAI же открыла военным возможность выполнять любые действия, которые с технической точки зрения являются законными. За последние десятилетия американские власти в значительной мере расширили представления о том, что «технически законно», и в это определение сейчас включаются программы массовой слежки. В OpenAI, впрочем, такую интерпретацию отвергли. «Систему нельзя использовать для сбора или анализа данных американцев в больших объёмах, в неограниченном объёме или в обобщённом виде», — заявила представитель компании.

Важнейшим достоинством систем ИИ является их умение находить закономерности, а поведение человека — это как раз набор закономерностей. ИИ способен объединять источники данных для каждого человека: информацию о местоположении, о просмотре веб-страниц, личную финансовую информацию, записи с камер видеонаблюдения, данные о регистрации избирателей и многое другое — часть из этого массива находится в открытом доступе, а часть приобретается у брокеров данных. Anthropic добивалась того, чтобы эти действия не допускались вне зависимости от их правового статуса, а OpenAI ограничилась существующими законодательными ограничениями. Упоминаются, в частности, Четвёртая поправка к Конституции США, «Закон о национальной безопасности» от 1947 года, «Закон о внешней разведке и наблюдении» от 1978 года, Исполнительный указ номер 12333, а также директивы ведомства, в которых указываются конкретные цели в области внешней разведки.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

После трагедии 11 сентября 2001 года американские спецслужбы усилили систему слежки, сохранив её, по их мнению, в пределах действующего законодательства. В 2013 году подрядчик Агентства национальной безопасности Эдвард Сноуден (Edward Snowden) раскрыл истинные масштабы происходящего: запись телефонных разговоров абонентов оператора Verizon и сбор данных о физических лицах у технологических компаний, в том числе Microsoft, Google и Apple. А исполнительный указ 12333 позволяет спецслужбам перехватывать данные вне США, даже если эти данные содержат сведения о гражданах страны, отмечают эксперты.

Глава Anthropic Дарио Амодеи (Dario Amodei) отмечал, что закон ещё не описывает всех возможностей ИИ по проведению массовой слежки. Альтман, в свою очередь подчеркнул, что контракт OpenAI с Пентагоном ограничен действующим законодательством, то есть если в США начнут действовать новые нормы, формулировки соглашения останутся прежними. Эксперты, однако, обращают внимание, что использованные представителем компании формулировки не дают возможности определить, что именно запрещается в соглашении. «Использование слов „неограниченный“, „обобщённый“, „открытый“ способ — это не полный запрет. Это формулировка, призванная дать руководству свободу выбора. <..> Она также позволяет руководству не лгать сотрудникам, если Пентагон на законных основаниях будет использовать большие языковые модели без ведома руководства OpenAI», — говорят эксперты. Соглашение с OpenAI и действующие правовые ограничения позволяют Пентагону, например, искать информацию об американцах по базам иностранных разведок, скупать базы у брокеров данных и создания профилей граждан по их типичному поведению на основе материалов видеонаблюдения, публикаций в соцсетях, новостей онлайн, данных о регистрации избирателей и других источников.

Сомнения вызывает и позиция OpenAI по поводу автономного летального оружия. В контракте компании с Пентагоном говорится о том, что её ИИ «не будет использоваться для самостоятельного управления автономным оружием в тех случаях, когда закон, нормативные акты или политика Министерства требуют контроля со стороны человека», что соответствует директиве Пентагона от 2023 года, но не предполагает иных запретов и ограничений. Для сравнения, Anthropic добивалась полного запрета на неконтролируемое летальное автономное оружие как минимум до тех пор, пока разработчик сам не сочтёт эту технологию готовой к работе.

 Источник изображения: Gavin Phillips / unsplash.com

Источник изображения: Gavin Phillips / unsplash.com

Альтман указывает и на другие решения, способные гарантировать, что Пентагон не станет злоупотреблять возможностями ИИ-моделей OpenAI. Некоторые сотрудники компании получат доступ к секретной информации для проверки систем; будут развёрнуты «классификаторы» — небольшие модели ИИ, способные следить за работой больших и по необходимости блокировать для них некоторые операции. На практике эти меры могут не помочь. Классификатор не сможет подтвердить, проверял ли человек решение системы о нанесении удара, а также является ли запрос на составление профиля американского гражданина единичным или входящим в систему массового наблюдения. И если власти объявят какую-либо операцию законной, классификатор не сможет предотвратить её выполнение.

OpenAI говорит об «ответственности человека за применение силы, в том числе в случае с автономными системами вооружения»; Anthropic же требовала вообще не развёртывать эти системы «без надлежащего контроля [со стороны человека]». Это может значить, что в сценарии OpenAI можно будет привлечь к ответственности некое лицо уже после факта нанесения удара, а сценарий Anthropic предусматривает участие людей до и/или во время принятия ИИ решения об уничтожении других людей. OpenAI говорит о технической защите своих систем от возможности строить «роботов-убийц»: для этого применяются средства дополнительного обучения ИИ, а также запуск моделей только в облачной инфраструктуре, а не локально на устройствах. В случае массового наблюдения, однако, подойдёт только способная работать в облаке модель; а в сценарии с автономным оружием непосредственное решение об атаке может принимать сторонняя локальная модель, тогда как система OpenAI возьмёт на себя все предшествующие этапы.

«Полностью автономное оружие (то, что полностью исключает участие человека в автоматическом выборе и поражении целей) может оказаться критически важным для нашей национальной обороны. Но сегодня передовые системы ИИ просто недостаточно надёжны для обеспечения [его] работы», — предупредил глава Anthropic Дарио Амодеи.

ChatGPT подвергли «отмене» за сотрудничество OpenAI с Пентагоном

Обеспокоенные сомнительным сценарием сотрудничества компании OpenAI и Министерства обороны США представители американской общественности сформировали движение по «отмене ChatGPT». Цель движения — поддержать попавшую в «чёрный список» Пентагона компанию Anthropic, которая запретила использовать свои модели искусственного интеллекта для некоторых целей.

 Источник изображения: Levart_Photographer / unsplash.com

Источник изображения: Levart_Photographer / unsplash.com

Конфликт Anthropic и Пентагона разгорелся на почве двух «красных линий», которые разработчик ИИ переходить отказался. Компания не захотела, чтобы её модели самостоятельно принимали решения о применении оружия по человеку, а также чтобы они использовались для наблюдения за американскими гражданами. В результате соглашение с Anthropic расторгли, а саму компанию поместили в «чёрный список», запретив всем оборонным подрядчикам с ней сотрудничать.

Место Anthropic в системах Пентагона заняла OpenAI. Глава компании Сэм Альтман (Sam Altman) пообещал, что её модели не станут использоваться для массового наблюдения, но представитель американского правительства опроверг это утверждение и заявил, что они будут работать во «всех законных сценариях», а принятый после трагедии 11 сентября 2001 года «Патриотический акт» позволяет, в частности, собирать метаданные в сетях связи, даже с учётом того, что некоторые его аспекты в последние годы ограничили.

 Источник изображения: Dima Solomin / unsplash.com

Источник изображения: Dima Solomin / unsplash.com

Этот шаг вызвал резко отрицательную реакцию в сетевых сообществах — люди, которые заявляли, что прекращают пользоваться ChatGPT, стали получать положительные оценки. Следует отметить, что пересекать указанные Anthropic «красные линии» отказываются далеко не все крупные разработчики ИИ. Во внутренних правилах Google такой запрет значился ранее, но теперь компания его отменила. Microsoft не возражает против использования оружия с ИИ, если собственно выстрел производит человек. Amazon ограничивается расплывчатой формулировкой об «ответственном использовании» ИИ.

Впоследствии Сэм Альтман повторил тезис, что Министерство обороны США будет соблюдать заявленные компанией «красные линии» в отношении автономного оружия и массового наблюдения за гражданами США, но не внёс ясности, как эти гарантии будут реализованы. Глава OpenAI сослался на действующее в США законодательство, а оно, в частности, допускает наблюдение за лицами без американского гражданства, и в этих целях позволяет косвенным или случайным образом собирать данные о гражданах страны.

В глазах общественности, однако, OpenAI предоставила Пентагону возможность интерпретировать, что считается законным, а Anthropic решила сохранить полный контроль над использованием своих технологий. В результате приложение Anthropic Claude AI выбилось в лидеры официальных магазинов как для Android, так и для iOS; оно также выпущено для Windows 11.

Пентагон и Anthropic пытались спасти сделку до последнего момента

На прошлой неделе вокруг сотрудничества Anthropic с Министерством обороны США разразился скандал, который привёл к включению компании в список неблагонадёжных поставщиков и потере ею всех правительственных контрактов. Как поясняет The Atlantic, даже на поздних этапах переговоров противоречия пытались сглаживаться обеими сторонами, но им так и не удалось найти общий язык.

 Источник изображения: Unsplash,  Sergey Koznov

Источник изображения: Unsplash, Sergey Koznov

Напомним, компанию Anthropic смущала перспектива использования её ИИ-систем для массового слежения за гражданами США и автономно управляемых систем вооружения, которые могли бы самостоятельно определять цели и уничтожать их. Ещё в пятницу утром, как сообщает источник, представители американского военного ведомства были готовы пойти на уступки, прописав в тексте контракта соответствующие ограничения, но с важной оговоркой. В исключительных случаях Министерство войны США, как оно теперь называется, хотело оставить за собой право и следить за гражданами страны, и применять ИИ для управления системами вооружений.

Представители Anthropic до последнего момента надеялись, что вторая сторона переговоров подобные исключения прописывать не будет, но чуда не произошло, а потому всё завершилось срывом контракта. Главная причина, которая этому способствовала, заключалась в намерениях властей США использовать ИИ компании Anthropic для анализа данных, собираемых об активности американских граждан. Переписка с чат-ботами, социальные сети, история поиска в Google, перемещения с указаниями координат GPS, транзакции по банковским картам и счетам — все эти данные о конкретном гражданине могли быть проанализированы и взаимосвязаны для нужд правительственных структур США. Anthropic это явно не устраивало, поэтому данное противоречие и стало ключевым в развале сделки с Пентагоном.

В части управления системами вооружений Anthropic не противилась данной идее в целом, но пыталась сделать его более безопасным. Руководство компании считает, что на современном этапе развития ИИ не настолько совершенен, чтобы управлять вооружениями в полной мере. На одном из этапов переговоров Anthropic настаивала, чтобы её ИИ применялся военными только в пределах облачной инфраструктуры, не переходя на периферийный уровень — грубо говоря, внутри самого дрона или иного автономного средства уничтожения целей. Если бы дроны при таком разделении допускали фатальные ошибки, номинально ИИ компании Anthropic нельзя было бы обвинить в них.

Пентагон подобного разделения обеспечить не мог, поскольку современная архитектура управления военной техникой и живой силой не подразумевает чёткой границы между облачными и периферийными вычислениями. Anthropic сама пришла к выводу, что изолировать свой ИИ в облаке она не сможет, а потому связываться с управлением вооружениями лучше вообще не следует. Отдельного внимания заслуживает поведение конкурирующей OpenAI, чей руководитель Сэм Альтман (Sam Altman) выражал солидарность с Anthropic за несколько часов до того, как объявил о достижении договорённости с Пентагоном об использовании ИИ этой компании в секретных системах американского военного ведомства. Он поделился своими взглядами на ситуацию с Anthropic, и ключевой его тезис заключается в том, что в вопросах такого уровня последнее слово должно оставаться не за частной компанией, а за государством.

Глава OpenAI заявил, что частные компании не могут иметь больше власти, чем правительство США

Вечером в пятницу Сэм Альтман (Sam Altman) заявил, что возглавляемая им OpenAI заключила с Пентагоном контракт на внедрение технологий ИИ в секретные системы этого ведомства. Чтобы развеять страхи и сомнения общественности по поводу её условий, Альтман провёл сессию вопросов и ответов, заявив о верховенстве демократически избранного правительства над принципами любых частных компаний.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Напомним, попытки Пентагона внедрить ИИ разработки Anthropic в свои секретные системы без ограничений на его использование наткнулись на протест со стороны разработчиков, в результате контракт на $200 млн был расторгнут, а сама Anthropic попала в список неблагонадёжных поставщиков. Использовать её разработки всем американским правительственным структурам было запрещено, в течение шести месяцев они должны найти замену сервисам Anthropic.

Альтман на страницах социальной сети X сообщил, что сделка между OpenAI и Пентагоном была заключена очень быстро для снижения накала ситуации, в обычных условиях переговоры заняли бы больше времени. Он признал, что если сделка OpenAI позволит снизить напряжённость в отношениях Министерства обороны США (с недавних пор — Министерства войны) с представителями отрасли, то на имидже компании это скажется положительным образом. Если же устранить эти противоречия не удастся, то OpenAI обвинят в небрежности и поспешности заключения сделки, как заявил Альтман. Впрочем, пока он видит больше положительных для OpenAI сигналов в этой сфере.

Рассуждая, почему именно OpenAI была выбрана в роли подрядчика американскими военными, а не Anthropic, Альтман предположил, что на уровне «языка контракта» обе стороны пришли к согласию быстрее, чем в случае с конкурентом. Глава OpenAI выдвинул гипотезу, что Anthropic пыталась сохранить больше операционного контроля за использованием своих разработок Пентагоном, чем это пытается сделать его компания.

Говоря о так называемых «красных линиях», Альтман назвал три ключевых принципа, которых OpenAI готова придерживаться в сфере этики применения ИИ своими клиентами. С другой стороны, как отмечает глава компании, она готова пересматривать данные принципы по мере развития технологий, но при некотором стечении обстоятельств «красных линий» может стать больше. «Для нас нормально, если ChatGPT будет искать ответ на тот или иной противоречивый вопрос. Но я действительно не хотел бы, чтобы мы решали, что делать, если ядерная бомба будет направлена против США», — пояснил позицию OpenAI Альтман. Он добавил, что страной руководят демократически избранные лидеры, и было бы странно, если бы частная компания сама решала, что этично, а что нет, в самых важных областях.

По словам Альтмана, переговоры между OpenAI и Пентагоном по поводу использования ИИ-сервисов компании в несекретной части бизнес-процессов ведомства велись на протяжении долгих месяцев, но сферы секретных операций они коснулись лишь недавно. В своих переговорах с Министерством обороны США, как подчеркнул Альтман, OpenAI старалась добиться равных условий взаимодействия ведомства со всеми участниками рынка. Глава компании пояснил, что Anthropic в этой ситуации выглядит не очень красиво, поскольку она сперва поясняет правительству, что в сфере ИИ на международной арене имеются некоторые риски, а потом отказывается помогать ему, обвиняя в разного рода грехах. Реакцию властей США в этой ситуации можно понять, как считает Альтман. По его словам, руководители частных компаний не должны иметь столько же власти, как избранные правители, но помогать последним они могут.

Глава OpenAI привёл два примера использования ИИ в сфере национальной безопасности, которые способны продемонстрировать его реальную пользу. Во-первых, ИИ может применяться для защиты от массовых хакерских атак. Во-вторых, сфера биологической безопасности может стать тем полигоном применения ИИ, который позволит предотвратить новую пандемию, например.

OpenAI уволила сотрудника за использование инсайдерской информации для ставок на рынках прогнозов

Компания OpenAI уволила сотрудника в связи с использованием им конфиденциальной информации о совершённых сделках на рынках прогнозов, включая Polymarket.

 Источник изображения: Andrew Neel/unsplash.com

Источник изображения: Andrew Neel/unsplash.com

Об этом ранее в этом году сообщила генеральный директор OpenAI по приложениям Фиджи Симо (Fidji Simo) во внутреннем обращении к сотрудникам, пишет ресурс Wired.

«Наша политика запрещает сотрудникам использовать конфиденциальную информацию OpenAI в личных целях, в том числе на рынках прогнозов», — заявила пресс-секретарь Кайла Вуд (Kayla Wood). OpenAI не стала раскрывать ни имя сотрудника, ни информацию о его сделках.

Рынки прогнозов позволяют пользователям делать ставки на исходы любых будущих событий — от победителя Суперкубка США до ежедневной цены биткоина. Например, на Polymarket делаются ставки на то, какие продукты OpenAI анонсирует в 2026 году и когда компания выйдет на биржу. Также можно делать ставки на то, какими будут квартальные доходы Nvidia, когда Tesla выпустит новый автомобиль или какие компании в сфере искусственного интеллекта проведут IPO в 2026 году.

В результате можно выиграть крупную сумму. Например, недавно сообщалось, что бухгалтер выиграл джекпот в размере $470 300 на Kalshi, сделав ставку против сторонников DOGE.

Некоторые крупные сделки на рынках прогнозов, связанных с технологиями, вызвали предположения о том, что сотрудники крупных технологических компаний используют свои инсайдерские знания для получения конкурентного преимущества. Например, пользователь с псевдонимным аккаунтом Google whale заработал на Polymarket более $1 млн на ставках на события, связанные с Google, включая ставку на то, кто станет самым популярным человеком в поисковых запросах в 2025 году.


window-new
Soft
Hard
Тренды 🔥
Уютный градостроительный симулятор Town to City выйдет из раннего доступа Steam до конца мая 57 мин.
Nvidia подтвердила утечку данных пользователей GeForce Now через армянские сервера 4 ч.
Ветеран Epic Games взялся за европейскую альтернативу Unreal Engine 7 ч.
Google привязала reCAPTCHA к Play Services и отрезала от верификации пользователей Android без сервисов Google 10 ч.
Новая статья: Heroes of Might and Magic: Olden Era — время расцвета. Предварительный обзор 22 ч.
Anthropic отучила свой ИИ шантажировать пользователей при угрозе отключения 09-05 18:52
Microsoft улучшила работу Windows 11 с тачпадом и сенсорной клавиатурой, а также повысила стабильность «Проводника» 09-05 17:28
Пользователей Instagram лишили сквозного шифрования в личных сообщениях 09-05 16:51
ИИ всё чаще пишет научные статьи — отличить от человеческих становится невозможно, и это пугает 09-05 14:43
ИИ-модель OpenAI GPT-5.5 оказалась в 1,5–2 раза дороже предшественницы 09-05 14:38
ИИ-воронка затягивает всё больше производителей чипов, заставляя расти их акции по экспоненте 41 мин.
Рождение новой SpaceX? Инвесторы с Reddit разогнали акции спутниковой компании AST SpaceMobile на 6000 % 5 ч.
MaxSun выпустила новые MoDT-платы с распаянными Raptor Lake серии Core 200H 7 ч.
Samsung расширила группу по созданию человекоподобных роботов и ускорила ИИ-трансформацию 11 ч.
Nvidia в этом году потратила на покупку активов других компаний более $40 млрд 14 ч.
Стали известны подробности о будущих процессорах Intel Nova Lake, Razor Lake, Titan Lake и Moon Lake, которые будут выходить до 2028 года 14 ч.
Запрещённые к ввозу в США дроны и маршрутизаторы смогут получать обновления безопасности до января 2029 года 20 ч.
Под руководством Лип-Бу Тана компания Intel так и не избавилась от основных проблем 20 ч.
«Джеймс Уэбб» показал галактику «Кальмар» с ослепительно ярким ядром в созвездии Кита 22 ч.
Война на Ближнем Востоке усугубила дефицит строительных материалов и компонентов для ЦОД 22 ч.