|
Опрос
|
реклама
Быстрый переход
Двуличность OpenAI возмутила пользователей — число удалений приложения ChatGPT выросло вчетверо
03.03.2026 [13:10],
Владимир Фетисов
Количество удалений мобильного приложения ChatGPT в США подскочило на 295 % всего за один день. Это произошло после того, как OpenAI объявила о подписании соглашения с Министерством обороны США. Об этом говорится в отчёте платформы Sensor Tower, где также отмечается, что типичный показатель удалений приложения ChatGPT день ото дня за последний месяц составлял 9 %.
Источник изображения: unsplash.com На этом фоне количество загрузок приложения Anthropic Claude в США выросло на 37 % через день после объявления OpenAI, и на 51 % ещё через день после того, как Anthropic объявила, что не будет сотрудничать с Пентагоном. Компания сообщила, что условия сделки не удалось согласовать из-за опасений по поводу того, что созданные ею алгоритмы будут использоваться для создания инструментов слежки за американцами или полностью автономного оружия. Данные Sensor Tower указывают на то, что часть потребителей поддерживает позицию Anthropic. Новость о партнёрстве OpenAI с военными повлияла и на количество загрузок приложения ChatGPT. Через день после объявления о сделке количество скачиваний снизилось на 13 %, а ещё через день — на 5 %. За день до объявления о партнёрстве с военными количество загрузок ChatGPT выросло на 14 % по сравнению с предыдущим днём. Это также отразилось на положении приложения Claude в американском App Store. В минувшую субботу приложение заняло первую строчку рейтинга бесплатных приложений и продолжало оставаться на этой позиции по состоянию на понедельник. Всего за неделю приложение Claude сделало скачок в рейтинге более чем на 20 позиций. Потребители также делятся своим мнением о сделке OpenAI с Министерством обороны США в социальных сетях. В минувшую субботу количество отзывов с одной звездой для ChatGPT подскочило на 775 %, а затем выросло ещё на 100 % в воскресенье. Количество пятизвёздочных отзывов за тот же период уменьшилось на 50 %. В действительности OpenAI уступила Пентагону в вопросах применения ИИ для слежки и в военных целях
03.03.2026 [12:04],
Павел Котов
OpenAI заключила с Пентагоном соглашение об использовании разработанных компанией систем искусственного интеллекта, сменив Anthropic, у которой возникли серьёзные сомнения в моральной стороне такого сотрудничества. В ответ на обеспокоенность общественности глава OpenAI Сэм Альтман (Sam Altman) объявил, что компания успешно договорилась с Министерством обороны США о новых условиях соглашения, но на деле это не вполне так, пишет The Verge.
Источник изображения: Mariia Shalabaieva / unsplash.com «Два важнейших для нас принципа безопасности — это запрет на внутреннюю массовую слежку и ответственность человека за применение силы, в том числе с автономными системами вооружения. Министерство обороны согласилось с этими принципами, отражая их в законах и политике, и мы включили их в наше соглашение», — подчеркнул Альтман. В соцсетях, однако, стали выражать сомнения по поводу того, что OpenAI удалось договориться с Пентагоном о соблюдении этих ограничений. Эксперты считают, что в действительности Министерство обороны США не уступило, и сделка с OpenAI предполагает более мягкие условия для ведомства — всё упирается в формулировку «любое законное применение». В ходе переговоров, сообщил осведомлённый источник издания, Пентагон не отступал от желания собирать и анализировать большие объёмы данных, связанных с гражданами США; OpenAI же открыла военным возможность выполнять любые действия, которые с технической точки зрения являются законными. За последние десятилетия американские власти в значительной мере расширили представления о том, что «технически законно», и в это определение сейчас включаются программы массовой слежки. В OpenAI, впрочем, такую интерпретацию отвергли. «Систему нельзя использовать для сбора или анализа данных американцев в больших объёмах, в неограниченном объёме или в обобщённом виде», — заявила представитель компании. Важнейшим достоинством систем ИИ является их умение находить закономерности, а поведение человека — это как раз набор закономерностей. ИИ способен объединять источники данных для каждого человека: информацию о местоположении, о просмотре веб-страниц, личную финансовую информацию, записи с камер видеонаблюдения, данные о регистрации избирателей и многое другое — часть из этого массива находится в открытом доступе, а часть приобретается у брокеров данных. Anthropic добивалась того, чтобы эти действия не допускались вне зависимости от их правового статуса, а OpenAI ограничилась существующими законодательными ограничениями. Упоминаются, в частности, Четвёртая поправка к Конституции США, «Закон о национальной безопасности» от 1947 года, «Закон о внешней разведке и наблюдении» от 1978 года, Исполнительный указ номер 12333, а также директивы ведомства, в которых указываются конкретные цели в области внешней разведки.
Источник изображения: Growtika / unsplash.com После трагедии 11 сентября 2001 года американские спецслужбы усилили систему слежки, сохранив её, по их мнению, в пределах действующего законодательства. В 2013 году подрядчик Агентства национальной безопасности Эдвард Сноуден (Edward Snowden) раскрыл истинные масштабы происходящего: запись телефонных разговоров абонентов оператора Verizon и сбор данных о физических лицах у технологических компаний, в том числе Microsoft, Google и Apple. А исполнительный указ 12333 позволяет спецслужбам перехватывать данные вне США, даже если эти данные содержат сведения о гражданах страны, отмечают эксперты. Глава Anthropic Дарио Амодеи (Dario Amodei) отмечал, что закон ещё не описывает всех возможностей ИИ по проведению массовой слежки. Альтман, в свою очередь подчеркнул, что контракт OpenAI с Пентагоном ограничен действующим законодательством, то есть если в США начнут действовать новые нормы, формулировки соглашения останутся прежними. Эксперты, однако, обращают внимание, что использованные представителем компании формулировки не дают возможности определить, что именно запрещается в соглашении. «Использование слов „неограниченный“, „обобщённый“, „открытый“ способ — это не полный запрет. Это формулировка, призванная дать руководству свободу выбора. <..> Она также позволяет руководству не лгать сотрудникам, если Пентагон на законных основаниях будет использовать большие языковые модели без ведома руководства OpenAI», — говорят эксперты. Соглашение с OpenAI и действующие правовые ограничения позволяют Пентагону, например, искать информацию об американцах по базам иностранных разведок, скупать базы у брокеров данных и создания профилей граждан по их типичному поведению на основе материалов видеонаблюдения, публикаций в соцсетях, новостей онлайн, данных о регистрации избирателей и других источников. Сомнения вызывает и позиция OpenAI по поводу автономного летального оружия. В контракте компании с Пентагоном говорится о том, что её ИИ «не будет использоваться для самостоятельного управления автономным оружием в тех случаях, когда закон, нормативные акты или политика Министерства требуют контроля со стороны человека», что соответствует директиве Пентагона от 2023 года, но не предполагает иных запретов и ограничений. Для сравнения, Anthropic добивалась полного запрета на неконтролируемое летальное автономное оружие как минимум до тех пор, пока разработчик сам не сочтёт эту технологию готовой к работе.
Источник изображения: Gavin Phillips / unsplash.com Альтман указывает и на другие решения, способные гарантировать, что Пентагон не станет злоупотреблять возможностями ИИ-моделей OpenAI. Некоторые сотрудники компании получат доступ к секретной информации для проверки систем; будут развёрнуты «классификаторы» — небольшие модели ИИ, способные следить за работой больших и по необходимости блокировать для них некоторые операции. На практике эти меры могут не помочь. Классификатор не сможет подтвердить, проверял ли человек решение системы о нанесении удара, а также является ли запрос на составление профиля американского гражданина единичным или входящим в систему массового наблюдения. И если власти объявят какую-либо операцию законной, классификатор не сможет предотвратить её выполнение. OpenAI говорит об «ответственности человека за применение силы, в том числе в случае с автономными системами вооружения»; Anthropic же требовала вообще не развёртывать эти системы «без надлежащего контроля [со стороны человека]». Это может значить, что в сценарии OpenAI можно будет привлечь к ответственности некое лицо уже после факта нанесения удара, а сценарий Anthropic предусматривает участие людей до и/или во время принятия ИИ решения об уничтожении других людей. OpenAI говорит о технической защите своих систем от возможности строить «роботов-убийц»: для этого применяются средства дополнительного обучения ИИ, а также запуск моделей только в облачной инфраструктуре, а не локально на устройствах. В случае массового наблюдения, однако, подойдёт только способная работать в облаке модель; а в сценарии с автономным оружием непосредственное решение об атаке может принимать сторонняя локальная модель, тогда как система OpenAI возьмёт на себя все предшествующие этапы. «Полностью автономное оружие (то, что полностью исключает участие человека в автоматическом выборе и поражении целей) может оказаться критически важным для нашей национальной обороны. Но сегодня передовые системы ИИ просто недостаточно надёжны для обеспечения [его] работы», — предупредил глава Anthropic Дарио Амодеи. ChatGPT подвергли «отмене» за сотрудничество OpenAI с Пентагоном
02.03.2026 [13:27],
Павел Котов
Обеспокоенные сомнительным сценарием сотрудничества компании OpenAI и Министерства обороны США представители американской общественности сформировали движение по «отмене ChatGPT». Цель движения — поддержать попавшую в «чёрный список» Пентагона компанию Anthropic, которая запретила использовать свои модели искусственного интеллекта для некоторых целей.
Источник изображения: Levart_Photographer / unsplash.com Конфликт Anthropic и Пентагона разгорелся на почве двух «красных линий», которые разработчик ИИ переходить отказался. Компания не захотела, чтобы её модели самостоятельно принимали решения о применении оружия по человеку, а также чтобы они использовались для наблюдения за американскими гражданами. В результате соглашение с Anthropic расторгли, а саму компанию поместили в «чёрный список», запретив всем оборонным подрядчикам с ней сотрудничать. Место Anthropic в системах Пентагона заняла OpenAI. Глава компании Сэм Альтман (Sam Altman) пообещал, что её модели не станут использоваться для массового наблюдения, но представитель американского правительства опроверг это утверждение и заявил, что они будут работать во «всех законных сценариях», а принятый после трагедии 11 сентября 2001 года «Патриотический акт» позволяет, в частности, собирать метаданные в сетях связи, даже с учётом того, что некоторые его аспекты в последние годы ограничили.
Источник изображения: Dima Solomin / unsplash.com Этот шаг вызвал резко отрицательную реакцию в сетевых сообществах — люди, которые заявляли, что прекращают пользоваться ChatGPT, стали получать положительные оценки. Следует отметить, что пересекать указанные Anthropic «красные линии» отказываются далеко не все крупные разработчики ИИ. Во внутренних правилах Google такой запрет значился ранее, но теперь компания его отменила. Microsoft не возражает против использования оружия с ИИ, если собственно выстрел производит человек. Amazon ограничивается расплывчатой формулировкой об «ответственном использовании» ИИ. Впоследствии Сэм Альтман повторил тезис, что Министерство обороны США будет соблюдать заявленные компанией «красные линии» в отношении автономного оружия и массового наблюдения за гражданами США, но не внёс ясности, как эти гарантии будут реализованы. Глава OpenAI сослался на действующее в США законодательство, а оно, в частности, допускает наблюдение за лицами без американского гражданства, и в этих целях позволяет косвенным или случайным образом собирать данные о гражданах страны. В глазах общественности, однако, OpenAI предоставила Пентагону возможность интерпретировать, что считается законным, а Anthropic решила сохранить полный контроль над использованием своих технологий. В результате приложение Anthropic Claude AI выбилось в лидеры официальных магазинов как для Android, так и для iOS; оно также выпущено для Windows 11. Пентагон и Anthropic пытались спасти сделку до последнего момента
02.03.2026 [08:30],
Алексей Разин
На прошлой неделе вокруг сотрудничества Anthropic с Министерством обороны США разразился скандал, который привёл к включению компании в список неблагонадёжных поставщиков и потере ею всех правительственных контрактов. Как поясняет The Atlantic, даже на поздних этапах переговоров противоречия пытались сглаживаться обеими сторонами, но им так и не удалось найти общий язык.
Источник изображения: Unsplash, Sergey Koznov Напомним, компанию Anthropic смущала перспектива использования её ИИ-систем для массового слежения за гражданами США и автономно управляемых систем вооружения, которые могли бы самостоятельно определять цели и уничтожать их. Ещё в пятницу утром, как сообщает источник, представители американского военного ведомства были готовы пойти на уступки, прописав в тексте контракта соответствующие ограничения, но с важной оговоркой. В исключительных случаях Министерство войны США, как оно теперь называется, хотело оставить за собой право и следить за гражданами страны, и применять ИИ для управления системами вооружений. Представители Anthropic до последнего момента надеялись, что вторая сторона переговоров подобные исключения прописывать не будет, но чуда не произошло, а потому всё завершилось срывом контракта. Главная причина, которая этому способствовала, заключалась в намерениях властей США использовать ИИ компании Anthropic для анализа данных, собираемых об активности американских граждан. Переписка с чат-ботами, социальные сети, история поиска в Google, перемещения с указаниями координат GPS, транзакции по банковским картам и счетам — все эти данные о конкретном гражданине могли быть проанализированы и взаимосвязаны для нужд правительственных структур США. Anthropic это явно не устраивало, поэтому данное противоречие и стало ключевым в развале сделки с Пентагоном. В части управления системами вооружений Anthropic не противилась данной идее в целом, но пыталась сделать его более безопасным. Руководство компании считает, что на современном этапе развития ИИ не настолько совершенен, чтобы управлять вооружениями в полной мере. На одном из этапов переговоров Anthropic настаивала, чтобы её ИИ применялся военными только в пределах облачной инфраструктуры, не переходя на периферийный уровень — грубо говоря, внутри самого дрона или иного автономного средства уничтожения целей. Если бы дроны при таком разделении допускали фатальные ошибки, номинально ИИ компании Anthropic нельзя было бы обвинить в них. Пентагон подобного разделения обеспечить не мог, поскольку современная архитектура управления военной техникой и живой силой не подразумевает чёткой границы между облачными и периферийными вычислениями. Anthropic сама пришла к выводу, что изолировать свой ИИ в облаке она не сможет, а потому связываться с управлением вооружениями лучше вообще не следует. Отдельного внимания заслуживает поведение конкурирующей OpenAI, чей руководитель Сэм Альтман (Sam Altman) выражал солидарность с Anthropic за несколько часов до того, как объявил о достижении договорённости с Пентагоном об использовании ИИ этой компании в секретных системах американского военного ведомства. Он поделился своими взглядами на ситуацию с Anthropic, и ключевой его тезис заключается в том, что в вопросах такого уровня последнее слово должно оставаться не за частной компанией, а за государством. Глава OpenAI заявил, что частные компании не могут иметь больше власти, чем правительство США
02.03.2026 [07:33],
Алексей Разин
Вечером в пятницу Сэм Альтман (Sam Altman) заявил, что возглавляемая им OpenAI заключила с Пентагоном контракт на внедрение технологий ИИ в секретные системы этого ведомства. Чтобы развеять страхи и сомнения общественности по поводу её условий, Альтман провёл сессию вопросов и ответов, заявив о верховенстве демократически избранного правительства над принципами любых частных компаний.
Источник изображения: OpenAI Напомним, попытки Пентагона внедрить ИИ разработки Anthropic в свои секретные системы без ограничений на его использование наткнулись на протест со стороны разработчиков, в результате контракт на $200 млн был расторгнут, а сама Anthropic попала в список неблагонадёжных поставщиков. Использовать её разработки всем американским правительственным структурам было запрещено, в течение шести месяцев они должны найти замену сервисам Anthropic. Альтман на страницах социальной сети X сообщил, что сделка между OpenAI и Пентагоном была заключена очень быстро для снижения накала ситуации, в обычных условиях переговоры заняли бы больше времени. Он признал, что если сделка OpenAI позволит снизить напряжённость в отношениях Министерства обороны США (с недавних пор — Министерства войны) с представителями отрасли, то на имидже компании это скажется положительным образом. Если же устранить эти противоречия не удастся, то OpenAI обвинят в небрежности и поспешности заключения сделки, как заявил Альтман. Впрочем, пока он видит больше положительных для OpenAI сигналов в этой сфере. Рассуждая, почему именно OpenAI была выбрана в роли подрядчика американскими военными, а не Anthropic, Альтман предположил, что на уровне «языка контракта» обе стороны пришли к согласию быстрее, чем в случае с конкурентом. Глава OpenAI выдвинул гипотезу, что Anthropic пыталась сохранить больше операционного контроля за использованием своих разработок Пентагоном, чем это пытается сделать его компания. Говоря о так называемых «красных линиях», Альтман назвал три ключевых принципа, которых OpenAI готова придерживаться в сфере этики применения ИИ своими клиентами. С другой стороны, как отмечает глава компании, она готова пересматривать данные принципы по мере развития технологий, но при некотором стечении обстоятельств «красных линий» может стать больше. «Для нас нормально, если ChatGPT будет искать ответ на тот или иной противоречивый вопрос. Но я действительно не хотел бы, чтобы мы решали, что делать, если ядерная бомба будет направлена против США», — пояснил позицию OpenAI Альтман. Он добавил, что страной руководят демократически избранные лидеры, и было бы странно, если бы частная компания сама решала, что этично, а что нет, в самых важных областях. По словам Альтмана, переговоры между OpenAI и Пентагоном по поводу использования ИИ-сервисов компании в несекретной части бизнес-процессов ведомства велись на протяжении долгих месяцев, но сферы секретных операций они коснулись лишь недавно. В своих переговорах с Министерством обороны США, как подчеркнул Альтман, OpenAI старалась добиться равных условий взаимодействия ведомства со всеми участниками рынка. Глава компании пояснил, что Anthropic в этой ситуации выглядит не очень красиво, поскольку она сперва поясняет правительству, что в сфере ИИ на международной арене имеются некоторые риски, а потом отказывается помогать ему, обвиняя в разного рода грехах. Реакцию властей США в этой ситуации можно понять, как считает Альтман. По его словам, руководители частных компаний не должны иметь столько же власти, как избранные правители, но помогать последним они могут. Глава OpenAI привёл два примера использования ИИ в сфере национальной безопасности, которые способны продемонстрировать его реальную пользу. Во-первых, ИИ может применяться для защиты от массовых хакерских атак. Во-вторых, сфера биологической безопасности может стать тем полигоном применения ИИ, который позволит предотвратить новую пандемию, например. OpenAI уволила сотрудника за использование инсайдерской информации для ставок на рынках прогнозов
28.02.2026 [13:36],
Владимир Мироненко
Компания OpenAI уволила сотрудника в связи с использованием им конфиденциальной информации о совершённых сделках на рынках прогнозов, включая Polymarket.
Источник изображения: Andrew Neel/unsplash.com Об этом ранее в этом году сообщила генеральный директор OpenAI по приложениям Фиджи Симо (Fidji Simo) во внутреннем обращении к сотрудникам, пишет ресурс Wired. «Наша политика запрещает сотрудникам использовать конфиденциальную информацию OpenAI в личных целях, в том числе на рынках прогнозов», — заявила пресс-секретарь Кайла Вуд (Kayla Wood). OpenAI не стала раскрывать ни имя сотрудника, ни информацию о его сделках. Рынки прогнозов позволяют пользователям делать ставки на исходы любых будущих событий — от победителя Суперкубка США до ежедневной цены биткоина. Например, на Polymarket делаются ставки на то, какие продукты OpenAI анонсирует в 2026 году и когда компания выйдет на биржу. Также можно делать ставки на то, какими будут квартальные доходы Nvidia, когда Tesla выпустит новый автомобиль или какие компании в сфере искусственного интеллекта проведут IPO в 2026 году. В результате можно выиграть крупную сумму. Например, недавно сообщалось, что бухгалтер выиграл джекпот в размере $470 300 на Kalshi, сделав ставку против сторонников DOGE. Некоторые крупные сделки на рынках прогнозов, связанных с технологиями, вызвали предположения о том, что сотрудники крупных технологических компаний используют свои инсайдерские знания для получения конкурентного преимущества. Например, пользователь с псевдонимным аккаунтом Google whale заработал на Polymarket более $1 млн на ставках на события, связанные с Google, включая ставку на то, кто станет самым популярным человеком в поисковых запросах в 2025 году. OpenAI договорилась об использовании своих ИИ-моделей Пентагоном вместо Anthropic
28.02.2026 [08:12],
Алексей Разин
Драма, которая развивалась вокруг несогласия руководства Anthropic с бесконтрольным использованием ИИ американскими военными, получила новый этап развития вечером в пятницу, когда глава OpenAI Сэм Альтман (Sam Altman) подтвердил достижение договорённости с Пентагоном об адаптации решений этой компании под нужды ведомства.
Источник изображения: OpenAI По словам Альтмана, на которые ссылается CNBC, компании OpenAI удалось договориться с Министерством обороны США об условиях использования её разработок в секретных системах данного ведомства. «На всех этапах нашего взаимодействия Министерство обороны выражало глубокое уважение к безопасности и стремление к сотрудничеству с целью достижения максимально благоприятных итогов», — сообщил Альтман в своей публикации на страницах социальной сети X. Напомним, что нежелание Anthropic разрешить Пентагону использование своих разработок без предусмотренных компанией этических ограничений привело к отказу ведомства от контракта с компанией на $200 млн, а также включению Anthropic в список сомнительных поставщиков, представляющих угрозу для национальной безопасности. Всем американским правительственным структурам велено незамедлительно прекратить использование чат-бота Claude, и в течение шести месяцев найти альтернативу. Что характерно, Сэм Альтман заявил о готовности Министерства обороны США соблюдать предусмотренные OpenAI ограничения на использование ИИ. Два принципа, вокруг которых разразился спор между Пентагоном и Anthropic, найдут отображение в тексте контракта с OpenAI и будут соблюдаться американским оборонным ведомством, как заявил глава компании. Речь идёт о неприменении ИИ для массовой слежки за американскими гражданами и неиспользовании ИИ для управления полностью автономными системами вооружения, которые способы истреблять людей без санкции человека. По словам Альтмана, OpenAI позаботится о том, чтобы эти принципы соблюдались государственным заказчиком. За безопасность в этой сфере будут отвечать отдельные специалисты на стороне OpenAI. Попутно Альтман призвал Пентагон распространить такие условия сотрудничества на все компании в сфере ИИ, чтобы устранить возникшие противоречия с некоторыми участниками рынка. Представители Anthropic выразили глубокое разочарование решением Пентагона о включении их компании в список неблагонадёжных поставщиков. Разработчик оставляет за собой право оспорить данное решение в суде. Сотни сотрудников Google и OpenAI поддержали Anthropic в противостоянии с Пентагоном
28.02.2026 [07:15],
Алексей Разин
Эта неделя характеризуется разразившимся скандалом между Anthropic и её правительственным клиентом в лице Министерства обороны США, который настаивал на более широком применении ИИ, чем подразумевали правила разработчика. Сотни сотрудников OpenAI и Google выразили солидарность с позицией Anthropic, которая выступает против бесконтрольного использования ИИ властями.
Источник изображения: Anthropic Напомним, Anthropic желает не допустить применения своей ИИ-модели Claude американскими военными для сбора данных об американских гражданах и управления полностью автономными системами вооружений, конечное применение которых не сможет контролировать человек. В открытом письме под заголовком «Нас не разделить» сотрудники OpenAI и Google призвали руководство своих компаний оставить разногласия и выступить вместе ради запрета на использование ИИ-моделей для слежки за гражданами США и уничтожения одних людей без контроля за процессом со стороны других. Как отмечает Engadget, петиция успела набрать более 450 подписей, подавляющая часть которых поставлена сотрудниками Google. При этом примерно половина подписавших её раскрыла свои имена, остальные действовали анонимно. Все подписавшие петицию являются сотрудниками одной из двух указанных компаний. Авторы петиции при этом не причисляют себя ни к каким ИИ-компаниям, политическим партиям или юридическим объединениям. Вчера стало известно, что на фоне отказа Anthropic предоставить Пентагону неограниченный доступ к использованию Claude в военных целях американские власти включили компанию в «чёрный список», и теперь всем связанным с военными контрактами США подрядчикам в течение шести месяцев нужно будет найти альтернативу Claude, а саму эту ИИ-модель нужно прекратить использовать немедленно. Переговоры Пентагона с OpenAI и Google уже ведутся, а ещё ведомство располагает действующим контрактом с xAI на использование чат-бота Grok в своих секретных системах. Генеральный директор OpenAI Сэм Альтман (Sam Altman) не только обратился к сотрудникам с заявлением о готовности придерживаться схожих с Anthropic принципов, но и признался CNBC, что не считает уместным применение угроз со стороны Пентагона ко всем участникам рынка. Аудитория ChatGPT разрослась до 900 млн пользователей в неделю
27.02.2026 [22:38],
Владимир Фетисов
OpenAI объявила, что количество еженедельно активных пользователей ChatGPT достигло 900 млн человек. Это говорит о неуклонном приближении ИИ-бота к заветной отметке в 1 млрд пользователей. В компании также сообщили что количество платных подписчиков увеличилось до 50 млн человек.
Источник изображения: Dima Solomin / unsplash.com «В начале года динамика притока подписчиков значительно ускорилась: январь и февраль, по прогнозам, станут крупнейшими месяцами по количеству новых подписчиков за всю нашу историю. Люди используют ChatGPT для обучения, написания текстов, планирования и творчества. По мере увеличения масштабов использования продукт улучшается таким образом, что пользователи ощущают это незамедлительно: более быстрые ответы, более высокая точность, усиленная безопасность и более стабильная работа», — говорится в сообщении OpenAI. Данные OpenAI говорят о том, что ChatGPT добавил 100 млн пользователей с тех пор как в октябре 2025 года компания отчиталась о достижении отметки в 800 млн еженедельно активных пользователей. Новые цифры OpenAI обнародовала в рамках объявления о привлечении $110 млрд частных инвестиций, что стало одним из крупнейших раундов частного финансирования в истории. В числе инвесторов выступили Amazon, Nvidia и SoftBank, вложившие $50, $30 и $30 млрд соответственно. До получения инвестиций стоимость OpenAI оценивалась в $730 млрд. Раунд остаётся открытым, и компания ожидает, что к нему присоединятся новые инвесторы. OpenAI раздулась до $840 млрд — создатель ChatGPT привлёк $110 млрд от Amazon, Nvidia и Softbank
27.02.2026 [19:15],
Сергей Сурабекянц
OpenAI привлекла $110 млрд в рамках крупнейшего раунда финансирования, с учётом этих средств биржевая оценка компании достигла $840 млрд. OpenAI и её конкурент Anthropic в этом году активизировали привлечение средств для финансирования дорогостоящих инвестиций в чипы и центры обработки данных для искусственного интеллекта. Всё чаще эти два компании привлекают к сотрудничеству пересекающуюся группу венчурных фондов и крупных технологических компаний.
Источник изображения: unsplash.com По данным OpenAI, Amazon инвестирует $50 млрд, что стало самой крупной суммой, которую гигант электронной коммерции когда-либо вкладывал в какую-либо компанию. В свою очередь, SoftBank и Nvidia вложили в OpenAI по $30 млрд каждая. С учётом полученных средств стоимость OpenAI составила $840 млрд при запланированных $850 млрд. Компания ожидает привлечения дополнительных инвесторов по мере продвижения раунда финансирования. Крупные инвестиции от Amazon укрепляют её отношения с OpenAI. В рамках соглашения OpenAI будет использовать линейку собственных ИИ-чипов Amazon Trainium и совместно разрабатывать специализированные модели для инженерных команд Amazon. OpenAI также потратит $100 млрд на услуги Amazon Web Services в течение следующих восьми лет. Ранее, в ноябре 2025 года, компании объявили о сделке, в соответствии с которой разработчик моделей будет использовать сервисы AWS на сумму около $38 млрд в течение семи лет. «Amazon может предоставить нам очень многое с точки зрения нового спроса и возможностей на рынке», — заявил глава OpenAI Сэм Альтман (Sam Altman). Генеральный директор Amazon Энди Джасси (Andy Jassy) считает, что сделка «принесёт Amazon хорошую прибыль в долгосрочной перспективе». Microsoft, ранее являвшаяся эксклюзивным партнёром OpenAI по инфраструктуре, заявила, что её отношения с разработчиком остаются прочными. «Ничто в сегодняшних объявлениях никоим образом не меняет условий сотрудничества Microsoft и OpenAI», — говорится в совместном заявлении компаний. Anthropic также активно привлекает инвестиции — в начале этого месяца компания получила $30 млрд от инвесторов, включая Nvidia и Microsoft. В результате стоимость Anthropic биржевая возросла до $380 млрд с учётом привлечённых средств. Февральский «сбор средств» компаниями OpenAI и Anthropic является прекрасным примером сделок по циклическому финансированию между ведущими компаниями в области ИИ и поставщиками чипов и облачных вычислений. Эти партнёрства призваны обеспечить удовлетворение огромных потребностей сектора ИИ в инфраструктуре, но существует риск того, что такие сделки могут увеличить убытки, если спрос на ИИ не будет соответствовать сегодняшним завышенным ожиданиям. Альтман в своём обычном стиле постарался развеять опасения относительно пузыря ИИ. «Я понимаю, откуда берутся опасения, — заявил он. — Это имеет смысл только в том случае, если в экосистему ИИ поступят новые доходы». Он добавил, что большая часть его усилий направлена на увеличение вычислительных мощностей для удовлетворения спроса на ChatGPT и другие продукты OpenAI. Отдел кадров в OpenAI возглавил выходец из Roblox
25.02.2026 [15:26],
Павел Котов
OpenAI объявила о назначении на должность директора по персоналу Арвинда Кейси (Arvind KC). Бывший топ-менеджер Roblox будет отвечать за наём, адаптацию и карьерный рост сотрудников в ответственной за ChatGPT компании, которая продолжает расширяться.
Источник изображения: Andrew Neel / unsplash.com Арвинд Кейси будет подчиняться напрямую директору по вопросам стратегического развития Джейсону Квону (Jason Kwon). В очередном раунде финансирования OpenAI намеревается привлечь инвестиции в размере $100 млрд; компания также готовится к выходу на биржу. Кейси получил новую должность после ухода предшественницы — ещё в августе прошлого года этот пост оставила прежняя директор по персоналу OpenAI Джулия Вильягра (Julia Villagra), и с тех пор руководство компании искало ей замену. Госпожа Вильягра ушла из OpenAI в период усиления конкуренции за лучших специалистов в области ИИ в Кремниевой долине — лаборатории ИИ и технологические гиганты находятся в постоянном поиске опытных инженеров и руководителей. Ранее Кейси занимал руководящие должности в Roblox, Google, Palantir и Meta✴✴. В OpenAI его охарактеризовали как специалиста, сочетающего инженерный опыт с управленческими навыками. «Считаем, что механизмы масштабирования OpenAI должны отражать будущее, которое мы помогаем создавать», — заявил директор по приложениям OpenAI Фиджи Симо (Fidji Simo). Суд решил, что OpenAI не крала у xAI сотрудников и коммерческие секреты, но дело могут пересмотреть
25.02.2026 [13:57],
Павел Котов
OpenAI накануне одержала победу в одном из судебных разбирательств с xAI. Дело касалось обвинений в переманивании сотрудников и краже сведений, составляющих коммерческую тайну.
Источник изображения: Dima Solomin / unsplash.com Суд удовлетворил ходатайство OpenAI об отклонении иска, но разрешил истцу внести поправки, то есть у xAI есть право подать иск повторно с изменёнными формулировками претензий. В своих претензиях «xAI не указала на какие-либо неправомерные действия со стороны OpenAI», гласит решение судьи. «Вместо этого она упоминает восемь бывших сотрудников xAI, которые ушли в OpenAI примерно в одно и то же время», но не указывает, что при уходе из xAI их действиями руководила OpenAI. Компания xAI утверждает, что двое бывших её сотрудников «украли принадлежащий компании исходный код при уходе, когда они общались с кадровиком OpenAI», однако «отсутствуют утверждения, что кадровик давал им указание сделать это». Истец утверждает, что двое других бывших сотрудников xAI «сохранили рабочие чаты на своих устройствах после ухода», что один «после ухода отказался выполнить требования xAI предоставить различные сертификаты о конфиденциальной информации», а другой «после того, как начал работать в OpenAI, безуспешно пытался получить доступ к информации xAI о найме и оптимизации центров обработки данных». Но ничто из этого не указывает на противозаконные действия OpenAI, установила судья. Гендиректор OpenAI Сэм Альтман (Sam Altman) и стоявший у истоков компании Илон Маск (Elon Musk), теперешний глава xAI, находятся в противостоянии, делают публичные выпады в отношении друг друга и участвуют в судебных разбирательствах. «Мы приветствуем решение суда. Этот безосновательный иск никогда не был ничем иным, как ещё одним фронтом в разворачивающейся кампании преследования со стороны господина Маска», — прокомментировали исход дела в OpenAI. Врата раздора: ИИ-мегапроект Stargate на $500 млрд забуксовал из-за конфликта OpenAI, Oracle и SoftBank
25.02.2026 [10:20],
Алексей Разин
Одной из первых инициатив Дональда Трампа (Donald Trump) в начале его второго президентского срока стал мегапроект Stargate, который подразумевает направление нескольких сотен миллиардов долларов США на строительство в стране дата-центров для инфраструктуры ИИ. По некоторым данным, реализация этого проекта буксует из-за разногласий между партнёрами.
Источник изображения: OpenAI OpenAI, Oracle и SoftBank в январе прошлого года заявили о намерениях потратить на развитие ЦОД для ИИ на территории США не менее $500 млрд. Как отмечает Tom’s Hardware со ссылкой на The Information, три основных участника мегапроекта не могут никак договориться о том, кто будет управлять построенными вычислительными мощностями. Изначально OpenAI хотела построить гигантские ЦОД исключительно с учётом собственных интересов, но потребность в серьёзных финансовых ресурсах вынудила её заручиться поддержкой партнёров. Сперва OpenAI намеревалась ввести в строй до 10 ГВт вычислительных мощностей в ближайшие три года, но из-за разногласий с Oracle и SoftBank реализация этих планов остаётся под вопросом. Oracle уже успела пообещать построить в рамках проекта Stargate дата-центры, использующие в общей сложности 2 млн ускорителей для работы с ИИ. Затем OpenAI взяла на себя обязательства в последующие пять лет купить у Oracle вычислительные мощности на общую сумму $300 млрд. В прошлом полугодии Oracle даже приступила к выпуску облигаций, чтобы собрать необходимую сумму денег на реализацию этих проектов. Переговоры OpenAI и SoftBank также затянулись. Сначала они планировали совместными усилиями построить ЦОД мощностью 1 ГВт в Техасе, но затем OpenAI переключилась на обсуждение условий сотрудничества с Oracle. На промежуточном этапе стороны договорились, что SoftBank займётся строительством дата-центра в Техасе, а OpenAI будет эксплуатировать его на условиях аренды. SoftBank при этом пришлось отложить покупку провайдера облачных услуг Switch за $50 млрд из-за регуляторных сложностей. На данном этапе, как поясняет The Information, реализация проекта Stargate сдвинулась с мёртвой точки, однако OpenAI придётся смириться с тем, что она не сможет в полной мере распоряжаться всеми построенными для неё ЦОД. OpenAI признала, что ИИ до сих пор не проник в бизнес по-настоящему — и объяснила, почему
25.02.2026 [00:41],
Анжелла Марина
Операционный директор OpenAI Брэд Лайткэп (Brad Lightcap) сделал неожиданное признание, выступая на технологическом саммите в Нью-Дели. Он заявил, что, вопреки ажиотажу, искусственный интеллект до сих пор по-настоящему не проник в бизнес-процессы предприятий. Проблема, по его словам, не в качестве самих моделей, а в сложности корпоративной среды.
Источник изображения: Grok Именно эта сложность, основанная на множестве контекстов и одновременном использовании десятков разрозненных инструментов, вдохновила компанию на разработку платформы OpenAI Frontier, которая предназначена для создания ИИ-агентов и управления ими в корпоративной среде. При этом Лайткэп заявил, что влияние Frontier будет измеряться на основе достигнутых бизнес-результатов, а не по традиционной модели продажи лицензий, рассчитанных на количество рабочих мест. Платформа была запущена в начале этого месяца. Пока OpenAI экспериментирует с внедрением ИИ в самые сложные сферы бизнеса, финансовый директор Сара Фрайар (Sarah Friar) прогнозирует рост годовой выручки стартапа до $20 млрд к концу 2025 года. Спрос на технологии остаётся настолько высоким, что компании приходится постоянно балансировать ресурсы для его удовлетворения. При этом Лайткэп опроверг слухи о «смерти» классического SaaS (программного обеспечения как услуги), подчеркнув, что сама OpenAI остаётся активным пользователем, в частности цифровой рабочей платформы Slack. Для ускорения корпоративной экспансии технологический гигант заключил партнёрские соглашения с ведущими консалтинговыми фирмами, включая Boston Consulting Group и McKinsey. Особое внимание уделяется индийскому рынку, который уже стал вторым по величине для ChatGPT с аудиторией более 100 млн еженедельных пользователей. Компания планирует открыть офисы в крупнейших городах — Мумбаи и Бангалоре, сделав ставку на голосовые ИИ-модели, которые, как оказалось, эффективно работают даже в условиях низкой пропускной способности сети. Касаясь вопроса автоматизации, Лайткэп подтвердил неизбежность трансформации рынка труда и изменения самой сути рабочего пространства, призвав относиться к этим переменам с пониманием. Также он упомянул недавнее приобретение инструмента OpenClaw, который в перспективе позволит агентам выполнять практически любые действия на компьютере пользователя. Противоречивого бота xAI Grok допустят к секретным военным системам США
24.02.2026 [18:15],
Сергей Сурабекянц
Компания Илона Маска (Elon Musk) xAI, занимающаяся разработкой искусственного интеллекта, подписала соглашение, разрешающее военным использовать свою модель Grok в секретных системах, подтвердил сегодня представитель Министерства обороны США.
Источник изображения: xAI До сегодняшнего дня Claude от Anthropic была единственной моделью, применяемой военными США для секретной разведывательной деятельности, разработки оружия и боевых операций. В ведомстве высоко оценивают возможности этой системы — она, в частности, использовалась во время недавней операции США в Венесуэле. Но Anthropic требует гарантий, что разработанные компанией системы ИИ не будут использоваться для массовой слежки за американцами, а также для разработки полностью автономного оружия. В Пентагоне считают такие условия чрезмерно ограничительными, и указывают, что существует множество «серых зон», из-за которых эти условия просто невыполнимы. Anthropic отказалась выполнить требование Пентагона о предоставлении Claude для «всех законных целей», что вызвало резкую реакцию со стороны военного ведомства. Министр обороны США Пит Хегсет (Pete Hegseth) оказался «близок» к разрыву деловых связей с Anthropic, а также к присвоению ей статуса «угрозы цепочке поставок». Это значит, что любой, кто хочет вести бизнес с ведомством, должен будет разорвать отношения с Anthropic.
Источник изображения: Anthropic Фактически, министр обороны США предъявил Anthropic ультиматум. В свою очередь xAI согласилась с требованием Пентагона по поводу использования ИИ для «всех законных целей», хотя пока неясно, сможет ли xAI полностью заменить Anthropic, и сколько времени займёт этот процесс. Представители Министерства обороны признают, что заменить Claude будет очень непросто. Осведомлённые источники сообщают, что Пентагон также ускорил переговоры с другими ведущими разработчиками ИИ, готовясь к возможному разрыву отношений с Anthropic. В частности, сообщается, что Пентагон «обратился к OpenAI, чтобы возобновить переговоры с новой силой», хотя стороны всё ещё «далеки от заключения сделки». New York Times сообщила, что Google «близка» к сделке, разрешающей использование Gemini в секретных целях, в то время как OpenAI «далека». Представитель Министерства обороны опроверг это утверждение, заявив, что переговоры ведутся с обеими компаниями, и ведомство полагает, что обе компании подпишут соглашения при условии согласия с критерием «всех законных целей». |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |