|
Опрос
|
реклама
Быстрый переход
ChatGPT подвергли «отмене» за сотрудничество OpenAI с Пентагоном
02.03.2026 [13:27],
Павел Котов
Обеспокоенные сомнительным сценарием сотрудничества компании OpenAI и Министерства обороны США представители американской общественности сформировали движение по «отмене ChatGPT». Цель движения — поддержать попавшую в «чёрный список» Пентагона компанию Anthropic, которая запретила использовать свои модели искусственного интеллекта для некоторых целей.
Источник изображения: Levart_Photographer / unsplash.com Конфликт Anthropic и Пентагона разгорелся на почве двух «красных линий», которые разработчик ИИ переходить отказался. Компания не захотела, чтобы её модели самостоятельно принимали решения о применении оружия по человеку, а также чтобы они использовались для наблюдения за американскими гражданами. В результате соглашение с Anthropic расторгли, а саму компанию поместили в «чёрный список», запретив всем оборонным подрядчикам с ней сотрудничать. Место Anthropic в системах Пентагона заняла OpenAI. Глава компании Сэм Альтман (Sam Altman) пообещал, что её модели не станут использоваться для массового наблюдения, но представитель американского правительства опроверг это утверждение и заявил, что они будут работать во «всех законных сценариях», а принятый после трагедии 11 сентября 2001 года «Патриотический акт» позволяет, в частности, собирать метаданные в сетях связи, даже с учётом того, что некоторые его аспекты в последние годы ограничили.
Источник изображения: Dima Solomin / unsplash.com Этот шаг вызвал резко отрицательную реакцию в сетевых сообществах — люди, которые заявляли, что прекращают пользоваться ChatGPT, стали получать положительные оценки. Следует отметить, что пересекать указанные Anthropic «красные линии» отказываются далеко не все крупные разработчики ИИ. Во внутренних правилах Google такой запрет значился ранее, но теперь компания его отменила. Microsoft не возражает против использования оружия с ИИ, если собственно выстрел производит человек. Amazon ограничивается расплывчатой формулировкой об «ответственном использовании» ИИ. Впоследствии Сэм Альтман повторил тезис, что Министерство обороны США будет соблюдать заявленные компанией «красные линии» в отношении автономного оружия и массового наблюдения за гражданами США, но не внёс ясности, как эти гарантии будут реализованы. Глава OpenAI сослался на действующее в США законодательство, а оно, в частности, допускает наблюдение за лицами без американского гражданства, и в этих целях позволяет косвенным или случайным образом собирать данные о гражданах страны. В глазах общественности, однако, OpenAI предоставила Пентагону возможность интерпретировать, что считается законным, а Anthropic решила сохранить полный контроль над использованием своих технологий. В результате приложение Anthropic Claude AI выбилось в лидеры официальных магазинов как для Android, так и для iOS; оно также выпущено для Windows 11. Новейшая ИИ-модель DeepSeek V4 должна быть оптимизирована под китайские ускорители вычислений
02.03.2026 [09:00],
Алексей Разин
На этой неделе, как сообщает Financial Times, китайская DeepSeek должна представить долгожданную мультимодальную ИИ-модель V4, которая была оптимизирована под использование ускорителей Huawei и Cambricon. В совокупности это позволит китайским компаниям добиться определённых успехов во внедрении технологий ИИ без чрезмерной зависимости от импортных решений.
Источник изображения: DeepSeek По данным источника, сроки анонса модели DeepSeek V4 будут привязаны к парламентскому заседанию в КНР, которое начнётся 4 марта. Данный релиз для DeepSeek станет крупнейшим с января прошлого года, когда была представлена рассуждающая модель R1. Тогда утверждалось, что китайской компании удалось создать сопоставимую по эффективности с западными решениями ИИ-модель при значительно меньших затратах. Позже выяснилось, что DeepSeek не только могла использовать данные американских моделей для обучения своих, но и опираться на ускорители вычислений Nvidia, которые в необходимом компании ассортименте моделей находятся в КНР под санкциями. Как ожидается, оптимизация DeepSeek V4 под ускорители Huawei и Cambricon будет способствовать росту спроса на эти аппаратные решения в Китае, а также снижению импортозависимости. DeepSeek якобы даже намеренно не оптимизировала свою новейшую модель под ускорители Nvidia. Ранее сообщалось, что первые попытки DeepSeek обучать модель V4 на ускорителях Huawei не увенчались особым успехом. Аннотация к DeepSeek V4 выйдет на этой неделе в сокращённом виде, но примерно через месяц будет опубликована в полном размере. Американская Anthropic недавно обвинила DeepSeek в «дистилляции» собственных ИИ-моделей. Пентагон и Anthropic пытались спасти сделку до последнего момента
02.03.2026 [08:30],
Алексей Разин
На прошлой неделе вокруг сотрудничества Anthropic с Министерством обороны США разразился скандал, который привёл к включению компании в список неблагонадёжных поставщиков и потере ею всех правительственных контрактов. Как поясняет The Atlantic, даже на поздних этапах переговоров противоречия пытались сглаживаться обеими сторонами, но им так и не удалось найти общий язык.
Источник изображения: Unsplash, Sergey Koznov Напомним, компанию Anthropic смущала перспектива использования её ИИ-систем для массового слежения за гражданами США и автономно управляемых систем вооружения, которые могли бы самостоятельно определять цели и уничтожать их. Ещё в пятницу утром, как сообщает источник, представители американского военного ведомства были готовы пойти на уступки, прописав в тексте контракта соответствующие ограничения, но с важной оговоркой. В исключительных случаях Министерство войны США, как оно теперь называется, хотело оставить за собой право и следить за гражданами страны, и применять ИИ для управления системами вооружений. Представители Anthropic до последнего момента надеялись, что вторая сторона переговоров подобные исключения прописывать не будет, но чуда не произошло, а потому всё завершилось срывом контракта. Главная причина, которая этому способствовала, заключалась в намерениях властей США использовать ИИ компании Anthropic для анализа данных, собираемых об активности американских граждан. Переписка с чат-ботами, социальные сети, история поиска в Google, перемещения с указаниями координат GPS, транзакции по банковским картам и счетам — все эти данные о конкретном гражданине могли быть проанализированы и взаимосвязаны для нужд правительственных структур США. Anthropic это явно не устраивало, поэтому данное противоречие и стало ключевым в развале сделки с Пентагоном. В части управления системами вооружений Anthropic не противилась данной идее в целом, но пыталась сделать его более безопасным. Руководство компании считает, что на современном этапе развития ИИ не настолько совершенен, чтобы управлять вооружениями в полной мере. На одном из этапов переговоров Anthropic настаивала, чтобы её ИИ применялся военными только в пределах облачной инфраструктуры, не переходя на периферийный уровень — грубо говоря, внутри самого дрона или иного автономного средства уничтожения целей. Если бы дроны при таком разделении допускали фатальные ошибки, номинально ИИ компании Anthropic нельзя было бы обвинить в них. Пентагон подобного разделения обеспечить не мог, поскольку современная архитектура управления военной техникой и живой силой не подразумевает чёткой границы между облачными и периферийными вычислениями. Anthropic сама пришла к выводу, что изолировать свой ИИ в облаке она не сможет, а потому связываться с управлением вооружениями лучше вообще не следует. Отдельного внимания заслуживает поведение конкурирующей OpenAI, чей руководитель Сэм Альтман (Sam Altman) выражал солидарность с Anthropic за несколько часов до того, как объявил о достижении договорённости с Пентагоном об использовании ИИ этой компании в секретных системах американского военного ведомства. Он поделился своими взглядами на ситуацию с Anthropic, и ключевой его тезис заключается в том, что в вопросах такого уровня последнее слово должно оставаться не за частной компанией, а за государством. Глава OpenAI заявил, что частные компании не могут иметь больше власти, чем правительство США
02.03.2026 [07:33],
Алексей Разин
Вечером в пятницу Сэм Альтман (Sam Altman) заявил, что возглавляемая им OpenAI заключила с Пентагоном контракт на внедрение технологий ИИ в секретные системы этого ведомства. Чтобы развеять страхи и сомнения общественности по поводу её условий, Альтман провёл сессию вопросов и ответов, заявив о верховенстве демократически избранного правительства над принципами любых частных компаний.
Источник изображения: OpenAI Напомним, попытки Пентагона внедрить ИИ разработки Anthropic в свои секретные системы без ограничений на его использование наткнулись на протест со стороны разработчиков, в результате контракт на $200 млн был расторгнут, а сама Anthropic попала в список неблагонадёжных поставщиков. Использовать её разработки всем американским правительственным структурам было запрещено, в течение шести месяцев они должны найти замену сервисам Anthropic. Альтман на страницах социальной сети X сообщил, что сделка между OpenAI и Пентагоном была заключена очень быстро для снижения накала ситуации, в обычных условиях переговоры заняли бы больше времени. Он признал, что если сделка OpenAI позволит снизить напряжённость в отношениях Министерства обороны США (с недавних пор — Министерства войны) с представителями отрасли, то на имидже компании это скажется положительным образом. Если же устранить эти противоречия не удастся, то OpenAI обвинят в небрежности и поспешности заключения сделки, как заявил Альтман. Впрочем, пока он видит больше положительных для OpenAI сигналов в этой сфере. Рассуждая, почему именно OpenAI была выбрана в роли подрядчика американскими военными, а не Anthropic, Альтман предположил, что на уровне «языка контракта» обе стороны пришли к согласию быстрее, чем в случае с конкурентом. Глава OpenAI выдвинул гипотезу, что Anthropic пыталась сохранить больше операционного контроля за использованием своих разработок Пентагоном, чем это пытается сделать его компания. Говоря о так называемых «красных линиях», Альтман назвал три ключевых принципа, которых OpenAI готова придерживаться в сфере этики применения ИИ своими клиентами. С другой стороны, как отмечает глава компании, она готова пересматривать данные принципы по мере развития технологий, но при некотором стечении обстоятельств «красных линий» может стать больше. «Для нас нормально, если ChatGPT будет искать ответ на тот или иной противоречивый вопрос. Но я действительно не хотел бы, чтобы мы решали, что делать, если ядерная бомба будет направлена против США», — пояснил позицию OpenAI Альтман. Он добавил, что страной руководят демократически избранные лидеры, и было бы странно, если бы частная компания сама решала, что этично, а что нет, в самых важных областях. По словам Альтмана, переговоры между OpenAI и Пентагоном по поводу использования ИИ-сервисов компании в несекретной части бизнес-процессов ведомства велись на протяжении долгих месяцев, но сферы секретных операций они коснулись лишь недавно. В своих переговорах с Министерством обороны США, как подчеркнул Альтман, OpenAI старалась добиться равных условий взаимодействия ведомства со всеми участниками рынка. Глава компании пояснил, что Anthropic в этой ситуации выглядит не очень красиво, поскольку она сперва поясняет правительству, что в сфере ИИ на международной арене имеются некоторые риски, а потом отказывается помогать ему, обвиняя в разного рода грехах. Реакцию властей США в этой ситуации можно понять, как считает Альтман. По его словам, руководители частных компаний не должны иметь столько же власти, как избранные правители, но помогать последним они могут. Глава OpenAI привёл два примера использования ИИ в сфере национальной безопасности, которые способны продемонстрировать его реальную пользу. Во-первых, ИИ может применяться для защиты от массовых хакерских атак. Во-вторых, сфера биологической безопасности может стать тем полигоном применения ИИ, который позволит предотвратить новую пандемию, например. Anthropic обжалует в суде своё внесение в «чёрный список»
01.03.2026 [13:49],
Владимир Мироненко
Anthropic пообещала обжаловать в суде решение Министерства обороны США о её внесении в чёрный список поставщиков, представляющих риск для национальной безопасности, из-за отказа предоставить ведомству право использования своей модели Claude без каких-либо ограничений, добавив, что она «глубоко опечалена» эскалацией спора.
Источник изображения: Anthropic В пятницу президент Дональд Трамп (Donald Trump и министр обороны Пит Хегсет (Pete Hegseth) пригрозили лишить Anthropic не только контракта на $200 млн с Пентагоном, но и многочисленных клиентов, присвоив ей статус «риска для цепочки поставок» (Supply Chain Risk), который исторически применяется к угрозам национальной безопасности, в частности, к китайским компаниям. В ответ компания заявила, что «никакое запугивание или угроза наказания» со стороны Министерства обороны США не изменит её позицию в отношении запрета использования Claude для массового слежения за американскими гражданами и полностью автоматизированных систем вооружений. «Мы будем оспаривать любое определение риска в цепочке поставок в суде», — сообщила Anthropic, также сославшись на статью 10 USC 3252, которая гласит, что определение риска для цепочки поставок может распространяться только на контракты с Пентагоном, то есть это определение не может относиться к военным подрядчикам, которые используют Claude для обслуживания других клиентов. Anthropic заявила, что этот спор не касается клиентов или компаний, имеющих с ней коммерческие контракты: «Если вы являетесь индивидуальным клиентом или имеете коммерческий контракт с Anthropic, ваш доступ к Claude — через наш API, claude.ai или любой из наших продуктов — совершенно не затронут». Компания добавила, что для подрядчиков Пентагона определение риска для цепочки поставок — если оно будет официально принято — повлияет только на использование Claude в рамках контрактов Министерства обороны США. При использовании ИИ-технологии в любых других целях всё остается без изменений. Акции Nvidia за неделю подешевели на 7 %, несмотря на неплохой квартальный отчёт
01.03.2026 [07:46],
Алексей Разин
На этой неделе Nvidia не только продемонстрировала рекордную квартальную выручку, которая превзошла ожидания рынка, но и дала более оптимистичный прогноз на текущий квартал, но это не помешало снижению курса её акций на протяжении двух торговых сессий, последовавших за публикацией отчётности. За неделю акции эмитента упали примерно на 7 %.
Источник изображения: Nvidia Это максимальная величина снижения для этих ценных бумаг с ноября прошлого года, как отмечает CNBC. С начала текущего года акции Nvidia потеряли в цене около 4,2 %, они также повлекли за собой ценные бумаги многих других компаний технологического сектора. Инвесторов беспокоит вероятность достижения суммами капитальных затрат на строительство инфраструктуры ИИ пикового значения, после чего выручка Nvidia начнёт расти гораздо медленнее. Кроме того, строители инфраструктуры находят все больше альтернатив для решений Nvidia. OpenAI собирается арендовать крупные вычислительные мощности Amazon (AWS) на базе чипов Trainium. По всей видимости, это условие было частью сделки по финансированию OpenAI, в рамках которой Amazon направила в капитал стартапа свои $50 млрд, а Nvidia ограничилась $30 млрд. OpenAI получит доступ к 2 ГВт вычислительных мощностей, базирующихся на чипах Amazon Trainium. Это крупнейший пример использования данных решений сторонним клиентом Amazon. Впрочем, в инфраструктуре OpenAI по-прежнему продолжают доминировать решения Nvidia, поскольку первая компания договорилась об использовании до 5 ГВт мощностей на основе новейших GPU семейства Vera Rubin. Стартап также активно использует облачные мощности Microsoft, CoreWeave и Oracle. В части альтернативных разработчиков чипов у OpenAI имеется договорённость с Cerebras о привлечении 750 МВт мощностей на основе одноимённых решений. В текущем фискальном году, как ожидают аналитики, выручка Nvidia успеет вырасти на 65 %, но в последующие три года темпы роста снизятся сперва до 30 %, а потом до 13 % и 14 % соответственно. Meta✴✴ на правах крупного клиента Nvidia также активно изучает альтернативные вычислительные решения типа компонентов AMD и Google. Впрочем, текущее снижение курса акций Nvidia некоторые аналитики предлагают использовать для покупки этих ценных бумаг по более выгодной стоимости. YouTube запустил тест ИИ-ремиксов в Shorts: новые видео создаются из старых
28.02.2026 [18:32],
Павел Котов
Формат коротких вертикальных видео остаётся одним из наиболее востребованных развлечений на различных платформах — вот и в разделе YouTube Shorts стартовало тестирование новой функции. Искусственный интеллект предложит генерировать новые ролики на основе существующих.
Источник изображения: BoliviaInteligente / unsplash.com В тестировании пока участвует «небольшая группа создателей контента» на YouTube. Им будут предложены два варианта: создание нового ролика на основе единственного кадра из существующего; а также возможность добавлять новые объекты в кадр видео, загруженного другим пользователем. Генерация видео осуществляется по простым текстовым запросам. Участвующие в тестировании пользователи смогут поработать с новыми функциями через меню «Ремикс коротких роликов» (Shorts Remix), которое появится только на подходящих для этого видео. В меню будут два варианта: «Добавить объект» и «Переосмыслить». В первом случае можно будет добавить новые объекты в кадр эпизода продолжительностью всего восемь секунд по текстовому запросу, который введёт сам пользователь, или предложит платформа. Во втором — необходимо будет выбрать кадр оригинального ролика и составить запрос на генерацию виде на его основе. На страницах созданных с помощью этих ИИ-инструментов производных видео будут публиковаться ссылки на исходные ролики. Авторы оригинальных видео смогут запретить другим пользователям генерировать какие-либо ремиксы своих произведений при помощи ИИ. Nvidia вступит в битву за инференс: готовится чип на технологиях Groq для OpenAI и ИИ-агентов
28.02.2026 [15:52],
Павел Котов
Nvidia намерена представить новый процессор, специально разработанный для того, чтобы помочь OpenAI и другим клиентам создавать более быстрые и эффективные приложения на основе обученных моделей искусственного интеллекта, сообщает The Wall Street Journal. Ранее продукты компании были ориентированы в первую очередь на обучение ИИ.
Источник изображений: nvidia.com Nvidia ведёт разработку новой системы для инференса — запуска моделей ИИ, когда они отвечают на запросы пользователей. Новая платформа, которую компания представит на конференции для разработчиков Nvidia GTC в марте, будет включать чип, разработанный стартапом Groq. Конкуренция в этой области сейчас ожесточается — Google и Amazon уже создали собственные ускорители, способные сравниться с продукцией Nvidia; ситуацию усугубляет взрывной рост популярности технологий вайб-кодинга — написания программных продуктов системами ИИ по текстовым запросам пользователей. Одним из крупнейших клиентов на новый процессор уже согласилась стать OpenAI, сообщают источники издания, и это крупная победа для Nvidia. Накануне разработчик ChatGPT намекнул на этот проект, объявив о заключении крупной сделки по приобретению «выделенных мощностей для инференса» у Nvidia, а также об инвестициях в размере $30 млрд от «зелёного» производителя. Компания также заключила соглашение на предмет использования ИИ-ускорителей Amazon Trainium. Nvidia доминирует на рынке графических процессоров (GPU) — чипов, способных одновременно выполнять миллиарды простых задач. GPU семейств Hopper, Blackwell и Rubin считаются лучшими для обучения ИИ, и здесь доля компании на мировом рынке, по оценкам аналитиков, составляет не менее 90 %. Глава компании Дженсен Хуанг (Jensen Huang) утверждает, что продукция Nvidia одинаково хорошо подходит и для обучения, и для инференса. Однако разработчики ИИ-агентов и других приложений на основе ИИ начинают понимать, что по сравнению с разработками конкурентов чипы Nvidia слишком дороги, слишком энергозатратны и не так хорошо подходят для запуска уже обученных моделей. ![]() В январе OpenAI заключила со стартапом Cerebras соглашение о партнёрстве — компания предложила ориентированный на инференс чип, который, по её утверждению, работает быстрее ускорителей Nvidia. OpenAI начала переговоры с Cerebras ещё минувшей осенью, когда инженеры компании запросили более быстрое оборудование для приложений агентного написания кода. Nvidia же в минувшем году заключила со стартапом Groq сделку на $20 млрд, лицензировав её технологии и приняв на работу топ-менеджеров компании, включая её основателя. Groq разработала чипы на принципиально иной архитектуре — они включают «блоки языковой обработки», отличающиеся высокой эффективностью в задачах инференса. О своих намерениях использовать эти активы Nvidia пока умалчивает. Одним из наиболее востребованных направлений в сфере ИИ являются задачи, связанные с генерацией программного кода. Лидером здесь считается сервис Anthropic Claude Code, который работает в облачных инфраструктурах Amazon и Google, но активно развивается и служба OpenAI Codex, которая будет работать на новой инфраструктуре Nvidia. Nvidia также заключила соглашение с компанией Meta✴✴ об инференсе ИИ-систем для таргетирования рекламы — и эта задача эффективнее всего решается на центральных процессорах. Meta✴ провалила создание собственного ИИ-чипа, потому что это «слишком сложно» и кругом «технические проблемы»
28.02.2026 [10:56],
Павел Котов
Meta✴✴ столкнулась со сложностями при разработке собственных ускорителей для систем искусственного интеллекта и была вынуждена отказаться от самого передового проекта в пользу менее сложного варианта. Об этом сообщил ресурс The Information со ссылкой на осведомлённые источники.
Источник изображений: Igor Omilaev / unsplash.com На минувшей неделе Meta✴✴ отказалась продолжать работу над наиболее передовым ускорителем для обучения моделей ИИ, потому что столкнулась с трудностями при его проектировании и техническими проблемами; руководство компании проинформировало работников отдела инфраструктуры об изменении планов. Компания пересмотрела дорожную карту, имея множество запасных вариантов. Она заключила многомиллиардную сделку по аренде ИИ-ускорителей TPU у Google; инициировала партнёрский проект в области ускорителей AMD Instinct суммарной мощностью до 6 ГВт; а также объявила о намерении закупать ИИ-ускорители Nvidia текущего и перспективных поколений. Собственные чипы компания разрабатывает в рамках программы Meta✴✴ Training and Inference Accelerator (MTIA) — она призвана снизить затраты и усилить контроль над инфраструктурой центров обработки данных. «Мы по-прежнему привержены инвестициям в диверсифицированный портфель чипов для удовлетворения наших потребностей, что включает в себя развитие нашего портфеля MTIA, и в этом году мы поделимся свежей информацией», — прокомментировал происходящее представитель Meta✴✴. Компания отказалась от одной из версий своего чипа второго поколения для обучения ИИ, проходящего внутри Meta✴✴ под кодовым наименованием Iris, затем она начала работать над более совершенным чипом, которому присвоили название Olympus, но теперь отказалась и от него. ![]() В Meta✴✴ назрело скептическое отношение к возможности создать собственные ИИ-ускорители, сопоставимые по возможностям с чипам Nvidia, признался один из разработчиков Meta✴✴ — всё дело в рисках задержек или вынужденных доработок проектов. Работа требует большой команды инженеров для проектирования, отладки чипов и обеспечения их невысокого энергопотребления, в результате чего продукты Nvidia оказываются более целесообразными. В основу предназначенного для обучения ИИ-ускорителя Iris легла технология пакетной обработки параллельных данных SIMD (Single Instruction, multiple data) — они легче в проектировании, но для них труднее писать ПО. В ускорителе Olympus использовался принятый Nvidia подход SIMT (Single Instruction, Multiple Threads), при котором множество потоков выполняет одну инструкцию, сохраняя логическую независимость. Такие чипы сложнее в проектировании, но под них проще писать ПО для обучения ИИ-моделей. Некоторые технологические компании предпочитают второй подход по образцу Nvidia, потому что он обеспечивает более высокую гибкость и лучше адаптирован для обучения современных моделей ИИ. Meta✴✴ планировала завершить разработку Olympus не раньше IV квартала 2026 года, но в действительности потребовались бы не менее девяти месяцев до передачи проекта в массовое производство. Основу архитектуры Olympus должны были составить наработки стартапа Rivos, поглощённого Meta✴✴ в минувшем году, — они совместимы с ПО Nvidia CUDA, наиболее популярным в обучении и запуске моделей ИИ. Meta✴✴ планировала разработать большие кластеры серверов на чипах Olympus, но руководство компании увидело в этом угрозу для обучения новых моделей в условиях конкуренции с OpenAI и Google. ПО для собственных ускорителей было бы менее стабильным, чем у Nvidia, а сложная архитектура Olympus могла бы затруднить его массовое производство. Поэтому пока Meta✴✴ намерена использовать в обучении ИИ ускорители партнёров, к которым прилагается более развитое и стабильное ПО. OpenAI договорилась об использовании своих ИИ-моделей Пентагоном вместо Anthropic
28.02.2026 [08:12],
Алексей Разин
Драма, которая развивалась вокруг несогласия руководства Anthropic с бесконтрольным использованием ИИ американскими военными, получила новый этап развития вечером в пятницу, когда глава OpenAI Сэм Альтман (Sam Altman) подтвердил достижение договорённости с Пентагоном об адаптации решений этой компании под нужды ведомства.
Источник изображения: OpenAI По словам Альтмана, на которые ссылается CNBC, компании OpenAI удалось договориться с Министерством обороны США об условиях использования её разработок в секретных системах данного ведомства. «На всех этапах нашего взаимодействия Министерство обороны выражало глубокое уважение к безопасности и стремление к сотрудничеству с целью достижения максимально благоприятных итогов», — сообщил Альтман в своей публикации на страницах социальной сети X. Напомним, что нежелание Anthropic разрешить Пентагону использование своих разработок без предусмотренных компанией этических ограничений привело к отказу ведомства от контракта с компанией на $200 млн, а также включению Anthropic в список сомнительных поставщиков, представляющих угрозу для национальной безопасности. Всем американским правительственным структурам велено незамедлительно прекратить использование чат-бота Claude, и в течение шести месяцев найти альтернативу. Что характерно, Сэм Альтман заявил о готовности Министерства обороны США соблюдать предусмотренные OpenAI ограничения на использование ИИ. Два принципа, вокруг которых разразился спор между Пентагоном и Anthropic, найдут отображение в тексте контракта с OpenAI и будут соблюдаться американским оборонным ведомством, как заявил глава компании. Речь идёт о неприменении ИИ для массовой слежки за американскими гражданами и неиспользовании ИИ для управления полностью автономными системами вооружения, которые способы истреблять людей без санкции человека. По словам Альтмана, OpenAI позаботится о том, чтобы эти принципы соблюдались государственным заказчиком. За безопасность в этой сфере будут отвечать отдельные специалисты на стороне OpenAI. Попутно Альтман призвал Пентагон распространить такие условия сотрудничества на все компании в сфере ИИ, чтобы устранить возникшие противоречия с некоторыми участниками рынка. Представители Anthropic выразили глубокое разочарование решением Пентагона о включении их компании в список неблагонадёжных поставщиков. Разработчик оставляет за собой право оспорить данное решение в суде. Сотни сотрудников Google и OpenAI поддержали Anthropic в противостоянии с Пентагоном
28.02.2026 [07:15],
Алексей Разин
Эта неделя характеризуется разразившимся скандалом между Anthropic и её правительственным клиентом в лице Министерства обороны США, который настаивал на более широком применении ИИ, чем подразумевали правила разработчика. Сотни сотрудников OpenAI и Google выразили солидарность с позицией Anthropic, которая выступает против бесконтрольного использования ИИ властями.
Источник изображения: Anthropic Напомним, Anthropic желает не допустить применения своей ИИ-модели Claude американскими военными для сбора данных об американских гражданах и управления полностью автономными системами вооружений, конечное применение которых не сможет контролировать человек. В открытом письме под заголовком «Нас не разделить» сотрудники OpenAI и Google призвали руководство своих компаний оставить разногласия и выступить вместе ради запрета на использование ИИ-моделей для слежки за гражданами США и уничтожения одних людей без контроля за процессом со стороны других. Как отмечает Engadget, петиция успела набрать более 450 подписей, подавляющая часть которых поставлена сотрудниками Google. При этом примерно половина подписавших её раскрыла свои имена, остальные действовали анонимно. Все подписавшие петицию являются сотрудниками одной из двух указанных компаний. Авторы петиции при этом не причисляют себя ни к каким ИИ-компаниям, политическим партиям или юридическим объединениям. Вчера стало известно, что на фоне отказа Anthropic предоставить Пентагону неограниченный доступ к использованию Claude в военных целях американские власти включили компанию в «чёрный список», и теперь всем связанным с военными контрактами США подрядчикам в течение шести месяцев нужно будет найти альтернативу Claude, а саму эту ИИ-модель нужно прекратить использовать немедленно. Переговоры Пентагона с OpenAI и Google уже ведутся, а ещё ведомство располагает действующим контрактом с xAI на использование чат-бота Grok в своих секретных системах. Генеральный директор OpenAI Сэм Альтман (Sam Altman) не только обратился к сотрудникам с заявлением о готовности придерживаться схожих с Anthropic принципов, но и признался CNBC, что не считает уместным применение угроз со стороны Пентагона ко всем участникам рынка. Пентагон поместил непокорную Anthropic в чёрный список и в течение шести месяцев перейдёт на альтернативы Claude
28.02.2026 [06:40],
Алексей Разин
На данный момент Anthropic остаётся единственной компанией, чья ИИ-модель Claude одобрена Министерством обороны США для работы с секретными ведомственными системами. Несогласие Anthropic предоставить этому ведомству право неограниченного использования своих разработок привело к тому, что Пентагон поместил компанию в «чёрный список» и откажется от её услуг.
Источник изображения: Anthropic Напомним, что суть спора между руководством Anthropic и Министерством обороны США свелась к допустимым областям применения фирменных ИИ-систем. Разработчик утверждает, что не допустит использования Claude для слежения за американскими гражданами и применения полностью автоматизированных систем вооружений, которые не подразумевают принятия окончательного решения человеком. Пентагон, который за контракт с Anthropic выложил $200 млн, считает, что может полностью распоряжаться приобретаемым ПО и применять его в любых законных целях. Попытки продавить позицию руководства Anthropic со стороны американского военного ведомства ничем не увенчались, а потому к вечеру пятницы компания попала в список поставщиков, представляющих риск для национальной безопасности. Традиционно в нём состоят компании, преимущественно имеющие связи с геополитическими оппонентами США. Anthropic данное решение американских властей готова оспаривать в суде, но пока не подала соответствующего иска. Пентагон также требует от своих подрядчиков в течение шести месяцев отказаться от использования Claude в пользу решений других разработчиков. Президент США Дональд Трамп (Donald Trump) со страниц собственной социальной сети Truth Social потребовал от всех правительственных ведомств немедленно прекратить использование любых разработок Anthropic. Перед введением запрета представители Министерства обороны США пытались договориться с Anthropic о послаблениях в политике последней, которые позволили бы собирать и анализировать данные граждан США, включая их геопозицию, персональные финансовые данные и историю браузера — всё это планировалось покупать у специализированных брокеров. Пентагон теперь, как утверждает Axios, собирается перейти на использование ИИ-моделей OpenAI, хотя эта компания обладает схожими ограничениями с Anthropic в сфере применения своего ПО в разведывательных и военных целях. Подрядчикам Пентагона придётся доказывать, что они не используют решения Anthropic в своей деятельности. При этом чисто с технической точки зрения представители Пентагона до сих были довольны итогами использования продуктов Anthropic, и необходимость предстоящей миграции вызывает у них сильный дискомфорт. Компании Palantir также придётся перейти на альтернативу. Представители Пентагона обрушились с обвинениями в адрес генерального директора Anthropic Дарио Амодеи (Dario Amodei), назвав его «лжецом с комплексом Бога, который ставит под угрозу всю национальную безопасность». Недавно стартапу Илона Маска (Elon Musk) xAI удалось заключить контракт с Пентагоном на использование Grok в секретных системах американского ведомства. Источники считают, что полноценной и прямой заменой Claude данное решение стать не сможет. Gemini компании Google и ChatGPT компании OpenAI применяются американскими военными в системах общего назначения, и теперь Пентагон ускорит переговоры об их внедрении в секретной сфере. Сотрудники Google и OpenAI начали демонстрировать солидарность с Anthropic и пытаются выразить свой протест в форме открытых петиций, поддержку последней компании выражают и прочие общественные группы. Аудитория ChatGPT разрослась до 900 млн пользователей в неделю
27.02.2026 [22:38],
Владимир Фетисов
OpenAI объявила, что количество еженедельно активных пользователей ChatGPT достигло 900 млн человек. Это говорит о неуклонном приближении ИИ-бота к заветной отметке в 1 млрд пользователей. В компании также сообщили что количество платных подписчиков увеличилось до 50 млн человек.
Источник изображения: Dima Solomin / unsplash.com «В начале года динамика притока подписчиков значительно ускорилась: январь и февраль, по прогнозам, станут крупнейшими месяцами по количеству новых подписчиков за всю нашу историю. Люди используют ChatGPT для обучения, написания текстов, планирования и творчества. По мере увеличения масштабов использования продукт улучшается таким образом, что пользователи ощущают это незамедлительно: более быстрые ответы, более высокая точность, усиленная безопасность и более стабильная работа», — говорится в сообщении OpenAI. Данные OpenAI говорят о том, что ChatGPT добавил 100 млн пользователей с тех пор как в октябре 2025 года компания отчиталась о достижении отметки в 800 млн еженедельно активных пользователей. Новые цифры OpenAI обнародовала в рамках объявления о привлечении $110 млрд частных инвестиций, что стало одним из крупнейших раундов частного финансирования в истории. В числе инвесторов выступили Amazon, Nvidia и SoftBank, вложившие $50, $30 и $30 млрд соответственно. До получения инвестиций стоимость OpenAI оценивалась в $730 млрд. Раунд остаётся открытым, и компания ожидает, что к нему присоединятся новые инвесторы. Исход основателей из xAI продолжается — Тоби Полен стал седьмым
27.02.2026 [16:24],
Павел Котов
Сооснователь xAI Тоби Полен (Toby Pohlen) сообщил об уходе из компании, созданной для разработки технологий искусственного интеллекта. Это уже не первый стоявший у её истоков человек, который решил уйти из стартапа после его слияния со SpaceX.
Источник изображения: xAI «Сегодня был мой последний день в xAI», — написал господин Полен в соцсети X, добавив, что теперь намеревается выспаться и «подумать о том, чем хочу заняться дальше». Он поблагодарил Маска за то, что тот «взял в команду». Илон Маск (Elon Musk) выступил на платформе с ответной благодарностью «за помощь в развитии xAI». Тоби Полен стал уже седьмым из двенадцати основателей xAI, ушедшим из компании менее чем за три года её работы. В 2024 году из неё ушёл Кайл Косич (Kyle Kosic), в прошлом это были Игорь Бабушкин (Igor Babuschkin) и Кристиан Сегеди (Christian Szegedy), в январе по состоянию здоровья решение об отставке принял Грег Ян (Greg Yang), а в феврале компанию покинули Джимми Ба (Jimmy Ba) и Тони Ву (Tony Wu). После слияния xAI и SpaceX объединённая компания получила оценку в $1,25 трлн, и было объявлено о реорганизации подразделения по разработке ИИ. Тоби Полен был назначен руководителем отдела Macrohard, в котором ведётся разработка ПО с использованием ИИ — её название является игрой слов с отсылкой к Microsoft. Сейчас SpaceX готовится выйти на биржу — её первичное размещение акций (IPO) обещает стать крупнейшим в истории. Doogee представит на MWC 2026 носимые устройства, защищённые смартфоны и Visible AI
27.02.2026 [15:30],
Андрей Созинов
Компания Doogee анонсирует обновлённую линейку устройств и концепцию Visible AI на выставке Mobile World Congress 2026, которая пройдёт со 2 по 5 марта в Барселоне. В этом году Doogee делает акцент на трансформации бренда — от производителя исключительно защищённых смартфонов к комплексной экосистеме, объединённой интеллектуальными функциями и ориентированной на конкретные пользовательские сценарии. ![]() В центре внимания — носимые устройства, разработанные для различных сценариев — от занятий спортом до семейного использования и профессиональных экспедиций. ![]() Гарнитура BoneBeat Swim Ray предназначена для пловцов и любителей ночных пробежек: устройство имеет защиту IP68 и оснащено системой подсветки Dynamic Sport Light для повышения видимости. В свою очередь, BoneBeat Run Digital получила LED-индикатор уровня заряда, позволяющий контролировать остаток энергии без обращения к приложению. ![]() Смарт-часы Anyscene ориентированы на детей: устройства поддерживают 4G HD-видеозвонки, отслеживание местоположения в реальном времени и защищены по стандарту IP68. В свою очередь, линейки Anymoving и Anywise адресованы путешественникам и активным пользователям — они оснащаются двухдиапазонным GPS, офлайн-картами, ИИ-ассистентом и обеспечивают до 15 дней автономной работы. Anymoving M1 Pro предлагает большой 1,5-дюймовый AMOLED-дисплей, тогда как Anywise W1 Pro предлагают слегка более компактный 1,43-дюймовый AMOLED.
Doogee S300 Plus Thermal Конечно, защищённые смартфоны компания Doogee не забросит и покажет на выставке ряд новинок. Doogee S300 Plus Thermal позиционируется как профессиональный инструмент: устройство поддерживает HD-тепловизионную съёмку и режим ночного видения, позволяя обнаруживать источники тепла в полной темноте. Объём встроенной памяти до 1 Тбайт рассчитан на хранение больших массивов данных.
Doogee V Max 2 Pro Doogee V Max 2 Pro выделяется аккумулятором ёмкостью 22 000 мА·ч, обеспечивающим автономную работу на протяжении недели. Дизайн дополнен визуальным экраном зарядки и RGB-подсветкой на задней панели. Модель Doogee Fire 7 Ultra ориентирована на пользователей, работающих в удалённых районах. Встроенная функция Bluetooth-рации позволяет поддерживать связь даже при отсутствии сотового сигнала, что актуально для лесных массивов и горных маршрутов.
Doogee Tab E3 Max В сегменте планшетов компания покажет Tab E3 Max с 14-дюймовым экраном 2.1K и батареей ёмкостью 13 500 мА·ч, а также Tab G6 Max с дисплеем диагональю 13,4 дюйма и Android 16. ![]() Отдельное внимание уделено концептуальному смартфону с Visible AI. Центральным элементом интерфейса выступает виртуальный помощник AI Pet, который визуально отражает состояние устройства: он «сонный» при низком заряде батареи и реагирует на взаимодействие пользователя. Среди функций — One Entry for All для анализа документов и изображений через единый интерфейс и физическая клавиша Smart Key для запуска перевода в реальном времени.
Doogee B10 Pro Кроме того, будет представлен Doogee B10 Pro — смартфон с защитой IP68/IP69K и дисплеем 120 Гц, ориентированный на пользователей, которым требуется сочетание прочности и более сдержанного дизайна. Посетители Mobile World Congress 2026 смогут ознакомиться с новой экосистемой Doogee со 2 по 5 марта 2026 года в выставочном центре Fira Gran Via, павильон 7, стенд 7C58. Компания рассчитывает, что обновлённая стратегия и акцент на «видимом ИИ» позволят переосмыслить восприятие бренда на международном рынке. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |