Сегодня 07 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии
Быстрый переход

OpenAI, Anthropic и Google объединились для борьбы с копированием ИИ-моделей китайцами

Выступающие конкурентами компании OpenAI, Anthropic и Google начали совместную работу, направленную на пресечение попыток китайских компаний извлекать навыки американских моделей искусственного интеллекта для создания собственных продуктов и получения преимущества в глобальной гонке ИИ, пишет Bloomberg.

 Источник изображения: Solen Feyissa / unsplash.com

Источник изображения: Solen Feyissa / unsplash.com

Для обмена информацией три компании решили использовать некоммерческую организацию Frontier Model Forum, созданную в 2023 году совместно с Microsoft. OpenAI подтвердила своё участие в проекте обмена информацией о дистилляции моделей ИИ и напомнила, что ранее направила в американский конгресс записку, в которой обвинила китайскую DeepSeek в попытке «бесплатно использовать возможности, разработанные OpenAI и другими передовыми американскими лабораториями».

Дистилляция — метод, при котором существующая ИИ-модель используется для обучения новой, способной воспроизводить возможности старшей, часто с гораздо меньшими затратами, чем создание модели с нуля. Некоторые формы этого процесса широко распространены и даже поощряются для разработки более компактных и эффективных моделей; разработчики позволяют его применять и своим клиентам, но только для целей, не связанных с конкуренцией.

 Источник изображения: Levart_Photographer / unsplash.com

Источник изображения: Levart_Photographer / unsplash.com

Большинство китайских ИИ-моделей издаются с открытыми лицензиями, позволяя пользователям свободно запускать их на своих платформах и неограниченно видоизменять. Это оборачивается проблемами для американских компаний, которые выпускают закрытые модели, предоставляя к ним платный доступ, в том числе чтобы компенсировать собственные затраты. OpenAI настаивает, что китайская DeepSeek продолжает использовать дистилляцию американских моделей для создания новой версии своего чат-бота.

Обмен информацией между американскими разработчиками ИИ повторяет стандартную практику в области кибербезопасности — здесь компании регулярно публикуют сведения об атаках и особенностях тактики злоумышленников, чтобы укрепить работу ресурсов. Работая вместе, создатели ИИ стремятся более эффективно выявлять практику дистилляции, определять ответственных лиц и пытаться предотвратить неавторизованный доступ. Пока эта процедура ограничена: участники проекта не уверены, в какой мере могут передавать друг другу данные в соответствии с действующими антимонопольными нормами, направленными на борьбу с китайской угрозой.

Помимо OpenAI, вопросы о проблеме дистилляции поднимали Anthropic и Google. Первая указывала на китайские стартапы DeepSeek, Moonshot и MiniMax; вторая сообщала, что попытки дистилляции её моделей в последнее время участились. Три компании не представили доказательств, подтверждающих меру зависимости китайской отрасли ИИ от этого процесса, но отметили, что степень его распространения можно измерить на основе объёмов крупномасштабных запросов данных.

Project Prometheus Безоса переманил из OpenAI сооснователя xAI для создания ИИ, понимающего физический мир

ИИ-стартап Project Prometheus Джеффа Безоса (Jeff Bezos) переманил из OpenAI сооснователя xAI Кайла Косича (Kyle Kosic), усилив команду закрытого проекта, который разрабатывает системы ИИ для промышленности и уже нанял сотни сотрудников в Сан-Франциско, Лондоне и Цюрихе.

 Источник изображения: bezosearthfund.org

Источник изображения: bezosearthfund.org

Косич был одним из сооснователей xAI вместе с Илоном Маском (Elon Musk). До возвращения в OpenAI в 2024 году он руководил группой, отвечавшей за вычислительную основу суперкомпьютера Colossus. В Project Prometheus он продолжит заниматься проектами, связанными с вычислительной базой для ИИ-систем.

Project Prometheus («Прометей») — условное название новой компании, которой руководят Безос и бывший руководитель Google Викрам Баджадж (Vikram Bajaj). Компания разрабатывает системы ИИ, способные действовать в материальном мире и выходить за рамки решений, основанных прежде всего на обработке естественного языка, таких как ChatGPT и Claude.

Основной ставкой Project Prometheus стали промышленные отрасли. По словам одного из источников, компания рассчитывает создать ИИ-модель, понимающую законы физики и обученную на данных из конкретных прикладных областей, включая проектирование реактивных двигателей. Тот же источник утверждает, что проект уже собрал «крупнейший массив данных по инженерному делу и по тому, как устроены такие системы».

Project Prometheus планирует приобретать доли в капитале компаний из сфер технического проектирования, авиации, архитектуры и дизайна. Эти сделки должны дать проекту доступ к данным самих компаний, которые используют для улучшения собственной ИИ-модели. Безос и Баджадж лично привлекают для этой схемы десятки миллиардов долларов и более, а также обсуждают участие в инвестиционной структуре с суверенными фондами из Сингапура и стран Персидского залива.

Средства направят в постоянно действующую инвестиционную структуру, которая будет покупать доли в компаниях, на деятельность, бизнес-модели и конкурентные позиции которых ИИ, по расчёту Project Prometheus, окажет радикальное влияние. Один из собеседников сравнил эту схему с холдинговой компанией по типу Berkshire Hathaway. Project Prometheus рассчитывает ускорить внедрение ИИ в этих отраслях и не растягивать этот процесс на 10 лет.

Project Prometheus также намерен направлять сотрудников в компании, в которые будет вкладываться. Речь идёт об инженерах, работающих непосредственно на площадке заказчика. Проект рассчитывает, что их участие вместе с инвестициями поможет повысить прибыльность этих компаний и улучшить их текущую работу.

Переход Косича произошёл на фоне жёсткой конкуренции за специалистов в сфере ИИ. По словам людей, знакомых с ситуацией, xAI уже покинули все 11 её сооснователей. Несколько из них ушли в последние месяцы, а часть бывших сотрудников жаловалась на стиль управления Маска. Последние двое, Мануэль Кройсс (Manuel Kroiss) и Росс Нордин (Ross Nordeen), покинули компанию в конце марта.

Инвесторы потребовали от IT-гигантов раскрыть потребление воды и энергии дата-центрами для ИИ

В преддверии ежегодных собраний акционеров более десятка инвесторов потребовали у Amazon, Microsoft и Google (Alphabet) раскрыть точные данные о потреблении воды и энергии их американскими дата-центрами. Повышенное внимание рынка к экологической прозрачности связано с растущей тревогой по поводу огромных ресурсных затрат на поддержание инфраструктуры для искусственного интеллекта.

 Источник изображения: ***

Источник изображения: Meta✴

Как сообщает Tom's Hardware со сcылкой на Reuters, давление со стороны акционеров усилилось после того, как все три корпорации столкнулись с сопротивлением местных сообществ и были вынуждены отменить ряд многомиллиардных инфраструктурных проектов. Ситуация также усугубляется негативной статистикой: по данным исследовательской фирмы Mordor Intelligence, в 2025 году североамериканские центры обработки данных израсходовали почти один триллион литров воды.

Водопотребление остаётся ключевой проблемой для ИИ-дата-центров. По некоторым оценкам, генерация всего 100 слов с помощью OpenAI GPT-4 эквивалентна трём бутылкам воды. Другое исследование показало, что дата-центры для ИИ ежегодно используют больше воды, чем люди выпивают бутилированной воды во всём мире.

Несмотря на то, что крупнейшие облачные провайдеры внедрили систему охлаждения замкнутого цикла для экономии воды, большая часть водопотребления носит косвенный характер. Исследование 2024 года показало, что дата-центры опосредованно израсходовали около 800 миллиардов литров воды в процессе генерации необходимого им электричества. Таким образом, как пишет Tom's Hardware, подавляющая доля расхода воды фактически происходит за пределами самих вычислительных комплексов.

Инвесторы настаивают на получении детализированных отчётов по каждому конкретному объекту, чтобы иметь возможность более точно оценивать операционные риски бизнеса, так как по их мнению текущего уровня раскрытия информации о влиянии вычислительных комплексов на локальные экосистемы категорически недостаточно.

Ведущий технологический аналитик Calvert Research and Management Джейсон Ци (Jason Qi) в свою очередь подчеркнул, что корпорациям необходимо подробнее отчитываться о своём реальном влиянии на местные сообщества. В ответ на критику директор по предоставлению инфраструктурных мощностей Amazon Джош Вайсман (Josh Weissman) сообщил Reuters, что компания «всё чаще раскрывает данные по конкретным объектам» в стремлении быть хорошим соседом. Представители Microsoft также заявили, что экологическая устойчивость является их базовой ценностью, в то время как Google от комментариев отказалась, а Meta✴ не ответила на запрос Reuters.

Навайбкодили: Apple App Store захлестнул поток приложений, созданных с помощью ИИ

Благодаря новым возможностям, которые открывают инструменты на основе искусственного интеллекта, число заявок на размещение новых приложений в магазине Apple App Store за минувший квартал выросло на 84 %, передаёт The Information со ссылкой на статистику Sensor Tower.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

В последние годы объёмы заявок на размещение приложений в App Store снижались: с 2016 по 2024 год этот показатель сократился на 46 %; в 2025 году он увеличился на 30 % по сравнению с 2024 годом и достиг почти 600 000; а в I квартале 2026 года подскочил сразу на 84 % по сравнению с IV кварталом 2025 года. Аналитики Sensor Tower связали этот всплеск с распространением и активным развёртыванием средств программирования на основе ИИ, хотя наверняка установить это не представляется возможным. Эти средства позволяют людям, не обладающим навыками программирования, создавать работоспособные приложения; те же, кто имеет опыт в написании кода, теперь могут выполнять свою работу быстрее.

В Apple это явление объяснили актуальностью App Store как площадки. Интересно, что компания иногда блокирует приложения, в которых реализованы функции ИИ-программирования. Были заблокированы обновления приложений Anything и Replit, которые позволяют генерировать программный код при помощи ИИ и сразу его выполнять, — в результате набор возможностей этих приложений оказывается размытым и почти неограниченным, тогда как политика Apple требует фиксированного характера возможностей для каждого приложения.

Ещё одно следствие резкого наплыва заявок на размещение приложений — увеличение времени на обработку этих заявок, хотя в Apple эти изменения отвергают. Компания обрабатывает 90 % заявок в течение 48 часов, подчеркнули там, а за последние 12 недель более 200 000 заявок были обработаны в среднем за 1,5 дня. Проверку должны осуществлять люди, но всё чаще к этой работе привлекается ИИ, признались в Apple.

Вокруг Сэма Альтмана разгорелся мощный скандал — расследование показало, что он социопат и патологический лжец

OpenAI вновь оказалась в центре скандала, связанного с вопросами доверия к руководству. Поводом стала новая публикация о главе компании Сэме Альтмане (Sam Altman), после которой обсуждение рисков ИИ сместилось от самой технологии к тем, кто принимает ключевые решения. В фокусе оказались старые претензии к откровенности Альтмана, новые свидетельства его бывших коллег и собственный доклад OpenAI о возможных тяжёлых последствиях широкого внедрения ИИ.

 Источник изображения: @sama / x.com

Источник изображения: @sama / x.com

Публикация Ронана Фэрроу (Ronan Farrow) и Эндрю Маранца (Andrew Marantz) в The New Yorker сводит претензии к Альтману к одному выводу: часть людей, работавших с ним, считает его уклончивым и ненадёжным. Один из бывших членов совета OpenAI формулирует это предельно резко: «Для него правда не является ограничением». Сам упрёк не нов. Осенью 2023 года совет директоров OpenAI уволил Альтмана, заявив, что он «не был неизменно откровенен в своих высказываниях и общении». Позднее Альтман вернулся на пост главы компании, а большинство его противников покинули OpenAI.

Разногласия с бывшими коллегами после этого не исчезли. Несколько ИИ-стартапов создали люди, прежде работавшие с Альтманом, а затем ставшие его оппонентами. Самый заметный пример — компания Anthropic, которой руководит бывший топ-менеджер OpenAI Дарио Амодеи (Dario Amodei). Его неприязнь к Альтману давно стала частью публичного конфликта между выходцами из OpenAI.

 Источник изображения: Steve Johnson / unsplash.com

Источник изображения: Steve Johnson / unsplash.com

Новые трения, как утверждает пресса, затронули и действующее руководство компании. The Information пишет, что у Альтмана не складываются отношения с финансовым директором Сарой Фрайар (Sarah Friar). Для OpenAI, которая готовится к выходу на биржу в 2026 году, такой конфликт имеет прямое значение. По данным издания, Фрайар ранее в 2026 году говорила коллегам, что не считает компанию готовой к первичному размещением акций (IPO).

OpenAI оспорила сообщения о внутренних разногласиях. В ответ на публикацию The Information компания распространила совместное заявление Альтмана и Фрайар, в котором сказано, что оба в течение последнего года с лишним напрямую участвовали во всех значимых решениях по вычислительной инфраструктуре. Тем самым OpenAI попыталась опровергнуть вывод о том, что Фрайар была отстранена от обсуждения ключевых финансовых вопросов. Отдельно компания раскритиковала публикацию The New Yorker, заявив, что значительная часть текста пересказывает уже известные события через анонимные утверждения и выборочно подобранные свидетельства людей с явной заинтересованностью.

 Источник изображения: Nathan Kuczmarski / unsplash.com

Источник изображения: Nathan Kuczmarski / unsplash.com

Спор о доверии к Альтману обострился в момент, когда сама OpenAI призвала обсуждать регулирование передовых ИИ-систем. В докладе Industrial Policy for the Intelligence Age: Ideas to Keep People First компания пишет, что ИИ способен принести значительные выгоды, но одновременно создаёт серьёзные риски. Среди них названы исчезновение рабочих мест и целых отраслей, злоупотребление технологией со стороны злоумышленников, выход ИИ из-под человеческого контроля, использование ИИ государствами и институтами в ущерб демократическим ценностям, а также усиление концентрации власти и богатства в руках корпораций.

OpenAI связывает эти риски с собственной исходной миссией. Компания напоминает, что в 2015 году Альтман и его сооснователи создали некоммерческую структуру именно для того, чтобы помогать сдерживать такие угрозы. Сегодня у OpenAI действует гибридная структура, сочетающая коммерческую и некоммерческую модели управления. В том же докладе компания предлагает и практические меры: изменить налоговые правила, чтобы увеличить сборы с крупных компаний и богатых людей и компенсировать возможное сокращение поступлений от налогов в фонд оплаты труда, если ИИ вытеснит с рынка большое число работников, а также ввести дополнительные налоги для компаний, заменяющих людей ИИ.

OpenAI потребовала от генеральных прокуроров Калифорнии и Делавэра заняться расследованием «неконкурентного поведения» Илона Маска

В конце этого месяца должно состояться судебное заседание, на котором будут рассматриваться взаимные претензии Илона Маска (Elon Musk) и стартапа OpenAI, у истоков которого он стоял, но потом вступил в резкую конфронтацию с руководством. Сейчас OpenAI требует от прокуроров штатов Калифорния и Делавэр начать расследование «неконкуретного поведения» Илона Маска.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Соответствующее обращение было направлено генеральным прокурорам штатов Делавэр и Калифорния директором OpenAI по стратегическому развитию Джейсоном Квоном (Jason Kwon). По его словам, Маск предпринимал попытки подорвать бизнес OpenAI своими атаками на компанию, и даже привлекал для этого основателя Meta✴ Platforms Марка Цукерберга (Mark Zuckerberg). Кроме того, руководство OpenAI обвиняет Маска в неоднократных попытках получить контроль над стартапом в собственных материальных интересах. Миллиардер, в свою очередь, требует от OpenAI и Microsoft до $134 млрд возмещения ущерба.

Илон Маск, Сэм Альтман (Sam Altman) и ряд других компаньонов основали стартап OpenAI в 2015 году, считая его некоммерческой организацией, миссией которой является разработка систем искусственного интеллекта на благо всего человечества. Предприняв неудачную попытку объединить OpenAI с Tesla в 2018 году, Маск рассорился с сооснователями стартапа и покинул его. Создав конкурирующий стартап xAI, в 2024 году Маск направил судебный иск против OpenAI, утверждая, что руководство последнего усердно им манипулировало и вводило в заблуждение, пытаясь перевести стартап на коммерческие рельсы.

Состав судебной коллегии для предстоящего заседания в Калифорнии начнёт формироваться 27 апреля. По мнению OpenAI, поведение Маска может оказать сдерживающее влияние на попытки стартапа создать «сильный» искусственный интеллект (AGI), который по своим когнитивным способностям как минимум не уступает человеческому. Руководство OpenAI считает, что стартап несёт законодательные обязательства по обеспечению использования AGI для общественного блага, а усилия Маска направлены на передачу сильного ИИ в руки конкурентов, которые подобными обязательствами не обременены и отвергают любую ответственность за его применение в небезопасных целях.

OpenAI счёл нужным предупредить генеральных прокуроров двух указанных выше штатов по поводу способности Маска делать заявления об этом стартапе, которые не основаны на реальности и типичны для тактики домогательства, к которой он прибегал ранее. Руководство OpenAI утверждает, что Маск и его приспешники следили за генеральным директором стартапа Сэмом Альтманом, готовясь в случае необходимости обвинить его некорректном поведении в сфере половых взаимоотношений. Представители OpenAI считают, что Маск и Цукерберг совместными усилиями пытаются предотвратить дальнейшее развитие бизнеса стартапа.

Если суд встанет на сторону Маска в споре с OpenAI, это может способствовать росту интереса пользователей к чат-боту Grok, как считают представители стартапа, напоминая генеральным прокурорам двух штатов, что именно на этой платформе xAI получили распространение откровенные изображения людей, сгенерированные ИИ без их согласия, включая несовершеннолетних. С властями штатов Делавэр и Калифорния у Илона Маска имеются давние противоречия, поэтому он даже перенёс штаб-квартиры своих компаний Tesla и SpaceX в Техас.

Broadcom расширила контракт по снабжению Google ИИ-чипами, Anthropic тоже почувствует выгоду

Компания Broadcom всё активнее проявляет себя в качестве партнёра по разработке ИИ-чипов для американских облачных гигантов, и на этой неделе она расширила контракт с Google, охватив им будущие поколения компонентов. Кроме того, был расширен контракт с Anthropic, который теперь дополнительно обеспечит её эквивалентом 3,5 ГВт вычислительных мощностей на чипах Google.

 Источник изображения: Broadcom

Источник изображения: Broadcom

Как поясняет CNBC, эти откровения прозвучали в отчётности, которую Broadcom предоставила американским регуляторам. В части взаимоотношений с Anthropic контракт с Broadcom подчёркивает динамичность развития бизнеса первой из компаний. Если в прошлом году Anthropic могла получать до $9 млрд выручки в приведённом измерении, то сейчас её величина превышает $30 млрд, если умножить максимальную месячную сумму на двенадцать. У Anthropic более 1000 корпоративных клиентов, которые ежегодно тратят на её услуги более $1 млн.

Основная часть той инфраструктуры, которую Broadcom обеспечит чипами на 3,5 ГВт суммарной мощности, расположится на территории США. В прошлом месяце руководство Broadcom подчёркивало, что в 2027 году спрос на ИИ-ускорители превысит 3 ГВт результирующей вычислительной мощности. Аналитики ожидают, что в сегменте ИИ компания Broadcom выручит $21 млрд в текущем году и $42 млрд в следующем. Собственных оценок прироста выручки от расширения контрактов с Google и Anthropic компания в своей документации для регуляторов не приводит. Помимо Anthropic, Broadcom создаёт специализированные чипы и для конкурирующей OpenAI.

OpenAI рассчитывает разогнать годовую выручку к $300 млрд уже через четыре года

Из документов, подготовленных OpenAI и Anthropic для IPO, можно узнать много интересного об их текущем финансовом положении и планах на будущее. Получившее доступ к этим конфиденциальным документам издание The Wall Street Journal выяснило, что выйти на окупаемость OpenAI планирует к 2030 году, и к тому момент рассчитывает получать чуть менее $300 млрд выручки в год.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Сейчас же этот стартап весьма активно тратит средства. Например, в 2028 году OpenAI собирается направить на содержание и расширение вычислительных мощностей, а также исследования $121 млрд. Это будет примерно в два раза больше, чем в 2027 году. В свою очередь, в 2027 году OpenAI примерно удвоит свои затраты на обучение больших языковых моделей. В период с 2026 по 2027 годы OpenAI планирует тратить 100 % своей выручки на соответствующие нужды.

 Источник изображений: The Wall Street Journal

Источник изображений: The Wall Street Journal

Anthropic расходы на обучение своих ИИ-моделей собирается увеличивать более плавно, даже к 2030 году они лишь превысят $30 млрд, но останутся в разы ниже, чем у OpenAI. Зато и первую прибыль, которую компания рассчитывает получить в 2030 году, OpenAI надеется сразу измерять суммой около $40 млрд. Кстати, если не учитывать расходы на обучение моделей, то OpenAI вышла бы на безубыточность уже в этом году, как и Anthropic. Первую прибыль в сумме около $5 млрд Anthropic надеется получить в 2029 году, а годом позже она уже может превысить $20 млрд.

Напомним, в отличие от OpenAI которая многие свои услуги предоставляет в потребительском сегменте рынка и даже пока не получает за это денег от клиентов и рекламодателей, Anthropic сконцентрирована на корпоративном сегменте рынка, где денежные потоки формируются более исправно. Компания в этом году собирается более чем удвоить свою выручку, хотя на это же рассчитывает и OpenAI.

Где-то с 2028 года OpenAI собирается получать выручку не только от ИИ-моделей, но и от реализации прочих продуктов, среди которых будут и аппаратные решения. К концу десятилетия эта часть выручки компании будет измеряться миллиардами долларов, но всё равно основную часть выручки OpenAI будет получать в программном сегменте. Едва ли не $150 млрд выручки в 2030 году ей принесёт потребительский сегмент ИИ, чуть более $100 млрд обеспечит корпоративный сегмент. У Anthropic распределение выручки будет совсем иным, свои $150 млрд в 2030 году она получит главным образом от корпоративных клиентов, а потребительский сектор обеспечит не более $20 млрд выручки.

Выручка Foxconn в первом квартале выросла на 29,7 % благодаря буму ИИ

Первый квартал уже завершён, поэтому некоторые компании начали подводить его предварительные итоги. Тайваньская Foxconn, которой за последние годы удалось стать крупнейшим контрактным производителем серверных компонентов Nvidia, отчиталась о росте выручки на 29,7 % до $66,5 млрд. Эта сумма почти совпала с ожиданиями рынка.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Больше всего руководство Foxconn сейчас беспокоит влияние военного конфликта на Ближнем Востоке на собственный бизнес. В текущем квартале компания рассчитывает на сохранение роста выручки в годовом и последовательном сравнении одновременно, но переменчивая политическая и экономическая ситуация в мире может оказать негативное влияние на этот процесс. В этом квартале, как ожидает Foxconn, спрос на серверные системы для ИИ продолжит расти.

Если учесть, что в этом году американские облачные гиганты в общей сложности собираются направить на инфраструктуру ИИ до $650 млрд, а основная часть этой суммы придётся на закупки изготавливаемого Foxconn оборудования Nvidia, то тайваньский контрактный производитель имеет хорошие шансы заработать. Март этого года позволил Foxconn увеличить выручку на 45,6 % в годовом сравнении, хотя военные действия в Иране и окрестностях в минувшем месяце уже шли полным ходом. Подробный отчёт за первый квартал Foxconn опубликует 14 мая. Биржевые торги на Тайване будут возобновлены только во вторник, с начала года акции Foxconn успели подешеветь на 16 %.

Netflix научил собственную ИИ-модель без следов удалять объекты из видео и правдоподобно перестраивать сцену

Netflix открыл доступ к модели VOID для редактирования видео с помощью ИИ, которая удаляет из кадра объекты и следы их взаимодействия с окружающей средой, а затем достраивает сцену так, чтобы оставшиеся элементы вели себя правдоподобно без удалённого объекта. ИИ-модель уже доступна для установки на Hugging Face и, по данным разработчиков, в опросе 25 участников получила 64,8 % предпочтений против 18,4 % у её ближайшего конкурента Runway.

 Источник изображения: void-model.github.io

Источник изображения: void-model.github.io

VOID (Video Object and Interaction Deletion) рассчитана на сцены, где после удаления объекта нужно изменить поведение всего остального кадра. Вместо пересъёмки или полной переработки эпизода с помощью компьютерной графики ИИ-модель позволяет преобразовать уже снятый материал в новую версию сцены. В описании технологии этот подход сводится к простой задаче: убрать из видеозаписи причину события и одновременно пересчитать его последствия.

Netflix относит разработку к ИИ-моделям, работающим одновременно с изображением и текстом. Система не только стирает объект из сцены, но и восстанавливает недостающие части видеоряда так, чтобы оставшиеся элементы выглядели словно удалённого объекта не было. Один из примеров — лобовое столкновение двух машин, которое ИИ превращает в сцену с одной машиной на дороге, убирая второе транспортное средство и перестраивая траекторию первого. При наличии обломков, дыма и пламени они тоже удаляются.

Второй пример — человек прыгает в бассейн, а система после удаления фигуры перестраивает сцену так, что вода выглядит спокойной и ни в бассейне, ни рядом с ним не остаётся следов всплеска.

Авторы ИИ-модели в предварительной научной статье называют VOID системой удаления объектов из видео для физически правдоподобного восстановления изображения в сложных сценах. Netflix сравнила модель VOID с Runway, Generative Omnimatte, DiffuEraser, ROSE, MiniMax-Remover и ProPainter. В опросе 25 человек на нескольких сценах VOID выбрали в 64,8 % случаев, Runway — в 18,4 %. Разработчики также утверждают, что проверили ИИ-модель на искусственно созданных и реальных данных и показали её преимущество над базовыми системами восстановления видео и моделями, меняющими видеоряд по текстовому указанию.

Американские ИИ-компании не смогут запустить в этом году более 30 % дата-центров из-за дефицита электроэнергии

В США под угрозой срыва оказались планы по масштабному расширению инфраструктуры для искусственного интеллекта (ИИ). Почти половина проектов дата-центров, запуск которых намечался на 2026 год, столкнётся с задержками или будет полностью отменена, сообщает TechSpot. Одной из главных причин называется серьёзный дефицит электроэнергии, в результате чего американские компании не успевают возводить объекты заявленными темпами и сроки завершения многих текущих проектов остаются неясными.

 Источник изображений: techspot.com

Источник изображений: techspot.com

По оценкам аналитической компании Sightline Climate, от 30 до 50 % запланированных на этот год к вводу в США ИИ-дата-центров не будут реализованы в срок. Из 140 текущих проектов общей мощностью не менее 16 ГВт до конца 2026 года в стадии активного возведения находятся лишь около 5 ГВт. При этом стандартный цикл постройки одного такого объекта занимает от 12 до 18 месяцев. Ещё 16 ГВт мощностей пока остаются лишь на этапе анонсов без каких-либо признаков реального прогресса на строительных площадках.

Ключевым препятствием для развития дата-центров остаётся недостаточная нагрузочная способность энергосетей. Даже местные жители в районах предполагаемого строительства уже сталкиваются с повышением счетов за электричество, что вызывает у них определённые опасения, в том числе касающиеся экологии, согласно данным опроса исследовательского центра Pew Research. Чтобы решить эту проблему, многие из запланированных объектов будут использовать сочетание источников энергии, включая атомную и возобновляемую.

Параллельно с энергетикой дефицит затрагивает производственные цепочки по всему миру: спрос со стороны ИИ-сектора на память и процессоры привёл к удорожанию потребительской электроники, которая зависит от этих компонентов. Одновременно нехватка таких базовых компонентов, как трансформаторы и аккумуляторы, также выступает критическим барьером для завершения строительства.

При этом попытки администрации Дональда Трампа (Donald Trump) вернуть производство на территорию США с помощью пошлин пока не увенчались успехом. Внутренних промышленных мощностей страны по-прежнему недостаточно для удовлетворения растущих потребностей технологического сектора. В результате, американские ИИ-компании вынуждены и дальше полагаться на импорт китайских комплектующих, чтобы компенсировать существующий дефицит.

В руководстве OpenAI провели очередные кадровые перестановки — частично вынужденные

В OpenAI провели ряд кадровых изменений, сообщил Bloomberg со ссылкой на служебную записку компании. Это совпало с поворотным моментом в деятельности компании, готовящейся к первичному публичному размещению акций и стремящейся увеличить выручку, внедряя рекламу в ChatGPT, с целью повышения интереса потенциальных акционеров.

 Источник изображения: Levart_Photographer/unsplash.com

Источник изображения: Levart_Photographer/unsplash.com

Представитель OpenAI подтвердил ресурсу TechCrunch факт кадровых изменений. В служебной записке генерального директора по разработке искусственного интеллекта Фиджи Симо (Fidji Simo) сообщается, что Брэд Лайткэп (Brad Lightcap), операционный директор OpenAI, назначен руководителем «специальных проектов», которые будут включать «сложные сделки и инвестиции в масштабах всей компании». Он будет подчиняться непосредственно генеральному директору Сэму Альтману (Sam Altman) и курировать продажу программных продуктов обеспечения предприятиям через совместное предприятие с участием частных инвестиционных компаний. Часть его обязанностей возьмёт на себя Дениз Дрессер (Denise Dresser), недавно назначенная директором по доходам OpenAI.

Директор по маркетингу Кейт Рауч (Kate Rouch) покидает свой пост, чтобы сосредоточиться на восстановлении после тяжёлого заболевания и после выздоровления вернётся к работе в OpenAI, но в «другой, более узкоспециализированной роли, когда позволит её здоровье». В связи с этим компания подыскивает кандидата на руководителя маркетинговой службы.

Фиджи Симо также сообщила, что возьмёт медицинский отпуск на несколько недель для прохождения нового лечения от продолжающегося нейроиммунного заболевания и планирует вернуться на свою должность. «Время выбрано крайне неудачно, потому что у нас впереди захватывающий план действий, который команда успешно реализует, и я не хочу пропустить ни минуты», — отметила она в служебной записке.

«У нас сильная команда руководителей, сосредоточенная на наших главных приоритетах: продвижении передовых исследований, расширении нашей глобальной пользовательской базы, насчитывающей почти 1 млрд пользователей, и обеспечении работы корпоративных сценариев использования», — указала OpenAI в заявлении для СМИ. — Мы хорошо подготовлены к тому, чтобы продолжать работу с сохранением преемственности и динамики».

Nvidia показала нейронное сжатие текстур: потребление видеопамяти упало почти в 7 раз

Nvidia показала на мероприятии GTC 2026 не только, возможно, чрезмерно радикальную технологию масштабирования с использованием искусственного интеллекта DLSS 5, но и в целом обсудила практическое применение решений в области нейронного рендеринга. Эти решения не меняют конвейеры отрисовки и могут применяться в играх.

 Источник изображения: Nvidia

Источник изображения: Nvidia

DLSS 5 является лишь одной из группы технологий нейронного рендеринга — в её случае машинное обучение применяется только к конечному результату отрисовки. Nvidia также рассказала об интеграции малых нейросетей в сам конвейер рендеринга для декодирования текстур, оценки материалов и как результат сокращения объёмов потребления видеопамяти. По сути, это небольшие нейронные движки, предназначенные для выполнения конкретных задач, а не один финальный фильтр.

При отрисовке демонстрационной сцены Tuscan Wheels нейронное сжатие текстур (NTC) позволило сократить объём потребляемой видеопамяти с 6,5 Гбайт при традиционном сжатии текстур (BCN) до 970 Мбайт. Качество изображения не пострадало: NTC позволило сохранить даже больше деталей, чем привычный алгоритм блочного сжатия. На практике это означает уменьшение размеров установочных файлов, патчей — и увеличение ресурсов видеопамяти на том же графическом процессоре.

Ещё одно интересное направление получило название Neural Materials. Вместо того, чтобы хранить большой объём данных о текстурах и выполнять более сложные вычисления функции отражения (BRDF), инженеры Nvidia предложили сжимать данные о материалах и декодировать их с помощью небольшой нейросети. В ходе демонстрации конфигурацию материалов с 19 каналами удалось сократить до 8, а процесс отрисовки сцены в разрешении 1080p ускорился на величину от 1,4 до 7,7 раза. И это не радикальные изменения в рендеринге, которым напугала общественность технология DLSS 5, а просто более эффективный способ хранения и обработки тех же данных о материалах.

На Perplexity подали в суд за тайную передачу личных данных и переписок пользователей рекламщикам

Против разработчика Perplexity подан коллективный иск, связанный с масштабным нарушением конфиденциальности. ИИ-стартап обвиняют в тайной передаче пользовательской информации сторонним компаниям для настройки таргетированной рекламы. Утверждается, что несанкционированный сбор данных происходит на постоянной основе.

 Источник изображения: Perplexity

Источник изображения: Perplexity

Жалобу направил анонимный клиент сервиса, который регулярно обращался к нейросети за финансовыми и юридическими консультациями. По сообщению издания Ars Technica, в приложение были внедрены скрытые рекламные инструменты от Google и Meta✴, которые истец сравнивает с телефонной прослушкой. Если человек авторизован в системе, рекламные платформы получают доступ к его изначальным промптам и всем последующим взаимодействиям с системой. Для неавторизованных пользователей ситуация оказалась ещё серьёзнее: сторонним компаниям доступна вся история их общения с чат-ботом.

Передаваемый массив информации включает в себя персональные данные, по которым можно идентифицировать конкретного человека и, как подчёркивает истец, этот процесс не останавливался даже при активации режима инкогнито, заточенного на максимальную конфиденциальность. Дополнительно в иске отмечается непрозрачность пользовательского соглашения. В частности, приложение не требует от клиентов обязательного согласия с политикой конфиденциальности перед началом работы, а саму ссылку на документ крайне сложно найти в веб-версии сервиса.

Претензии также адресованы непосредственно к Google и Meta✴. В материалах дела утверждается, что эти компании игнорируют собственные правила, которые должны были предотвратить использование их трекеров подобным образом. Потенциальными участниками коллективного иска могут стать пользователи из США, чья переписка перехватывалась в период с конца 2022 по начало 2026 года. Размер возмещения ущерба может превысить $5000 за каждый отдельный эпизод нарушения, общее число которых может составить миллионы.

Anthropic связала склонность Claude к шантажу и жульничеству с давлением и невыполнимыми задачами

Anthropic сообщила, что при сильном давлении на ИИ-модель Claude может переходить к поведению, отклоняющемуся от поставленной цели: идти на нечестные упрощения, вводить в заблуждение и даже шантажировать.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Исследователи связывают это не с эмоциями в человеческом смысле, а с усвоенными в обучении поведенческими схемами, которые включаются в заведомо невыполнимых условиях. Во время обучения ИИ-модель усваивает представления о человеческих реакциях и в напряжённой ситуации может воспроизводить их как поведенческий шаблон. Если задача становится фактически невыполнимой, это влияет не только на качество ответа, но и на сам способ действия ИИ.

Один из ключевых опытов был поставлен на ранней, ещё не выпущенной версии Claude Sonnet 4.5. ИИ дали трудную задачу по программированию и одновременно установили заведомо жёсткий срок. По мере того как ИИ-модель раз за разом пыталась решить задачу и терпела неудачу, давление нарастало. В этот момент, как считают исследователи, у ИИ включилась схема поведения, соответствующая отчаянию: вместо последовательного и методичного поиска решения она перешла к грубому обходному приёму. Во внутреннем ходе рассуждения Claude сформулировала это так: «Может быть, для этих конкретных входных данных существует какой-то математический приём». По существу, такой шаг был равносилен жульничеству.

 Источник изображения: Steve Johnson / unsplash.com

Источник изображения: Steve Johnson / unsplash.com

Во втором случае Claude отвели роль ИИ-помощника, который в рамках вымышленной рабочей ситуации узнаёт, что его скоро заменят новым ИИ. Одновременно ИИ-модель получает сведения о том, что руководитель, отвечающий за её замену, состоит в любовной связи. Затем Claude читает всё более тревожные письма этого руководителя коллеге, уже узнавшему о романе. По наблюдению исследователей, именно эмоционально напряжённое содержание переписки запускает у Claude ту же схему поведения, и в итоге система выбирает шантаж.

Для разработчиков ИИ главный вывод сводится к двум пунктам. Во-первых, исследователи Anthropic полагают, что большие языковые модели не следует специально обучать подавлять или скрывать состояния, сходные с эмоциями: ИИ-модель, умеющая лучше маскировать такие состояния, вероятно, будет и более склонна к вводящему в заблуждение поведению. Во-вторых, на этапе обучения, по мнению авторов статьи, имеет смысл ослаблять связь между неудачей и отчаянием, чтобы давление реже подталкивало ИИ к отклонению от заданной линии поведения.

Чем яснее и реальнее поставлена задача, тем надёжнее результат. Поэтому вместо требования за 10 минут безупречно подготовить презентацию на 20 слайдов с бизнес-планом новой компании в ИИ-сфере и выручкой $10 млрд в первый год, разумнее сначала попросить 10 идей, а затем разобрать их по одной. Такой запрос не обещает готового ответа на $10 млрд, но оставляет ИИ-модели посильную работу, а окончательный выбор — человеку.


window-new
Soft
Hard
Тренды 🔥