Сегодня 27 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии
Быстрый переход

«Красный код опасности» оказался обычной практикой в работе OpenAI — он помогает сфокусироваться

В начале месяца OpenAI привлекла внимание общественности, сообщив о необходимости введения «красного кода», подразумевающего мобилизацию всех усилий на приоритетном направлении бизнеса, коим выступил ChatGPT. Директор по исследованиям Марк Чэнь (Mark Chen) признался, что в таких мерах нет ничего экстраординарного, и к ним OpenAI регулярно прибегает.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Как заявил представитель OpenAI в интервью Bloomberg, время от времени компания прибегает к подобным мерам, чтобы сосредоточить усилия сотрудников на одной приоритетной задаче в ущерб менее важным. «Мы делаем это, когда хотим сфокусироваться на какой-то конкретной теме», — пояснил Марк Чэнь. Напомним, очередное введение «красного кода» случилось через две недели после выхода новой версии Google Gemini, которая в некоторых аспектах продемонстрировала себя с лучшей стороны по сравнению с ChatGPT. По итогам мобилизации усилий OpenAI была выпущена большая языковая модель GPT-5.2, рецензии на которую позволили в известной степени потешить самолюбие руководства OpenAI.

Марк Чэнь добавил, что для него лично подобный режим работы над чат-ботом, рассуждающими способностями и основой самого ChatGPT означает, что фундаментальные возможности реализуются корректно. К этим критериям, например, относятся скорость и надёжность работы чат-бота, по мнению директора OpenAI по исследованиям. Концентрация компании на совершенствовании ChatGPT в последние недели позволила ей выпустить несколько значимых обновлений для своих ключевых сервисов, включая усовершенствованный генератор изображений. В следующем году, по словам Чэня, стартап собирается сконцентрироваться на разработке алгоритмов и исследованиях, а также развитии инфраструктуры, которая нужна для обеспечения работы всё более требовательных к ресурсам ИИ-моделей OpenAI. В ближайшие восемь лет компания намерена привлечь на реализацию своих проектов $1,4 трлн, но это будут в основном средства её партнёров.

В Gemini теперь можно давать задания Nano Banana, делая наброски прямо на изображениях

Google добавила в приложение Gemini новый способ взаимодействия с моделью Nano Banana. Теперь пользователи могут давать подсказки, рисуя или добавляя аннотации прямо на изображениях, а также проверять, было ли видео сгенерировано или отредактировано с помощью искусственного интеллекта. Эта функция стала доступна после вчерашнего крупного обновления Gemini 3 Flash.

 Источник изображений: 9to5google.com

Источник изображений: 9to5google.com

После загрузки изображения его можно выделить, чтобы открыть редактор под названием Mark up, поясняет 9to5Google. В нём инструмент Sketch позволяет рисовать, выделять конкретные участки изображения, а также отменять или повторять действия. С помощью инструмента Text можно наносить текстовые подсказки непосредственно поверх картинки. Это избавляет от необходимости вводить текстовое описание в поле запроса, хотя, как отметили в Google, дополнительный текстовый запрос можно при желании добавить. При загрузке первого изображения система предложит воспользоваться этой новой функцией. Рисование в Nano Banana теперь доступно на Android, iOS и в веб-версии приложения Gemini.

Параллельно Google расширила возможности системы проверки SynthID, добавив поддержку видео. Ранее SynthID позволял проверять подлинность изображений, а теперь также определяет, было ли видео или его аудиодорожка созданы или изменены с использованием ИИ от Google.

После загрузки видео (максимальный размер 100 Мбайт, длительность 90 секунд) пользователь может, например, запросить следующее: «Было ли это видео сгенерировано с помощью ИИ Google?». Система проанализирует наличие водяных знаков SynthID и, в случае наличия использования ИИ, выдаст ответ с указанием временных отрезков, на которых обнаружен такой контент. Например, ответ может содержать фразу: «SynthID обнаружен в аудио между 10 и 20 секундами. В визуальной части SynthID не обнаружен». Верификация как изображений, так и видео доступна во всех языковых версиях и регионах, где официально работает приложение Gemini.

Написанный ИИ программный код забагован сильнее человеческого, показало исследование

Исследование компании CodeRabbit показало, что код, созданный с использованием инструментов искусственного интеллекта, содержит больше ошибок и уязвимостей, чем код, написанный людьми. В запросах на слияние изменений в коде (Pull Request), созданных с помощью инструментов ИИ, в среднем фиксировалось 10,83 ошибки, по сравнению с 6,45 ошибками в запросах на слияние, созданных человеком. Это приводит в конечном итоге к увеличенному времени проверок и потенциальному увеличению количества ошибок, попадающих в финальную версию продукта.

 Источник изображения: Gema Saputera/Unsplash

Источник изображения: Gema Saputera/Unsplash

В целом, ошибок в запросах на слияние, сгенерированных ИИ, было в 1,7 раза больше, критических и серьёзных ошибок — также было в 1,4 раза больше, что нельзя отнести к мелким недочётам, как отмечает TechRadar. Ошибки в логике и корректности (в 1,75 раза), качество и удобство сопровождения кода (в 1,64 раза), безопасность (в 1,57 раза) и производительность (в 1,42 раза) показали в среднем более высокий уровень ошибок. В отчёте ИИ также критикуется за то, что вносит больше серьёзных ошибок, которые затем приходится исправлять людям-рецензентам.

Если говорить о безопасности кода, то среди наиболее вероятных проблем, которые может внести ИИ, указывается неправильная обработка паролей, небезопасные ссылки на объекты, уязвимости XSS и небезопасная десериализация (серьёзная уязвимость приложений, возникающая, когда программа преобразует ненадёжные данные).

«Инструменты ИИ для программирования значительно увеличивают производительность, но они также вносят предсказуемые недостатки, которые организации должны активно устранять», — прокомментировал директор по ИИ CodeRabbit Дэвид Локер (David Loker). Однако это не всегда сопровождается проблемами, так как ИИ повышает эффективность на начальных этапах генерации кода, а также приводит к уменьшению количества орфографических ошибок в 1,76 раза и проблем с тестируемостью (1,32 раза).

Таким образом, хотя исследование и выявило некоторые недостатки ИИ, одновременно оно также показало, что разработчики всё больше переходят от написания базового кода к управлению ИИ и проверкой его результатов, и именно так в будущем люди и ИИ-агенты, возможно, начнут взаимодействовать.

В то же время Microsoft сообщает о рекордном числе исправленных уязвимостей, например, в 2025 году было закрыто 1139 CVE (Common Vulnerabilities and Exposures, общие уязвимости и угрозы), что стало вторым по величине показателем за всю историю. Это может частично объясняться ростом общего объёма кода за счёт ИИ-генерации. Кроме того, ИИ-модели, например, в исполнении OpenAI, в принципе продолжают улучшаться, что потенциально снизит число ошибок в будущем.

«За это расплачиваются все»: ИИ обогнал майнинг биткоина по энергопотреблению

Новое исследование Амстердамского университета VU показало, что в 2025 году глобальный спрос на энергию и воду со стороны систем искусственного интеллекта (ИИ) может достичь рекордных значений, превысив даже глобальное энергопотребление майнинга биткоина за весь прошлый год.

 Источник изображения: AI

Источник изображения: AI

Согласно исследованию Алекса де Вриса-Гао (Alex de Vries-Gao) из Института экологических исследований Амстердамского университета VU, глобальное энергопотребление систем искусственного интеллекта в 2025 году может составить до 23 ГВт, а расход воды — от 312,5 до 764,6 миллиарда литров. По сообщению Tom's Hardware со ссылкой на данные The Verge, это превышает энергозатраты всего майнинга биткоина за 2024 год, а объём воды сопоставим с общемировым годовым потреблением бутилированной воды.

Де Врис-Гао подчеркнул, что его оценки остаются консервативными, поскольку крупные технологические компании не раскрывают в отчётах об устойчивом развитии точные данные о потреблении ресурсов для ИИ. По его словам, «невозможно дать абсолютно точную цифру, но в любом случае она будет очень большой», и в конечном итоге «за это расплачиваются все».

Чтобы оценить количество развёрнутого ИИ-оборудования и его энергопотребление, исследователь использовал для расчётов данные из аналитических отчётов и другую открытую информацию. На основе этих данных он определил, что ежегодные выбросы углекислого газа от эксплуатации ИИ-систем составляют от 32,6 до 79,7 миллиона тонн, в среднем около 56 миллионов тонн, что больше, чем совокупные выбросы Сингапура в 2022 году (53 миллиона тонн).

На фоне этих данных в США усилилась обеспокоенность некоторых американских законодателей. Сенатор Элизабет Уоррен (Elizabeth Warren) вместе с двумя другими демократами направила официальный запрос семи крупным технологическим компаниям с требованием раскрыть данные об энергопотреблении их ИИ-инфраструктуры. Сенатор Берни Сандерс (Bernie Sanders) пошёл дальше и предложил ввести полный мораторий на строительство новых дата-центров для ИИ, чтобы гарантировать, что технология будет служить «всем, а не только одному проценту людей». В то же время президент Дональд Трамп (Donald Trump) продолжает выступать за ускоренное развитие ИИ, заявляя, что его инициатива под названием Genesis Mission сравнима по масштабу с Манхэттенским проектом времён Второй мировой войны.

Профессор Шаолэй Рэнь (Shaolei Ren) из Калифорнийского университета в Риверсайде отметил, что даже текущие оценки Де Вриса-Гао могут быть занижены, поскольку они учитывают только эксплуатационную фазу оборудования. Реальный же экологический след окажется значительно выше, если включить в расчёт полный жизненный цикл чипов, начиная от добычи сырья и заканчивая производством, развертыванием и последующей утилизацией миллиардов ИИ-чипов.

«Пора взглянуть правде в глаза. ИИ с нами надолго»: режиссёр Kingdom Come: Deliverance 2 встал на защиту разработчиков Divinity

Режиссёр средневековой RPG с открытым миром Kingdom Come: Deliverance 2 Даниэль Вавра (Daniel Vavra) поделился мнением насчёт использования генеративного ИИ в разработке игр на фоне недавнего скандала вокруг Larian Studios.

 Источник изображения: Steam (Endurance)

Источник изображения: Steam (Endurance)

Напомним, глава Larian Свен Винке (Swen Vincke) недавно подтвердил, что в создании амбициозной ролевой игры Divinity задействован ИИ, чем вызвал массовую и жёсткую критику со стороны простых геймеров и экс-сотрудников студии.

По мнению Вавры, Винке не сказал ничего предосудительного. Лишь то, что Larian занимается тем же, чем и «все без исключения остальные» в индустрии. В то же время его комментарий спровоцировал «безумную по силе бурю негодования».

«Я не большой фанат сгенерированных ИИ иллюстраций, но пора взглянуть правде в глаза. ИИ с нами надолго. Как бы страшно это ни звучало, такова реальность», — подчеркнул Вавра.

 Источник изображения: Larian Studios

Источник изображения: Larian Studios

Вавра допустил, что ИИ позволит сократить затраты на разработку: «У меня есть идеи для кучи игр, но мне уже 50 лет и до сих пор в среднем на одну игру я тратил семь. Если ИИ поможет воплощать эти идеи быстрее, то я обеими руками за».

Ажиотаж вокруг ИИ, считает Вавра, может обернуться как гибелью человечества, так и возможностью воплощать любую идею за мелочь по сравнению с тем, сколько денег на это уходит сегодня. В любом случае, ИИ «уже не остановить».

Своё сообщение Вавра закончил признанием (текст его обращения с чешского языка на английский перевёл ИИ) и выражением готовности к потенциальной буре негодования в комментариях.

Google объединилась с Meta✴, чтобы ударить по доминированию Nvidia в сфере ПО для ИИ

Google работает над улучшением производительности своих ИИ-чипов при работе с PyTorch. Этот проект с открытым исходным кодом является одним из наиболее широко используемых инструментов для разработчиков моделей ИИ. Для ускорения разработки Google сотрудничает с Meta✴, создателем и администратором PyTorch. Партнёрство подразумевает доступ Meta✴ к большему количеству ИИ-ускорителей. Этот шаг может пошатнуть многолетнее доминирование Nvidia на рынке ИИ-вычислений.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Эта инициатива является частью агрессивного плана Google по превращению своих тензорных процессоров (Tensor Processing Unit, TPU) в жизнеспособную альтернативу лидирующим на рынке графическим процессорам Nvidia. Продажи TPU стали важнейшим двигателем роста доходов Google от облачных сервисов. Однако для стимулирования внедрения ИИ-ускорителей Google одного оборудования недостаточно.

Новая инициатива компании, известная как TorchTPU, направлена ​​на устранение ключевого барьера, замедляющего внедрение чипов TPU, путём обеспечения их полной совместимости и удобства для разработчиков PyTorch. Google также рассматривает возможность открытия некоторых частей исходного кода своего ПО для ускорения его внедрения. По сравнению с предыдущими попытками поддержки PyTorch на TPU, Google уделяет больше организационного внимания, ресурсов и стратегического значения TorchTPU, поскольку компании, которые хотят использовать эти чипы, рассматривают именно программный стек как узкое место технологии.

PyTorch, проект с открытым исходным кодом, активно поддерживаемый Meta✴, является одним из наиболее широко используемых инструментов для разработчиков, создающих модели ИИ. В Кремниевой долине очень немногие разработчики пишут каждую строку кода, которую будут фактически выполнять чипы от Nvidia, AMD или Google. Разработчики полагаются на такие инструменты, как PyTorch, представляющий собой набор предварительно написанных библиотек кода и фреймворков.

 Источник изображения: pytorch.org

Источник изображения: pytorch.org

Доминирование Nvidia обеспечивается не только её ускорителями ИИ, но и программной экосистемой CUDA, которая глубоко интегрирована в PyTorch и стала методом по умолчанию для обучения и запуска крупных моделей ИИ. Инженеры Nvidia приложили максимум усилий, чтобы программное обеспечение, разработанное с помощью PyTorch, работало максимально быстро и эффективно на чипах компании.

Бо́льшая часть программного обеспечения Google для ИИ построена на основе платформы Jax, что отталкивает клиентов, применяющих для разработки PyTorch. Поэтому сейчас для Google стало особенно важным обеспечить максимальную поддержку PyTorch на своих ускорителях ИИ. В случае успеха TorchTPU может значительно снизить затраты на переход для компаний, желающих найти альтернативу графическим процессорам Nvidia.

Чтобы ускорить разработку, Google тесно сотрудничает с Meta✴, создателем и администратором PyTorch. Это партнёрство может предоставить Meta✴ доступ к большему количеству ИИ-чипов Google. Meta✴ прямо заинтересована в разработке TorchTPU — это позволит компании снизить затраты на вывод данных и диверсифицировать инфраструктуру ИИ, отказавшись от использования графических процессоров Nvidia.

В качестве первого шага Meta✴ предложила использовать управляемые Google сервисы, в рамках которых клиенты, такие как Meta✴, получили бы доступ к ИИ-ускорителям Google, а Google обеспечивала их операционную поддержку. В этом году Google уже начала продавать TPU напрямую в центры обработки данных своих клиентов. Компания нуждается в такой инфраструктуре как для запуска собственных продуктов ИИ, включая чат-бот Gemini и поиск на основе ИИ, так и для предоставления доступа клиентам Google Cloud.

 Источник изображения: Google

Источник изображения: Google

«Мы наблюдаем огромный, ускоряющийся спрос как на нашу инфраструктуру TPU, так и на инфраструктуру GPU, — заявил представитель Google. — Наша цель — обеспечить разработчикам гибкость и масштабируемость, необходимые независимо от выбранного ими оборудования».

ИИ ломает Microsoft изнутри: Наделла потребовал от менеджеров внедрять ИИ — или выметаться

Глава Microsoft Сатья Наделла (Satya Nadella) рассматривает ИИ как экзистенциальную угрозу, уникальную возможность и шанс закрепить за своей компанией место лидера в технологической индустрии. Для него эта миссия носит как личный, так и профессиональный характер, и он подталкивает компанию к переосмыслению методов работы на всех уровнях. Об этом свидетельствуют внутренние документы Microsoft, а также интервью с руководителями и сотрудниками компании.

Масштабные организационные изменения в Microsoft включают в себя громкие кадровые перестановки и требования к командам работать быстрее и эффективнее — все это направлено на консолидацию власти вокруг лидеров в области ИИ и радикальное изменение способов разработки и финансирования продуктов компании. По словам инсайдеров, Наделла оказывает давление на некоторых ветеранов Microsoft, предлагая им сделать выбор между масштабным внедрением ИИ и увольнением.

Недавно Наделла повысил Джадсона Альтхоффа (Judson Althoff), многолетнего руководителя отдела продаж, до должности генерального директора коммерческого подразделения Microsoft. Повышение Альтхоффа призвано дать Наделле и руководителям инженерного отдела компании больше времени для сосредоточения на технической работе, необходимой для реализации его амбиций в области ИИ. Во внутренней служебной записке этот шаг был назван «тектоническим сдвигом в развитии платформы ИИ».

 Источник изображений: Microsoft

Источник изображений: Microsoft

«Это также позволит нашим руководителям инженерного отдела и мне сосредоточиться на нашей самой амбициозной технической работе — в области строительства центров обработки данных, системной архитектуры, науки об ИИ и инноваций в продуктах — чтобы с интенсивностью и скоростью лидировать в этом поколении платформенного сдвига», — написал Наделла.

Один из руководителей Microsoft считает, что этот шаг, похоже, приносит свои плоды, предоставляя Наделле «дополнительные ресурсы для того, чтобы действительно руководить компанией в изучении, использовании и создании ИИ». По его словам, «Сатья на 100 % вовлечён в процесс обучения и внедрения ИИ в компании».

Согласно осведомлённым источникам, Наделла также лично проводит еженедельные «намеренно несколько хаотичные и неорганизованные» совещания по внедрению ИИ и курирует соответствующий канал в Teams, чтобы ускорить темпы работы и получить больше идей. Вместо руководителей на этих совещаниях предоставляют слово младшим техническим сотрудникам, что, по замыслу Наделлы, позволяет избежать директивного управления при внедрении ИИ.

В Microsoft намечаются и другие важные кадровые перестановки. По слухам, многолетний руководитель Office и Windows Раджеш Джа (Rajesh Jha) обдумывает возможность выхода на пенсию. Инсайдеры также говорят о возможности отставки Чарли Белла (Charlie Bell), возглавляющего отдел кибербезопасности Microsoft.

Надела недавно объявил в канале Teams, предназначенном для корпоративных вице-президентов Microsoft и выше, что компания находится на переломном этапе, по меньшей мере столь же значительном, как переход к облачным вычислениям, и ей необходимо полностью переосмыслить свою бизнес-модель. «Мы все должны работать и действовать как рядовые сотрудники в своих организациях, постоянно учась и разучиваясь», — написал он, имея в виду рядовых сотрудников, которые сосредоточены на технической работе, а не на управлении людьми.

«Я немного посмеиваюсь каждый раз, когда кто-то присылает мне сообщение о разговоре с другом из стартапа в области ИИ о том, как по-другому они работают, насколько они гибкие, сосредоточенные и быстрые, — добавил Наделла. — Реальность такова, что эта работа происходит прямо здесь, в Microsoft, у нас под носом! Наша задача как лидеров — искать это, поддерживать это, развивать это и учиться у наших собственных молодых талантов, которые заново изобретают новую производственную функцию!»

 Источник изображений: Microsoft

Президент по продуктам Microsoft CoreAI Аша Шарма (Asha Sharma), присоединившаяся к компании в 2024 году, рассказала, что за короткий период её работы компания кардинально изменила свою деятельность. Новая «производственная функция» Наделлы заключается в использовании ИИ для радикального изменения способов создания, разработки и предоставления продуктов и услуг.

В 2024 году индустрия ИИ выпускала новую масштабную базовую модель примерно каждые шесть месяцев. Затем релизы происходили каждые шесть недель. Сегодня ИИ меняется настолько быстро, что заставляет Microsoft переосмыслить не только свои продукты, но и весь способ создания программного обеспечения, отметила Шарма.

На протяжении десятилетий разработка программного обеспечения работала как конвейер, который преобразовывал набор входных данных — людей, время, ресурсы — в готовое ПО. Масштабирование производства требовало масштабирования этих входных данных. «ИИ разрывает эту связь», — уверена она.

По её мнению, теперь ИИ-агенты, данные и интеллект выступают в качестве нового типа масштабируемых единиц, способных генерировать программное обеспечение, аналитические выводы и принимать решения без соответствующего увеличения трудозатрат или бюджета на разработку. Это означает, что издержки на создание чего-то нового резко снижаются, объяснила Шарма, и команды теперь могут больше тратить на «суждение, вкус и решение проблем».

«Алиса AI» научилась исследовать и «торговаться» — «Яндекс» запустил режим «Исследовать» и агента «Найти дешевле»

Первым 100 тыс. пользователей, которые записались на получение раннего доступа к новым функциям «Алиса AI», компания «Яндекс» открыла доступ к агенту искусственного интеллекта «Найти дешевле», который помогает в поиске нужного товара по низкой цене, а также к режиму «Исследовать» — с ним ИИ изучает сложные предметные области, где присутствуют большие объёмы данных, требуются сложные расчёты и глубокое погружение в вопрос. Со временем «Яндекс» откроет доступ к новым функциям для всех записавшихся в список — они получат уведомление по электронной почте или в приложении «Алиса AI».

 Источник изображений: «Яндекс»

Источник изображений: «Яндекс»

Пользователь с доступом к ИИ-агенту «Найти дешевле» может отправить в переписку с чат-ботом ссылку на интересующий его товар и попросить найти его по более выгодной цене. Сервис изучит предложения от продавцов на их собственных сайтах и на торговых площадках и сформирует подборку самых выгодных вариантов. В некоторых случаях прямо в чате появится кнопка «Купить в 1 клик» с оплатой через «Яндекс Пэй» и заказом в пункт выдачи или курьером; иногда будет предлагаться и персональная скидка, доступная только в «Алисе AI». Помимо чат-бота, ИИ-агент может запускаться в «Яндекс Браузере» и поисковой службе, где появится кнопка «Найти скидку».

Режим «Исследовать» адресован пользователям, которым требуется глубокое изучение тех или иных вопросов — ИИ поможет, например, оптимизировать личный бюджет и накопить на автомобиль. Он учтёт величину дохода, регион, актуальные цены на машины и проценты по вкладам в банках. Пользователю достаточно сформулировать цель исследования для «Алисы AI», и та сделает всё самостоятельно: составит план исследования, отправит соответствующие теме поисковые запросы, проанализирует источники и скачает документы. При необходимости ИИ задаст пользователю дополнительные вопросы и уточнит задачу. По итогам исследования пользователь получит отчёт с планом, методикой, данными, выводами и рекомендациями. Если потребуются расчёты, «Алиса AI» самостоятельно напишет код для их проведения, выполнит его и покажет результаты.

В список ожидания доступа к ИИ-агенту «Найти дешевле» и режиму «Исследовать» записались более миллиона человек, и со временем «Яндекс» откроет доступ для всех них. В перспективе «Алиса AI» получит поддержку и других агентов: например, для записи в салон красоты или бронирования столика в ресторане на определённое время и место — с напоминаниями, а также возможностью отменить или перенести бронь. Появится также раздел «Моя память», в котором мысли и записи будут преобразовываться в списки дел и покупок, заметки и напоминания — можно будет на ходу наговаривать их ИИ, и тот всё зафиксирует и структурирует. Человеку больше не потребуется держать в голове большие объёмы задач.

ИИ-агенты научились оплачивать покупки картами Visa — тесты прошли успешно

Всё больше компаний электронной коммерции и финансовых организаций используют ИИ при оказании услуг потребителям. Сегодня Visa сообщила об успешном совершении сотен транзакций ИИ-агентами в рамках пилотной программы, запущенной после презентации в апреле инструмента для автоматизации покупок.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Visa, как и её конкуренты в финтех-индустрии, стремится к созданию инструментов, позволяющих потребителям поручать агентам искусственного интеллекта выполнение определённых транзакций. Искусственный интеллект трансформирует опыт онлайн-торговли для покупателей, меняя способы совершения покупок и поиска товаров.

Компания заявила, что планирует запустить пилотные программы в Азии и Европе в следующем году и сотрудничает с более чем 20 партнёрами по разработке инструментов для ИИ-агентов. «Этот год станет годом огромного распространения ИИ, и потребители начнут чувствовать себя комфортно в различных средах, созданных агентами», — уверен руководитель отдела развития продуктов и партнёрств Visa Рубайл Бирвадкер (Rubail Birwadker).

Visa не является пионером среди финансовых, торговых и кредитных компаний в применении ИИ-агентов. В апреле Mastercard сообщила о тестировании функции Agent Pay, которая позволяет ИИ-агентам совершать покупки онлайн от имени клиентов. В том же месяце Amazon начала тестирование услуги «Купи за меня», а PayPal и Perplexity объединили усилия для создания инструментов для ИИ-покупок.

По данным Visa, на декабрь 2025 года почти половина американских покупателей в той или иной мере используют ИИ при совершении покупок.

Apple научила ИИ строить 3D-сцены по одному фото — быстро и без домыслов

Apple опубликовала исследование под названием «Чёткий монокулярный синтез изображения менее чем за секунду», в котором подробно описала, как обучила модель искусственного интеллекта выстраивать трёхмерные сцены по одному плоскому изображению, обеспечивая соответствующие реальным условиям расстояния и масштаб.

 Источник изображения: x.com/timd_ca

Источник изображения: x.com/timd_ca

Задача модели ИИ — предсказывать трёхмерное представление сцены, которое отрисовывается с близлежащих точек обзора. Вместо привычных жёстких 3D-моделей сцена выстраивается из трёхмерных представлений функции Гаусса — небольших размытых пятен цвета и света, расположенных в пространстве. Объединив несколько миллионов таких пятен, можно воссоздать конкретное изображение, которое выглядит аналогично с той же точки обзора. Обычно для достижения этого результата требуются несколько десятков, если не сотен изображений, снятых с разных ракурсов — созданная Apple модель SHARP предсказывает полное трёхмерное представление с помощью гауссовской развёртки всего по одной фотографии и всего за один проход нейросети.

Чтобы добиться такого результата, инженеры Apple обучили SHARP на большом объёме синтетических и реальных данных, благодаря чему модель изучила общие закономерности глубины и геометрии в различных сценах. Получив новую фотографию, она оценивает глубину, уточняет её, используя имеющиеся знания, а затем составляет прогноз положения и внешнего вида трёхмерных «колоколов Гаусса» за один проход. Но есть у этого метода и слабое место: SHARP действительно в точности отображает близлежащие ракурсы, но не дорисовывает невидимые части сцены. То есть пользователь не сможет далеко отойти от точки обзора, с которой был сделан снимок.

За счёт этого исследователи Apple добились достаточно высокой скорости работы модели, которая получает результат менее чем за секунду с высокой стабильностью. Исходный код SHARP компания опубликовала на GitHub. Интересно, что в одном из примеров источниками трёхмерных моделей стали не статические изображения, а видеофайлы.

Xiaomi выпустила «самую мощную LLM с открытым исходным кодом для программной инженерии» — MiMo-V2-Flash

Xiaomi сообщила о выпуске бесплатной и открытой модели искусственного интеллекта MiMo-V2-Flash. Её отличают высокие мощность, эффективность и скорость — модель хорошо проявляет себя в сценариях с рассуждениями, программированием и работы в качестве ИИ-агента. Это отличный универсальный помощник для повседневных задач, утверждает разработчик.

 Источник изображений: mimo.xiaomi.com

Источник изображений: mimo.xiaomi.com

ИИ-модель MiMo-V2-Flash доступна для пользователей по всему миру на платформе Hugging Face, в инфраструктуре Google Cloud AI Studio, а также на собственной платформе Xiaomi для разработчиков. MiMo-V2-Flash имеет архитектуру «смеси экспертов» — её общий размер составляет 309 млрд параметров, из которых активны только 15 млрд. Ещё один механизм оптимизации — гибридный механизм полного внимания (Global Attention), при котором охватываются все токены контекста, и скользящего окна (Sliding Window Attention), предусматривающего учёт только текущего и соседних с ним токенов. Он реализуется в соотношении 1:5 — если провести параллель, модель при ответе основную часть времени смотрит себе под ноги, но иногда осматривает и всю дорогу целиком. Это позволяет добиться скорости, сравнимой с механизмом скользящего окна, при точности почти как при чистом механизме полного внимания.

В стандартных тестах SWE-bench Verified и Multilingual, которые помогают оценить способности ИИ к разработке ПО, MiMo-V2-Flash, по утверждению Xiaomi, заняла первое место среди всех открытых моделей и выступила на уровне ведущих мировых моделей с закрытым кодом. В математическом AIME 2025 и междисциплинарном GPQA-Diamond она вошла в число двух лучших открытых моделей в мире. MiMo-V2-Flash поддерживает гибридную схему мышления, позволяя пользователям переключать модель между режимом рассуждения и форматом быстрых ответов. Поддерживается генерация полнофункциональных HTML-страниц в один клик; есть возможность интеграции со сторонними инструментами «вайб-кодинга», в том числе Claude Code, Cursor и Cline; длина контекстного окна составляет 256 тыс. токенов, что позволяет MiMo-V2-Flash выполнять задачи в течение нескольких сотен раундов взаимодействия с агентами и вызова сторонних инструментов.

Механизмы оптимизации помогли «разогнать» MiMo-V2-Flash до скорости ответа в 150 токенов в секунду — по субъективным ощущениям они выдаются почти мгновенно. В инфраструктуре Xiaomi при подключении через API стоимость работы с моделью составляет $0,1 за 1 млн входных и $0,3 за 1 млн выходных токенов. Помимо гибридного механизма полного внимания и скользящего окна, разработчик повысил скорость модели, обучив её генерировать по нескольку токенов одновременно (Multi-Token Prediction — MTP): первоначально они генерируются в черновом формате, проверяются и сразу могут направляться в ответ. На практике модель генерирует в среднем от 2,8 до 3,6 токенов параллельно, что помогает ускорить её работу на величину от 2,0 до 2,6 раза.

Ещё одно нововведение в Xiaomi развернули на этапе постобучения MiMo-V2-Flash — парадигму «динамической дистилляции знаний от группы наставников» (Multi-Teacher Online Policy Distillation — MOPD). Это значит, что ответы обучаемой модели оцениваются моделями-наставниками в реальном времени, причём последние дают свои рекомендации не по схеме «правильно или неправильно», а предлагают разбор ошибок. Обучаемая же модель при этом анализирует свои собственные ответы, а не действует в рамках заданных сценариев. Эта схема позволяет использовать всего 2 % вычислительных ресурсов по сравнению с традиционным сценарием обучения с подкреплением при тонкой настройке (SFT/RL). Кроме того, децентрализованная структура MOPD позволяет прошедшему обучение «ученику» впоследствии исполнять роль «наставника» — другими словами, модель непрерывно самосовершенствуется.

По совокупности тестов модель MiMo-V2-Flash демонстрирует результаты, сравнимые с показателями ведущих китайских систем K2 Thinking и DeepSeek V3.2 Thinking; причём в задачах с длинным контекстом нейросеть от Xiaomi превзошла значительно более крупную K2 Thinking, оправдав архитектуру скользящего окна. В тесте SWE-Bench Verified она набрала 73,4 %, обошла все открытые аналоги и выступила почти на уровне OpenAI GPT-5-High; в SWE-Bench Multilingual решила 71,7 % задач, подтвердив статус самой эффективной открытой модели для разработки ПО. В тестах τ²-Bench на работу в качестве отраслевого ИИ-агента она показала результаты в 95,3 баллов для телекоммуникационного направления, 79,5 для розничной торговли и 66,0 для авиакомпаний. В бенчмарке поисковых агентов BrowseComp она набрала 45,4 балла, а с учётом управления контекстом — 58,3. Веса модели, включая MiMo-V2-Flash-Base, доступны на Hugging Face по лицензии MIT, код для инференса (вывода) направлен разработчикам фреймворка SGLang.

Акции американских бигтехов обвалились после слухов о проблемах Oracle с финансированием проекта для OpenAI

Безудержный рост капитализации крупных игроков рынка ИИ до сих пор основывался на вере инвесторов в способность соответствующих проектов принести финансовую отдачу в отдалённом будущем. Запас оптимизма начал истощаться, и первыми сдались институциональные инвесторы. Вокруг Oracle начал формироваться неблагоприятный информационный фон, акции компании упали на 5,4 % потянули за собой остальной рынок.

 Источник изображения: Oracle

Источник изображения: Oracle

Издание Financial Times сегодня сообщило, что инвестиционный фонд Blue Owl Capital не намерен вкладывать средства в проект строительства центра обработки данных Oracle в штате Мичиган общей стоимостью $10 млрд. Опытным инвесторам из этого фонда не понравилась растущая долговая нагрузка Oracle, а также их смутили значительные расходы на инфраструктуру ИИ. В штате Мичиган должен был появиться ЦОД мощностью 1 ГВт, который Oracle планировала построить для нужд OpenAI. По имеющимся данным, переговоры с Blue Owl зашли в тупик, поставив под вопрос саму реализацию проекта.

Схема сделки предполагала, что дочерняя структура Blue Owl будет владеть ЦОД, сдавая его в лизинг для нужд Oracle и OpenAI соответственно. Новых инвесторов пока не нашлось, а Blue Owl от данного проекта оттолкнули не самые выгодные финансовые условия. Представители Oracle заявили, что застройщик в лице Related Digital выбрал источник финансирования, не имеющий отношения к Blue Owl, и переговоры по реализации проекта в Мичигане идут по плану. Напомним, что соглашение Oracle с OpenAI подразумевает расходы в размере $300 млрд на строительство ЦОД для инфраструктуры ИИ общей мощностью 4,5 ГВт в течение ближайших пяти лет.

К концу ноября сумма долговых обязательств Oracle выросла до $105 млрд, однако Morgan Stanley прогнозирует, что к 2028 году она увеличится до $290 млрд. Компания активно привлекает заёмные средства для реализации новейших инициатив, связанных с ИИ. Всего за три месяца сумма лизинговых контрактов Oracle выросла с $100 млрд до $248 млрд. Фонд Blue Owl ранее оказывал активное содействие Oracle в строительстве других ЦОД компании.

Техасский ЦОД, за который Oracle будет выплачивать средства Blue Owl в течение 15 лет, должен принести последней доходность в размере 25 %. На его строительство будет потрачено $15 млрд, в строй он будет введён в середине 2027 года и займётся обслуживанием инфраструктуры OpenAI. Финансированием строительства инфраструктуры для Meta✴ Platforms также занимается Blue Owl.

Акции Oracle упали в цене на 46 % после достижения пиковой стоимости в начале сентября, когда сооснователь компании Ларри Эллисон (Larry Ellison) на короткое время стал богатейшим человеком планеты. Акции Nvidia накануне потеряли в цене 3,8 %, у Alphabet снижение составило 3,1 %, а Broadcom своим не очень удачным отчётом не только способствовала снижению курса собственных акций на 4,5 %, но и повлияла на чужие. К слову, акции Micron при этом выросли в цене на 3,8 %, но этому способствовала собственная оптимистичная отчётность данного производителя памяти.

Азиатские фондовые рынки последовали за американским. Японский индекс Topix снизился на 0,4 %, южнокорейский Kospi упал на 1,2 %, а китайский CSI 300 просел на 0,3 %. Поддержку американскому индексу S&P 500 оказали действия властей США в отношении Венесуэлы, которые вызвали рост цен на нефть и сопутствующее повышение котировок акций компаний энергетического сектора. В результате данный индекс прибавил более 2 %.

OpenAI готовится привлечь до $100 млрд, увеличив капитализацию до $750 млрд

К аэрокосмической компании SpaceX Илона Маска (Elon Musk) появляются все шансы проиграть в «гонке капитализаций» за звание самого дорогого стартапа в мире, поскольку OpenAI готовится поднять планку до $750 млрд. По данным The Information, такой капитализации ИИ-стартап достигнет после готовящегося привлечения $100 млрд.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Если переговоры о новом раунде финансирования завершатся успехом, то OpenAI сможет в полтора раза увеличить свою капитализацию относительно октябрьского уровня, когда она оценивалась в $500 млрд. Перед этим, как считается, у бывших и действующих сотрудников OpenAI появлялась возможность продать акций на $6,6 млрд.

Reuters при этом продолжает настаивать, что OpenAI готовится выйти на IPO, подав соответствующую заявку во второй половине следующего года. По итогам этого мероприятия капитализация стартапа может превысить $1 трлн. Пока инвесторы верят в перспективность тех технологий, что принято называть искусственным интеллектом в их нынешней реализации, многие участники рынка спешат воспользоваться возможностью для привлечения крупных сумм на своё развитие. Вчера также стало известно, что инвестором OpenAI может стать Amazon, которая наладит поставки фирменных ускорителей Trainium для нужд этого стартапа. Не исключено, что OpenAI традиционно обменяет свои акции на сумму $10 млрд в счёт оплаты таких поставок.

Вышла Gemini 3 Flash — новая базовая модель Google, которая лучше Gemini 2.5 Pro и доступна всем бесплатно

Компания Google выпустила ИИ-модель Gemini 3 Flash. Новинка вышла под слоганом «передовой интеллект, созданный для скорости по доступной цене». Gemini 3 Flash сохранила возможности сложных логических рассуждений модели Gemini 3, мультимодальность с пониманием визуальных данных, а также производительность в задачах агентного и визуального программирования, но с учётом «задержки, эффективности и стоимости уровня Flash».

 Источник изображений: Google

Источник изображений: Google

ИИ-модель Gemini 3 Flash превосходит 2.5 Flash по всем параметрам и «значительно» превосходит версию Gemini 2.5 Pro в нескольких тестах, включая MMMU Pro, Toolathlon и MPC Atlas. Google выделила следующие особенности ИИ-модели Gemini 3 Flash:

  • GPQA Diamond (научные знания) — точность 90,4 %;
  • Humanity’s Last Exam (академическое мышление) — эффективность 33,7 % без дополнительных инструментов;
  • MMMU Pro (мультимодальное понимание и рассуждение) — эффективность 81,2 %;
  • SWE-Bench Verified (агентное программирование) — эффективность 78 %;
  • Toolathlon (задачи разработки программного обеспечения в реальном мире с долгосрочным горизонтом) — точность 49,4 %;
  • MCP Atlas (многоэтапные рабочие процессы с использованием MCP) — эффективность 57,4 %.

Google утверждает, что Gemini 3 Flash «превосходит Gemini 2.5 Pro, будучи в 3 раза быстрее и при этом значительно дешевле». Использование сильного логического мышления, инструментов и мультимодальные возможности, реализованные в Gemini 3 Flash, обеспечивают «более сложный анализ видео, извлечение данных и визуальные вопросы и ответы» для сторонних разработчиков, создающих агентов поддержки клиентов или внутриигровых помощников.

Стоимость использования Gemini 3 Flash составляет $0,50 за входные токены и $3 за выходные токены (цена аудиозапроса составляет $1 за входные токены).

ИИ-модель Gemini 3 Flash уже доступна в приложении Gemini, где заменяет ИИ-модель Gemini 2.5 Flash в качестве модели по умолчанию. Компания позиционирует новую модель, как «значительное обновление вашего повседневного ИИ», который «стал умнее и быстрее».

«Вы можете быстро создавать интересные и полезные приложения с нуля, не имея предварительных знаний в программировании. Просто попросите Gemini помочь вам доработать идею. Вы можете на ходу диктовать поток мыслей и превращать их в прототип», — описывает Google возможности Gemini 3 Flash.

В Gemini 3 Flash доступен выбор из двух режимов работы: «Быстрый» — для оперативных ответов и «Глубокое размышление» — для решения сложных задач. Выпущенная в прошлом месяце ИИ-модель Gemini 3 Pro предназначена для более сложных математических задач и задач по программированию.

Gemini 3 Flash также внедряется по всему миру в качестве модели по умолчанию в режиме поиска ИИ (AI Mode). Модель позволяет задавать более тонкие и уточнённые вопросы. Google также сообщила, что модели Gemini 3 Pro с генеративным пользовательским интерфейсом и Nano Banana Pro стали доступны для всех пользователей в США.

«Gemini 3 Flash превосходно улавливает нюансы вашего запроса, извлекая в режиме реального времени локальную информацию и полезные ссылки со всего интернета и предоставляя продуманные, исчерпывающие ответы, которые легко воспринимаются визуально», — говорит Google.

Для разработчиков Gemini 3 Flash доступен в режиме предварительного просмотра через AI Studio, Google Antigravity, Gemini CLI и Android Studio. Для корпоративных пользователей новая ИИ-модель доступна через Vertex AI и Gemini Enterprise.

«В кадре появился кот»: умная IP-камера «Яндекса» научилась рассказывать о том, что видит

Умная IP-камера «Яндекса» получила новую функцию — анализ происходящего в кадре на основе искусственного интеллекта. Вместо простого сообщения, что обнаружено движение, устройство способно конкретизировать, что появился кот или другой объект. Интеллектуальный анализ можно включать в сценарии умного дома и запускать их, когда, например, «собака грызёт диван». Раз в сутки умная камера составляет сводку произошедшего за день и отправляет её владельцу.

 Источник изображений: «Яндекс»

Источник изображений: «Яндекс»

Теперь обо всём происходящем в кадре камера «Яндекса» сообщает человеку — она может конкретно определить, что, к примеру, вернулись домой дети; все эти записи сохраняются в архиве, чтобы можно было оперативно найти интересующее. Распознанные ИИ события в кадре можно привязывать к сценариям умного дома — их можно задать своими словами в приложении «Дом с Алисой». Так, если ребёнок просыпается ночью, включается ночник; когда появляется собака, включается автоматическая поилка; а если домашнее животное запрыгивает на диван, снимок отправляется владельцу. Каждый день ИИ генерирует составленную из описаний сводку событий за день и отправляет уведомление через приложение «Дом с Алисой» — посмотреть отчёт можно в карточке устройства.

За анализ происходящего в кадре отвечает визуально-языковая модель «Яндекса» Alice AI VLM. Она обучена на большом объёме визуальной и текстовой информации, за счёт чего ориентируется в происходящем в кадре. Ранее эта технология уже начала использоваться в «живом» режиме «Алисы» для подписчиков «Алисы Плюс». ИИ-описания, архивы записей и автоматические сводки доступны подписчикам тарифа «Стандарт»; чтобы воспользоваться остальными функциями, потребуется вариант «Экстра». Некоторые функции, которые ранее были доступны только по платной подписке, теперь работают бесплатно — например, слежение за человеком в кадре, фотоснимок при обнаружении движения, а также создание снимка по сценарию или расписанию.


window-new
Soft
Hard
Тренды 🔥
Слухи: экономия Ubisoft может поставить под угрозу крупнейшие игры компании, включая новую Ghost Recon 24 мин.
Ветеран Microsoft рассказал, как Windows 95 легко и незаметно боролась с нерадивыми разработчиками 2 ч.
Google представила ИИ для создания приложений для XR-гарнитур менее чем за минуту 2 ч.
В Telegram появился ИИ-переписчик сообщений 3 ч.
«Яндекс Карты» научились раздавать советы с помощью ИИ 4 ч.
Anthropic урезала лимиты общения с ИИ-ботом Claude в часы пик 4 ч.
«Вампирская одиссея продолжается»: разработчики V Rising забросили развитие игры ради «самого амбициозного проекта» за всю историю студии 5 ч.
Anthropic подтвердила, что готовит мощнейшую ИИ-модель Claude Mythos — утечка раскрыла детали 6 ч.
Работники в разных странах опасаются увольнений из-за ИИ и тормозят его внедрение 6 ч.
Capcom добавила в Resident Evil Requiem фоторежим и улучшила мимику персонажей — подробности обновления 1.2.0 6 ч.