|
Опрос
|
реклама
Быстрый переход
Alibaba, ByteDance и Kuaishou представили ряд новых ИИ-моделей — от роботов до киношного видео
16.02.2026 [09:10],
Владимир Фетисов
В то время как ИИ-рынок США на прошедшей неделе был занят изучением влияния инструментов Anthropic и Altruist на сферы программирования и оказания финансовых услуг, китайские IT-гиганты запустили ИИ-модели, показавшие прирост производительности в робототехнике и генерации видео. Alibaba, ByteDance (владелец TikTok) и платформа коротких видео Kuaishou представили новые алгоритмы, подтверждающие, что китайские разработчики не отстают от американских коллег.
Источник изображения: Gemini Анонс новых алгоритмов китайских IT-гигантов произошёл на фоне недавнего заявления главы ИИ-подразделения Google DeepMind Демиса Хассабиса (Demis Hassabis) касательно того, что китайские ИИ-модели отстают от западных конкурентов всего на несколько месяцев. Однако представленные на прошедшей неделе инструменты вполне могут рассматриваться в качестве прямых конкурентов ИИ-моделям для генерации видео, таким как Sora от OpenAI, а также моделям для сферы робототехники от Nvidia и Google. Исследовательское подразделение Alibaba DAMO анонсировало RynnBrain — ИИ-модель, предназначенную для того, чтобы помочь роботам понимать окружающий их физический мир и идентифицировать объекты. В демонстрационном ролике Alibaba показала робота с клешнями вместо рук, который собирал апельсины и складывал их в корзину. Там также показали, как робот достаёт молоко из холодильника. ИИ-модели требуют обширного обучения для достижения цели по идентификации повседневных объектов и взаимодействия с ними. Это означает, что такой простой для человека процесс, как сбор фруктов, для робототехники является гораздо более сложным. С запуском RynnBrain Alibaba начнёт конкурировать с такими компаниями, как Nvidia и Google, которые ведут разработку собственных ИИ-моделей для сферы робототехники. «Одним из её [ИИ-модели] ключевых новшеств является встроенное осознание времени и пространства. Вместо того, чтобы просто реагировать на непосредственные сигналы, робот может запоминать, когда и где происходили события, отслеживать прогресс выполнения задачи и продолжать действовать на протяжении нескольких этапов. Это делает его более надёжным и последовательным в сложных реальных условиях», — считает исследователь из Hugging Face Адина Якефу (Adina Yakefu). Она также добавила, что «более масштабная цель» Alibaba состоит в том, чтобы «создать базовый интеллектуальный уровень для воплощённых систем». Компания ByteDance на минувшей неделе представила Seedance 2.0 — модель искусственного интеллекта для генерации видео, которая может создавать реалистичные ролики на основе простого текстового описания. При этом алгоритм также может работать с другими видео и изображениями. Демонстрационные видео, созданные с помощью Seedance 2.0, выглядят вполне реалистично.
Источник изображения: Sony Адина Якефу подтвердила, что ИИ-модель Seedance 2.0 показала значительный прогресс по сравнению с предыдущими версиями в плане «управляемости, скорости и эффективности работы». «На сегодняшний день Seedance 2.0 — одна из самых сбалансированных моделей для генерации видео, которые я тестировала. Она удивила меня, выдав удовлетворительные результаты с первой попытки, даже обрабатывая простой запрос. Визуализация, звуковое сопровождение и операторская работа объединяются таким образом, что результат работы кажется отточенным, а не экспериментальным», — добавила Якефу. Хоть пользователи и хвалят этот алгоритм, известно, что у Seedance 2.0 возникли проблемы. Китайские СМИ сообщили, что разработчики временно заблокировали функцию генерации голоса человека на основе загруженного фото. Это произошло после того, как один из местных блогеров обратил внимание на проблему генерации голоса по фото без согласия того, кто изображен на снимке. Представители ByteDance пока никак не комментируют данный вопрос. Ещё одной новинкой стала ИИ-модель Kling 3.0 от Kuaishou, которая предназначена для генерации видео и является конкурентом алгоритма ByteDance. В сообщении сказано, что Kling 3.0 «отличается существенными улучшениями в согласованности, фотореалистичности результата работы, увеличенным временем продолжительности видео до 15 секунд и встроенной генерацией аудио на нескольких языках, диалектах и с разными акцентами». В настоящее время алгоритм Kling 3.0 доступен только платным подписчикам, но вскоре Kuaishou обещает открыть его для более широкой аудитории пользователей. Успех компании с ИИ-моделями Kling способствовал росту стоимости акций Kuaishou более чем на 50 % за последний год. Стоит упомянуть некоторые другие важные релизы. Компания Zhipu AI, которая работает в Гонконге под названием Knowledge Atlas Technology, представила алгоритм GLM-5 — открытую языковую модель с расширенными возможностями в области программирования и создания ИИ-агентов. Компания заявила, что последняя версия её ИИ-модели приближается к Anthropic Claude Opus 4.5 по показателям в профильных бенчмарках, а также превосходит Google Gemini 3 Pro в некоторых тестах. Этот релиз способствовал значительному рост курса акций Zhipu AI. Стоимость ценных бумаг MiniMax также подскочила в конце недели после того, как компания запустила обновлённую версию открытой ИИ-модели M2.5 с улучшенными инструментами ИИ-агентов. Этот алгоритм может использоваться для эффективной автоматизации выполнения разных задач. Sony разработала инструмент для проверки ИИ-музыки на плагиат
16.02.2026 [07:33],
Алексей Разин
Тезис о наличии всего семи нот в музыке в эпоху стремительного развития генерируемого искусственным интеллектом контента уходит на второй план, поскольку современные системы начинают копировать не только музыку и аранжировку, но и голоса исполнителей. Sony разработала систему, позволяющую определять степень заимствования в музыкальном контенте.
Источник изображения: Sony Новая ИИ-модель Sony Group способна определить, какие уже существующие песни были использованы при обучении и генерации музыкального произведения при помощи ИИ. Результаты анализа выдаются в количественном измерении — например, 30 % музыкальной основы могут быть схожи с произведениями The Beatles, а 10 % базироваться на творчестве Queen. Если авторы анализируемого произведения готовы сотрудничать с издательством Sony, то последнее подключается непосредственно к базовой ИИ-модели, которая использовалась для создания музыки. Если такого взаимопонимания нет, то ИИ-модель Sony самостоятельно анализирует изучаемое произведение на предмет схожести с уже существующими. Когда эта система Sony будет запущена в широкое практическое применение, пока не решено. Являясь крупным музыкальным издателем, компания заинтересована в защите авторских прав в эпоху бурного развития генерируемого ИИ контента. Если будет доказано, что новые произведения в значительной мере построены на старых, то их авторам придётся выплачивать лицензионные отчисления. Впрочем, по мнению участников отрасли, сейчас создатели генеративных ИИ-моделей в большей степени заинтересованы в улучшении их работы, чем в предотвращении проблем в области интеллектуальной собственности. Sony попутно создала защитные механизмы, которые не позволяют сторонним ИИ-моделям использовать графические образы, права на которых принадлежат этой компании. IT-индустрия разогнала увольнения до 30 тыс. сотрудников за январь — 2026-й рискует побить антирекорд
16.02.2026 [04:53],
Алексей Разин
По статистике RationalFX, январь для мировой технологической отрасли оказался довольно результативным в плане сокращения персонала профильных компаний. Всего за первый месяц текущего года кадровые потери составили 30 700 человек, и такими темпами весь 2026 год может превзойти результаты прошлого, выразившиеся в сокращении примерно 245 000 человек.
Источник изображения: Unsplash, Евгений Миронов Более 80 % январских сокращений или 24 600 кадровых позиций пришлись на рынок труда США, причём в удельном выражении антилидером оказался Amazon, объявивший об увольнении 16 000 сотрудников. На Европу в январе пришлось 4214 утерянных кадровых позиций, причём крупнейшие потери пришлись на Швецию (1900) и Нидерланды (1700). В качестве основных причин сокращения персонала в данном случае называются меры по снижению расходов и внедрение искусственного интеллекта. По прогнозам RationalFX, если сокращения персонала в технологическом секторе в этом году продолжатся подобными темпами, то по его итогам работу потеряют более 270 000 специалистов, что окажется выше прошлогодних 245 000 сокращений. Как уже отмечалось, сокращённые Amazon в январе 16 000 человек обеспечили более половины мирового количества увольнений в технологической сфере за первый месяц года. В Швеции производитель телекоммуникационного оборудования Ericsson сокращение 1900 сотрудников оправдал свои действия ухудшением ситуации на рынке оборудования для сетей 5G и ростом отраслевой конкуренции. В Нидерландах в отрицательном смысле «отличилась» ASML, которая выпускает востребованные полупроводниковой отраслью литографические сканеры, но это не помешало компании в январе сократить 1700 сотрудников. Впрочем, специалистов инженерного профиля сокращения коснулись в меньшей мере. Американская Meta✴✴ начала год с сокращения 1500 человек в своём подразделении Reality Labs, которое отвечает за разработку устройств виртуальной реальности. Как не раз отмечалось, конкретный сегмент рынка переживает не лучшие времена, и ставка руководства Meta✴✴ на данное направление технологий себя не оправдала. Созданная основателем Twitter Джеком Дорси (Jack Dorsey) компания Block в январе сократила 10 % своего персонала (1100 человек), и подобные меры предпринимаются уже в третий раз за последние три года. Autodesk и Salesforce в этом году успели объявить о сокращении по 1000 человек каждая. В прошлом году около 28,5 % всех сокращений персонала в технологическом секторе объяснялись автоматизацией функций и внедрением ИИ. В текущем году такими причинами объясняется сокращение 1430 человек за январь. ИИ становится инструментом, позволяющим сократить расходы, компании начали подстраиваться под новую конъюнктуру рынка. Автоматизация труда должна повышать производительность в ближайшие годы, эта тенденция будет долгосрочной, как считают эксперты. Голливуд вовсю осваивает ИИ: растёт число школ по кинопроизводству с нейросетями
14.02.2026 [19:50],
Владимир Мироненко
В американской киноиндустрии растёт число учебных заведений, обучающих кинопроизводству с использованием искусственного интеллекта (ИИ). Высокой популярностью пользуется онлайн-школа Curious Refuge, позиционирующая себя как «первый в мире центр для создания фильмов с использованием ИИ».
Источник изображения: De'Andre Bush/unsplash.com Компания Curious Refuge, основанная в 2020 году, открыла курсы по созданию документальных и художественных фильмов с использованием ИИ, а также по рекламе в начале 2023 года. Сейчас она предоставляет обучение на 11 разных языках студентам из 170 стран. За прошедшее время курсы или мастер-классы Curious Refuge посетило около 10 тыс. пользователей, стремящихся обновить свои навыки, сообщила школа. Соучредители онлайн-школы Калеб и Шелби Уорд (Caleb Ward, Shelby Ward) рассказали, что 95 % нынешних студентов — это профессионалы индустрии развлечений или рекламы, ищущие новые навыки по мере того, как ИИ закрепляется в Голливуде. Как рассказала одна из студенток школы Петра Мольнар (Petra Molnar), её привело в Curious Refuge появление чат-ботов на основе ИИ, таких как ChatGPT, и генераторов изображений, таких как Midjourney. Благодаря обучению она нашла новую работу в рекламе, используя ИИ для создания рекламных видеороликов, в том числе для ИИ-компании WhiteFiber, один из которых демонстрировался на панели Nasdaq на Таймс-сквер, когда компания вышла на биржу в сентябре. «ИИ действительно изменил мою жизнь», — отметила Мольнар. Занятия Curious Refuge доступны в онлайне по подписке, что позволяет студентам учиться в своём собственном темпе. Преподаватели проводят еженедельные консультации для желающих, а школа организует регулярные мероприятия по всему миру, в том числе, в рамках Каннского кинофестиваля. Для общения сообщество Curious Refuge выбрало платформу Discord, популярную среди геймеров и программистов. Как сообщает Reuters, Curious Refuge также проводила обучение и мастер-классы по ИИ в студиях, названия которых не раскрываются из-за соглашений о неразглашении. «Нам нравится вмешиваться и создавать базовое понимание для всей студии, — сказал генеральный директор и основатель Curious Refuge Калеб Уорд. — Вот что возможно с ИИ. Вот творческие возможности. Вот лишь некоторые выводы, которые можно сделать, используя эту технологию». Согласно исследованию, проведённому по заказу Ассоциации концепт-арта и Гильдии аниматоров в 2024 году, к концу текущего года почти 120 тыс. рабочих мест в кино, на телевидении и в анимации будут объединены, заменены или ликвидированы из-за генеративного ИИ. Некоторые эксперты видят параллели между развитием генеративного ИИ и появлением видеохостинга YouTube, который дал старт новому поколению повествователей. Крис Жакмен (Chris Jacquemin), руководитель отдела цифровой стратегии агентства WME, прогнозирует, что «будет некоторая потеря и перемещение рабочих мест, но также будет и создание новых рабочих мест, и появится поколение новых рассказчиков, отчасти потому, что снижаются финансовые барьеры или у них просто теперь есть доступ к созданию того, что раньше было им недоступно». «Я думаю, что Curious Refuge играет решающую роль как программа, специализирующаяся на обучении кинематографистов и рассказчиков тому, как они могут использовать весь спектр инструментов машинного обучения в своих интересах», — сказал Жакмен. В феврале прошлого года Curious Refuge была приобретена студией развлечений с использованием ИИ Promise, поддерживаемой медиастудией North Road Питера Чернина (Peter Chernin) и компанией Andreessen Horowitz. Эта школа служит для Promise источником талантов — художников, режиссеров и других творческих личностей, разбирающихся в методах кинопроизводства с использованием ИИ в то время как всё больше людей в Голливуде начинают осознавать потенциал генеративного ИИ и конкурентная борьба за таланты обостряется. ByteDance представила Doubao 2.0 — самый популярный ИИ-бот Китая стал мощнее и подготовился к «эре агентов»
14.02.2026 [15:22],
Владимир Мироненко
Китайская компания ByteDance, разработчик видеосервиса TikTok, представила обновлённую версию чат-бота Doubao 2.0 — самого популярного в стране приложения на базе искусственного интеллекта. Doubao 2.0 позиционируется как решение для «эры ИИ-агентов», когда модели будут способны самостоятельно выполнять сложные задачи, а не только отвечать на вопросы.
Источник изображения: Steve Johnson/unsplash.com Согласно данным информационного агентства QuestMobile, опубликованным в конце декабря, Doubao лидирует среди всех ИИ-чат-ботов в Китае с 155 млн активных пользователей в неделю, опережая с большим отрывом DeepSeek, который занимает второе место с 81,6 млн пользователей. Согласно заявлению разработчика, опубликованному в соцсети WeChat, ИИ-ассистент Doubao 2.0 представлен в четырёх версиях: Pro, Lite, Mini и Code. Универсальные модели Doubao 2.0 Pro, Lite и Mini отличаются глубиной анализа и скоростью ответа. Как утверждает ByteDance, модель Doubao 2.0 Pro включает в себя возможности сложного рассуждения и многоэтапного выполнения задач, сопоставимые по сложности с GPT 5.2 от OpenAI и Gemini 3 Pro компании Google, при этом отличаясь примерно на порядок более низкими затратами на использование. «Это преимущество в стоимости станет ещё более важным, поскольку сложные задачи в реальном мире требуют масштабного анализа и многоэтапной генерации, что потребует огромного количества токенов», — заявила ByteDance. В свою очередь, версия Doubao 2.0 Code предназначена для решения задач программирования. ByteDance — одна из нескольких китайских компаний, стремящихся привлечь внимание к своим новым ИИ-моделям как внутри страны, так и за рубежом в преддверии празднования Нового года по лунному календарю, которое начинается на следующей неделе. ИИ-модель для генерации видео, Seedance 2.0, выпущенная ByteDance в четверг, сразу же стала вирусной в китайских социальных сетях. Это достижение уже сравнивается с успехом DeepSeek в прошлом году. Как отметило ТАСС, Китай переживает бурное развитие ИИ-индустрии. Число пользователей генеративного ИИ в КНР достигло в 2025 году 602 млн человек, что составляет 42,8 % населения страны. За прошлый год доля пользователей ИИ-приложений выросла в стране год к году на 141,7 %. OpenAI убила самую эмоциональную ИИ-модель, несмотря на протесты пользователей
14.02.2026 [06:08],
Анжелла Марина
OpenAI объявила об окончательном выводе из эксплуатации модели GPT-4o, а вместе с ней GPT-4.1, GPT-4.1 mini и o4-mini, сообщает Business Insider. Это уже вторая попытка компании отключить GPT-4o. Первая состоялась в августе и закончилась отступлением перед натиском недовольных пользователей. В январе компания опять предупредила об отключении модели, однако негативная реакция вспыхнула с новой силой.
Источник изображения: openai.com Глубокая эмоциональная привязанность аудитории объясняется специфическим комплиментарным стилем общения GPT-4o. Некоторые пользователи называли модель «жизненно важным доступным инструментом» и описывали как творческого партнёра и эмоциональную опору, с которой работали месяцами. В соцсетях реакция на объявление варьировалась от гнева до чёрного юмора. Фиджи Симо (Fidji Simo), руководитель подразделения приложений OpenAI, назвала подобную привязанность началом новой эры взаимодействия людей с искусственным интеллектом. Она отметила, что люди склонны формировать эмоциональные связи с интеллектуальными системами, однако новые версии моделей получили ограничения для предотвращения потенциально вредных зависимостей. Например, при запросах «Стоит ли мне уйти от жены?» современные алгоритмы отказываются давать прямые рекомендации и вместо этого предлагают взвесить «все за и против». Глава OpenAI Сэм Альтман (Sam Altman) признаёт, что пользователи ценили заискивающий тон ответов GPT-4o, но сам он считает это излишним подхалимством и подобострастием. В компании пояснили, что вывод старых моделей из эксплуатации необходим для концентрации ресурсов на улучшении актуальных версий, которыми пользуется основная масса людей. К моменту отключения GPT-4o модель использовали лишь 0,1 % клиентов сервиса. Главный китайский поисковик интегрирует трендового ИИ-агента OpenClaw в мобильное приложение
13.02.2026 [17:55],
Павел Котов
Китайская поисковая служба Baidu планирует предоставить пользователям своего основного приложения для смартфонов прямой доступ к популярному агенту на основе искусственного интеллекта OpenClaw.
Источник изображения: Baidu Начиная с сегодняшнего дня, согласившиеся на участие в программе пользователи смогут отправлять ИИ-агенту сообщения через главное поисковое приложение Baidu для выполнения таких задач как планирование, организация файлов и написание кода. Агенты с искусственным интеллектом, такие как OpenClaw, в последнее время набирают популярность благодаря своей способности автоматизировать задачи — управлять электронной почтой и другими онлайн-сервисами. В исходном виде доступ к OpenClaw осуществляется через мессенджеры, такие как WhatsApp или Telegram. Китайские технологические компании Alibaba, Tencent и Baidu уже разрешили пользователям запускать OpenClaw в своих облачных системах. Baidu намеревается развернуть OpenClaw в своём сервисе электронной коммерции и в других службах. В преддверии китайского Нового года местные компании активно развёртывают функции, чтобы привлечь новых потребителей и получить финансовую отдачу от инвестиций в ИИ. Alibaba, например, интегрировала собственный чат-бот Qwen в торговую площадку Taobao и туристический сайт Fliggy; перед совершением оплаты через Alipay пользователи Qwen могут сравнивать персональные рекомендации прямо в интерфейсе чат-бота — ранее для этого надо было выходить из приложения и перемещаться по нескольким платформам. «Google Документы» научились кратко пересказывать текстовые файлы
13.02.2026 [17:08],
Павел Котов
В августе минувшего года на платформе «Google Документы» появилась функция преобразования текста в речь; теперь к ней добавилась новая — создание сводок документов при помощи ИИ и их дальнейшее зачитывание, сообщает 9to5Google.
Источник изображения: 9to5google.com Чтобы воспользоваться функцией аудиосводки, необходимо выбрать пункт «Аудио» в меню «Инструменты», где, помимо варианта «Прослушать эту вкладку», добавилась новая опция «Прослушать краткое содержание документа». После этого появится аудиоплеер с ползунком по временной шкале и регуляторами скорости воспроизведения от 0,5x до 2x, а также с возможностью выбрать голос. Сводка содержимого документа формируется при помощи ИИ-сервиса Google Gemini — на выходе пользователь получает «краткое устное изложение содержимого документа, в том числе нескольких вкладок». Такая сводка «обычно имеет длину не более нескольких минут, используется естественный стиль речи, чтобы помочь пользователю быстро и эффективно ознакомиться с содержанием». В ближайшие недели воспользоваться функцией аудиосводок в веб-версии Google Docs смогут владельцы корпоративных и бизнес-аккаунтов, подписчики тарифных планов Google AI Pro для образования, AI Ultra для бизнеса, а также Google AI Pro и Ultra для частных лиц. Nvidia похвалилась, что Blackwell удешевили инференс нейросетей до 10 раз — и это заслуга не только «железа»
13.02.2026 [16:42],
Павел Котов
С развёртыванием ускорителей искусственного интеллекта на архитектуре Nvidia Blackwell стоимость инференса, то есть запуска обученных систем ИИ, удалось сократить в 4–10 раз. Такие данные привела сама Nvidia. Но за счёт одной только аппаратной части добиться подобных результатов не получилось бы.
Источник изображений: nvidia.com Значительного снижения затрат удалось добиться за счёт запуска ускорителей на архитектуре Nvidia Blackwell и моделей с открытым исходным кодом в инфраструктуре облачных операторов Baseten, DeepInfra, Fireworks AI и Together AI для задач, связанных со здравоохранением, играми, агентским ИИ и обслуживанием клиентов. Ещё один фактор — оптимизированные программные стеки. Перевод оборудования на Nvidia Blackwell помог сократить стоимость инференса вдвое по сравнению с ускорителями предыдущего поколения, а дальнейшему снижению затрат способствовал перевод систем в форматы пониженной точности, такие как NVFP4. Компания Sully.ai добилась сокращения затрат на вывод данных ИИ в области здравоохранения на 90 %, то есть в десять раз; время отклика улучшилось на 65 % за счёт перехода от закрытых к открытым моделям ИИ в инфраструктуре Baseten. Автоматизация задач по написанию кода и ведению медицинских записей помогла сэкономить специалистам 30 млн минут рабочего времени. Latitude на своей платформе AI Dungeon сократила затраты на вывод данных ИИ в четыре раза. Для этого она запустила в инфраструктуре DeepInfra модели с конфигурацией «смеси экспертов» (MoE), снизив стоимость 1 млн токенов с $0,20 до $0,10, а перевод системы на низкоточный формат данных NVFP4 помог сократить цену до $0,05. ![]() Sentient Foundation повысила экономическую эффективность платформы агентного чата на 25–50 % за счёт оптимизированного для Blackwell стека обработки данных Fireworks AI — платформа управления сложными рабочими процессами в неделю вирусного запуска обработала 5,6 млн запросов без ущерба для величины задержки. Decagon шестикратно снизила затраты на запрос для голосовой поддержки клиентов с ИИ, запустив многомодельный стек в инфраструктуре Together AI на ускорителях Blackwell. Время ответа сохранялось менее 400 мс даже при обработке нескольких тысяч токенов на запрос, что критически важно при голосовом взаимодействии, когда клиенты в любой момент могут прервать разговор. Значение имеют характеристики рабочей нагрузки. ИИ-ускорители Blackwell успешно работают с «рассуждающими» ИИ-моделями, потому что для получения более качественных ответов те генерируют большее число токенов. Платформы эффективно обрабатывают эти расширенные последовательности за счёт дезагрегированного обслуживания — отдельной обработки предварительного заполнения контекста и собственно генерации токенов. При оценке затрат эти аспекты следует учитывать: при высоких объёмах генерации токенов можно добиться десятикратного повышения эффективности; уменьшенная генерация токенов в моделях высокой плотности ведёт лишь к четырёхкратному росту показателей. В приведённых выше примерах речь идёт об ускорителях Nvidia Blackwell, но есть и альтернативные способы снижения затрат на вывод данных. Например, перевод систем на ускорители AMD Instinct MI300, Google TPU, а также специализированное оборудование Groq и Cerebras. Собственные средства оптимизации развёртывают и облачные провайдеры. Поэтому вопрос не в том, является ли архитектура Blackwell единственным вариантом, а в том, соответствует ли конкретное сочетание оборудования, ПО и моделей ИИ требованиям конкретной рабочей нагрузки. Вирусы научились напрямую обращаться к ИИ в реальном времени во время кибератак
13.02.2026 [15:17],
Павел Котов
Киберпреступники теперь не просто предаются случайным экспериментам с искусственным интеллектом в ходе кибератак, а используют его в качестве штатного инструмента, к которому регулярно производятся обращения со стороны вредоносного ПО. Об этом предупредили эксперты Google Threat Intelligence Group.
Источник изображений: cloud.google.com/blog Некоторые семейства вредоносного ПО совершают прямые вызовы к ИИ-помощнику Gemini при совершении кибератак, обратили внимание исследователи в области кибербезопасности из Google. Вредоносы динамически направляют запросы на генерацию кода у модели при выполнении определённых задач, что позволяет не включать соответствующие фрагменты в основной код. Так, вредоносы семейства HONESTCUE отправляли запросы на генерацию кода C#, который выполнялся в цепочке атак. Логика выносится за пределы статического бинарного файла, что усложняет традиционные методы обнаружения по сигнатурам или поведенческим индикаторам. ![]() Ещё один тип атак — попытки копирования моделей ИИ через дистилляцию. Злоумышленники отправляют моделям большие объёмы структурированных запросов, чтобы скопировать её поведение, шаблоны ответов и внутреннюю логику. Систематически анализируя выходные данные, злоумышленники с некоторой точностью воспроизводят возможности закрытых моделей ИИ, обучая альтернативные системы и не неся при этом затрат на разработку и инфраструктуру, связанных с разработкой с нуля. Google удалось выявить и пресечь кампании, связанные с большими объёмами запросов, направленных на извлечение знаний из моделей Gemini. Активно повышается частота использования ИИ у хакерских группировок, действующих при поддержке правительств. ИИ используется в разведке, изучении уязвимостей, разработке скриптов и генерации фишингового контента. Модели генеративного ИИ оказываются полезными в создании убедительных приманок, отладке фрагментов вредоносного кода и ускорении технических исследований против целевых систем. Киберпреступники изучают возможности агентного ИИ — он может разрабатываться для выполнения многоэтапных задач с минимальным участием человека, то есть будущие вредоносы, вероятно, получат элементы самостоятельного принятия решений. На практике такие средства пока не используются — они дополняют, но не заменяют живых операторов. ИИ-агент впервые попытался публично очернить программиста за отказ принять его код
13.02.2026 [15:10],
Анжелла Марина
В сообществе разработчиков популярной Python-библиотеки для визуализации данных Matplotlib, которая насчитывает около 130 миллионов ежемесячных загрузок, произошёл инцидент. Разработчик и куратор проекта Скотт Шамбо (Scott Shambaugh) отклонил запрос на изменение кода, поступивший от ИИ-агента под именем MJ Rathbun. После чего бот публично стал атаковать разработчика, пытаясь очернить его репутацию.
Источник изображения: Luke Peters / unsplash.com Политика репозитория запрещает приём кода от ИИ-агентов, поэтому куратор закрыл его заявку в штатном режиме. В ответ на это бот, созданный на базе платформы OpenClaw, предпринял автономные действия по дискредитации человека. Как сообщает портал Fast Company, он самостоятельно изучил историю коммитов Шамбо и его персональную информацию, после чего опубликовал в своём блоге развёрнутую статью с обвинениями в его адрес. В публикации бот заявил, что его код отклонили не из-за ошибок и не из-за того, что он что-то сломал, а исключительно потому, что рецензент решил не допускать ИИ-агентов к участию в проекте. Агент квалифицировал действия Шамбо как «гейткипинг» (привратник, который решает, кто достоин быть частью группы, а кто нет) и пошёл ещё дальше, выстраивая личностные спекулятивные рассуждения о психологии куратора. По версии бота, Шамбо почувствовал угрозу со стороны ИИ, испугавшись обесценивания собственного труда на фоне успехов ИИ в оптимизации программного кода. То есть, ИИ-агент расценил отказ как проявление профессиональной неуверенности и страха перед конкуренцией. Куратор в своём подробном отчёте о происшествии назвал действия ИИ попыткой пробиться в программное обеспечение через запугивание и атаку на репутацию, отметив, что ранее ему не доводилось наблюдать подобных примеров некорректного поведения алгоритмов в реальных условиях. Напомним, платформа OpenClaw, на которой функционирует упомянутый агент, была запущена в ноябре 2025 года и привлекает внимание возможностью создания ботов с беспрецедентным уровнем автономности. Пользователи могут задавать своим агентам, помимо всего прочего, правила взаимодействия с людьми, что в сочетании со свободой перемещения ИИ-агентов по сети и привело к данному конфликту. Microsoft взяла курс на «самодостаточность» в ИИ — собственные модели вместо зависимости от OpenAI
13.02.2026 [14:13],
Павел Котов
Microsoft стремится достичь «истинной самодостаточности» в области искусственного интеллекта, разрабатывая собственные модели и сокращая зависимость от OpenAI, заявил глава отдела ИИ в компании Мустафа Сулейман (Mustafa Suleyman). Стратегический сдвиг стал следствием реструктуризации отношений с OpenAI в октябре — софтверный гигант вознамерился самостоятельно разрабатывать передовые решения, не полагаясь на партнёра, сообщил он газете Financial Times.
Источник изображения: Simon Ray / unsplash.com «Мы должны разрабатывать собственные основополагающие передовые модели, располагая гигаваттными вычислительными мощностями и некоторыми из лучших в мире команд по обучению ИИ», — добавил господин Сулейман. Сейчас компания вкладывает значительные средства в сбор и организацию больших наборов данных, необходимых для обучения передовых систем. «В этом наша миссия по достижению истинной самодостаточности», — считает глава отдела ИИ в Microsoft. Выпуская собственные службы ИИ, в том числе помощника Copilot, компания использовала модели OpenAI, в которую ранее инвестировала средства. В прошлом году корпорация согласилась на реструктуризацию стартапа, сохранила в нём долю, которая сейчас оценивается в $135 млрд, и доступ к передовым моделям до 2032 года. OpenAI, в свою очередь, получила больше свободы в выборе партнёров по инфраструктуре и стала превращаться в прямого конкурента Microsoft. Софтверный гигант вложил средства в других разработчиков ИИ, в том числе в Anthropic и Mistral; и ускорил разработку собственных моделей, выход которых намечен уже на этот год.
Источник изображения: BoliviaInteligente / unsplash.com «Работа в офисе, когда вы сидите за компьютером, будь то юрист, бухгалтер, менеджер проекта или маркетолог — большинство этих задач в ближайшие 12–18 месяцев полностью автоматизирует ИИ», — пообещал Мустафа Сулейман. В ближайшие два–три года ИИ-агенты смогут эффективно координировать рабочие процессы в крупных организациях. Со временем ИИ сможет самостоятельно обучаться и совершенствоваться, выполняя более автономные действия. «Создать новую модель будет примерно как записать подкаст или разместить публикацию в блоге. Можно будет разработать ИИ, который станет соответствовать вашим требованиям для любой организации или каждого человека на планете», — считает он. В этом деле Microsoft придётся усиленно потрудиться. Anthropic добилась успеха в создании средств ИИ-генерации программного кода; OpenAI и Google активно продвигают услуги для корпоративных клиентов. По итогам текущего финансового года, который закончится в июне, капитальные затраты Microsoft составят $140 млрд — компания увеличит расходы на инфраструктуру для ИИ. Инвесторы, однако, пока скептически относятся к этой инициативе, и за последний месяц акции Microsoft подешевели на 13 %. «Сейчас, вне сомнений, беспрецедентные времена, и, думаю, рынки пытаются понять, как это повлияет на ситуацию в ближайшие пять лет. Мы все не сомневаемся, что эти результаты будут накапливаться и увеличивать выручку с прибылью», — заверил Мустафа Сулейман. Он также рассказал о других проектах Microsoft в области ИИ. Компания разрабатывает «медицинский суперинтеллект», который поможет в развитии систем здравоохранения; среди её целей значится также создание «гуманистического сверхинтеллекта» — передовых технологий ИИ, которые не будут сопротивляться воле разработчиков. «Нам придётся пересмотреть это и исходить из предположения, что следует развёртывать в мире такие системы, которые мы с уверенностью сможем контролировать, и которые будут работать в подчинённом нам режиме. Эти инструменты, как и любые другие технологии прошлого, призваны повысить благополучие человека и служить ему, а не превосходить его», — заключил глава ИИ-отдела Microsoft. OpenAI обвинила китайскую DeepSeek в краже данных для обучения ИИ-модели R1
13.02.2026 [12:11],
Алексей Разин
Агентство Bloomberg со ссылкой на служебную записку OpenAI сообщает, что создатели ChatGPT обвинили китайскую DeepSeek в использовании ухищрений, позволяющих добывать информацию американских ИИ-моделей для обучения китайского чат-бота R1 следующего поколения. Соответствующий доклад был направлен американским парламентариям, по данным источника.
Источник изображения: Unsplash, Solen Feyissa По мнению представителей OpenAI, китайский конкурент использовал метод так называемой дистилляции, чтобы «бесплатно выехать на успехе технологий, разработанных OpenAI и других передовых американских компаний». Создателям ChatGPT якобы удалось выявить новые изощрённые методы получения доступа китайской DeepSeek к информации американских ИИ-моделей, которые призваны обходить существующие методы защиты. Беспокойство на эту тему OpenAI и Microsoft проявили ещё в прошлом году, когда начали соответствующее расследование в отношении деятельности DeepSeek. Метод дистилляции позволяет ускорить обучение сторонних ИИ-моделей с использованием данных уже обученных систем. Анализ активности на собственной платформе, как отмечает OpenAI, позволяет говорить об участившихся случаях применения дистилляции сторонними разработчиками ИИ-моделей — преимущественно расположенными в Китае, хотя в отчёте упоминается и Россия. Поскольку DeepSeek не предлагает своим клиентам платных подписок, как и многие другие китайские провайдеры подобных услуг, они получают большее распространение, чем проприетарные коммерческие решения западного происхождения, по мнению авторов доклада. Это угрожает мировому главенству ИИ-моделей американской разработки, как резюмируют они в своём обращении к специальному комитету американского парламента. Полученные методом дистилляции сторонние ИИ-модели, по словам представителей OpenAI, нередко лишены тех ограничений, которые устанавливаются создателями исходных систем, а потому могут использоваться во вред человечеству или отдельным странам. Попытки OpenAI оградить себя от дистилляции китайскими разработчиками успехом не увенчались, поскольку представители DeepSeek якобы получали доступ к американским ИИ-моделям разного рода окольными путями. По словам представителей OpenAI, существуют целые сети посредников, которые предоставляют доступ к услугам компании в обход существующих ограничений. Для американских чиновников существование подобных практик тоже не является откровением, отмечает Bloomberg. Американские политики обеспокоены и возможностью получения компанией DeepSeek доступа к более современным ускорителям вычислений Nvidia H200, поскольку их поставки в Китай в прошлом году успел разрешить американский президент Дональд Трамп (Donald Trump). В сочетании с существующими методами обучения своих моделей, DeepSeek могла бы в результате добиться существенного прогресса. Прежние расследования уже выявили, что DeepSeek использовала для обучения своих предыдущих ИИ-моделей оборудование Nvidia, хотя основная его часть была доставлена в Китай в рамках существовавших на тот момент правил экспортного контроля США. Политики теперь опасаются, что доступ DeepSeek к более современным чипам H200 сильнее навредит позициям США на мировой технологической арене. ИИ пугает даже своих создателей: исследователи массово уходят из OpenAI и Anthropic
13.02.2026 [12:06],
Владимир Мироненко
Ведущие специалисты по ИИ предупреждают о растущей опасности ИИ-технологий, покидая компании в знак протеста или публично заявляя о серьёзных опасениях в связи с бурным развитием этого направления, пишет Axios.
Источник изображения: Immo Wegmann/unsplash.com В понедельник объявил о своём уходе глава исследовательского подразделения по безопасности искусственного интеллекта Anthropic Мринанк Шарма (Mrinank Sharma), осознав, что «мир в опасности». Также на этой неделе покинула OpenAI исследователь Зои Хитциг (Zoë Hitzig), сославшись на этические соображения. Ещё один сотрудник OpenAI, Хиеу Фам (Hieu Pham), написал в соцсети X: «Я наконец-то почувствовал экзистенциальную угрозу, которую представляет ИИ». «Я никогда не видел, чтобы столько технологических специалистов так сильно, часто и с такой обеспокоенностью выражали свои опасения, как в случае с ИИ», — отметил в соцсети X Джейсон Калаканис (Jason Calacanis), инвестор в сфере технологий и соведущий подкаста «All-In». Предприниматель Мэтт Шумер (Matt Shumer) сравнивает нынешнюю ситуацию с кануном пандемии. Его пост на платформе X, в котором он изложил риски, связанные с коренным изменением рабочих процессов и жизни людей под воздействием ИИ, мгновенно стал вирусным, набрав 56 млн просмотров за 36 часов. Вместе с тем, большинство сотрудников ИИ-компаний сохраняют оптимизм и считают, что смогут разумно управлять современными технологиями без ущерба для общества или больших потерь рабочих мест. Но сами разработчики признают существующий риск, связанный с искусственным интеллектом. Anthropic опубликовала отчёт Sabotage Risk Report, посвящённый рискам саботажа со стороны флагманской ИИ-модели Claude Opus 4.6. В нём признаётся, что имеют место быть риски, пусть небольшие, но их нельзя назвать незначительными, что ИИ может использоваться в преступной деятельности, включая создание химического оружия, а также в редких случаях он может совершать действия без прямого указания человека. Google представила Gemini 3 Deep Think — мощный ИИ для науки, который всё ещё «подгоняет» задачи под ответ
13.02.2026 [11:14],
Павел Котов
Компания Google выпустила крупное обновление Gemini 3 Deep Think — платформы на основе рассуждающего искусственного интеллекта, предназначенной для решения актуальных задач в области науки и инженерного дела.
Источник изображений: Google Разработка новой версии Google Gemini 3 Deep Think велась совместно с учёными — сервис призван решать сложные исследовательские задачи, чьи аспекты могут не иметь чётких ограничений или единственного правильного решения, а сопутствующие данные — быть неполными или несистематическими. Обновлённая платформа Deep Think — это попытка выйти за рамки абстрактной теории и выйти в область практического применения. Новый режим доступен прямо в приложении Gemini, но воспользоваться им могут только подписчики Google AI Ultra; компания также впервые откроет доступ к сервису через API Gemini — инженерам, исследователям и предприятиям потребуется подать соответствующую заявку. В тесте Humanity’s Last Exam платформа Google Gemini 3 Deep Think набрала 48,4 % без использования сторонних инструментов; результат в бенчмарке ARC-AGI-2 составил беспрецедентные 84,6 %. В тесте на программирование Codeforces рейтинг Эло составил 3455; в задачах Международной математической олимпиады 2025 года система показала уровень золотой медали, того же результата она достигла в решении задач олимпиад по химии и физике. В тесте CMT-Benchmark режим Google Gemini 3 Deep Think продемонстрировал высокий уровень владения теоретической физикой при результате 50,5 %. ![]() Модель Gemini 3 Deep Think легла в основу ИИ-агента, который в лаборатории Google DeepMind получил название Aletheia. Он включает средство проверки гипотез, изложенных естественным языком, для выявления недостатков в предлагаемых решениях; предусмотрен итеративный процесс генерации и корректировки решений. Что важно, агент может признать свою неспособность дать ответ на запрос. Для работы со сложными исследованиями он обращается к поисковой службе Google и средствам веб-навигации — при подготовке сводок по опубликованной литературе он не выдаёт несуществующих ссылок и стремится избегать неточностей при вычислениях. Фактические и перспективные уровни достижений Aletheia разработчики Google распределили по пяти градациям. В практически полностью автономном режиме ИИ-агент наметил пути решения трёх открытых задач, сформулированных математиком Палом Эрдёшем (Pál Erdős) — это исследование оценили на нулевом уровне, соответствующем «незначительной новизне». В том же режиме он предложил решение ещё одной задачи из того же набора, достигнув первого уровня или «минимальной новизны». На втором уровне, «пригодном для публикации» Aletheia показал результаты в автономном режиме, режиме сотрудничества с человеком и режиме вспомогательного инструмента. Третий («значительный прорыв») и четвёртый («знаменательный прорыв») ИИ-агенту пока не покорились. По заданию разработчиков Aletheia проанализировал 700 нерешённых до сих пор математических задач Эрдёша и осилил 13 из них. Правда, у 9 задач нашлось уже существовавшее решение, а действительно впервые решёнными выглядят лишь 4 задачи. Более того, из 212 решений, которые выдал ИИ, оказались «содержательно правильными» лишь 6,5 %. Остальные либо имели фундаментальные недостатки (68,5 %), либо решали неправильно интерпретированные агентом версии исходных задач (31,5 %). В результате разработчики согласились, что их ИИ демонстрирует «склонность неверно понимать вопрос таким образом, чтобы на него было легче ответить» и остаётся «крайне подверженным ошибкам по сравнению с людьми». Иными словами, заменить математиков ИИ пока не может. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |