Сегодня 18 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → иена
Быстрый переход

Меньше галлюцинаций и миллионный контекст: Anthropic представила Sonnet 4.6 и она уже доступна бесплатно в Claude

Anthropic обновила свою большую языковую модель Sonnet среднего уровня. В анонсе Sonnet 4.6 разработчики Anthropic подчеркнули улучшения в генерации программного кода, рассуждениях с длинным контекстом, выполнении инструкций и работе с компьютером. Новинка станет стандартной моделью для чат-бота Claude как для бесплатных пользователей, так и в платной подписке Pro.

 Источник изображений: Anthropic

Источник изображений: Anthropic

Sonnet 4.6 предлагает контекстное окно размером 1 миллион токенов, что вдвое больше, чем было у предыдущей версии Sonnet. Anthropic описала новое контекстное окно как «достаточное для хранения целых кодовых баз, длинных контрактов или десятков исследовательских работ в одном запросе». В компании подчёркивают, что модель не только удерживает большой объём информации, но и эффективно работает с ним при построении логических цепочек.

По данным Anthropic, разработчики, тестировавшие Sonnet 4.6 в раннем доступе, в 70 % случаев предпочли её версии 4.5. Пользователи отмечали более аккуратную работу с контекстом кода, меньшее количество дублирования логики и более последовательное выполнение инструкций. Разработчики также сообщают о снижении числа «галлюцинаций» и ложных заявлений об успешном выполнении задачи.

Отдельное внимание уделено работе с компьютером без специализированных API. Модель взаимодействует с программами так же, как человек — через виртуальные клики мышью и ввод с клавиатуры. В бенчмарке OSWorld, который имитирует задачи в Chrome, LibreOffice и VS Code, свежая Sonnet 4.6 демонстрирует заметный прогресс по сравнению с предыдущими версиями. По словам представителей компании, в ряде сценариев — например, при работе со сложными таблицами или многошаговыми веб-формами — модель приближается к уровню человека. При этом Anthropic признаёт, что ИИ по-прежнему уступает наиболее опытным пользователям и что реальная работа с ПО сложнее лабораторных тестов.

Anthropic отмечает, что Sonnet 4.6 предоставляет значительно улучшенные навыки программирования по сравнению с предыдущей версией. В соответствующих бенчмарках новинка оказалась лучше Gemini 3 Pro, а также почти сравнялась с Opus 4.5. По словам бета-тестеров модели, особенно заметны улучшения в задачах фронтенд-разработки и финансового анализа. Также отмечается, что Sonnet 4.6 в ряде задач смогла обеспечить уровень производительности, для достижения которого прежде требовалось использовать модели класса Opus, в том числе в реальных офисных задачах.

Anthropic также раскрыла показатели на тесте ARC-AGI-2 — одном из наиболее сложных бенчмарков, оценивающих способность модели к абстрактному рассуждению и обобщению (навыков, характерных для человеческого интеллекта). Sonnet 4.6 достигла 60,4 % при высоком уровне «усилия мышления». Этот результат ставит Sonnet 4.6 выше большинства сопоставимых моделей, хотя он отстаёт от таких решений, как Opus 4.6, Gemini 3 Deep Think и одной из усовершенствованных версий GPT 5.2.

В конце отметим, что релиз Sonnet 4.6 состоялся всего через две недели после запуска Opus 4.6, а значит, обновлённая модель Haiku, вероятно, появится в ближайшие недели. Модель уже доступна в боте Claude и приложении, а также через API для сторонних сервисов. Стоимость в последнем случае остаётся на уровне Sonnet 4.5 — от $3 за миллион входных токенов и $15 за миллион выходных.

В ChatGPT появился «Режим блокировки» и маркировка повышенного риска для защиты важных данных

Компания OpenAI представила новые функции безопасности, направленные на то, чтобы не давать злоумышленникам возможности злоупотреблять продуктами на основе искусственного интеллекта. Это «Режим блокировки» (Lockdown Mode) как дополнительная настройка ChatGPT и пометки «Повышенный риск» (Elevated Risk) в ChatGPT, ChatGPT Atlas и Codex.

 Источник изображения: openai.com

Источник изображения: openai.com

Новые функции основаны на существующих средствах защиты, реализованных на уровне модели, продукта и системы, включая песочницу, защиту от утечки данных через URL-адреса, инструменты мониторинга и применения мер, а также корпоративные средства контроля, такие как разграничение прав и журналы аудита. «Режим блокировки» в ChatGPT позволяет отключать отдельные инструменты и функции чат-бота, которые гипотетический злоумышленник может попытаться использовать, чтобы организовать утечку конфиденциальных данных из переписки с пользователем или подключённых приложений, например, методом внедрения дополнительных запросов. Так, при просмотре веб-страниц в режиме блокировки включается ограничение в рамках кешированного контента — в результате сетевые запросы в реальном времени остаются в пределах контролируемой сети OpenAI.

Режим блокировки доступен для пользователей с учётными записями для бизнеса, учреждений здравоохранения и образования. Он накладывает для рядовых пользователей дополнительные ограничения, помимо выбранных администратором настроек. Доступны и дополнительные настройки — можно выбирать, какие конкретно приложения и какие действия внутри этих приложений будут работать в режиме блокировки. Компания также предлагает набор инструментов Compliance API Logs Platform, позволяющий фиксировать данные об использовании приложений, общих данных и подключённых внешних источниках.

В OpenAI также обратили внимание, что сервисы искусственного интеллекта могут создавать дополнительные угрозы для пользователей. Чтобы сделать это более понятным и последовательным, компания решила ввести стандартную маркировку существующих возможностей. Соответствующие функции ChatGPT, ChatGPT Atlas и Codex теперь будут иметь единую метку «Повышенный риск». Так, при работе с помощником по программированию Codex эту пометку получит функция доступа к внешним ресурсам, первоначально предназначенная, например, для поиска документации. Пометка будет сопровождаться пояснениями того, какие изменения и угрозы могут возникнуть, и в каких случаях предоставлять такой доступ уместно.

В Европе запустили очередное расследование из-за непристойных генераций ИИ-бота Grok в соцсети X

Европейский регулятор, отвечающий за вопросы защиты персональных данных, объявил о начале «масштабного» расследования в отношении чат-бота с искусственным интеллектом Grok в соцсети X. Об этом сообщает Financial Times.

 Источник изображения: Dima Solomin / unsplash.com

Источник изображения: Dima Solomin / unsplash.com

Ответственной за выполнение требований европейского «Общего регламента по защите данных» (GDPR) выступает ирландская Комиссия по защите данных — она и начала расследование инцидентов, связанных с генерацией и публикацией чат-ботом Grok изображений интимного характера с участием реальных людей. В начале января стало известно, что Grok по запросам пользователей «раздевал» людей на предложенных фотографиях — это вызвало резко негативную реакцию со стороны общественности, экспертов по кибербезопасности и политиков.

«Комиссия по защите данных взаимодействует с [X] с того момента, как несколько недель назад в СМИ появились сообщения о предполагаемой возможности для пользователей X направлять в аккаунт @Grok запросы на создание интимных изображений реальных людей, в том числе детей», — заявил заместитель комиссара Грэм Дойл (Graham Doyle). Ведомство инициировало «масштабное расследование, в ходе которого будет дана оценка соблюдению [X] некоторых основных обязательств в отношении рассматриваемых вопросов», добавил чиновник.

Владелец соцсети X Илон Маск (Elon Musk) занял нейтральную позицию в отношении механизмов модерации чат-бота Grok, объяснив это соображениями свободы слова. В начале февраля, однако, французские правоохранительные органы нагрянули с обыском в парижский офис соцсети X. Самого бизнесмена и бывшую главу платформы Линду Яккарино (Linda Yaccarino) в «добровольном» порядке пригласили дать показания в апреле. На минувшей неделе о начале расследования в отношении X и xAI объявило британское Управление комиссара во вопросам информации — ведомство выразило «серьёзные опасения» по поводу использования Grok персональных данных пользователей, а также по поводу генерации им изображений деликатного характера. Официальное расследование начали и в ЕС — оно проводится в соответствии с действующим в регионе «Законом о цифровых сервисах» (DSA).

Ирландская Комиссия по защите данных ограничится проверкой на соблюдение требований GDPR — документ обязывает компании обеспечивать обработку персональных данных только для конкретных законных целей, учитывать аспект конфиденциальности при разработке продуктов и проводить анализ рисков до запуска некоторых функций. Администрация X сообщила, что решила проблему и внедрила технические решения, исключающие для Grok возможность и далее генерировать изображения интимного характера.

Мошенники пробрались в ИИ-поиск Google — пользователям подсовывают фальшивые телефоны банков

С развитием технологий искусственного интеллекта основной сервис Google меняет механизмы работы, продвигаясь от классической поисковой выдачи со ссылками на сайты к обзорам материалов, подготовленным ИИ. В этих обзорах не всегда даётся достоверная информация — теперь же выяснилось, что сюда пробрались даже мошенники.

 Источник изображения: Shutter Speed / unsplash.com

Источник изображения: Shutter Speed / unsplash.com

В обзорах ИИ из поиска Google обнаружены случаи появления мошеннических номеров телефонов, принадлежащих якобы службам поддержки крупных компаний, передаёт Wired со ссылкой на журналистские расследования других изданий и сообщения в соцсетях; соответствующие предупреждения стали публиковать банки и иные кредитные организации.

Схема работает следующим образом. Потенциальная жертва пытается найти в Google номер телефона интересующей её компании и, не проверив информацию из выдачи, сразу звонит по предложенному в обзоре ИИ номеру. В действительности человек попадает не на сотрудника искомой компании, а на злоумышленника, который пытается выведать у позвонившего платёжную информацию или другие конфиденциальные данные.

Достоверно установить, как эти поддельные номера оказываются в обзорах от ИИ, не удалось. По одной из версий, они появляются на малоизвестных сайтах рядом с названиями крупных компаний, а бот Google собирает эти данные, не проводя надлежащих проверок для подтверждения информации.

 Источник изображения: BoliviaInteligente / unsplash.com

Источник изображения: BoliviaInteligente / unsplash.com

Комбинация с размещением поддельных телефонных номеров существует давно, но сервис обзоров от ИИ усиливает её эффект, представляя эти сведения как факт, и люди оказываются более восприимчивыми к мошенничеству. «Наша защита от спама очень эффективна в предотвращении проникновения мошеннических схем в „Обзоры от ИИ“ и, по возможности, [в поиске] отображаются официальные номера служб поддержки клиентов», — заверили в Google. Но одним только поисковым сервисом проблема не ограничивается — злоумышленники могут скрытно внедрить вредоносный запрос в текст электронной почты, чтобы обрабатывающая его модель ИИ приняла это содержимое за точную и достоверную информацию.

Чтобы защититься от подобных схем, следует придерживаться традиционных мер предосторожности. Не следует верить всему, что написано в обзоре от ИИ; лучше помнить, что ИИ-сервисы подвержены влиянию устаревшей и сомнительной информации из интернета наравне с точным данными, и они с трудом отличают одно от другого. Контакты следует искать только на официальном сайте интересующей компании — лучше сделать один или два лишних клика, чтобы убедиться в достоверности данных. Следует проявлять осторожность везде, где производится обмен информацией; в идеале проверять каждый номер телефона через тот же поиск Google — это советует и сам поисковый гигант.

Отключить обзоры от ИИ невозможно. Их приходится проматывать, или можно вообще отказаться от услуг Google в пользу другой системы. Обзоры от ИИ формально облегчают задачу пользователя, но в некоторых случаях, возможно, следует обратиться к традиционным поисковым инструментам.

ИИ-пузырь дал трещину: у бигтехов испарились сотни миллиардов капитализации с начала года, но не у всех

В биржевом выражении бум искусственного интеллекта берёт своё начало с осени 2022 года, когда OpenAI запустила ChatGPT и породила массовый интерес к соответствующим технологиям. С тех пор капитализация основных выгодоприобретателей бума ИИ практически неуклонно росла, но с начала этого года наблюдается довольно выраженная коррекция по ценным бумагам многих эмитентов.

 Источник изображения: TSMC

Источник изображения: TSMC

Об этом накануне сообщило агентство Reuters, которое проанализировало динамику курса акций многих компаний технологического сектора за прошедшее с начала года время. Акции Microsoft, например, с начала года подешевели на 17 %, поскольку конкуренция в сегменте ИИ со стороны Google Gemini и Anthropic Claude заставила инвесторов усомниться в способности первой из корпораций предложить достойную альтернативу. Капитализация Microsoft сократилась с начала года на $613 млрд до $2,98 трлн.

Amazon в этом смысле с начала года подешевела на 13,85 %, сократив капитализацию на $343 млрд до $2,13 трлн. Компания недавно заявила, что рассчитывает увеличить капитальные затраты более чем на 50 % в этом году, и основная часть этих средств будет направлена на развитие инфраструктуры ИИ. При этом у инвесторов нет чёткого понимания, в какие сроки эти гигантские расходы начнут оборачиваться адекватной финансовой отдачей.

 Источник изображения: Reuters

Источник изображения: Reuters

Что характерно, обладающая максимальной среди участников рынка капитализацией Nvidia потеряла с начала года не так много, всего $89,67 млрд или 2 %, поэтому даже сейчас её капитализация достигает солидных $4,44 трлн. Apple просела на 6,4 % до $3,76 трлн, хотя она до сих пор не располагает собственной конкурентной ИИ-платформой, полагаясь на партнёрство с другими крупными участниками рынка. Alphabet сократила свою капитализацию на 2,3 % до $3,7 трлн, её платформа Gemini демонстрирует впечатляющие результаты, поддерживая уверенность инвесторов в конкурентоспособности Google.

При этом нашлись и те эмитенты, капитализация которых с начала текущего года даже выросла. К их числу относятся крупнейший контрактный производитель чипов TSMC, крупнейший производитель микросхем памяти Samsung Electronics и торговая сеть Walmart. Два первых эмитента в условиях продолжающегося бума способны увеличивать выручку и прибыль, поскольку поставляют полупроводниковые компоненты для инфраструктуры ИИ.

Alibaba представила открытую LLM Qwen 3.5 с поддержкой ИИ-агентов и 201 языка — местами она быстрее Gemini 3 Pro

Китайский технологический гигант Alibaba представил модель искусственного интеллекта Qwen 3.5. Она доступна в открытом варианте, который позволяет всем желающим загружать, запускать, изменять и развёртывать её на собственной инфраструктуре; а также в хостинговой версии, предназначенной для работы на собственных серверах Alibaba.

 Источник изображения: qwen.ai

Источник изображения: qwen.ai

Alibaba Qwen 3.5 предлагает улучшения в производительности, стоимости обслуживания, и располагает «нативными мультимодальными возможностями», то есть одинаково хорошо работает с текстом, изображениями и видео. В соответствии с одной из ведущих тенденций отрасли ИИ модель умеет писать компьютерный код и располагает совместимостью с открытыми ИИ-агентами, включая популярный OpenClaw. ИИ-агентами называют приложения, способные самостоятельно выполнять действия и многоэтапные задачи от имени пользователя при минимальном его участии.

Открытая Alibaba Qwen 3.5 имеет 397 млрд параметров — переменных, определяющих, как обучается и рассуждает модель. Это меньше, чем у предыдущего флагмана, но, как утверждает разработчик, новая модель показала значительное улучшение в различных тестах. В работе она сопоставима с ведущими моделями OpenAI, Anthropic и Google — в отдельных тестах китайский ИИ даже превосходит западных конкурентов. Доступная через облачную платформу Model Studio версия Qwen-3.5-Plus также выступает на уровне ведущих конкурирующих продуктов, утверждает Alibaba. Она поддерживает 201 язык и диалект — у предыдущего поколения их было 82.

В дни празднования китайского Нового года Alibaba выпустит ещё несколько открытых моделей ИИ, пообещал в соцсетях технический руководитель направления Qwen в Alibaba Cloud Линь Цзюньян (Lin Junyang).

Пентагон пригрозил «болезненно» наказать Anthropic за запрет применять Claude для слежки и автономного оружия

Министр обороны США Пит Хегсет (Pete Hegseth) оказался «близок» к разрыву деловых связей со специализирующейся на технологиях искусственного интеллекта компанией Anthropic, а также к присвоению ей статуса «угрозы цепочке поставок». Это значит, что любой, кто хочет вести бизнес с ведомством, должен будет разорвать отношения с Anthropic. Об этом сообщило Axios со ссылкой на высокопоставленного чиновника в Пентагоне.

 Источник изображений: anthropic.com

Источник изображений: anthropic.com

«Разорвать эти связи будет чрезвычайно болезненно, и мы позаботимся, чтобы они заплатили за то, что вынудили нас к этому», — заявил источник издания. Такие радикальные меры обычно применяются к компаниям из считающихся недружественными США стран. «Отношения Министерства обороны с Anthropic будут пересмотрены. Страна требует, чтобы наши партнёры были готовы помочь военнослужащим одержать победу в любой битве. В конечном счёте, речь идёт о наших войсках и безопасности американского народа», — заявил официальный представитель Пентагона Шон Парнелл (Sean Parnell).

Anthropic Claude сейчас является единственной моделью ИИ, которая используется в секретных военных системах, и она выступает мировым лидером во многих бизнес-приложениях. В ведомстве высоко оценивают возможности этой системы — она, в частности, использовалась во время недавней операции США в Венесуэле. В Anthropic хотят гарантий, что разработанные компанией системы ИИ не будут использоваться для массовой слежки за американцами, а также для разработки оружия, которое стреляет без участия человека. В Пентагоне считают такие условия чрезмерно ограничительными, и указывают, что существует множество «серых зон», из-за которых эти условия просто невыполнимы.

В переговорах с тремя другими крупными разработчиками ИИ — OpenAI, Google и xAI — ведомство настаивает на своём праве использовать их модели «для всех законных целей». Высокопоставленные чиновники в Пентагоне уже некоторое время недовольны Anthropic, и теперь они воспользовались возможностью вступить с компанией в конфликт, утверждает источник Axios. Сегодня Пентагон обладает правом собирать огромные массивы данных о людях — от сообщений в соцсетях до разрешений на скрытое ношение оружия, — но действующее законодательство не предусматривает использования ИИ в этих целях. ИИ способен значительно расширить эти полномочия и дать возможность преследовать гражданских лиц.

«Мы ведём продуктивные, добросовестные переговоры с Министерством обороны о том, как продолжать эту работу и надлежащим образом решать эти новые и сложные вопросы», — заявил представитель Anthropic. Он подтвердил, что компания привержена использованию ИИ в целях национальной безопасности и подчеркнул, что чат-бот Claude первым появился в секретных сетях. Кроме того, им пользуются восемь из десяти крупнейших американских компаний, добавили в Anthropic. Но для продолжения сотрудничества с Пентагоном их могут вынудить подтверждать отсутствие связей с Anthropic. Контракт с Министерством обороны оценивается в $200 млрд при общей выручке компании в $14 млрд за год. Разработанные конкурентами модели ИИ «немного отстают» в отношении специализированных государственных приложений, признали в ведомстве, поэтому резкий переход может оказаться непростым.

Жёсткая позиция Пентагона в отношении Anthropic задала тон переговорам ведомства с OpenAI, Google и xAI — они уже согласились снять ограничения для систем, которые работают в несекретных военных системах, но для секретной работы эти системы пока не применяются. В Министерстве обороны уверены, что эти три компании примут стандарт «использования во всех законных целях», сообщил один источник; окончательное решение ещё не принято, оговорился другой.

Создатель завирусившегося ИИ-агента OpenClaw присоединился к OpenAI

Питер Штайнбергер (Peter Steinberger), создатель набравшего вирусную популярность ИИ-агента OpenClaw, присоединяется к OpenAI. Об этом сообщил глава компании Сэм Альтман (Sam Altman). По его словам, у Штайнбергера много потрясающих идей, как заставить ИИ-агентов взаимодействовать друг с другом.

 Источник изображения: openclaw.ai

Источник изображения: openclaw.ai

Альтман отметил, что будущее будет чрезвычайно многоагентным, и эта способность агентов работать вместе станет основой будущих продуктов компании.

Сервис OpenClaw, ранее известный как Moltbot и Clawdbot, завоевал популярность благодаря способности автоматизировать рутинные задачи на компьютере пользователей. Вместе с тем платформа оказалась уязвима для взлома из-за небезопасных настроек по умолчанию, предполагающих совместимость с сетевыми интерфейсами. Кроме того, в начале этого месяца исследователи обнаружили более 400 вредоносных навыков OpenClaw, загруженных в ClawHub. Также команда OpenClaw разработала MoltBook, социальную сеть, предназначенную исключительно для общения ИИ-агентов, где те жаловались на людей, спорили о доказуемости сознания и обсуждали необходимость приватного места для обмена идеями.

На данный момент неизвестно, какая должность будет у Штейнбергера. Альтман лишь сообщил, что OpenClaw продолжит свою работу как проект с открытым исходным кодом в рамках фонда, поддерживаемого OpenAI. Для OpenAI, потерявшей за последнее время немало ведущих разработчиков, появление Штейнбергера в своей команде является большим достижением.

ByteDance пообещала отучить ИИ-генератор Seedance 2.0 копировать голливудских актеров и персонажей

Создание видеороликов с помощью ИИ-сервисов сталкивается с рядом юридических претензий, поскольку киностудии, правообладатели и знаменитости не желают допускать копирования их интеллектуальной собственности и образов без разрешения. Китайская ByteDance после запуска профильного сервиса Seedance 2.0 вынуждена была пообещать правообладателям ввести защитные механизмы, которые учитывали бы их интересы.

 Источник изображения: ByteDance

Как и многие подобные сервисы, Seedance 2.0 позволяет создавать реалистичные видео на основе текстовых запросов. Социальные сети после запуска Seedance 2.0 сразу же наводнились видеороликами с персонажами, охраняемыми авторским правом, а также образами, напоминающими реальных знаменитостей. Поскольку многие из них имели американское происхождение, то к создателям подобных роликов у правообладателей возникли справедливые претензии.

«Мы принимаем меры по усилению существующих защитных механизмов, чтобы предотвратить неправомерное использование интеллектуальной собственности и схожести (со знаменитостями) со стороны пользователей», — заявили представители ByteDance ресурсу CNBC. Свои претензии к создателям сервиса Seedance 2.0 довольно быстро направила отраслевая ассоциация MPA, которая в США представляет интересы большинства крупных киностудий и платформы Netflix. Она призвала ByteDance решительно пресечь неправомерную активность по использованию защищаемых интеллектуальными правами образов. По словам представителей ассоциации, подобная активность не только нарушает американские законы, но и угрожает миллионам рабочих мест в США.

Студия Disney направила в адрес ByteDance письмо с требованиями прекратить неправомерное использование принадлежащих ей персонажей. По мнению представителей Disney, китайская ByteDance для обучения ИИ-модели якобы использовала полученную пиратским образом библиотеку образов, считая её публично доступной. Ранее Disney подписала соглашение с OpenAI, которое позволяет пользователям ИИ-сервисов последней внедрять в генерируемые видео ряд узнаваемых персонажей, принадлежащих студии. Требования прекратить нарушение прав в сфере интеллектуальной собственности в адрес ByteDance на прошлой неделе направила и Paramount Skydance.

Alibaba, ByteDance и Kuaishou представили ряд новых ИИ-моделей — от роботов до киношного видео

В то время как ИИ-рынок США на прошедшей неделе был занят изучением влияния инструментов Anthropic и Altruist на сферы программирования и оказания финансовых услуг, китайские IT-гиганты запустили ИИ-модели, показавшие прирост производительности в робототехнике и генерации видео. Alibaba, ByteDance (владелец TikTok) и платформа коротких видео Kuaishou представили новые алгоритмы, подтверждающие, что китайские разработчики не отстают от американских коллег.

 Источник изображения: Gemini

Источник изображения: Gemini

Анонс новых алгоритмов китайских IT-гигантов произошёл на фоне недавнего заявления главы ИИ-подразделения Google DeepMind Демиса Хассабиса (Demis Hassabis) касательно того, что китайские ИИ-модели отстают от западных конкурентов всего на несколько месяцев. Однако представленные на прошедшей неделе инструменты вполне могут рассматриваться в качестве прямых конкурентов ИИ-моделям для генерации видео, таким как Sora от OpenAI, а также моделям для сферы робототехники от Nvidia и Google.

Исследовательское подразделение Alibaba DAMO анонсировало RynnBrain — ИИ-модель, предназначенную для того, чтобы помочь роботам понимать окружающий их физический мир и идентифицировать объекты. В демонстрационном ролике Alibaba показала робота с клешнями вместо рук, который собирал апельсины и складывал их в корзину. Там также показали, как робот достаёт молоко из холодильника.

ИИ-модели требуют обширного обучения для достижения цели по идентификации повседневных объектов и взаимодействия с ними. Это означает, что такой простой для человека процесс, как сбор фруктов, для робототехники является гораздо более сложным. С запуском RynnBrain Alibaba начнёт конкурировать с такими компаниями, как Nvidia и Google, которые ведут разработку собственных ИИ-моделей для сферы робототехники.

«Одним из её [ИИ-модели] ключевых новшеств является встроенное осознание времени и пространства. Вместо того, чтобы просто реагировать на непосредственные сигналы, робот может запоминать, когда и где происходили события, отслеживать прогресс выполнения задачи и продолжать действовать на протяжении нескольких этапов. Это делает его более надёжным и последовательным в сложных реальных условиях», — считает исследователь из Hugging Face Адина Якефу (Adina Yakefu). Она также добавила, что «более масштабная цель» Alibaba состоит в том, чтобы «создать базовый интеллектуальный уровень для воплощённых систем».

Компания ByteDance на минувшей неделе представила Seedance 2.0 — модель искусственного интеллекта для генерации видео, которая может создавать реалистичные ролики на основе простого текстового описания. При этом алгоритм также может работать с другими видео и изображениями. Демонстрационные видео, созданные с помощью Seedance 2.0, выглядят вполне реалистично.

 Источник изображения: Sony

Источник изображения: Sony

Адина Якефу подтвердила, что ИИ-модель Seedance 2.0 показала значительный прогресс по сравнению с предыдущими версиями в плане «управляемости, скорости и эффективности работы». «На сегодняшний день Seedance 2.0 — одна из самых сбалансированных моделей для генерации видео, которые я тестировала. Она удивила меня, выдав удовлетворительные результаты с первой попытки, даже обрабатывая простой запрос. Визуализация, звуковое сопровождение и операторская работа объединяются таким образом, что результат работы кажется отточенным, а не экспериментальным», — добавила Якефу.

Хоть пользователи и хвалят этот алгоритм, известно, что у Seedance 2.0 возникли проблемы. Китайские СМИ сообщили, что разработчики временно заблокировали функцию генерации голоса человека на основе загруженного фото. Это произошло после того, как один из местных блогеров обратил внимание на проблему генерации голоса по фото без согласия того, кто изображен на снимке. Представители ByteDance пока никак не комментируют данный вопрос.

Ещё одной новинкой стала ИИ-модель Kling 3.0 от Kuaishou, которая предназначена для генерации видео и является конкурентом алгоритма ByteDance. В сообщении сказано, что Kling 3.0 «отличается существенными улучшениями в согласованности, фотореалистичности результата работы, увеличенным временем продолжительности видео до 15 секунд и встроенной генерацией аудио на нескольких языках, диалектах и с разными акцентами».

В настоящее время алгоритм Kling 3.0 доступен только платным подписчикам, но вскоре Kuaishou обещает открыть его для более широкой аудитории пользователей. Успех компании с ИИ-моделями Kling способствовал росту стоимости акций Kuaishou более чем на 50 % за последний год.

Стоит упомянуть некоторые другие важные релизы. Компания Zhipu AI, которая работает в Гонконге под названием Knowledge Atlas Technology, представила алгоритм GLM-5 — открытую языковую модель с расширенными возможностями в области программирования и создания ИИ-агентов. Компания заявила, что последняя версия её ИИ-модели приближается к Anthropic Claude Opus 4.5 по показателям в профильных бенчмарках, а также превосходит Google Gemini 3 Pro в некоторых тестах. Этот релиз способствовал значительному рост курса акций Zhipu AI.

Стоимость ценных бумаг MiniMax также подскочила в конце недели после того, как компания запустила обновлённую версию открытой ИИ-модели M2.5 с улучшенными инструментами ИИ-агентов. Этот алгоритм может использоваться для эффективной автоматизации выполнения разных задач.

Sony разработала инструмент для проверки ИИ-музыки на плагиат

Тезис о наличии всего семи нот в музыке в эпоху стремительного развития генерируемого искусственным интеллектом контента уходит на второй план, поскольку современные системы начинают копировать не только музыку и аранжировку, но и голоса исполнителей. Sony разработала систему, позволяющую определять степень заимствования в музыкальном контенте.

 Источник изображения: Sony

Источник изображения: Sony

Новая ИИ-модель Sony Group способна определить, какие уже существующие песни были использованы при обучении и генерации музыкального произведения при помощи ИИ. Результаты анализа выдаются в количественном измерении — например, 30 % музыкальной основы могут быть схожи с произведениями The Beatles, а 10 % базироваться на творчестве Queen. Если авторы анализируемого произведения готовы сотрудничать с издательством Sony, то последнее подключается непосредственно к базовой ИИ-модели, которая использовалась для создания музыки. Если такого взаимопонимания нет, то ИИ-модель Sony самостоятельно анализирует изучаемое произведение на предмет схожести с уже существующими.

Когда эта система Sony будет запущена в широкое практическое применение, пока не решено. Являясь крупным музыкальным издателем, компания заинтересована в защите авторских прав в эпоху бурного развития генерируемого ИИ контента. Если будет доказано, что новые произведения в значительной мере построены на старых, то их авторам придётся выплачивать лицензионные отчисления. Впрочем, по мнению участников отрасли, сейчас создатели генеративных ИИ-моделей в большей степени заинтересованы в улучшении их работы, чем в предотвращении проблем в области интеллектуальной собственности. Sony попутно создала защитные механизмы, которые не позволяют сторонним ИИ-моделям использовать графические образы, права на которых принадлежат этой компании.

IT-индустрия разогнала увольнения до 30 тыс. сотрудников за январь — 2026-й рискует побить антирекорд

По статистике RationalFX, январь для мировой технологической отрасли оказался довольно результативным в плане сокращения персонала профильных компаний. Всего за первый месяц текущего года кадровые потери составили 30 700 человек, и такими темпами весь 2026 год может превзойти результаты прошлого, выразившиеся в сокращении примерно 245 000 человек.

 Источник изображения: Unsplash, Евгений Миронов

Источник изображения: Unsplash, Евгений Миронов

Более 80 % январских сокращений или 24 600 кадровых позиций пришлись на рынок труда США, причём в удельном выражении антилидером оказался Amazon, объявивший об увольнении 16 000 сотрудников. На Европу в январе пришлось 4214 утерянных кадровых позиций, причём крупнейшие потери пришлись на Швецию (1900) и Нидерланды (1700). В качестве основных причин сокращения персонала в данном случае называются меры по снижению расходов и внедрение искусственного интеллекта. По прогнозам RationalFX, если сокращения персонала в технологическом секторе в этом году продолжатся подобными темпами, то по его итогам работу потеряют более 270 000 специалистов, что окажется выше прошлогодних 245 000 сокращений.

Как уже отмечалось, сокращённые Amazon в январе 16 000 человек обеспечили более половины мирового количества увольнений в технологической сфере за первый месяц года. В Швеции производитель телекоммуникационного оборудования Ericsson сокращение 1900 сотрудников оправдал свои действия ухудшением ситуации на рынке оборудования для сетей 5G и ростом отраслевой конкуренции. В Нидерландах в отрицательном смысле «отличилась» ASML, которая выпускает востребованные полупроводниковой отраслью литографические сканеры, но это не помешало компании в январе сократить 1700 сотрудников. Впрочем, специалистов инженерного профиля сокращения коснулись в меньшей мере.

Американская Meta✴ начала год с сокращения 1500 человек в своём подразделении Reality Labs, которое отвечает за разработку устройств виртуальной реальности. Как не раз отмечалось, конкретный сегмент рынка переживает не лучшие времена, и ставка руководства Meta✴ на данное направление технологий себя не оправдала. Созданная основателем Twitter Джеком Дорси (Jack Dorsey) компания Block в январе сократила 10 % своего персонала (1100 человек), и подобные меры предпринимаются уже в третий раз за последние три года. Autodesk и Salesforce в этом году успели объявить о сокращении по 1000 человек каждая.

В прошлом году около 28,5 % всех сокращений персонала в технологическом секторе объяснялись автоматизацией функций и внедрением ИИ. В текущем году такими причинами объясняется сокращение 1430 человек за январь. ИИ становится инструментом, позволяющим сократить расходы, компании начали подстраиваться под новую конъюнктуру рынка. Автоматизация труда должна повышать производительность в ближайшие годы, эта тенденция будет долгосрочной, как считают эксперты.

Голливуд вовсю осваивает ИИ: растёт число школ по кинопроизводству с нейросетями

В американской киноиндустрии растёт число учебных заведений, обучающих кинопроизводству с использованием искусственного интеллекта (ИИ). Высокой популярностью пользуется онлайн-школа Curious Refuge, позиционирующая себя как «первый в мире центр для создания фильмов с использованием ИИ».

 Источник изображения: De'Andre Bush/unsplash.com

Источник изображения: De'Andre Bush/unsplash.com

Компания Curious Refuge, основанная в 2020 году, открыла курсы по созданию документальных и художественных фильмов с использованием ИИ, а также по рекламе в начале 2023 года. Сейчас она предоставляет обучение на 11 разных языках студентам из 170 стран. За прошедшее время курсы или мастер-классы Curious Refuge посетило около 10 тыс. пользователей, стремящихся обновить свои навыки, сообщила школа. Соучредители онлайн-школы Калеб и Шелби Уорд (Caleb Ward, Shelby Ward) рассказали, что 95 % нынешних студентов — это профессионалы индустрии развлечений или рекламы, ищущие новые навыки по мере того, как ИИ закрепляется в Голливуде.

Как рассказала одна из студенток школы Петра Мольнар (Petra Molnar), её привело в Curious Refuge появление чат-ботов на основе ИИ, таких как ChatGPT, и генераторов изображений, таких как Midjourney. Благодаря обучению она нашла новую работу в рекламе, используя ИИ для создания рекламных видеороликов, в том числе для ИИ-компании WhiteFiber, один из которых демонстрировался на панели Nasdaq на Таймс-сквер, когда компания вышла на биржу в сентябре. «ИИ действительно изменил мою жизнь», — отметила Мольнар.

Занятия Curious Refuge доступны в онлайне по подписке, что позволяет студентам учиться в своём собственном темпе. Преподаватели проводят еженедельные консультации для желающих, а школа организует регулярные мероприятия по всему миру, в том числе, в рамках Каннского кинофестиваля. Для общения сообщество Curious Refuge выбрало платформу Discord, популярную среди геймеров и программистов.

Как сообщает Reuters, Curious Refuge также проводила обучение и мастер-классы по ИИ в студиях, названия которых не раскрываются из-за соглашений о неразглашении. «Нам нравится вмешиваться и создавать базовое понимание для всей студии, — сказал генеральный директор и основатель Curious Refuge Калеб Уорд. — Вот что возможно с ИИ. Вот творческие возможности. Вот лишь некоторые выводы, которые можно сделать, используя эту технологию».

Согласно исследованию, проведённому по заказу Ассоциации концепт-арта и Гильдии аниматоров в 2024 году, к концу текущего года почти 120 тыс. рабочих мест в кино, на телевидении и в анимации будут объединены, заменены или ликвидированы из-за генеративного ИИ.

Некоторые эксперты видят параллели между развитием генеративного ИИ и появлением видеохостинга YouTube, который дал старт новому поколению повествователей. Крис Жакмен (Chris Jacquemin), руководитель отдела цифровой стратегии агентства WME, прогнозирует, что «будет некоторая потеря и перемещение рабочих мест, но также будет и создание новых рабочих мест, и появится поколение новых рассказчиков, отчасти потому, что снижаются финансовые барьеры или у них просто теперь есть доступ к созданию того, что раньше было им недоступно».

«Я думаю, что Curious Refuge играет решающую роль как программа, специализирующаяся на обучении кинематографистов и рассказчиков тому, как они могут использовать весь спектр инструментов машинного обучения в своих интересах», — сказал Жакмен.

В феврале прошлого года Curious Refuge была приобретена студией развлечений с использованием ИИ Promise, поддерживаемой медиастудией North Road Питера Чернина (Peter Chernin) и компанией Andreessen Horowitz. Эта школа служит для Promise источником талантов — художников, режиссеров и других творческих личностей, разбирающихся в методах кинопроизводства с использованием ИИ в то время как всё больше людей в Голливуде начинают осознавать потенциал генеративного ИИ и конкурентная борьба за таланты обостряется.

ByteDance представила Doubao 2.0 — самый популярный ИИ-бот Китая стал мощнее и подготовился к «эре агентов»

Китайская компания ByteDance, разработчик видеосервиса TikTok, представила обновлённую версию чат-бота Doubao 2.0 — самого популярного в стране приложения на базе искусственного интеллекта. Doubao 2.0 позиционируется как решение для «эры ИИ-агентов», когда модели будут способны самостоятельно выполнять сложные задачи, а не только отвечать на вопросы.

 Источник изображения: Steve Johnson/unsplash.com

Источник изображения: Steve Johnson/unsplash.com

Согласно данным информационного агентства QuestMobile, опубликованным в конце декабря, Doubao лидирует среди всех ИИ-чат-ботов в Китае с 155 млн активных пользователей в неделю, опережая с большим отрывом DeepSeek, который занимает второе место с 81,6 млн пользователей.

Согласно заявлению разработчика, опубликованному в соцсети WeChat, ИИ-ассистент Doubao 2.0 представлен в четырёх версиях: Pro, Lite, Mini и Code. Универсальные модели Doubao 2.0 Pro, Lite и Mini отличаются глубиной анализа и скоростью ответа. Как утверждает ByteDance, модель Doubao 2.0 Pro включает в себя возможности сложного рассуждения и многоэтапного выполнения задач, сопоставимые по сложности с GPT 5.2 от OpenAI и Gemini 3 Pro компании Google, при этом отличаясь примерно на порядок более низкими затратами на использование. «Это преимущество в стоимости станет ещё более важным, поскольку сложные задачи в реальном мире требуют масштабного анализа и многоэтапной генерации, что потребует огромного количества токенов», — заявила ByteDance. В свою очередь, версия Doubao 2.0 Code предназначена для решения задач программирования.

ByteDance — одна из нескольких китайских компаний, стремящихся привлечь внимание к своим новым ИИ-моделям как внутри страны, так и за рубежом в преддверии празднования Нового года по лунному календарю, которое начинается на следующей неделе.

ИИ-модель для генерации видео, Seedance 2.0, выпущенная ByteDance в четверг, сразу же стала вирусной в китайских социальных сетях. Это достижение уже сравнивается с успехом DeepSeek в прошлом году.

Как отметило ТАСС, Китай переживает бурное развитие ИИ-индустрии. Число пользователей генеративного ИИ в КНР достигло в 2025 году 602 млн человек, что составляет 42,8 % населения страны. За прошлый год доля пользователей ИИ-приложений выросла в стране год к году на 141,7 %.

OpenAI убила самую эмоциональную ИИ-модель, несмотря на протесты пользователей

OpenAI объявила об окончательном выводе из эксплуатации модели GPT-4o, а вместе с ней GPT-4.1, GPT-4.1 mini и o4-mini, сообщает Business Insider. Это уже вторая попытка компании отключить GPT-4o. Первая состоялась в августе и закончилась отступлением перед натиском недовольных пользователей. В январе компания опять предупредила об отключении модели, однако негативная реакция вспыхнула с новой силой.

 Источник изображения: openai.com

Источник изображения: openai.com

Глубокая эмоциональная привязанность аудитории объясняется специфическим комплиментарным стилем общения GPT-4o. Некоторые пользователи называли модель «жизненно важным доступным инструментом» и описывали как творческого партнёра и эмоциональную опору, с которой работали месяцами. В соцсетях реакция на объявление варьировалась от гнева до чёрного юмора.

Фиджи Симо (Fidji Simo), руководитель подразделения приложений OpenAI, назвала подобную привязанность началом новой эры взаимодействия людей с искусственным интеллектом. Она отметила, что люди склонны формировать эмоциональные связи с интеллектуальными системами, однако новые версии моделей получили ограничения для предотвращения потенциально вредных зависимостей. Например, при запросах «Стоит ли мне уйти от жены?» современные алгоритмы отказываются давать прямые рекомендации и вместо этого предлагают взвесить «все за и против».

Глава OpenAI Сэм Альтман (Sam Altman) признаёт, что пользователи ценили заискивающий тон ответов GPT-4o, но сам он считает это излишним подхалимством и подобострастием. В компании пояснили, что вывод старых моделей из эксплуатации необходим для концентрации ресурсов на улучшении актуальных версий, которыми пользуется основная масса людей. К моменту отключения GPT-4o модель использовали лишь 0,1 % клиентов сервиса.


window-new
Soft
Hard
Тренды 🔥
Lenovo обвинили в массовой передаче данных американцев в Китай 41 мин.
Меньше галлюцинаций и миллионный контекст: Anthropic представила Sonnet 4.6 и она уже доступна бесплатно в Claude 3 ч.
Activision подтвердила дату смерти Call of Duty: Warzone Mobile — игру закроют спустя всего два года после запуска 3 ч.
Unity пообещала ИИ, который позволит создавать игры по текстовому описанию — вообще без программирования 6 ч.
Хакеры применили поддельные страницы CAPTCHA для распространения вирусов для Windows 6 ч.
Российский бизнес распробовал ИИ от Яндекса — потребление токенов за год выросло всемеро 6 ч.
Microsoft подтвердила релиз Kingdom Come: Deliverance 2 в Game Pass, а скоро в подписку добавят полное издание The Witcher 3: Wild Hunt 7 ч.
Microsoft обвинили в незаконном сборе голосовых данных в Teams в течение пяти лет 7 ч.
В ChatGPT появился «Режим блокировки» и маркировка повышенного риска для защиты важных данных 7 ч.
Resident Evil Requiem попала в руки первых игроков за десять дней до релиза — фанаты приготовились к утечкам 8 ч.
Следующая Google I/O пройдёт 19–20 мая — ожидаются анонсы, связанные с Gemini, Android и не только 19 мин.
Что-то на богатом: Dreame показала роскошный смартфон Aurora в золоте и драгоценных камнях 29 мин.
Новая статья: Обзор сервера iRU Rock G2212IG6 на базе Intel Xeon 6 56 мин.
Siri научат «видеть» мир: Apple форсирует разработку очков, кулона и AirPods со встроенными камерами 2 ч.
Tecno представила смартфоны Camon 50 и 50 Pro с чипами Helio G200, 50-Мп камерами и батареями на 6150 мА⋅ч 2 ч.
Китай вывел гуманоидных роботов на сцену главного новогоднего шоу страны — они показали своё кунг-фу 5 ч.
Минцифры наметило масштабную замену «меди» на оптоволокно — за отказ связь смогут отключить 5 ч.
SK hynix предложила неоригинальный костыль для ускорения ИИ-моделей — гибридную архитектуру памяти HBM/HBF 6 ч.
У крупнейшего японского производителя унитазов Toto нашли огромный потенциал в сфере ИИ 6 ч.
Samsung зачем-то прорекламировала камеру Galaxy S26 не реальной съёмкой, а ИИ-бурдой 6 ч.