Сегодня 11 октября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии
Быстрый переход

YouTube Music превратили в подобие радио с ИИ-ведущими, которые «расширят музыкальные горизонты»

В радиостанциях и подборках композиций на платформе YouTube Music появились созданные искусственным интеллектом виртуальные ведущие. Это первый проект в рамках новой программы YouTube Labs — ИИ-ведущие «расширят горизонты вашего восприятия музыки, поделятся интересным историями, интересными фактами от поклонников и забавными комментариями о вашей любимой музыке». По описанию напоминает некий аналог радио, где музыкальные композиции перемежаются с речью ведущих

 Источник изображения: blog.youtube

Источник изображения: blog.youtube

Новая программа YouTube Labs посвящена экспериментам с ИИ на платформе, но пока «протестировать ранние прототипы и эксперименты сможет лишь ограниченное число участников из США». Впрочем, отмечает ресурс The Verge, услышать созданных ИИ ведущих пока довелось не всем, кто зарегистрировался в YouTube Labs. Инициатива обещает быть интересной — нечто подобное Google ранее развернула в популярном приложении NotebookLM, где ИИ-ассистенты помогают исследовать и изучать отдельные темы.

Администрация YouTube также объявила о расширении некоторых функций для подписчиков премиум-версии на большее количество платформ. Так, функция Jump Award, которая на основе ИИ-анализа позволяет быстро переходить к самой интересной части видео, теперь в полной мере заработала в версиях YouTube для телевизоров и игровых приставок.

Apple разработала аналог ChatGPT — приложение Veritas для iPhone, но никому его не показывает

Как стало известно специализирующемуся на подобной информации Марку Гурману (Mark Gurman) из Bloomberg, компания Apple разработала приложение Veritas, которое призвано подготовить грядущее обновление Siri в следующем году. Пока оно используется внутри компании для тестирования новых функций голосового ассистента, связанных с работой с персональными данными и действиями внутри других приложений.

 Источник изображения: Apple

Источник изображения: Apple

По данным источника, обновлённый ассистент Siri должен дебютировать в марте следующего года, и от успешности этого события будет зависеть способность Apple осуществить реванш в сфере ИИ, а в случае неудачи она ещё сильнее отстанет от соперников в сегменте смартфонов. Сейчас Veritas используется сотрудниками Apple для оценки его способности искать информацию внутри персональных данных пользователя типа почтовых сообщений или подборок музыки, а также выполнять операции внутри приложений типа редактирования фото. В переводе с латыни название приложения означает «истину».

У Apple нет планов открывать доступ к этому приложению рядовым пользователям. По сути, оно нужно для адаптации прогресса, которого компания добилась в области совершенствования Siri, к возможности его тестирования среди сотрудников компании. Она также пытается оценить, есть ли смысл сохранять формат взаимодействия в виде чат-бота. После многочисленных задержек продвинутая версия Siri, способная работать с ИИ на новом качественном уровне, теперь должна дебютировать в марте следующего года. Считается, что к тому моменту для покупателей наличие ИИ-функций уже станет решающим фактором при выборе смартфона, и Apple старается не увеличивать своё отставание от конкурентов в этой сфере. Изначально обновлённая версия Siri должна была выйти весной этого года, но некоторые функции работали нестабильно, в результате было принято решение основательно её переработать.

Тестирующее приложение Veritas напоминает самые популярные чат-боты, позволяя пользователю вести несколько бесед на самые разные темы. Оно запоминает предыдущие сеансы и может отсылать к ним, а также возобновлять прерванное общение. Главное предназначение Veritas — испытать платформу Linwood, которую Apple намерена использовать для создания новой версии Siri. Эта платформа использует большие языковые модели как собственной разработки, так и сторонние. К концу следующего года Apple также готовится обновить визуализацию своего голосового ассистента. Устройства для умного дома Apple также получат новые функции, связанные с ИИ.

В этом году Apple пыталась договориться с OpenAI и Anthropic об использовании их разработок, но позже переключилась на взаимодействие с Google, которое подразумевало бы использование адаптированной версии Gemini для нужд Apple. Отсрочки с обновлением Siri вызвали не только изменения в стратегии компании, но и заметные кадровые перестановки в рядах профильных руководителей и специалистов. В идеале, Veritas должно позволить Apple подготовиться к конкуренции с ChatGPT и Perplexity, но в пределах интерфейса Siri. В новой версии он будет анализировать информацию, отображаемую пользователю на дисплее, а также поддерживать сквозную навигацию между несколькими пользовательскими устройствами.

Google создала и показала в деле ИИ, который заставляет роботов сначала думать, а потом делать

Компания Google DeepMind представила две новые модели искусственного интеллекта (ИИ) для робототехники Gemini Robotics 1.5 и Gemini Robotics-ER 1.5, которые совместно реализуют подход, при котором робот сначала «обдумывает» задачу и только потом выполняет действие. Технология основана на генеративных ИИ-системах и призвана преодолеть ограничения современных роботов, требующих длительной настройки под каждую конкретную задачу.

 Источник изображения: Google

Источник изображения: Google

Генеративные ИИ-системы, способные создавать текст, изображения, аудио и даже видео, становятся всё более распространёнными. Подобно тому, как такие модели генерируют указанные типы данных, они могут также выдавать последовательности действий для роботов. Именно на этом принципе построен проект Gemini Robotics от Google DeepMind, в рамках которого анонсированы две взаимодополняющие модели, позволяющие роботам «думать» перед тем, как действовать. Хотя традиционные большие языковые модели (LLM) имеют ряд ограничений, внедрение симулированного рассуждения значительно расширило их возможности, и теперь аналогичный прорыв может произойти в робототехнике.

Команда Google DeepMind считает, что генеративный ИИ способен кардинально изменить робототехнику, обеспечив роботам универсальную функциональность. В отличие от современных систем, которые требуют месяцев настройки под одну узкоспециализированную задачу и плохо адаптируются к новым условиям, новые ИИ-подходы позволяют роботам работать в незнакомых средах без перепрограммирования. Как отметила Каролина Парада (Carolina Parada), руководитель направления робототехники в DeepMind, роботы на сегодняшний день «чрезвычайно специализированы и сложны в развёртывании».

Для реализации концепции DeepMind разработала Gemini Robotics-ER 1.5 и Gemini Robotics 1.5. Первая — это модель «зрение–язык» (VLM) с функцией воплощённого рассуждения (embodied reasoning), которая анализирует визуальные и текстовые данные, формирует пошаговый план выполнения задачи и может подключать внешние инструменты, например, поиск Google для уточнения контекста. Вторая — модель «зрение–язык–действие» (VLA), которая преобразует полученные инструкции в физические действия робота, одновременно корректируя их на основе визуальной обратной связи и собственного процесса «обдумывания» каждого шага. По словам Канишки Рао (Kanishka Rao) из DeepMind, ключевым прорывом стало наделение робота способностью имитировать интуитивные рассуждения человека, то есть думать перед тем, как действовать.

Разработчики наглядно продемонстрировали, как работают новые модели — наделённый Gemini Robotics 1.5 человекоподобный робот Apollo на видео упаковывает вещи для поездки, а другой робот Aloha 2, точнее пара роборук — сортирует мусор.

Обе модели основаны на фундаментальной архитектуре Gemini, но дополнительно дообучены на данных, отражающих взаимодействие с физическим миром. Это позволяет роботам выполнять сложные многоэтапные задачи, приближая их к уровню автономных агентов. При этом система демонстрирует кроссплатформенную совместимость. В частности, навыки, внедрённые в одного робота, например, на двурукого Aloha 2, могут быть перенесены на другого, включая гуманоида Apollo, без дополнительной настройки под конкретную механику.

Несмотря на вероятный технологический прорыв, практическое применение технологии пока ограничено. Модель Gemini Robotics 1.5, отвечающая за управление роботами, доступна только доверенным тестировщикам. В то же время Gemini Robotics-ER 1.5 уже интегрирована в Google AI Studio, что даёт разработчикам возможность генерировать инструкции для собственных экспериментов с физически воплощёнными роботами. Однако, как считает Райан Уитвам (Ryan Whitwam) из Ars Technica, до появления бытовых роботов, способных выполнять повседневные задачи, ещё предстоит пройти значительный путь.

Meta✴ захотела улучшить свои приложения с помощью ИИ-технологий конкурирующей Google

Meta обсуждает с Google Cloud (входит в холдинг Alphabet) возможность использования ИИ-моделей Gemini для улучшения рекламного бизнеса своей социальной сети Facebook, сообщил ресурс Information со ссылкой на источники, знакомые с ходом переговоров. Они уточнили, что переговоры находятся на ранней стадии, поэтому говорить о возможном подписании соглашения пока рано.

 Источник изображения: Solen Feyissa/unsplash.com

Источник изображения: Solen Feyissa/unsplash.com

В ходе переговоров сотрудники Meta предложили Google Cloud дообучить модели Gemini и Gemma с открытым исходным кодом на основе рекламных данных Meta, чтобы улучшить возможности таргетинга рекламы.

Решение Meta обратиться к ИИ-разработкам Google вместо собственных внутренних моделей подчёркивает проблемы, с которыми компания столкнулась при масштабировании технологий ИИ, несмотря на миллиардные инвестиции в исследования, инфраструктуру и кадры, отметил ресурс Reuters. Meta и Google напрямую конкурируют на рынке онлайн-рекламы. Обе компании указали в своих последних квартальных отчётах, что инвестиции в ИИ способствуют росту их основного рекламного бизнеса.

В прошлом месяце Information сообщал, что Meta и до этого рассматривала возможность сотрудничества с Google или OpenAI с целью повышения эффективности ИИ-технологий в своих разработках, включая повышение качества ответов на запросы в чат-боте Meta AI, а также для реализации ИИ-функций в приложениях Meta для социальных сетей.

Gemini теперь сможет объяснить, почему формула в «Google Таблицах» не работает или работает неправильно

В январе Google добавила в сервис «Таблицы» своего помощника с искусственным интеллектом Gemini. Поначалу он давал советы по работе с текстом и построению диаграмм, но теперь его возможности расширились, и он помогает составлять формулы.

 Источник изображения: Rubaitul Azad / unsplash.com

Источник изображения: Rubaitul Azad / unsplash.com

В правой части интерфейса «Google Таблицы» появился интерфейс переписки с Gemini. Теперь ему можно задать вопрос о работе с данными — он предлагает составить формулы, даст пошаговые инструкции, чтобы эти формулы работали надлежащим образом, а также подробно разъясняет принцип работы этих формул. Это призвано укрепить доверие пользователей и упростить им изучение математических функций приложения для дальнейшей работы.

 Источник изображения: workspaceupdates.googleblog.com

Источник изображения: workspaceupdates.googleblog.com

Gemini может объяснить, почему введённые ранее формулы не работают: допущенные пользователем ошибки сопровождаются руководством по их исправлению — так, ИИ обратит внимание, что дата в одной из ячеек отформатирована как текст, и совершать с ней математические операции не получится. Если задача сложная, и одно действие можно выполнить при помощи разных формул, Gemini объясняет, чем отличаются результаты.

Воспользоваться новыми функциями могут подписчики служб Google Workspace для корпоративных клиентов (Business и Enterprise), для образовательных организаций — администратору группы придётся вручную включить для них в консоли функции искусственного интеллекта и персонализацию. Поработать с Gemini в «Google Таблицах» смогут и частные пользователи, но для этого им потребуется подписка на ИИ-сервисы Google AI Pro и Ultra.

Пинки, увечья и коллективный разум: представлен радикальный, но действенный метод обучения ИИ для роботов

Компания Skild AI сообщила о новой концепции тренировки ИИ — не на запоминании, а на обобщении. Тренировка на примерах никогда не подготовит ИИ и ведомого им робота к реальной жизни, и это не позволит робототехнике быть эффективной рядом с человеком. Только умеющий адаптироваться к любым условиям ИИ способен породить искру разума.

 Примеры «издевательств» над роботами. Источник изображения: Skild AI

Примеры «издевательств» над роботами. Источник изображения: Skild AI

Разработчики подчёркивают, что все популярные видео с роботами показывают идеальные сценарии, где машины выполняют задачи безупречно, но в непредсказуемых ситуациях, таких как поломки или изменения среды, они быстро выходят из строя. Это несоответствие обусловлено фундаментальными ограничениями традиционного ИИ, который неспособен к настоящей адаптации. Введение в концепцию «omni-bodied robot brain» — универсального «мозга» для всех роботов — позиционируется ими как решение, способное преодолеть эти барьеры и приблизить робототехнику к надёжному ИИ в физическом мире.

Традиционный ИИ для роботов, особенно в задачах перемещения и манипуляции объектами, обучается на конкретных моделях тел, что сопровождается переобучением: система «запоминает» стратегии для идеальных условий поведения каждого тела, но теряет эффективность при малейших отклонениях. Как отмечают авторы, это похоже на заучивание ответов студентами — полезно на экзамене, но бесполезно на практике.

Для роботов, в частности, это может быть заклинивший мотор, сломанная конечность или загрузка в новое тело. Тем самым современный ИИ не может обобщать знания, и робот просто падает, не зная, как восстановиться. Такая узкая специализация делает роботов ненадёжными для реального применения, где неожиданности — это норма.

Skild AI предлагает радикальный подход: обучение ИИ управлению огромным разнообразием роботов, чтобы избежать переобучения и развить способность к обобщению. Команда создала симулированную вселенную со 100 000 различных роботов и обучила модель контролировать их всех в течение эквивалента тысячелетия симулированного времени. Получившийся «многотелесный разум» адаптируется к новым или повреждённым телам моментально — без дополнительного обучения на конкретных примерах.

Ключевой принцип: модель не может полагаться на запоминание, поскольку стратегии должны работать для всех тел сразу, что стимулирует развитие универсальных навыков. Это также было подтверждено на практике: универсальный ИИ был загружен в модели роботов, которыми он управлял впервые, и это не привело к отказу машин — ИИ моментально сориентировался и начал выполнять работу.

Демонстрация адаптации подчёркивает перспективы этого подхода через обучение на ошибках в реальном времени. Например, четвероногий робот, лишившийся ноги, после нескольких падений за очень короткое время переходит на походку на двух ногах, как у человека. Другие случаи: при блокировке колена робот перераспределяет вес на три ноги; заклинившее колесо заставляет перейти от колёсного хода к пешему; удлинённые ноги (как на ходулях) требуют корректировки шага для баланса. Все тесты проводились сходу, без дообучения, показывая, как ИИ обнаруживает новые стратегии всего за 7–8 секунд, например, совершая амплитудные махи бедром при потере икры.

Разработчики видят в своём решении ранние признаки интеллекта в робототехнике, что в итоге способно привести к появлению настоящих роботов-помощников людям — на заводах, в больницах и домах. Подход Skild AI подчёркивает: для успеха в реальности роботы должны контролировать «все возможные тела», а не несколько, открывая путь к этичному и полезному будущему, где машины помогут людям в повседневности.

OpenAI анонсировала ChatGPT Pulse — ИИ-агента, который следит за пользователем постоянно

OpenAI представила новую функцию персонализации ChatGPT Pulse: пользователь может предоставить чат-боту возможность всесторонне изучать себя через переписку и данные подключённых приложений: календаря электронной почты и списка контактов. На основе этой информации искусственный интеллект подбирает то, что, по его мнению, может оказаться полезным, и ежедневно предоставляет сводку по этим вопросам.

 Источник изображений: openai.com

Источник изображений: openai.com

Новая функция мобильного приложения, получившая название ChatGPT Pulse, пока доступна только подписчикам тарифа Pro, но в перспективе, возможно, воспользоваться ей сможет и более широкая аудитория. Персонализированные рекомендации выводятся в виде «тематических визуальных карточек, которые можно быстро просмотреть или открыть для получения более подробной информации, и каждый день начинается с новой адресной подборки». Это могут быть новости о спортивных мероприятиях, ежедневные уроки для пополнения словарного запаса изучаемого языка, рекомендации по составлению меню на ужин в ресторане, куда пользователь пойдёт вечером, и многое другое.

Пример работы ChatGPT Pulse продемонстрировала руководитель направления персонализации и рабочих решений в подразделении OpenAI ChatGPT Кристина Каплан (Christina Kaplan), рассказал The Verge. ИИ-агент подготовил ей рекомендации с учётом событий в календаре, прошлых запросов и истории переписки с чат-ботом: запланированные на день события, ограничения в диетическом рационе и вообще то, о чём бы она хотела узнать подробнее. «У вас насыщенный вечер — вот как плавно перейти от пробежки к ужину», — посоветовал ChatGPT. ИИ предложил ей несколько вариантов, как реализовать планы на вечер, в том числе резервные — на случай, если на основной сценарий времени будет не хватать.

ChatGPT Pulse также предложил ей скорректировать алгоритмы ИИ на будущее: «О чём вы думаете в последнее время? Я запомню это для завтрашней подборки». И вывел несколько вариантов ответов, в том числе «Мне интересно...», «Мои ближайшие планы включают...» и «Я бы хотела быть в курсе...». ChatGPT Pulse дал госпоже Каплан рекомендации по повседневным занятиям пилатесом и укреплению мышц пресса, по стратегии питания с учётом предстоящего похода на день рождения и по упражнениям для восстановления после длительных поездок накануне.

Для наиболее эффективной персонализации сервис просит пользователя открыть некоторые свои данные для ChatGPT: доступ к соседним чатам с ИИ, к календарю и электронной почте — и когда даются такие разрешения, требуется явное согласие. На вопрос о том, поможет ли другим отзыв одного пользователя о работе с ChatGPT Pulse, Кристина Каплан ответила, что он поможет лишь самому этому пользователю, и только для составления завтрашней подборки. «Ваш Pulse — между вами и ChatGPT. Влияние на обучающие данные то же, что при обычной переписке с ChatGPT», — пояснила она.

Представитель OpenAI также заверила, что ChatGPT Pulse безопасен для пользователей с нестабильной психикой, и он не затянет их в пучину тревожности — компания предусмотрела «ряд фильтров и ограничений безопасности», и специалисты OpenAI продолжают «изучать» этот вопрос. Наконец, бесконечной прокрутки в ленте карточек ChatGPT Pulse тоже не предусмотрено — она конечна, «чтобы работать на вас, а не заставлять постоянно листать страницу».

Micron похвасталась разработкой GDDR7 со скоростью выше 40 Гбит/с для видеокарт будущего и ИИ-систем

Компания Micron разработала память GDDR7, обеспечивающую скорость свыше 40 Гбит/с на контакт. Об этом компания сообщила в рамках своей последней конференции, посвящённой финансовым результатам. Новая память более чем на 25 % быстрее, чем GDDR7, которая в настоящий момент поставляется в составе видеокарт.

 Источник изображений: Micron

Источник изображений: Micron

Более скоростные модули памяти обеспечивают новый скачок в производительности графических процессоров и систем искусственного интеллекта. Хотя игровых видеокарт, в составе которых применяются чипы памяти GDDR7 со скоростью 40 Гбит/с, в ближайшее время ожидать не стоит, никто не исключает, что они появятся в будущем. Возможно, мы увидим более быстрые чипы GDDR7 в графических ускорителях Nvidia RTX 60-й серии или в видеокартах AMD Radeon на архитектуре RDNA 5.

«В тесном сотрудничестве с Nvidia компания Micron стала пионером в использовании LPDRAM для серверов. С момента запуска Nvidia LPDRAM в линейке гигабайтных продуктов Micron является единственным поставщиком LPDRAM для центров обработки данных. Помимо лидерства в сегментах памяти HBM и LP5, Micron также занимает выгодные позиции благодаря своим продуктам GDDR7, которые обеспечивают сверхвысокую производительность со скоростью передачи данных более 40 Гбит/с, а также лучшую в своём классе энергоэффективность для удовлетворения потребностей некоторых будущих систем искусственного интеллекта», — говорится в заявлении Micron.

Если верить последним утечкам, видеокарты Nvidia RTX 50 Super предложат увеличенный объём видеопамяти по сравнению с оригинальными моделями ускорителей RTX 50-й серии. Также, согласно слухам, Nvidia может использовать в модели RTX 5080 Super память GDDR7 со скоростью передачи данных 36 Гбит/с. Производители графических процессоров часто избегают использования более быстрой памяти из-за ценовых соображений, а также из-за ограниченной доступности. Это ещё одна причина, по которой не стоит ожидать появления 40-гигабитной GDDR7 в составе игровых видеокарт в ближайшем будущем.

В App Store завирусилось приложение Neon — людям платят за записи их телефонных разговоров

Новое приложение Neon, предлагающее людям запись их телефонных разговоров за деньги с последующей продажей этих записей компаниям — разработчикам искусственного интеллекта, нашло отклик среди владельцев iPhone. Оно заняло второе место в категории «Социальные сети» рейтинга App Store в США.

 Источник изображения: bruce mars / unsplash.com

Источник изображения: bruce mars / unsplash.com

За звонки пользователям Neon и запись этих разговоров компания платит по $0,30 в минуту; за звонки другим абонентам, тоже с записью, можно получить до $30 в день; премия выплачивается и за привлечение новых пользователей. Ещё 18 сентября приложение занимало 476 место в категории «Социальные сети» американского раздела Apple App Store; 23 сентября вечером Neon поднялся на 10 место; 24 сентября приложение стало уже вторым в списке. Создатели сервиса открыто говорят, что собранные данные продаются «компаниям, работающим в сфере ИИ, <..> для разработки, обучения, тестирования и улучшения моделей машинного обучения, инструментов и систем искусственного интеллекта, а также связанных с ними технологий».

Условия обслуживания предусматривают обширные полномочия для владельцев Neon, в том числе «<..> всемирное, исключительное, безотзывное, передаваемое, безвозмездное, полностью оплаченное право и лицензию (с правом сублицензирования на несколько уровней) на продажу использование, размещение, хранение, передачу, публичное воспроизведение (в том числе посредством трансляции цифрового аудио), доведение до всеобщего сведения, воспроизведение, изменение в целях форматирования для воспроизведения, создание производных работ согласно настоящим Условиям и распространение ваших Записей, полностью или частично в любых медиаформатах и через любые медиаканалы, как известные сейчас, так и разработанные в будущем».

 Источник изображения: neonmobile.com

Источник изображения: neonmobile.com

Такие формулировки дают Neon достаточное пространство для манёвра, чтобы использовать собранные данные в больше степени, чем официально объявляется. В условиях обслуживания также есть раздел об экспериментальных функциях без гарантий и с возможными техническими ошибками. Но технически, считают опрошенные ресурсом TechCrunch эксперты, работа такой службы может быть законной — записывается и передаётся предположительно только та часть разговора, которую ведёт пользователь, но не его собеседник. На практике формулировка «односторонней расшифровки» может говорить, что записываются реплики обоих участников разговора, но слова того, кто не является пользователем приложения, просто вырезаются из расшифровки.

Неизвестно, в какой мере анонимными являются эти данные: имена пользователей, адреса электронной почты и номера телефонов перед продажей клиентам удаляются, утверждают создатели Neon. Но сценариев использования этих данных может быть чрезвычайно много — вплоть до мошеннических звонков с применением подделки голоса и озвучения ИИ. Создатели сервиса не раскрывают, какие компании являются его доверенными партнёрами, и что им разрешается делать с данными пользователей в дальнейшем. Вероятны и утечки данных из хранилищ Neon. На практике приложение никак не сигнализирует о факте записи звонка и работает как любой другой клиент IP-телефонии; идентификатор абонента при входящем звонке отображается как его номер телефона.

Основателем проекта Neon является некто Алекс Киам (Alex Kiam); юридическим адресом компании значится квартира в многоэтажном жилом доме в Нью-Йорке. Известно, что для запуска стартапа Киам привлёк средства от инвестиционной компании Upfront Ventures, но ни сам учредитель проекта, ни его инвесторы за запросы журналистов не ответили.

Персонажи в играх заговорят реалистичнее — Nvidia выпустила открытый ИИ-инструмент Audio2Face для речевой анимации

Nvidia объявила, что её решение Audio2Face теперь доступно по открытой демократичной лицензии MIT. Этот инструмент на основе генеративного искусственного интеллекта предназначается для анимации лиц у игровых персонажей и синхронизации движений их губ со звуковым потоком.

 Источник изображений: nvidia.com

Источник изображений: nvidia.com

Nvidia Audio2Face анализирует звук речи, учитывая фонемы, интонацию, эмоциональный тон, и генерирует потоки данных, которые впоследствии можно применять к трёхмерным персонажам, делая их поведение более выразительным и реалистичным. Модель в формате плагинов подключается к Autodesk Maya и Unreal Engine 5; Nvidia также подготовила SDK, фреймворк для обучения и примеры наборов данных.

Создатели игр могут самостоятельно дорабатывать существующие модели или адаптировать их для своих проектов, расширяя первоначальные возможности Audio2Face. Для синхронизации губ могут применяться регрессионные и диффузионные модели ИИ, доступны также нейросети Audio2Emotion, предназначенные для распознавания эмоционального состояния персонажа по его голосу.

Технология Nvidia Audio2Face уже используется в производстве игр. Farm 51 подключала её к созданию Chernobylite 2: Exclusion Zone, чтобы ускорить процесс анимации и сделать артикуляцию персонажей более естественной. С ней работают также студии Codemasters, GSC Game World, NetEase, Perfect World, Convai, Inworld AI, Reallusion, Streamlabs и UneeQ. Система позволяет обходиться без традиционных методов захвата движений, за что её ценят студии, которые стремятся ускорить разработку.

Nvidia позиционирует Audio2Face как средство из набора ИИ-инструментов RTX Kit для разработчиков — в него также входят SDK для нейронного сжатия текстур и глобального освещения. Выпуская решение как продукт с открытым исходным кодом, компания даёт разработчикам возможность адаптировать его к более широкому спектру приложений.

Цукерберг переманил из OpenAI ещё одного крупного исследователя в сфере ИИ

Компанию Meta Platforms уже не раз приходилось упоминать в новостях про высокую конкуренцию за квалифицированные кадры в сфере искусственного интеллекта, поскольку она делает ценным специалистам феноменально заманчивые предложения. Ещё один крупный исследователь из OpenAI на этом фоне перешёл в Meta, как сообщает Wired.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Ян Сон (Yang Song), который ранее руководил командой стратегических исследований в OpenAI, теперь перешёл в состав лабораторий Meta Superintelligence Labs, которые с июля этого года возглавляет Шэньцзя Чжао (Shengjia Zhao), ранее также трудившийся в штате OpenAI. Всего за это лето, по данным источника, Meta удалось переманить из OpenAI, Google и Anthropic не менее 11 ценных сотрудников, специализирующихся на ИИ.

Сон работал в OpenAI с 2022 года, его исследования сосредотачивались на улучшении способности больших языковых моделей обрабатывать большие и сложные массивы данных разнородного происхождения. Ещё учась на старших курсах Стэнфордского университета, он разработал передовой метод, который использовался при обучении модели DALL-E 2 компании OpenAI, предназначенной для генерирования изображений. Сон и Чжао успели поучиться в пекинском Университете Цинхуа, а при написании дипломных работ в Стэнфорде курировались общим научным руководителем — Стефано Эрмоном (Stefano Ermon).

Марк Цукерберг (Mark Zuckerberg) успел оценить достижения Чжао, отметив его заслуги при создании языковых моделей GPT-4, 4.1, o3, всех мини-версий и непосредственно ChatGPT. Летом этого года Чжао был назначен ведущим научным сотрудником профильной лаборатории Meta Platforms. Считается, что этому назначению предшествовала попытка Чжао уволиться из компании и вернуться в OpenAI.

Надо сказать, что случаи ухода сотрудников Meta Superintelligence Labs с момента её основания в июне этого года уже были зарегистрированы неоднократно. Этот путь прошли как минимум два бывших специалиста Meta, которые вернулись в OpenAI. Один из них даже успел попасть в штат Meta, но на работе никогда не появлялся, после чего вернулся в OpenAI.

В июле из Meta также ушёл исследователь Аурко Рой (Aurko Roy), который специализировался на ИИ. На этом месте он проработал всего пять месяцев, после чего перешёл в Microsoft. Переток кадров между крупными компаниями на американском рынке принимает постоянный и не всегда однонаправленный характер.

Nvidia теряет китайский рынок под напором Huawei — доля «зелёных» ИИ-чипов упадёт до 54 % в этом году

В мае основатель и бессменный руководитель Nvidia Дженсен Хуанг (Jensen Huang) признался, что с течением времени доля компании на китайском рынке ИИ-ускорителей сократилась с 95 до 50 % из-за санкций США. Эксперты Bernstein придерживаются более консервативного прогноза, указывая на снижение доли Nvidia до 54 % по итогам текущего года.

 Источник изображения: Huawei Technologies

Источник изображения: Huawei Technologies

Как отмечает Nikkei Asian Review, в прошлом году Nvidia на китайском рынке ИИ-компонентов контролировала 64 %. Скорее всего, расхождения по поводу текущего значения с собственными оценками руководства Nvidia появились из-за разницы в методиках расчёта, поскольку в первом случае в статистику могли попасть и сетевые компоненты для инфраструктуры ИИ, а глава компании мог упоминать только ускорители вычислений в чистом виде.

По прогнозу Bernstein, доля Huawei на китайском рынке ИИ-компонентов вырастет по итогам текущего года с 23 до 28 %. За пределами «большой тройки», к которой в реалиях китайского рынка аналитики относят Nvidia, AMD и Huawei, прогресс в доле рынка будет в этом году заметен ещё сильнее, поскольку все прочие участники увеличат свою совокупную долю с 6 до 14 %. К этой категории относятся китайские разработчики типа Cambricon Technologies. Популяризации их продукции способствуют не только американские санкции как таковые, но и усилия китайских властей по импортозамещению зарубежных ускорителей. На китайских разработчиков ИИ давление осуществляется с двух сторон: как изнутри, так и из-за пределов страны. Трудно приходится и производителям чипов в Китае, поскольку они ограничены в доступе к передовому оборудованию.

В задачах, связанных с формированием логических выводов (инференсе), китайская Alibaba, по мнению представителей Omdia, достаточно легко переходит с ускорителей Nvidia на решения китайских поставщиков. Постепенно продвигаются китайские разработчики и в создании серверных систем, способных эффективно заниматься обучением больших языковых моделей, которые к тому же оптимизируются и на программном уровне.

TSMC покончит с огромным энергопотреблением ИИ-чипов — с помощью ИИ и чиплетов

Бум систем искусственного интеллекта поднимает актуальность снижения энергопотребления полупроводниковых компонентов, поскольку рост показателя становится одним из сдерживающих факторов технического прогресса. TSMC и её партнёры готовы работать над этой проблемой, предлагая более совершенные методы проектирования чипов.

 Источник изображения: TSMC

Источник изображения: TSMC

По информации Reuters, вчера TSMC на тематическом мероприятии рассказала о своей стратегии по оптимизации уровня энергопотребления изготавливаемых ею чипов. Применение нескольких методов в совокупности позволит повысить энергоэффективность компонентов для инфраструктуры ИИ примерно в десять раз. Современные ускорители вычислений Nvidia способны в пике потреблять до 1200 Вт, а поскольку их в серверных системах сосредоточено достаточно много, это становится проблемой не только с точки зрения энергоснабжения, но и охлаждения.

Сама TSMC предлагает больше внимания уделять многокристальной компоновке чипов — использованию так называемых «чиплетов», которые будут выпускаться по различным литографическим технологиям. Разработчикам чипов следует брать на вооружение передовое профильное программное обеспечение, которое предусматривает оптимизацию энергопотребления как отдельных функциональных блоков, так и всего чипа в совокупности. В этой сфере Cadence и Synopsys плотно взаимодействуют с TSMC, которой приходится использовать цифровые проекты при изготовлении чипов.

Программные алгоритмы оптимизации дизайна чипов сейчас активно применяют технологии искусственного интеллекта, и находят оптимальную компоновку гораздо быстрее квалифицированных инженеров. В частности, по словам представителей TSMC, программное обеспечение делает это за пять минут, хотя даже опытный разработчик с использованием традиционных подходов потратил бы на оптимизацию дизайна чипа не менее двух дней.

На мероприятии выступили и представители Meta Platforms, которые рассказали об имеющихся трудностях в поиске новых технологий передачи информации с высокой скоростью. Так, переход от металлических проводников к оптическому волокну в действительности является фундаментальной физической проблемой, а не столько инженерной сам по себе.

Alibaba выпустила флагманскую ИИ-модель Qwen-3 Max — она обходит GPT-5 и доступна бесплатно

Компания Alibaba объявила о релизе Qwen-3 Max — новой флагманской большой языковой модели (LLM), которая стала самой продвинутой в линейке китайского разработчика. Она призвана конкурировать с ведущими решениями индустрии, включая GPT-5 от OpenAI, Gemini 2.5 Pro от Google и Claude Opus 4 от Anthropic.

 Источник изображений: Alibaba, Qwen

Источник изображений: Alibaba, Qwen

Qwen-3 Max стала первой моделью Alibaba, преодолевшей рубеж в один триллион параметров. При этом она была обучена на массиве данных объёмом 36 трлн токенов. Контекстное окно достигает 1 млн токенов, что позволяет анализировать целые кодовые базы или многотомные документы без разделения текста.

Alibaba утверждает, что Qwen-3 Max демонстрирует заметный прогресс в понимании сложных инструкций, рассуждениях и работе с узкоспециализированными областями знаний. Кроме того, модель обеспечивает более высокую точность в задачах, связанных с математикой, программированием, логикой и наукой. Отмечается и существенно улучшенная поддержка английского и китайского языков. Наконец, Qwen-3 Max реже галлюцинирует — то есть выдумывает факты в ответах.

В популярном рейтинге LMArena новая модель в версии Qwen3-Max-Instruct заняла третье место, уступив лишь Claude Opus 4.1 Thinking, Gemini 2.5 Pro и OpenAI GPT-5 High, но при этом опередив базовую версию GPT-5. В тесте SWE-Bench Verified, проверяющем способность решать реальные задачи программирования, она набрала 69,6 балла — больше, чем DeepSeek V3.1, но немного меньше, чем Claude Opus 4. В испытании Tau2-Bench, оценивающем работу ИИ-агентов, Qwen-3 Max набрала 74,8 балла, превзойдя и DeepSeek V3.1, и Claude Opus 4.

Alibaba также упомянула перспективную версию Qwen-3-Max-Thinking, которая пока находится на стадии обучения, но уже демонстрирует «выдающийся потенциал». В частности, в пробных тестах она показала стопроцентный результат в задачах на рассуждение, включая AIME-25 и HMMT.

Воспользоваться Qwen-3 Max можно уже сейчас: модель в версии Qwen3-Max-Base доступна бесплатно через приложение или сайт Qwen. На iOS и Android новая модель теперь будет предлагаться в качестве стандартной. Если модель пока не предлагается по умолчанию, её можно активировать вручную через меню выбора модели.

Microsoft снизила зависимость от OpenAI — в Microsoft 365 Copilot появились ИИ-модели Claude от Anthropic

Microsoft начала интеграцию ИИ-моделей Claude Sonnet 4 и Claude Opus 4.1 от компании Anthropic в свои офисные приложения Microsoft 365 Copilot. Это расширит выбор моделей и позволит клиентам использовать технологии Anthropic в агенте «Исследователь» (Researcher) и при создании ИИ-агентов в Microsoft Copilot Studio.

 Источник изображений: Microsoft

Источник изображений: Microsoft

Сегодня пользователи Microsoft 365 Copilot получили возможность подключить модели Anthropic через программу Frontier. В приложении Researcher появилась кнопка «Попробовать Claude», которая переключает систему с моделей OpenAI на Claude Opus 4.1. После подключения можно легко переключаться между ИИ-движками в рамках одного инструмента, сообщает The Verge, ссылаясь на заявление президента подразделения Microsoft по разработке Copilot для бизнеса и отраслей Чарльза Ламанна (Charles Lamanna).

Модели Claude Sonnet 4 и Claude Opus 4.1 также станут доступны в Microsoft Copilot Studio — платформе для создания и управления ИИ-агентами. По словам Ламанна, это позволит разрабатывать инструменты для глубокого анализа, автоматизации рабочих процессов и выполнения гибких агентных задач. При этом в Copilot Studio можно будет комбинировать модели от разных поставщиков, включая Anthropic, OpenAI и других, представленных в каталоге моделей Azure.

Примечательно, что, несмотря на интеграцию, сами модели Anthropic продолжат размещаться на инфраструктуре главного облачного конкурента Microsoft — Amazon Web Services. Доступ к этим ИИ Microsoft будет осуществлять через публичный API Anthropic, то есть стандартно, как и любой сторонний разработчик. Однако ранее компания уже заключила соглашение с xAI о размещении модели Grok 3 в облаке Azure, и аналогичное соглашение с Anthropic в будущем не исключается.

Данное объявление последовало всего через неделю после того, как Microsoft начала отдавать предпочтение Anthropic перед OpenAI в среде Visual Studio Code, где платные пользователи GitHub Copilot теперь в основном используют Claude Sonnet 4. Сообщается также, что в ближайшее время модели Anthropic могут быть задействованы в Excel и PowerPoint, поскольку они показали более высокую производительность по сравнению с моделями OpenAI.


window-new
Soft
Hard
Тренды 🔥