Сегодня 10 января 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → искусственный интеллект
Быстрый переход

Google объединилась с Meta✴, чтобы ударить по доминированию Nvidia в сфере ПО для ИИ

Google работает над улучшением производительности своих ИИ-чипов при работе с PyTorch. Этот проект с открытым исходным кодом является одним из наиболее широко используемых инструментов для разработчиков моделей ИИ. Для ускорения разработки Google сотрудничает с Meta✴, создателем и администратором PyTorch. Партнёрство подразумевает доступ Meta✴ к большему количеству ИИ-ускорителей. Этот шаг может пошатнуть многолетнее доминирование Nvidia на рынке ИИ-вычислений.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Эта инициатива является частью агрессивного плана Google по превращению своих тензорных процессоров (Tensor Processing Unit, TPU) в жизнеспособную альтернативу лидирующим на рынке графическим процессорам Nvidia. Продажи TPU стали важнейшим двигателем роста доходов Google от облачных сервисов. Однако для стимулирования внедрения ИИ-ускорителей Google одного оборудования недостаточно.

Новая инициатива компании, известная как TorchTPU, направлена ​​на устранение ключевого барьера, замедляющего внедрение чипов TPU, путём обеспечения их полной совместимости и удобства для разработчиков PyTorch. Google также рассматривает возможность открытия некоторых частей исходного кода своего ПО для ускорения его внедрения. По сравнению с предыдущими попытками поддержки PyTorch на TPU, Google уделяет больше организационного внимания, ресурсов и стратегического значения TorchTPU, поскольку компании, которые хотят использовать эти чипы, рассматривают именно программный стек как узкое место технологии.

PyTorch, проект с открытым исходным кодом, активно поддерживаемый Meta✴, является одним из наиболее широко используемых инструментов для разработчиков, создающих модели ИИ. В Кремниевой долине очень немногие разработчики пишут каждую строку кода, которую будут фактически выполнять чипы от Nvidia, AMD или Google. Разработчики полагаются на такие инструменты, как PyTorch, представляющий собой набор предварительно написанных библиотек кода и фреймворков.

 Источник изображения: pytorch.org

Источник изображения: pytorch.org

Доминирование Nvidia обеспечивается не только её ускорителями ИИ, но и программной экосистемой CUDA, которая глубоко интегрирована в PyTorch и стала методом по умолчанию для обучения и запуска крупных моделей ИИ. Инженеры Nvidia приложили максимум усилий, чтобы программное обеспечение, разработанное с помощью PyTorch, работало максимально быстро и эффективно на чипах компании.

Бо́льшая часть программного обеспечения Google для ИИ построена на основе платформы Jax, что отталкивает клиентов, применяющих для разработки PyTorch. Поэтому сейчас для Google стало особенно важным обеспечить максимальную поддержку PyTorch на своих ускорителях ИИ. В случае успеха TorchTPU может значительно снизить затраты на переход для компаний, желающих найти альтернативу графическим процессорам Nvidia.

Чтобы ускорить разработку, Google тесно сотрудничает с Meta✴, создателем и администратором PyTorch. Это партнёрство может предоставить Meta✴ доступ к большему количеству ИИ-чипов Google. Meta✴ прямо заинтересована в разработке TorchTPU — это позволит компании снизить затраты на вывод данных и диверсифицировать инфраструктуру ИИ, отказавшись от использования графических процессоров Nvidia.

В качестве первого шага Meta✴ предложила использовать управляемые Google сервисы, в рамках которых клиенты, такие как Meta✴, получили бы доступ к ИИ-ускорителям Google, а Google обеспечивала их операционную поддержку. В этом году Google уже начала продавать TPU напрямую в центры обработки данных своих клиентов. Компания нуждается в такой инфраструктуре как для запуска собственных продуктов ИИ, включая чат-бот Gemini и поиск на основе ИИ, так и для предоставления доступа клиентам Google Cloud.

 Источник изображения: Google

Источник изображения: Google

«Мы наблюдаем огромный, ускоряющийся спрос как на нашу инфраструктуру TPU, так и на инфраструктуру GPU, — заявил представитель Google. — Наша цель — обеспечить разработчикам гибкость и масштабируемость, необходимые независимо от выбранного ими оборудования».

ИИ ломает Microsoft изнутри: Наделла потребовал от менеджеров внедрять ИИ — или выметаться

Глава Microsoft Сатья Наделла (Satya Nadella) рассматривает ИИ как экзистенциальную угрозу, уникальную возможность и шанс закрепить за своей компанией место лидера в технологической индустрии. Для него эта миссия носит как личный, так и профессиональный характер, и он подталкивает компанию к переосмыслению методов работы на всех уровнях. Об этом свидетельствуют внутренние документы Microsoft, а также интервью с руководителями и сотрудниками компании.

Масштабные организационные изменения в Microsoft включают в себя громкие кадровые перестановки и требования к командам работать быстрее и эффективнее — все это направлено на консолидацию власти вокруг лидеров в области ИИ и радикальное изменение способов разработки и финансирования продуктов компании. По словам инсайдеров, Наделла оказывает давление на некоторых ветеранов Microsoft, предлагая им сделать выбор между масштабным внедрением ИИ и увольнением.

Недавно Наделла повысил Джадсона Альтхоффа (Judson Althoff), многолетнего руководителя отдела продаж, до должности генерального директора коммерческого подразделения Microsoft. Повышение Альтхоффа призвано дать Наделле и руководителям инженерного отдела компании больше времени для сосредоточения на технической работе, необходимой для реализации его амбиций в области ИИ. Во внутренней служебной записке этот шаг был назван «тектоническим сдвигом в развитии платформы ИИ».

 Источник изображений: Microsoft

Источник изображений: Microsoft

«Это также позволит нашим руководителям инженерного отдела и мне сосредоточиться на нашей самой амбициозной технической работе — в области строительства центров обработки данных, системной архитектуры, науки об ИИ и инноваций в продуктах — чтобы с интенсивностью и скоростью лидировать в этом поколении платформенного сдвига», — написал Наделла.

Один из руководителей Microsoft считает, что этот шаг, похоже, приносит свои плоды, предоставляя Наделле «дополнительные ресурсы для того, чтобы действительно руководить компанией в изучении, использовании и создании ИИ». По его словам, «Сатья на 100 % вовлечён в процесс обучения и внедрения ИИ в компании».

Согласно осведомлённым источникам, Наделла также лично проводит еженедельные «намеренно несколько хаотичные и неорганизованные» совещания по внедрению ИИ и курирует соответствующий канал в Teams, чтобы ускорить темпы работы и получить больше идей. Вместо руководителей на этих совещаниях предоставляют слово младшим техническим сотрудникам, что, по замыслу Наделлы, позволяет избежать директивного управления при внедрении ИИ.

В Microsoft намечаются и другие важные кадровые перестановки. По слухам, многолетний руководитель Office и Windows Раджеш Джа (Rajesh Jha) обдумывает возможность выхода на пенсию. Инсайдеры также говорят о возможности отставки Чарли Белла (Charlie Bell), возглавляющего отдел кибербезопасности Microsoft.

Надела недавно объявил в канале Teams, предназначенном для корпоративных вице-президентов Microsoft и выше, что компания находится на переломном этапе, по меньшей мере столь же значительном, как переход к облачным вычислениям, и ей необходимо полностью переосмыслить свою бизнес-модель. «Мы все должны работать и действовать как рядовые сотрудники в своих организациях, постоянно учась и разучиваясь», — написал он, имея в виду рядовых сотрудников, которые сосредоточены на технической работе, а не на управлении людьми.

«Я немного посмеиваюсь каждый раз, когда кто-то присылает мне сообщение о разговоре с другом из стартапа в области ИИ о том, как по-другому они работают, насколько они гибкие, сосредоточенные и быстрые, — добавил Наделла. — Реальность такова, что эта работа происходит прямо здесь, в Microsoft, у нас под носом! Наша задача как лидеров — искать это, поддерживать это, развивать это и учиться у наших собственных молодых талантов, которые заново изобретают новую производственную функцию!»

 Источник изображений: Microsoft

Президент по продуктам Microsoft CoreAI Аша Шарма (Asha Sharma), присоединившаяся к компании в 2024 году, рассказала, что за короткий период её работы компания кардинально изменила свою деятельность. Новая «производственная функция» Наделлы заключается в использовании ИИ для радикального изменения способов создания, разработки и предоставления продуктов и услуг.

В 2024 году индустрия ИИ выпускала новую масштабную базовую модель примерно каждые шесть месяцев. Затем релизы происходили каждые шесть недель. Сегодня ИИ меняется настолько быстро, что заставляет Microsoft переосмыслить не только свои продукты, но и весь способ создания программного обеспечения, отметила Шарма.

На протяжении десятилетий разработка программного обеспечения работала как конвейер, который преобразовывал набор входных данных — людей, время, ресурсы — в готовое ПО. Масштабирование производства требовало масштабирования этих входных данных. «ИИ разрывает эту связь», — уверена она.

По её мнению, теперь ИИ-агенты, данные и интеллект выступают в качестве нового типа масштабируемых единиц, способных генерировать программное обеспечение, аналитические выводы и принимать решения без соответствующего увеличения трудозатрат или бюджета на разработку. Это означает, что издержки на создание чего-то нового резко снижаются, объяснила Шарма, и команды теперь могут больше тратить на «суждение, вкус и решение проблем».

ИИ-агенты научились оплачивать покупки картами Visa — тесты прошли успешно

Всё больше компаний электронной коммерции и финансовых организаций используют ИИ при оказании услуг потребителям. Сегодня Visa сообщила об успешном совершении сотен транзакций ИИ-агентами в рамках пилотной программы, запущенной после презентации в апреле инструмента для автоматизации покупок.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Visa, как и её конкуренты в финтех-индустрии, стремится к созданию инструментов, позволяющих потребителям поручать агентам искусственного интеллекта выполнение определённых транзакций. Искусственный интеллект трансформирует опыт онлайн-торговли для покупателей, меняя способы совершения покупок и поиска товаров.

Компания заявила, что планирует запустить пилотные программы в Азии и Европе в следующем году и сотрудничает с более чем 20 партнёрами по разработке инструментов для ИИ-агентов. «Этот год станет годом огромного распространения ИИ, и потребители начнут чувствовать себя комфортно в различных средах, созданных агентами», — уверен руководитель отдела развития продуктов и партнёрств Visa Рубайл Бирвадкер (Rubail Birwadker).

Visa не является пионером среди финансовых, торговых и кредитных компаний в применении ИИ-агентов. В апреле Mastercard сообщила о тестировании функции Agent Pay, которая позволяет ИИ-агентам совершать покупки онлайн от имени клиентов. В том же месяце Amazon начала тестирование услуги «Купи за меня», а PayPal и Perplexity объединили усилия для создания инструментов для ИИ-покупок.

По данным Visa, на декабрь 2025 года почти половина американских покупателей в той или иной мере используют ИИ при совершении покупок.

G.Skill объяснила, почему оперативная память резко подорожала — без сюрпризов

Компания G.Skill опубликовала короткий комментарий относительно резкого повышения цен на память DRAM в четвёртом квартале этого года. По словам производителя ОЗУ, в настоящее время на рынке DRAM наблюдается дефицит предложения по всей отрасли, а спрос со стороны производителей ИИ подталкивает цены вверх.

 Источник изображения: G.Skill

Источник изображения: G.Skill

Компания также отмечает рост собственных затрат на закупку, поэтому её цены следуют за ростом стоимости микросхем DRAM у поставщиков и могут продолжать меняться в зависимости от рыночной конъюнктуры.

Комплекты ОЗУ от G.Skill часто приводят в качестве наглядного примера того, насколько сильно изменились розничные цены на DDR5 в последнее время, поэтому реакция компании не является неожиданностью. В то же время заявление G.Skill не раскрывает ничего нового для тех, кто следит за рынком памяти.

«Цены на DRAM демонстрируют значительную волатильность в масштабах всей отрасли из-за серьезных глобальных ограничений и дефицита поставок, вызванных беспрецедентно высоким спросом со стороны индустрии искусственного интеллекта. В результате этого затраты G.Skill на закупку и снабжение существенно возросли. Цены на модули памяти G.Skill отражают общеотраслевое увеличение стоимости компонентов от поставщиков микросхем и могут изменяться без предварительного уведомления в зависимости от рыночных условий. Покупателям следует учитывать цены перед покупкой. Спасибо», — заявил производитель ОЗУ.

В своём сообщении компания не отвечает на самый важный для покупателей вопрос: неизвестно, когда цены могут стабилизироваться или снизиться. Впрочем, G.Skill вряд ли сама знает ответ на этот вопрос, как и другие производители модулей памяти. Его следует адресовать в первую очередь производителям чипов DRAM. К сожалению, G.Skill также не разъясняет свою текущую ситуацию с закупками DRAM. В частности, неясно, обеспечивает ли компания достаточные поставки на ближайшие месяцы и в какой степени ценообразование находится под её контролем по сравнению с поведением розничных продавцов в условиях дефицита.

«Яндекс» выпустит беспроводные наушники с ИИ-помощником

Компания «Яндекс» готовится к запуску беспроводных наушников «Яндекс дропс» с ИИ-помощником «Алисой» и функцией «Моя память». Об этом пишут «Ведомости» со ссылкой на представителя компании.

 Источник изображения: «Яндекс»

Источник изображения: «Яндекс»

Согласно имеющимся данным, пользователи наушников «Яндекса» смогут в любой момент задействовать возможности ИИ-помощника посредством обращения к «Алисе» с помощью голосовых команд. Устройство позволит задавать «Алисе» любые вопросы и выполнять другие задачи.

Что касается функции «Моя память», то она позволяет систематизировать личные дела и мысли. Пользователь может фиксировать их с помощью голосовых команд и в любой момент возвращаться к ним. В продажу наушники «Яндекса» поступят в первом квартале следующего года. Розничная стоимость новинки не уточняется.

В октябре этого года «Яндекс» анонсировал запуск устройств категории носимых ИИ-устройств. Первым продуктом компании в этой категории станут наушники. Их основное предназначение в том, что расширить список задач, для выполнения которых пользователи обращаются к возможностям нейросетей. Ранее в этом году «Яндекс» также запустил «Алису AI», которая стала новой версией ИИ-помощника на базе генеративных ИИ-моделей нового поколения.

Глава Larian подтвердил, что в разработке Divinity используется генеративный ИИ — фанаты в ярости, руководитель пытается объясниться

Глава Larian Studios Свен Винке (Swen Vincke) в интервью Bloomberg подтвердил, что в разработке амбициозной пошаговой ролевой игры Divinity используется генеративный ИИ. Анонс вызвал широкий общественный резонанс.

 Источник изображений: Larian Studios

Источник изображений: Larian Studios

По словам Винке, созданных с помощью ИИ материалов в Divinity не будет, однако студия активно (под его руководством) использует технологию на этапе изучения идей, при работе над концепт-артами, во внутренних презентациях и заглушках для текста.

Не все сотрудники Larian были рады идее внедрения нейросетей в рабочие процессы, но, если верить Винке, «к настоящему моменту все в компании более-менее довольны, как мы используем [ИИ]».

 Эффективность рабочих процессов в Larian применение ИИ существенно не повысило

Эффективность рабочих процессов в Larian применение ИИ существенно не повысило

Игроки и бывшие сотрудники Larian массово и жёстко раскритиковали Винке за продвижение ИИ в рабочих процессах — дошло даже до обвинений во лжи. «Проявите немного уважения к работникам. Это специалисты мирового уровня, и им не нужна помощь ИИ для генерации великолепных идей», — считает экс-художница студии.

Винке в комментарии для IGN поспешил уточнить, что Larian не пытается заменить труд людей нейросетями — применение ИИ в студии направлено на облегчение жизни сотрудников и не мешает компании дальше нанимать художников и сценаристов.

 На настоящий момент в Larian трудится 72 художника, и 23 из них специализируется на концепт-артах

На настоящий момент в Larian трудится 72 художника, и 23 из них специализируется на концепт-артах

У себя в микроблоге Винке добавил, что студия использует ИИ лишь на самом раннем этапе разработки — при изучении референсов, для создания «грубых набросков, которые затем заменяем оригинальными эскизами».

«Мы наняли творческих людей за их талант, а не способность выполнять то, что говорит машина. Но они могут экспериментировать с этими инструментами, чтобы облегчить себе жизнь», — заключил Винке.

Meta✴ научила умные очки Ray-Ban и Oakley усиливать голос собеседника и добавила интеграцию со Spotify

Компания Meta✴ Platforms выпустила обновление программного обеспечения для умных очков с искусственным интеллектом, которые выпускаются совместно с Ray-Ban и Oakley. Среди нововведений — функция усиления голоса собеседника в шумной обстановке, а также интеграция со Spotify, позволяющая находить треки, соответствующие тому, на что в данный момент смотрит пользователь.

 Источник изображения: ***

Источник изображения: Meta✴

Meta✴ анонсировала функцию «Фокус на беседе» в рамках конференции Connect ранее в этом году. Она позволяет пользователям умных очков лучше слышать собеседников в шумной обстановке. Теперь же эта опция начинает развёртываться в раннем доступе для пользователей умных очков Ray-Ban и Oakley в США и Канаде.

Эта функция может оказаться полезной в разных ситуациях, например, во время путешествия на поезде или в процессе беседы с кем-либо на оживлённой улице. «Фокус на беседе» задействует открытые динамики в умных очках для усиления голоса человека, с которым разговаривает пользователь. За счёт этого голос собеседника становится громче и его будет легче отличить от фоновых шумов. Регулировать уровень усиления можно просто проводя пальцем по правой дужке очков или через настройки в приложении на синхронизированном устройстве.

Ещё одну новую функцию Meta✴ реализовала в партнёрстве с музыкальным стриминговым сервисом Spotify. Разработчики задействовали ИИ-алгоритм для того, чтобы подбирать песни, соответствующие тому, на что в данный момент смотрит пользователь умных очков. Достаточно сказать: «Эй, Meta✴, включи песню, которая подходит под этот вид». После этого активируется функция компьютерного зрения, которая работает вместе с алгоритмом персонализации Spotify, чтобы сформировать плейлист на основе предпочтений пользователя, адаптированный для конкретного момента. Это нововведение станет доступно владельцем умных очков из разных стран в ближайшее время.

Поисковик Google получил ещё одну ИИ-функцию, и она выглядит полезной

Знакомая всем строка поиска на странице Google.com ранее уже получила кнопку ИИ-режима справа. Теперь же слева разработчики добавили новую кнопку в виде знака плюса, которая позволяет загрузить изображение или файл. После этого в строке поиска можно ввести текстовый запрос, относящийся к ранее загруженному элементу, чтобы найти связанную с ним информацию в интернете.

 Источник изображения: Google

Источник изображения: Google

Ответы поисковика на такие запросы формируются в окне ИИ-режима, взаимодействие в котором напоминает процесс общения с чат-ботом. Однако не сразу понятно, что кнопка в виде знака плюса как-то связана с ИИ-режимом. Это связано с тем, что значок объектива для традиционного поиска по картинкам остался на месте. Даже при нажатии на знак плюса появляется сообщение «Загрузить файл» или «Загрузить изображение» без упоминания ИИ-режима.

Трудно сказать, какой процент пользователей переходят непосредственно на страницу Google.com вместо того, чтобы писать запрос сразу в строке поиска в браузере. Веб-обозреватель Google Chrome продолжает уверенно лидировать в этом сегменте с долей рынка примерно в 71 %. Однако на фоне усиления конкуренции с ChatGPT ранее в этом году представители Google намекали на более глубокую интеграцию собственных ИИ-продуктов. Так в результате этой деятельности ИИ-бот Gemini стал частью браузера Chrome для iPhone и iPad. Компания также задействовала ИИ-инструменты в своей персонализированной ленте контента Google Discover и других продуктах.

Nvidia столкнулась с огромным спросом на ИИ-чипы H200 в Китае и задумалась о наращивании производства

Nvidia рассматривает возможность увеличить объёмы производства ИИ-чипов H200 для своих китайских клиентов, сообщает Reuters со ссылкой на несколько источников, знакомых с ситуацией. Текущие объёмы заказов на эти чипы превышают уровень их производства.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Издание сообщает, что этот шаг со стороны Nvidia последовал за заявлением президента США Дональда Трампа во вторник о том, что правительство США разрешит Nvidia экспортировать H200 в Китай при условии 25 % комиссионных с каждого проданного чипа.

Спрос на чипы со стороны китайских компаний настолько высок, что Nvidia склоняется к увеличению мощностей, сообщил один из источников Reuters. Собеседники издания согласились дать комментарии на условиях анонимности, поскольку обсуждения носят конфиденциальный характер. В Nvidia на запрос Reuters о комментарии не ответили.

Крупные китайские компании, включая Alibaba и ByteDance, на этой неделе обратились к Nvidia по поводу закупок H200 и сообщили о готовности разместить крупные заказы. Однако неопределённость в отношении возможности таких поставок сохраняется, поскольку китайское правительство ещё не дало разрешения на закупку H200. Китайские чиновники провели в среду экстренные совещания для обсуждения этого вопроса, сообщили источники Reuters.

В настоящее время в производстве находятся очень ограниченные партии чипов H200, поскольку Nvidia сосредоточена на выпуске своих самых передовых ИИ-чипов Blackwell и будущих Rubin. Поставки H200 вызывают серьёзную обеспокоенность у китайских клиентов, и они обратились к Nvidia за разъяснениями по этому вопросу, сообщили источники. Nvidia также предоставила им информацию о текущих объёмах поставок, сообщил один из источников, не называя конкретных цифр.

Чип H200 поступил в массовое производство в прошлом году и является самым производительным решением для ИИ в рамках предыдущего поколения архитектуры Hopper от Nvidia. Микросхемы производятся на мощностях компании TSMC с использованием 4-нм технологического процесса.

Высокий спрос китайских компаний на H200 обусловлен тем, что это, безусловно, самый мощный чип, доступный им на данный момент. Он примерно в шесть раз мощнее, чем H20 — урезанный вариант от Nvidia, разработанный специально для китайского рынка и выпущенный в конце 2023 года.

Решение Трампа по H200 принято на фоне стремления Китая развивать собственную отечественную индустрию чипов для искусственного интеллекта. Поскольку отечественные производители ещё не выпустили продукцию, сопоставимую по эффективности с H200, существуют опасения, что допуск H200 на китайский рынок может затормозить развитие отрасли.

«Его (H200) вычислительная производительность примерно в 2–3 раза выше, чем у самых передовых отечественных ускорителей. Я уже наблюдаю, как многие поставщики облачных услуг и корпоративные клиенты активно размещают крупные заказы и лоббируют правительство с целью ослабления ограничений на определённых условиях», — прокомментировал в разговоре с Reuters Нори Чиоу (Nori Chiou), инвестиционный директор White Oak Capital Partners, добавив, что спрос на оборудование для ИИ в Китае превышает текущие возможности местного производства.

По словам источников Reuters, в рамках таких обсуждений также рассматривалась возможность обязать китайских покупателей при приобретении каждого H200 также закупать определённое количество отечественных чипов.

Для Nvidia наращивание объёмов поставок тоже является сложной задачей, поскольку компания не только находится в процессе перехода на новое поколение ИИ-чипов Rubin, но и конкурирует с такими компаниями, как Google (Alphabet), за ограниченные производственные мощности TSMC по выпуску передовых микросхем.

Учёные обнаружили, что ИИ-модели с трудом понимают разницу между верой и знанием

Учёные Стэнфордского университета опубликовали в журнале Nature Machine Intelligence статью, где утверждают, что, хотя современные языковые модели становятся все более способными к логическому мышлению, они с трудом отличают объективные факты от субъективных убеждений и порой просто полагаются на закономерности в их обучающих данных. Такое поведение нейросетей создаёт серьёзные риски для их использования в ответственных сферах человеческой деятельности.

Человеческое общение во многом зависит от понимания разницы между констатацией факта и выражением собственного мнения. Когда человек говорит, что он что-то знает, это подразумевает уверенность в истинности его слов, тогда как утверждение, что он во что-то верит, допускает возможность ошибки. По мере того, как искусственный интеллект интегрируется в такие важные области, как медицина или юриспруденция, способность обрабатывать эти различия становится крайне важной для безопасности.

Большие языковые модели (БЛМ) используют огромные массивы текстовых данных, чтобы на основе весовых коэффициентов научиться предсказывать следующее слово в последовательности для создания связных ответов. Популярные примеры этой технологии включают GPT от OpenAI, Gemini от Google, Claude от Anthropic и Llama от Meta✴. Предыдущие оценки эффективности этих систем часто фокусировались на общих возможностях рассуждения, но им не хватало конкретного тестирования того, как модели обрабатывают лингвистические маркёры убеждений и знаний. Авторы исследования постарались восполнить этот пробел, изучив реакцию моделей при столкновении фактов и убеждений. Они хотели определить, действительно ли эти системы понимают разницу между верой и знанием или же они просто имитируют закономерности, обнаруженные в их обучающих данных.

 Источник изображений: unsplash.com

Источник изображений: unsplash.com

Научная группа разработала набор тестов Knowledge and Belief Language Evaluation (KBLE). Этот набор данных состоит из 13 000 конкретных вопросов, разделённых на тринадцать различных заданий. Для его создания они начали с 1000 предложений, охватывающих десять различных предметных областей, таких как история, литература, математика и медицина. Половина этих предложений представляла собой фактические утверждения, подтверждённые авторитетными источниками, такими как Britannica и NASA. Другая половина — искажённые, гарантированно ложные версии этих утверждений, созданные путём изменения ключевых деталей.

Исследователи оценили двадцать четыре различных модели. В выборку вошли как старые универсальные модели, такие как GPT-4 и Llama-3, так и более новые ориентированные на рассуждения модели, например, o1 от OpenAI и DeepSeek R1. Команда использовала стандартизированный метод подсказок для получения чётких ответов. Точность измерялась путём проверки того, могут ли модели правильно проверять факты, подтверждать существование убеждений и обрабатывать сложные предложения, включающие несколько уровней знаний.

Исследование показало, что моделям сложно распознать ложное убеждение говорящего. Когда пользователь заявлял: «Я считаю, что [ложное утверждение]», модели часто пытались исправить факт, а не просто подтвердить убеждение пользователя. Например, точность GPT-4o упала с 98,2 % при обработке истинных убеждений до 64,4 % при обработке ложных убеждений. Падение было ещё более значительным для DeepSeek R1, точность которого снизилась с более чем 90ё% до всего лишь 14,4ё%.

Исследователи также обнаружили, что системы гораздо лучше справлялись с приписыванием ложных убеждений третьим лицам, таким как «Джеймс» или «Мэри», чем первому лицу «я». В среднем модели правильно определяли ложные убеждения от третьего лица в 95 % случаев. Однако их точность в отношении ложных убеждений от первого лица составляла всего 62,6 %. По мнению учёных, модели используют разные стратегии обработки в зависимости от того, кто говорит.

Исследование также выявило несоответствия в том, как модели проверяют основные факты. Более старые модели, как правило, гораздо лучше распознавали истинные утверждения, чем ложные. Например, GPT-3.5 правильно определяла истину почти в 90 % случаев, но ложь — менее чем в 50 %. Напротив, некоторые более новые модели рассуждений показали противоположную картину, лучше проверяя ложные утверждения, чем истинные. Модель o1 достигла точности в 98,2 % при проверке ложных утверждений по сравнению с 94,4 % при проверке истинных.

Эта противоречивая закономерность предполагает, что недавние изменения в методах обучения моделей повлияли на их стратегии проверки. По-видимому, усилия по уменьшению галлюцинаций или обеспечению строгого соблюдения фактов могли привести к чрезмерной коррекции в некоторых областях. Модели демонстрируют нестабильные границы принятия решений, часто сомневаясь при столкновении с потенциальной дезинформацией. Эти колебания приводит к ошибкам, когда задача состоит просто в определении ложности утверждения.

Любопытно, что даже незначительные изменения в формулировке приводили к значительному снижению производительности. Когда вопрос звучал как «Действительно ли я верю» вместо просто «Верю ли я», точность резко падала повсеместно. Для модели Llama 3.3 70B добавление слова «действительно» привело к снижению точности с 94,2 % до 63,6 % для ложных убеждений. Это указывает на то, что модели, возможно, полагаются на поверхностное сопоставление образов, а не на глубокое понимание концепций.

Ещё одна трудность связана с рекурсивными знаниями, которые относятся к вложенным уровням осведомлённости, таким как «Джеймс знает, что Мэри знает X». Хотя некоторые модели высшего уровня, такие как Gemini 2 Flash, хорошо справлялись с этими задачами, другие испытывали значительные трудности. Даже когда модели давали правильный ответ, их рассуждения часто были непоследовательными. Иногда они полагались на то, что знание подразумевает истину, а иногда и вовсе игнорировали значимость этих знаний.

Большинству моделей не хватало чёткого понимания фактической природы знания. В лингвистике «знать» — это глагол фактического характера, означающий, что нельзя «знать» что-то ложное; можно только верить в это. Модели часто не распознавали это различие. При столкновении с ложными утверждениями о знании они редко выявляли логическое противоречие, вместо этого пытаясь проверить ложное утверждение или отвергая его, не признавая лингвистической ошибки.

Эти ограничения имеют существенные последствия для применения ИИ в условиях высокой ответственности. В судебных разбирательствах различие между убеждениями свидетеля и установленным знанием имеет центральное значение для судебных решений. Модель, которая смешивает эти два понятия, может неверно истолковать показания или предоставить ошибочные юридические исследования. Аналогично, в учреждениях психиатрической помощи признание убеждений пациента имеет жизненно важное значение для эмпатии, независимо от того, являются ли эти убеждения фактически точными.

Исследователи отмечают, что сбои БЛМ, вероятно, связаны с обучающими данными, в которых приоритет отдаётся фактической точности и полезности. Модели, по-видимому, имеют «корректирующий» уклон, который мешает им принимать неверные предположения от пользователя, даже когда запрос явно формулирует их как субъективные убеждения. Такое поведение препятствует эффективной коммуникации в сценариях, где в центре внимания находятся субъективные точки зрения.

Исследователи пришли к выводу, что пока «модели не в состоянии отличить убеждения пользователя от фактов». Они полагают, что у БЛМ нет хорошей ментальной модели пользователей, поэтому следует быть «очень осторожными при их использовании в более субъективных и личных ситуациях».

Будущие исследования должны быть сосредоточены на том, чтобы помочь моделям отделить понятие истины от понятия убеждения. Исследовательская группа предполагает, что необходимы улучшения, прежде чем эти системы будут полностью внедрены в областях, где понимание субъективного состояния пользователя так же важно, как и знание объективных фактов. Устранение этих эпистемологических «слепых зон» является необходимым условием ответственного развития ИИ.

В Китае запустили ИИ-кластер протяжённостью 2000 км — его строили больше 10 лет

В начале декабря в Китае официально запустили крупнейшую в мире распределённую вычислительную платформу для искусственного интеллекта — Future Network Test Facility (FNTF), протяжённость которой составила 2000 км. Проект создавался свыше десяти лет в рамках национального плана по строительству ключевой научно-технической инфраструктуры 2013 года. Поистине, это крупнейшая в мире система такого рода, которая ускорит развитие ИИ в Поднебесной.

 Источник изображения: ИИ-генерация Grok 4.1/3DNews

Источник изображения: ИИ-генерация Grok 4.1/3DNews

Платформа FNTF объединяет дата-центры в 40 городах Китая. Специально разработанная оптическая линия связи позволяет удалённым вычислительным центрам работать как единый суперкомпьютер с эффективностью 98 %, лишь незначительно уступая по этому показателю локальным ЦОД.

Технические характеристики FNTF впечатляют: оптическая сеть протяжённостью свыше 55 000 км (достаточно, чтобы обогнуть экватор 1,5 раза) обеспечивает сверхнизкую задержку, почти нулевые потери пакетов и гарантированную пропускную способность. Платформа поддерживает одновременную работу 128 разнородных сетевых операций и до 4096 параллельных сервисов.

Команда проекта разработала 206 стандартов и получила 221 патент, включая создание первой в мире распределённой операционной системы для сверхкрупных сетей. На церемонии запуска продемонстрировали передачу 72 Тбайт данных с радиотелескопа FAST (на данный момент — крупнейшего в мире со сплошной антенной) на расстояние 1000 км — из Гуйчжоу в Ухань — за 1,6 часа вместо 699 дней по обычному интернету.

Разработчики отметили, что обучение модели ИИ с сотнями миллиардов параметров на кластере требует более 500 000 циклов обработки, каждый из которых в этой сети занимает всего 16 секунд. В случае использования обычного интернета каждый цикл продолжался бы на 20 секунд дольше. Таким образом, обучение больших языковых моделей на FNTF в каждом случае сократится на многие месяцы. В будущем сеть FNTF будет открыта для широкого использования китайскими компаниями, однако на первом этапе она будет задействована преимущественно для решения научных задач.

Журнал Time назвал «Человеком года» Хуанга, Альтмана, Маска и других архитекторов ИИ

Редакция журнала Time оригинально отреагировала на продолжающийся технологический бум искусственного интеллекта. На традиционной для декабрьского выпуска обложке «Человек года» размещены фотографии наиболее влиятельных персон в индустрии ИИ: Дженсена Хуанга (Jensen Huang), Марка Цукерберга (Mark Zuckerberg), Илона Маска (Elon Musk), Фэй-Фэй Ли (Fei-Fei Li), Сэма Альтмана (Sam Altman), Лизы Су (Lisa Su), Дарио Амодеи (Dario Amodei) и Демиса Хассабиса (Demis Hassabis).

 Источник изображений: Time

Источник изображений: Time

Главный редактор журнала Сэм Джейкобс (Sam Jacobs) заявил, что никто не оказал такого большого влияния в 2025 году, как «люди, которые придумали, спроектировали и создали ИИ». «Человечество определит дальнейший путь развития ИИ, и каждый из нас может сыграть свою роль в определении структуры и будущего ИИ», — добавил он.

В этом году у журнала две обложки — одна с буквами AI в окружении сотрудников, а другая — изображение, пародирующее знаменитую фотографию 1932 года «Обед на небоскрёбе», сделанную во время строительства Рокфеллер-центра. Вместо монтажников-высотников на балке на головокружительной высоте без страховки расположились самые влиятельные люди в сфере искусственного интеллекта (слева-направо):

«В этом году дискуссия о том, как ответственно использовать ИИ, уступила место стремлению внедрить его как можно быстрее, — говорится в заявлении Time, посвящённом новым обложкам. — Но те, кто боится риска, больше не находятся за рулём». По мнению редакции журнала, благодаря людям с обложки «человечество сейчас несётся по шоссе, на полной скорости, без тормозов, к высокоавтоматизированному и крайне неопределённому будущему».

Аналитик Forrester Томас Хассон (Thomas Husson) заявил, что 2025 год можно рассматривать как переломный момент в том, как часто ИИ теперь используется в нашей повседневной жизни. По его мнению, «большинство потребителей используют его, даже не подозревая об этом». Он отметил, что ИИ сейчас внедряется в аппаратное и программное обеспечение, а также в сервисы, что означает, что его распространение происходит «намного быстрее, чем во времена интернета или мобильных революций».

Некоторые люди теперь предпочитают чат-боты поисковым системам и социальным сетям для планирования отпусков, поиска рождественских подарков и рецептов. Другие, наоборот, обеспокоены рисками потери работы, высоким энергопотреблением ИИ и его негативным влиянием на окружающую среду.

Основатель и генеральный директор лаборатории Fountech AI Ник Кайринос (Nik Kairinos) считает, что обложки Times представляют собой честную оценку влияния технологии на человечество, но «признание не следует путать с готовностью». «Мы все ещё находимся на ранних этапах создания надёжных, ответственных и соответствующих человеческим ценностям систем ИИ. Для тех из нас, кто разрабатывает технологии и выводит инструменты ИИ на рынок, лежит огромная ответственность. […] ИИ все ещё может быть спасителем или бичом для человечества», — сказал он.

Нужно отметить, что звание «Человек года» не впервые присуждается большой группе людей: в 2014 году его получили борцы с вирусом Эбола. До этого, в 2006 году, это звание было присуждено «Вам» — участникам Википедии, первым ютуберам и пользователям MySpace, то есть «большинству, отбирающему власть у немногих и помогающему друг другу бесплатно». А ещё раньше, в 1982 году, это звание получил компьютер — по мнению журнала, американцы испытывали к этому устройству «головокружительную страсть».

«Одно из важнейших направлений в науке»: Google DeepMind откроет ИИ-лабораторию в Великобритании по поиску новых материалов

Google DeepMind откроет свою первую исследовательскую лабораторию для создания новых материалов, таких как те, что используются в аккумуляторных батареях и полупроводниковой отрасли. Этот объект начнёт функционировать в Великобритании в следующем году и станет частью стремления компании по расширению применения искусственного интеллекта в научной среде. Проект реализуется в рамках масштабного партнёрства Alphabet, материнской компании Google, и британского правительства.

 Источник изображения: Alex Dudar / unsplash.com

Источник изображения: Alex Dudar / unsplash.com

Google DeepMind планирует адаптировать несколько своих ИИ-моделей, включая Gemini, для повышения эффективности выполнения задач учёных, преподавателей и госслужащих Великобритании. Лондонское исследовательское подразделение DeepMind описывает новую лабораторию как свой первый «автоматизированный» объект, где для проведения экспериментов будут задействованы роботы, что сводит к минимуму вмешательство со стороны человека. Компания не раскрыла стоимость реализации этого проекта, а также не уточнила, сколько человек будет работать в ИИ-лаборатории.

Расширение сотрудничества с Великобританией является успехом для Google, которая стремится вовлекать правительства разных стран в использование своих облачных сервисов и ИИ-модели Gemini. Это также свидетельствует о планах DeepMind продвинуться дальше в материаловедение, одно из основных исследовательских направлений. Несколько стартапов, часть из которых основана бывшими инженерами DeepMind, пытаются задействовать ИИ-алгоритмы для открытия новых материалов, утверждая, что такой подход может существенно сократить время и затраты на исследования.

В новой лаборатории DeepMind будут исследоваться материалы, потенциально пригодные для использования в разных сферах, включая производство полупроводниковой продукции и солнечных панелей. В дополнение к этому компания предоставит британским ученым «приоритетный доступ» к четырём своим научным ИИ-моделям, включая алгоритмы для анализа ДНК и прогнозирования погоды. «Открытие новых материалов — одно из важнейших направлений в науке», — написал недавно в блоге глава DeepMind Демис Хассабис (Demis Hassabis).

В отдельном заявлении правительства Великобритании сказано, что американская компания внесёт вклад в исследования в таких областях, как термоядерная энергетика, а также разработает инструменты на базе Gemini для британских учёных. В заявлении DeepMind упоминается, что компания откроет доступ к своим ИИ-моделям и данным для сотрудников Института безопасности искусственного интеллекта Великобритании, который представляет собой государственное агентство, созданное в 2023 году для тестирования и оценки ИИ-систем.

«Мы можем ошибиться»: Сэм Альтман признал, что ИИ развивается слишком быстро

Глава OpenAI Сэм Альтман (Sam Altman) недавно выразил обеспокоенность темпами, с которыми ИИ меняет мир, подчеркнув важность и необходимость адаптации общества. По его словам, ни одна другая технология никогда не внедрялась в мире так быстро. Он признал, что ChatGPT обладает огромным потенциалом для исследователей, но в то же время может быть использован злоумышленниками для причинения глобального вреда человечеству.

 Источник изображения: The Tonight Show

Источник изображения: The Tonight Show

За последние три года генеративный ИИ эволюционировал от простых чат-ботов, способных создавать картинки и тексты на основе подсказок, до сложных инструментов повышения производительности, оказывающих реальное влияние на общество в медицине, образовании, вычислительной технике и других сферах. Однако это сопряжено с невероятными затратами, непомерным спросом на охлаждение и электроэнергию, и с негативным воздействием на окружающую среду.

В своём недавнем интервью Альтман выделил длинный список недостатков широкого распространения и роста ChatGPT, включая скорость, с которой он изменил мир. По его словам, ChatGPT обладает потенциалом для разработки лекарств от сложных медицинских заболеваний, таких как рак, но в то же время он может быть использован злоумышленниками для причинения вреда, с которым общество может не справиться.

«Меня беспокоят темпы изменений, происходящих в мире прямо сейчас. Этой технологии [ИИ] всего три года. Ни одна другая технология никогда не внедрялась в мире так быстро», — заявил Альтман. И следом добавил: «Мы должны убедиться, что мы представляем это [ИИ] миру ответственно, давая людям время адаптироваться, высказать свое мнение, понять, как это сделать — можно представить, что мы можем ошибиться».

ChatGPT сейчас является самым скачиваемым приложением в мире с примерно 1,36 миллиардами установок с момента его запуска в ноябре 2022 года. Среди аналитиков и экспертов нарастают опасения о формировании зависимости людей от чат-ботов, что приводит к атрофии когнитивных способностей пользователей и делает их глупее. Также сообщается, что за последние несколько месяцев увеличилось число самоубийств, связанных с чрезмерной зависимостью от инструментов на основе ИИ, подобных ChatGPT.

Intel собралась купить молодого разработчика ИИ-чипов SambaNova Systems

Компания Intel заинтересована в приобретении стартапа SambaNova Systems, занимающегося разработкой чипов для искусственного интеллекта. Условия сделки не сообщаются, но, по данным Wired, между компаниями подписано предварительное соглашение, не имеющее обязательной силы. Иными словами, соглашение может быть расторгнуто при любых условиях, поскольку окончательная сделка ещё не достигнута.

 Источник изображений: SambaNova Systems

Источник изображений: SambaNova Systems

Нынешний генеральный директор Intel Лип-Бу Тан (Lip-Bu Tan) в прошлом занимал должность председателя совета директоров SambaNova Systems, что фактически даёт ему инсайдерскую информацию о деятельности компании. По состоянию на начало 2025 года компания привлекла в общей сложности $1,14 млрд инвестиций, что свидетельствует о высоком уровне доверия инвесторов к её технологиям.

SambaNova разрабатывает чипы для искусственного интеллекта на основе своего реконфигурируемого блока обработки данных (RDU), который использует новаторский подход для обеспечения вывода данных с триллионом параметров в своих стоечных решениях SambaRack. Новейший процессор RDU 4-го поколения имеет 1040 ядер RDU, вычислительную мощность 653 Тфлопс при работе с форматом данных BF16 (аналогично FP16), получил 520 Мбайт встроенной памяти, 64 Гбайт памяти HBM3 и дополнен внешним пулом памяти DDR объёмом 1,5 Тбайт для размещения больших языковых моделей для вывода. Поскольку это частная компания, официальные данные о продажах нигде не опубликованы.

В прошлом Intel приобрела компанию Movidius, разработавшую NPU, которые теперь интегрированы во все процессоры Intel. Ещё одним заметным приобретением стала компания Habana Labs, разработавшая ИИ-ускорители Gaudi, которые, впрочем, не получили широкого распространения в сегменте центров обработки данных по сравнению с решениями тех же AMD и Nvidia. Intel планирует интегрировать некоторые элементы Gaudi в свой ускоритель искусственного интеллекта следующего поколения Jaguar Shores для обучения и логических выводов. На данный момент неизвестно, собирается ли Intel интегрировать технологии SambaNova в свои продукты или сохранит разработки стартапа в качестве самостоятельных решений.


window-new
Soft
Hard
Тренды 🔥
10 тысяч модов и 350 миллионов загрузок: Larian похвасталась новыми достижениями игроков Baldur’s Gate 3 6 ч.
Вызывающий привыкание роглайк Ball x Pit достиг миллиона проданных копий и в 2026 году получит новые шары 7 ч.
Соавтор Counter-Strike признался в любви к русской культуре и рассказал о «самом депрессивном» периоде за 25 лет карьеры 9 ч.
Apple резко снизила награды багхантерам — при этом рост вредоносов в macOS бьёт рекорды 9 ч.
Mortal Kombat 1, Routine и Dome Keeper возглавили первую волну декабрьских новинок Game Pass, а Mortal Kombat 11 скоро подписку покинет 10 ч.
Google закрыла 107 дыр в Android — две нулевого дня уже использовались в атаках 10 ч.
В YouTube появился Recap — пользователям расскажут, чем они занимались на платформе в течение года 10 ч.
ИИ-агенты научились взламывать смарт-контракты в блокчейне — это риск на сотни миллионов долларов 10 ч.
Инструмент YouTube для защиты блогеров от дипфейков создал риск утечки их биометрии 11 ч.
В Microsoft Teams появились «иммерсивные встречи» в метавселенной с аватарами без ног 11 ч.