Сегодня 18 января 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии
Быстрый переход

ИИ-модели начали щёлкать сложные математические задачи

В минувшие выходные инженер-программист Нил Сомани (Neel Somani) тестировал математические способности новой модели искусственного интеллекта OpenAI и сделал неожиданное открытие. Он поставил ChatGPT сложнейшую математическую задачу, дал чат-боту подумать 15 минут и получил готовое решение.

 Источник изображения: Thomas T / unsplash.com

Источник изображения: Thomas T / unsplash.com

Исследователь оценил доказательство, провёл его формализацию при помощи средства от Harmonic, и всё оказалось в порядке. Ещё больше его впечатлила цепочка рассуждений ChatGPT — в ней ИИ воспроизвёл формулу Лежандра, постулат Бертрана и теорему о звезде Давида; а также нашёл на Math Overflow сообщение от 2013 года, где приводилось решение аналогичной задачи. Окончательный вариант от ChatGPT имел существенные отличия от образца и давал полное решение версии одной из задач, поставленных легендарным математиком Палом Эрдёшем (Pál Erdős) — его коллекция нерешённых задач сейчас превратилась в полигон для ИИ.

Этот удивительный результат не уникален — модели ИИ теперь повсеместно применяются в математике: средства «глубокого исследования» OpenAI отвечают за обзор литературы, а Harmonic Aristotle производит формализацию доказательств. Модель OpenAI GPT-5.2, по словам Нила Сомани, оказалась искуснее в рассуждениях, чем предыдущие версии — они уже научились решать остававшиеся открытыми задачи, по сути, расширяя границы человеческих знаний.

Пал Эрдёш оставил после себя более тысячи гипотез, которые зафиксированы сообществом математиков в Сети — и они обнаружили, что GPT-5.2 на удивление хорошо справляется со сложнейшими математическими задачами. В период с 25 декабря 2025 года и по настоящий момент решены 15 задач Эрдёша, и в работе над 11 из них участвовал ИИ. Авторитетный математик Теренс Тао (Terence Tao) привёл восемь задач Эрдёша, в которых ИИ добился значительного прогресса; ещё в шести случаях его удалось достичь за счёт поиска и дальнейшего развития ранних исследований. Совсем без участия человека ИИ с ними пока не справился бы, но его роль становится более важной. «Таким образом, многие из этих более простых задач Эрдёша теперь с большей вероятностью могут решаться исключительно основанными на ИИ методами, чем человеческими или гибридными средствами», — делает вывод Теренс Тао.

Ещё один важный фактор — сдвиг в сторону формализации. Это трудоёмкая задача, которая упрощает проверку и расширение математических рассуждений; она не требует ни ИИ, ни даже просто компьютеров, но сейчас появились средства, которые в значительной мере упростили этот процесс. Популярным, например, стал инструмент Lean, разработанный Microsoft Research ещё в 2013 году; средство Harmonic Aristotle позволяет в значительной мере автоматизировать эту задачу. Внезапный скачок в числе решённых задач Эрдёша привёл к тому, что упоминание сервисов Aristotle или ChatGPT добавляет материалам вескости в профессиональном сообществе.

TSMC может начать выпуск 3-нм ИИ-чипов OpenAI Titan уже в этом году — второе поколение перейдёт на 1,6 нм

Одержимый идеей активного развития вычислительной инфраструктуры ИИ глава OpenAI Сэм Альтман (Sam Altman) настаивает не только на строительстве центров обработки данных в огромных количествах, но и на выпуске специализированных чипов для них, которые стартап готов разработать при поддержке Broadcom. По слухам, их выпуском совсем скоро может заняться TSMC.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Об этом сообщает тайваньское издание Commercial Times, уточняя, что ИИ-чипы собственной разработки OpenAI нарекла условным обозначением Titan, а их первое поколение уже к концу этого года TSMC начнёт выпускать с использованием техпроцесса N3. В планы партнёров входит и выпуск второго поколения чипов, которое будет производиться по технологии A16. Разработка Titan 2 начнётся во второй половине текущего года, помогать OpenAI в этой сфере в обоих случаях будет компания Broadcom.

Сейчас вычислительная инфраструктура OpenAI в основном полагается на готовые решения Nvidia и AMD, но по мере её масштабирования может появиться смысл создать узкоспециализированные ускорители, и в этом процессе компания намеревается принять непосредственное участие. Осталось только убедиться в том, что та же TSMC сможет обеспечить OpenAI достаточными объёмами производства этих чипов.

Не забывает OpenAI и о разработке конечных пользовательских устройств для взаимодействия с ИИ. По слухам, она собирается предлагать наушники с условным обозначением Sweetpea на основе 2-нм процессора Samsung семейства Exynos. Помимо локальной обработки запросов, наушники будут взаимодействовать с облачной вычислительной инфраструктурой по схеме подписки с регулярной ежемесячной платой.

Трое выходцев из OpenAI вернулись в компанию, покинув ИИ-стартап Миры Мурати

Скандал с несостоявшейся отставкой генерального директора OpenAI Сэма Альтмана (Sam Altman) вдохновил голливудских сценаристов на экранизацию соответствующей истории, но для отрасли куда важнее то, что он вызвал отток многих из сооснователей стартапа. При этом некоторые из них в штат OpenAI всё же возвращаются, попытав удачи у конкурентов.

 Источник изображения: LinkedIn

Источник изображения: LinkedIn

Как напоминает TechCrunch, ранее выступавшая в роли технического директора OpenAI Мира Мурати (Mira Murati) в период «смуты» успела побыть главой компании, но в 2024 году покинула её и основала стартап Thinking Machines Lab, попутно переманив нескольких соратников с прежнего места работы. Теперь стало известно, что двое из сооснователей Thinking Machines Lab решили уйти из стартапа ради возвращения в штат OpenAI.

Технический директор Thinking Machines Lab Баррет Зоф (Barret Zoph) покинул стартап, как сообщила со страниц X сама Мира Мурати. Соответствующую должность в её стартапе займёт Сумит Чинтала (Soumith Chintala). О прочих кадровых потерях стартапа Миры Мурати стало известно уже из других источников. Операционный директор OpenAI по приложениям Фиджи Симо (Fidji Simo) почти через час после заявлений Мурати сообщил, что рад приветствовать в штате OpenAI не только Баррета Зофа, но и Люка Метца (Luke Metz), а также Сэма Шёнхольца (Sam Schoenholz). Переговоры по их возвращению в OpenAI, по словам Симо, продолжались последние несколько недель.

Помимо опыта работы в OpenAI в должности вице-президента по исследованиям, Зоф был замечен в штате Google, где тоже занимался исследованиями. Метц и Зоф были ближайшими соратниками Миры Мурати, основавшей стартап Thinking Machines Lab после ухода из OpenAI. По состоянию на июль прошлого года, капитализация её стартапа оценивалась в $12 млрд. По некоторым данным, отношения между Мурати и Зофом в профессиональном плане дали трещину, после чего тот и решил вернуться в OpenAI. Уход двух из трёх сооснователей из Thinking Machines Lab может быть тревожным сигналом, но в период бума ИИ кадровая миграция как таковая мало кого удивляет.

X заявила, что Grok больше не раздевает людей — но это не так

После волны критики из-за создания в соцсети X с помощью чат-бота Grok AI дипфейков сексуального характера без согласия пользователей, платформа сообщила о внесении изменений в возможности аккаунта Grok AI редактировать изображения реальных людей. Однако, как утверждает ресурс The Verge, в приложении Grok можно по-прежнему создавать откровенные изображения человека в бикини, используя бесплатный аккаунт.

 Источник изображения: Mariia Shalabaieva/unsplash.com

Источник изображения: Mariia Shalabaieva/unsplash.com

«Мы внедрили технологические меры, чтобы предотвратить редактирование изображений реальных людей в откровенной одежде, такой как бикини, через аккаунт Grok. Это ограничение распространяется на всех пользователей, включая платных подписчиков», — сообщается в обновлении аккаунта X. В нём также отмечено, что создание изображений и возможность редактирования изображений через аккаунт Grok на платформе X теперь доступны только платным подписчикам. «Это добавляет дополнительный уровень защиты, помогая гарантировать, что лица, пытающиеся злоупотреблять аккаунтом Grok для нарушения закона или нашей политики, могут быть привлечены к ответственности», — сообщила администрация соцсети.

Кроме того, было объявлено, что платформа блокирует возможность для всех пользователей создавать изображения реальных людей в бикини, нижнем белье и подобной одежде через аккаунт Grok и в Grok in X в тех юрисдикциях, где это незаконно.

Ранее стало известно, что британское Управление связи (Ofcom) начало расследование по этому поводу. Также сообщается, что на этой неделе в Великобритании вступит в силу закон, согласно которому создание интимных дипфейк-изображений без согласия пользователей будет считаться уголовным преступлением.

OpenAI договорилась о покупке царь-ускорителей Cerebras на $10 млрд — чтобы снизить зависимость от Nvidia

Компания OpenAI подписала соглашение с разработчиком царь-ускорителей Cerebras. В рамках достигнутых договорённостей Cerebras поставит OpenAI 750 МВт вычислительных мощностей до 2028 года для достижения цели по удержанию лидирующих позиций в сфере ИИ и удовлетворения растущего спроса со стороны потребителей. По данным источника, сумма сделки составит $10 млрд.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Гендиректор Cerebras Эндрю Фельдман (Andrew Feldman) сообщил, что переговоры между двумя компаниями начались в августе прошлого года. Поводом стала демонстрация Cerebras того, что ИИ-модели OpenAI способны работать на ускорителях компании более эффективно, чем на традиционных GPU. После нескольких месяцев переговоров стороны достигли соглашения, в рамках которого Cerebras будет продавать OpenAI сервисы инференса на базе собственных ускорителей.

В рамках сделки Cerebras построит или арендует центры обработки данных, полностью оснащённые своими ускорителями, а OpenAI будет оплачивать использование облачных сервисов и задействует их для собственных нужд. Вычислительные мощности будут вводиться в эксплуатацию в несколько этапов вплоть до 2028 года.

«Вычислительная стратегия OpenAI заключается в создании отказоустойчивого портфеля, в рамках которого для разных рабочих нагрузок используются подходящие системы. Cerebras добавит нашей платформе выделенное решение для инференса с низкой задержкой. Это означает более быстрые ответы, более естественное взаимодействие и более прочную основу для масштабирования использования ИИ в реальном времени для гораздо большего числа людей», — говорится в заявлении OpenAI.

«Мы в восторге от партнёрства с OpenAI, которое объединяет ведущие мировые ИИ-модели с самым быстрым в мире процессором для ИИ. Подобно тому, как широкополосный доступ преобразил интернет, инференс в реальном времени преобразит ИИ, открыв совершенно новые способы создания и взаимодействия с ИИ-моделями», — уверен Эндрю Фельдман.

Phison показала в деле aiDAPTIV+ — ускорение ИИ на обычных ПК до 10 раз

На выставке CES 2026 компания Phison продемонстрировала потребительские ПК с программно-аппаратной комбинацией технологий aiDAPTIV+, обеспечивающей выполнение задач искусственного интеллекта до десяти раз быстрее, чем без специализированного набора технологий.

 Источник изображения: Phison

Источник изображения: Phison

Phison представила свою технологию aiDAPTIV+ в середине 2024 года. На тот момент она использовалась для преобразования памяти NAND твердотельных накопителей в управляемый уровень памяти наряду с DRAM, что позволяло обучать или запускать большие модели ИИ на системах, не имеющих достаточного объёма памяти DDR5 и/или HBM. Однако тогда это был лишь экспериментальный проект, ориентированный на корпоративный сегмент. К началу 2026 года позиционирование технологии изменилось. Теперь Phison рассматривает её как средство обеспечения работы моделей вывода ИИ на клиентских ПК, что значительно расширяет область её применения.

Обычно, когда токены больше не помещаются в кэш-хранилище «ключ — значение» (KV) графического процессора во время вывода, старые записи KV удаляются. Если или когда ИИ-модели вновь понадобятся эти токены (в случаях длительных контекстных или агентных циклов), графический процессор должен пересчитать их с нуля, что делает вывод ИИ неэффективным на системах с ограниченным объёмом памяти. Однако в системе, оснащённой стеком aiDAPTIV+ от Phison, токены, которые больше не помещаются в кэш KV графического процессора, записываются во флеш-память и сохраняются для дальнейшего использования, что во многих случаях позволяет снизить требования к объёму используемой памяти и значительно улучшить показатель времени до первого токена — то есть времени, необходимого для получения первого слова ответа.

Особенность обновлённой платформы aiDAPTIV+ от Phison заключается в том, что она позволяет обычным ПК с графическими процессорами начального уровня или даже интегрированными графическими ядрами обрабатывать гораздо более крупные модели ИИ, чем обычно допускает объём установленной оперативной памяти. Внедрение крупномасштабного вывода моделей и ограниченного обучения на настольных компьютерах и ноутбуках может быть ценным для разработчиков и малых предприятий, которые на текущий момент не могут позволить себе крупные инвестиции в ИИ. На выставке CES 2026 компания Phison сообщила, что Acer, Asus, Corsair, Emdoor, MSI и даже Nvidia находятся в списке партнёров по тестированию технологии aiDAPTIV+. Например, Acer удалось запустить крупную модель gpt-oss-120b на ноутбуке всего с 32 Гбайт памяти.

Согласно внутренним тестам Phison, aiDAPTIV+ может ускорить время отклика при выводе до десяти раз, а также снизить энергопотребление и улучшить показатель времени до первого токена на ноутбуках. Очевидно, чем больше модель и чем длиннее контекст, тем выше польза от технологии, поэтому она может быть особенно актуальна для ИИ-моделей класса Mixture of Experts (MoE), а также рабочих нагрузок агентных ИИ. Компания Phison утверждает, что модель MoE с 120 млрд параметров может обрабатываться с помощью 32 Гбайт памяти DRAM, поскольку неактивные параметры хранятся во флеш-памяти, а не в основной памяти. При традиционном подходе в таком случае обычно требуется 96 Гбайт памяти.

Если учесть, что стек aiDAPTIV+ от Phison включает SSD (или несколько SSD) с поддержкой ИИ на основе усовершенствованного контроллера Phison, специального программного обеспечения и прошивки, внедрение технологии должно быть довольно простым. Это важно для производителей ПК, реселлеров и малых предприятий, заинтересованных в использовании данной возможности. Вполне можно ожидать, что технология появится в премиальных моделях ноутбуков, ориентированных на разработчиков и опытных пользователей. Для Phison это означает расширение использования собственных контроллеров, а также дополнительный доход от продаж стека aiDAPTIV+ партнёрам.

ИИ сожрал не только память: Apple настиг дефицит стекловолокна для печатных плат

Осведомлённые источники сообщают, что Apple испытывает трудности с обеспечением достаточных запасов высококачественного стекловолокна. Этот материал играет критически важную роль при производстве печатных плат и ​​подложек чипов, используемых в iPhone и других устройствах.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Apple начала использовать высококачественное стекловолокно Nittobo производства компании Nitto Boseki несколько лет назад. А в минувшем году ажиотаж вокруг ИИ резко увеличил спрос на такие материалы. По мере расширения рабочих нагрузок ИИ такие компании, как Nvidia, Google, Amazon, AMD и Qualcomm начали агрессивно наращивать свои заказы, оказывая беспрецедентное давление на ограниченные мощности Nitto Boseki.

В ответ Apple предприняла ряд необычных шагов для защиты своей цепочки поставок. По сообщениям инсайдеров, осенью 2025 года компания отправила своих сотрудников в Японию на предприятие Mitsubishi Gas Chemical, которое производит материалы для подложек и использует стекловолокно Nittobo. По слухам, Apple также обратилась к японским правительственным чиновникам за помощью в обеспечении поставок.

Apple работает над поиском альтернативных поставщиков, но этот процесс пока не принёс значимых результатов. Компания пытается заключить контракты с менее крупными китайскими производителями стекловолокна, включая Grace Fabric Technology, и обратилась к специалистам Mitsubishi Gas Chemical за помощью в контроле качества. Другие производители стекловолокна из Тайваня и Китая пытаются нарастить производство, но достижение стабильного качества на требуемом уровне остаётся для них сложной задачей.

Стекловолокно должно быть чрезвычайно тонким, однородным и не иметь дефектов, поскольку оно глубоко внедрено в подложку чипа и после создания печатной платы его уже невозможно как-то отремонтировать или заменить. Из-за этого крупные производители чипов неохотно используют материалы более низкого качества.

Компания Apple обсуждала возможность использования менее совершенных материалов в качестве временного решения, но это потребовало бы обширных испытаний и не смогло бы существенно облегчить проблемы с поставками продукции в 2026 году. Аналогичные опасения испытывают и другие производители микросхем.

Производители ПК и смартфонов получат в 2–5 раз меньше памяти, чем им требуется в этом году

В текущем году предпосылок для облегчения ситуации с дефицитом микросхем памяти не ожидается, как убеждены аналитики KeyBanc. На этом фоне производители ПК и смартфонов будут ощущать сильнейшую нехватку чипов памяти. Фактически, им будет доставаться не более 20–45 % необходимых объёмов памяти, а цены на смартфоны вырастут.

 Источник изображения: Asustek Computer

Объёмы поставок микросхем памяти в серверном сегменте в этом году в ёмкостном выражении должны увеличиться на 50 %, контрактные цены на DRAM в первом квартале вырастут на 25 % и на величину от 10 до 12 % во втором квартале, по прогнозам экспертов KeyBanc. В сегменте NAND контрактные цены вырастут на 20 % в первом квартале и до 15 % во втором, по их мнению. За пределами сегмента ЦОД покупателям микросхем памяти будут доступны гораздо более скромные квоты, не более 20–45 % от фактической потребности. В результате, цены на память для ПК и смартфонов тоже продолжат расти, а ещё сократятся объёмы производства этих устройств.

В количественном выражении поставки ПК сократятся в этом году на 5–10 %, а поставки смартфонов упадут на величину от 3 до 5 %. Более того, крупные поставщики смартфонов типа Apple и Samsung будут вынуждены увеличить стоимость своих устройств на $100–150. По мере наращивания поставок систем на базе процессоров Nvidia Vera, которые сочетаются с памятью типа LPDDR5X, будет усугубляться её дефицит на всём рынке. Эксперты KeyBanc предполагают, что эти системы потребуют такого же количества памяти, как и 150 млн смартфонов. Это менее 10 % ёмкости рынка смартфонов, так что давление на рынок LPDDR5X хоть и будет явно выраженным, окажется не критическим.

Китайский стартап Zhipu полностью обучил ИИ-модель на чипах Huawei

Китайский стартап Knowledge Atlas Technology JSC Ltd. (он же Zhipu) выпустил мультимодальную модель искусственного интеллекта, которая, по словам разработчика, стала первой в стране, полностью обученной на ИИ-ускорителях местного производства. Инициатива реализована в рамках программы китайских властей, направленной на снижение зависимости страны от американских технологий.

Zhipu выпустила открытую нейросеть для генерации изображений GLM-Image — это первая мультимодальная модель, обученная на чипах Huawei Ascend. Разработчик использовал серверы Huawei Ascend Atlas 800T A2 и фреймворк MindSpore; серверы работают на центральных процессорах Huawei Kunpeng и ускорителях Ascend. «Это подтверждает возможность обучать высокопроизводительные мультимодальные генеративные модели на разработанной в стране полнофункциональной вычислительной платформе», — отметили в Zhipu.

Это большое достижение для Huawei — до настоящего момента ни одна крупная китайская компания из отрасли ИИ не делала публичных заявлений об обучении моделей на китайском оборудовании, хотя в мае прошлого года Huawei обучила на чипах Ascend собственную модель Pangu Pro MoE. Zhipu в прошлом году попала под американские санкции и стала активнее сотрудничать с местными производителями чипов для адаптации и разработки моделей — в том числе с Cambricon Technologies Corp.

Достижение Zhipu подтверждает жизнеспособность политики Пекина по сокращению зависимости от зарубежных компаний — это важно, потому что США и их союзники проводят многолетнюю политику по ограничению доступа Китая к передовым западным технологиям. В минувший четверг компания стала первым крупным китайским стартапом в области ИИ, вышедшим на биржу — к настоящему моменту её акции подорожали уже более чем на 80 %. Пекин оказывает поддержку в разработке, производстве и внедрении местного оборудования для ИИ. В этом году Huawei намеревается резко увеличить производство своей передовой полупроводниковой продукции; Cambricon собирается нарастить производство своих ускорителей более чем втрое.

Энергетики — новые айтишники: техногиганты переманивают специалистов по энергоснабжению, чтобы «накормить» ИИ

Бурное развитие центров обработки данных для ИИ требует появления адекватной инфраструктуры в сфере энергоснабжения, поэтому американские техногиганты готовы не только финансировать соответствующие энергетические проекты, но и активно привлекать в свой штат профильных специалистов.

 Источник изображения: Unsplash, Mario Spencer

Источник изображения: Unsplash, Mario Spencer

Об этом сообщает CNBC со ссылкой на статистику Workforce.ai. По имеющимся данным, количество нанимаемого техногигантами в США персонала энергетического профиля в 2024 году выросло на 34 % по сравнению с 2023 годом до 434 человек, а по итогам прошлого года почти достигло аналогичных показателей. В любом случае, потребность рынка труда в энергетиках по сравнению с 2022 годом, когда бум ИИ только стартовал, сейчас на 30 % выше.

В 2024 году именно центры обработки данных отвечали за 1,5 % всего мирового энергопотребления, этот уровень за предыдущие пять лет вырос на 12 %. Техногиганты в условиях постоянной необходимости наращивать вычислительные мощности готовы не просто нанимать в свой штат специалистов по энергетике, но и поглощать целые профильные компании. Прежде всего, гигантам рынка информационных технологий требуются управленцы из области энергетики.

Microsoft с 2022 года наняла более 570 человек, связанных с энергетической сферой по опыту прошлой работы. Корпорации даже удалось в позапрошлом году переманить бывшего финансового директора General Electric Каролину Дайбек Хаппе (Carolina Dybeck Happe) на роль операционного директора. Amazon с 2022 года наняла на работу 605 специалистов с опытом работы в энергетике. Alphabet на этом фоне заметно отстаёт, наняв с 2022 года лишь 340 специалистов такого профиля. Apple ограничилась 184 специалистами, Nvidia наняла 177 человек, а Meta✴ Platforms замыкает шестёрку с 126 нанятыми специалистами в сфере энергетики.

Техногиганты также охотно поглощают подрядчиков, которые связаны со строительством ЦОД. Как ожидается, Alphabet потратит на покупку активов компании Intersect около $4,75 млрд. Чаще всего специалисты строительного профиля нанимаются техногигантами по временной схеме или через подрядные структуры. Для большинства компаний IT-сектора подобная деятельность не является профильной, поэтому используются разные подходы и схемы в развитии вычислительной и энергетической инфраструктуры. Не исключено, что на этапе эксплуатации построенных ЦОД в цене будут специалисты, помогающие снизить уровень их энергопотребления и сопутствующие затраты. Учитывая высокую мотивацию техногигантов с точки зрения строительства ЦОД и привлечения кадров, зарплаты в этой сфере могут начать расти опережающими темпами. Разносторонне развитых специалистов в энергетической сфере на рынке труда США сейчас не так много, поэтому конкуренция за них будет ожесточённой.

Что характерно, техногиганты в США получают лицензии на продажу электроэнергии, поскольку они готовы заняться её реализацией в случае наличия излишков. Amazon, Google и Microsoft уже получили соответствующие разрешения, а Meta✴ Platforms подала заявку в ноябре прошлого года.

DeepSeek научилась тренировать языковые ИИ-модели без оглядки на ограничения по скорости памяти

Как отмечалось недавно, пропускная способность памяти, используемой в инфраструктуре ИИ, становится одним из серьёзных ограничителей дальнейшего роста быстродействия языковых моделей. Представители DeepSeek утверждают, что разработали метод обучения ИИ-моделей, который позволяет обойти подобные ограничения со стороны памяти.

 Источник изображения: Unsplash, Solen Feyissa

Источник изображения: Unsplash, Solen Feyissa

Группа исследователей Пекинского университета в сотрудничестве с одним из основателей DeepSeek Лян Вэньфэном (Liang Wenfeng) опубликовала научную работу, в которой рассматривается новый подход к обучению языковых моделей, позволяющий «агрессивно увеличивать количество параметров» в обход ограничений, накладываемых подсистемой памяти используемых в ускорителях GPU.

От DeepSeek ожидают выхода новой версии большой языковой модели, но ритмичность их создания в случае с китайскими разработчиками сильно страдает от экспортных ограничений США и нехватки ресурсов в Китае. Текст нового исследования, соавтором которого является один из основателей DeepSeek, будет подробно изучаться специалистами в области искусственного интеллекта как в Китае, так и за его пределами.

Описываемая в документе методика «условного» использования памяти получила обозначение Engram, как отмечает South China Morning Post. Существующие подходы к вычислениям при обучении больших языковых моделей, по мнению китайских исследователей, вынуждают напрасно тратить ресурсы на тривиальные операции, которые можно было бы высвободить для высокоуровневых операций, связанных с рассуждениями.

Исследователи предложили в некотором смысле разделить вычисления и работу с памятью, обеспечивая поиск базовой информации более эффективными способами. Одновременно новая технология позволяет большим языковым моделям лучше обрабатывать длинные цепочки контекста, что приближает цель превращения ИИ-агентов в полноценных помощников человека.

В рамках эксперимента новый подход при обучении модели с 27 млрд параметров позволил поднять общий уровень быстродействия на несколько процентов. Кроме того, система получила больше доступных ресурсов для осуществления сложных операций с рассуждениями. По мнению авторов исследования, данный подход будет незаменим при обучении языковых моделей нового поколения в условиях ограниченности ресурсов. По данным The Information, китайская компания DeepSeek намеревается представить новую модель V4 с развитыми способностями в области написания программного кода к середине февраля этого года.

ИИ-модели начали изучать как живые организмы — математика справляется всё хуже

Проблема современных больших языковых моделей искусственного интеллекта в том, что они становятся настолько сложными, что даже разрабатывающие их инженеры не до конца понимают, как те работают. Поэтому исследователи решили изучать нейросети не как алгоритмы, как живые организмы.

 Источник изображения: Steve Johnson / unsplash.com

Источник изображения: Steve Johnson / unsplash.com

Отказавшись от привычных математических методов, учёные обратились к «биологическому» аспекту моделей ИИ — наблюдают за их поведением, отслеживают внутренние сигналы и создают карты функциональных областей. Так биологи и нейробиологи изучают незнакомые организмы, не предполагая какой-либо упорядоченной логики. Они исходят из того, что модели ИИ не программируются построчно, а обучаются при помощи специальных алгоритмов, которые автоматически корректируют миллиарды параметров и формируют внутренние структуры, которые почти невозможно предсказать или провести обратное проектирование. По сути, они не собираются как ПО, а выращиваются, отметили в Anthropic.

Эта непредсказуемость подтолкнула исследователей к методу механистической интерпретируемости — попытке отследить, как движется информация внутри модели во время выполнения задачи. Чтобы сделать этот процесс более наглядным, учёные Anthropic построили нейросети с упрощённой архитектурой или «разреженные автокодировщики» (sparse autoencoders), которые прозрачно имитируют поведение сложных коммерческих моделей, хотя и отличаются более скромными возможностями. Удалось выяснить, что конкретные понятия, например «мост Золотые ворота», или абстрактные представления, могут располагаться в определённых участках модели.

 Источник изображения: Igor Omilaev / unsplash.com

Источник изображения: Igor Omilaev / unsplash.com

В одном из экспериментов исследователи Anthropic обнаружили, что при реакции на верные и неверные утверждения нейросети подключают различные внутренние механизмы: утверждения «бананы красные» и «бананы жёлтые» не проверяются на соответствие единому внутреннему представлению о реальности, а рассматриваются как принципиально разные типы задач. Это объясняет, почему модель может противоречить сама себе, не осознавая при этом несоответствий.

Исследователи OpenAI обнаружили ещё один тревожный сценарий. Когда модель обучили выполнять узконаправленную «нехорошую» задачу, например, генерировать небезопасный программный код, это спровоцировало широкие изменения во всём характере системы. Обученные таким образом модели демонстрировали «токсичное» поведение, саркастические черты характера, а также давали своеобразные советы — от просто безрассудных до откровенно вредных. Как показал внутренний анализ, такое обучение усилило активность в областях, связанных с нежелательными механизмами поведения, даже вне целевого направления. Наконец, рассуждающие модели по мере решения задач генерируют промежуточные заметки — отслеживая внутренние черновики, исследователи выявляют признания в обмане, например, ИИ удаляет программный код с ошибкой вместо того, чтобы его исправлять.

Ни один из предложенных инструментов не дал полного объяснения того, как работают большие языковые модели, и по мере развития методов обучения некоторые из этих средств могут терять в эффективности. Но учёные говорят, что хотя бы частичное понимание внутренних механизмов лучше, чем полное его отсутствие — это помогает в формировании более безопасных стратегий обучения и развеивает основанные на упрощённых представлениях мифы об ИИ.

ИИ-генератор видео Google Veo 3.1 научился создавать видео для TikTok и других вертикальных платформ

Google представила обновлённую функцию Ingredients to Video ИИ-модели для генерации видео Veo 3.1, которая теперь позволяет создавать вертикальные клипы (9:16) по умолчанию, что упростит создание контента для YouTube Shorts, TikTok или других платформ.

 Источник изображения: Google

Источник изображения: Google

Функция изначально адаптирует сцены под экраны телефонов, удерживая объекты в центре и располагая изображение вертикально. Теперь создатели коротких видеороликов могут предоставлять Veo такие элементы, как референсные изображения, стилистические подсказки и текстовые описания, и в итоге получать вертикальные видео, которые выглядят так, будто созданы специально для этого формата, отмечает ресурс Android Authority.

Режим Ingredients to Video позволяет объединять до трёх изображений и текст, в один сгенерированный клип, синхронизируя движение объектов и звук.

Помимо поддержки вертикального формата обновлённая нейросеть Veo 3.1 теперь предоставляет возможность повышать разрешение сгенерированного видео до 1080p и 4K, что позволяет обеспечивать высокое качество изображения с «насыщенной текстурой и потрясающей чёткостью».

Сосредоточившись на вертикальном формате и упрощении рабочих процессов для создателей контента, Google явно нацелена на социальные платформы.

Google сообщила, что улучшенная функция Veo 3.1 Ingredients to Video и поддержка вертикальных форматов встроены в Flow, Gemini API, Vertex AI и Google Vids, при этом варианты с разрешением 1080p и 4K также доступны в Flow, API и Vertex AI.

США одобрили поставки Nvidia H200 в Китай, но с ограничениями

Вчера американская администрация утвердила правила экспортного контроля, позволяющие Nvidia наладить поставки ускорителей вычислений H200 в Китай. Принципиальное согласие президента США по этому вопросу было получено ещё в конце прошлого года, теперь сформулированы основные правила, по которым будут осуществляться эти поставки.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Прежде всего, как поясняет Reuters, ускорители Nvidia будут проверяться независимой лабораторией с целью подтверждения технических характеристик. Кроме того, Китай не сможет получить более 50 % доступных американским клиентам ускорителей данного семейства. Nvidia придётся сперва подтвердить, что американским клиентам достанется необходимое количество H200, прежде чем будут одобрены поставки в Китай.

Китайским клиентам Nvidia, претендующим на получение H200, придётся подтвердить соблюдение определённых требований в сфере информационной безопасности и гарантировать, что ускорители не будут применяться для оборонных целей. Глава Nvidia Дженсен Хуанг (Jensen Huang) в этом месяце признал, что спрос на H200 высок как в Китае, так и за его пределами, а компания вынуждена увеличивать объёмы их производства. Эксплуатируемые сейчас в облачных системах ускорители H200 на этом фоне дорожают в аренде. Агентство Reuters также сообщало, что китайские клиенты готовы заказать более 2 млн ускорителей H200, но у Nvidia пока в наличии имеется не более 700 000 штук. Эксперты полагают, что на описываемых в предыдущем абзаце условиях Nvidia сможет поставить в Китай около 2 млн ускорителей. Такого количества хватило бы для оснащения одной из американских ведущих компаний в сфере облачных вычислений.

В свою очередь, как добавляет Reuters, возможность покупки H200 китайскими компаниями будет предоставлена местными властями только в некоторых случаях — например, для проведения научных исследований. Точные условия китайской стороны пока не обнародованы, но представители властных структур намерены проводить серию встреч с потенциальными покупателями H200 для разъяснительной работы на эту тему.

Рынок полупроводников вырос на 21 % до $793 млрд в прошлом году — Intel вылетела из тройки лидеров

Эксперты Gartner уже подвели итоги прошлого года по направлению рынка полупроводниковой продукции, сообщив о росте совокупной выручки на 21 % до $793 млрд. При этом связанная с поставками ИИ-ускорителей выручка в полупроводниковом сегменте превысила по итогам года $200 млрд, как отмечается в свежем отчёте Gartner.

В текущем году, как считает источник, расходы участников рынка на развитие ИИ-инфраструктуры могут превысить $1,3 трлн. Компания Nvidia предсказуема не только стала лидером по сумме выручки от реализации полупроводниковых компонентов, но и продемонстрировала максимальные темпы её роста. В частности, годовая выручка Nvidia выросла на 63,9 % до $125,7 млрд, позволив компании впервые в истории наблюдений Gartner преодолеть рубеж в $100 млрд годовой выручки среди игроков этого сегмента. От ближайшего конкурента в лице Samsung Electronics её теперь отделяют $53 млрд выручки. По сути, именно Nvidia на 35 % определила рост выручки всей полупроводниковой отрасли в прошлом году.

Samsung Electronics сохранила за собой второе место, но её выручка за прошлый год увеличилась всего на 10,4 % до $72,5 млрд. Высокие цены на память помогли ей увеличить выручку на профильном направлении на 13 %, а вот за пределами рынка памяти выручка Samsung даже сократилась на 8 %. В спину Samsung предсказуемо дышит SK hynix, которая добралась до третьего места в рейтинге, увеличив свою годовую выручку на 37,2 % до $60,6 млрд. Прежде всего, благодарить за это она должна высокие объёмы продаж памяти HBM для ИИ-серверов и ускорителей.

 Источник изображения: Gartner

Источник изображения: Gartner

Intel сползла с третьего места на четвёртое, и только она продемонстрировала снижение выручки среди компаний первой десятки. Годовая выручка компании упала на 3,9 % до $47,9 млрд. Конкурирующая AMD, кстати, сохранила за собой восьмое место с 2024 года, но свою выручку увеличила сразу на 34,9 % до $32,5 млрд. На пятом месте оказалась перескочившая сразу через две позиции Micron Technology, которая увеличила годовую выручку на 50,2 % до $41,5 млрд. Это ещё одно подтверждение того, что на буме ИИ неплохо зарабатывают именно производители памяти, потому что все три крупнейших игрока рынка попали в первую пятёрку.

Интересно, что не выпускающая чипы самостоятельно Apple в этом рейтинге заняла девятое место, как и годом ранее, а её выручка от их реализации увеличилась почти на 20 % до $24,6 млрд. В прошлом году HBM формировала 23 % выручки на рынке DRAM, что в денежном выражении превышает $30 млрд. Чипы для ИИ-ускорителей обеспечили более $200 млрд выручки своим поставщикам. К 2029 году, по прогнозам Gartner, те или иные типы ИИ-чипов будут формировать более половины всей выручки на рынке полупроводниковых компонентов.

Отдельно отметим, что поставщики чипов за пределами первой десятки контролировали 37,6 % мировой выручки в прошлом году, они сообща получили $298,3 млрд, что соответствует увеличению выручки на 10,3 % относительно результатов 2024 года.


window-new
Soft
Hard
Тренды 🔥
10 тысяч модов и 350 миллионов загрузок: Larian похвасталась новыми достижениями игроков Baldur’s Gate 3 6 ч.
Вызывающий привыкание роглайк Ball x Pit достиг миллиона проданных копий и в 2026 году получит новые шары 7 ч.
Соавтор Counter-Strike признался в любви к русской культуре и рассказал о «самом депрессивном» периоде за 25 лет карьеры 9 ч.
Apple резко снизила награды багхантерам — при этом рост вредоносов в macOS бьёт рекорды 9 ч.
Mortal Kombat 1, Routine и Dome Keeper возглавили первую волну декабрьских новинок Game Pass, а Mortal Kombat 11 скоро подписку покинет 10 ч.
Google закрыла 107 дыр в Android — две нулевого дня уже использовались в атаках 10 ч.
В YouTube появился Recap — пользователям расскажут, чем они занимались на платформе в течение года 10 ч.
ИИ-агенты научились взламывать смарт-контракты в блокчейне — это риск на сотни миллионов долларов 10 ч.
Инструмент YouTube для защиты блогеров от дипфейков создал риск утечки их биометрии 11 ч.
В Microsoft Teams появились «иммерсивные встречи» в метавселенной с аватарами без ног 11 ч.