Сегодня 18 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → искусственный
Быстрый переход

Вековую «нерешаемую» задачу физики взломали с помощью ИИ — THOR ускорил расчёты в 400 раз

Около 100 лет назад в зарождающейся физике элементарных частиц возникла проблема, которую, как оказалось, в принципе невозможно решить в разумное время. Речь идёт о решении конфигурационных интегралов, значения которых могли рассказать о термодинамических и механических свойствах материалов на атомном уровне. Неисчислимое множество частиц и условий настолько усложняли расчёты, что для них не хватило бы времени жизни Вселенной. И учёные решились на подлог.

 Источник изображения: ИИ-генерация Grok 4/3DNews

Источник изображения: ИИ-генерация Grok 4/3DNews

Невозможность прямого решения задачи привела к появлению статистической физики и ряда моделей для симуляции поведения атомов в веществе (метод Монте-Карло и другие). Но даже самые совершенные модели заставляли суперкомпьютеры месяцами трудиться над, казалось бы, простыми задачами. Поэтому при использовании традиционных подходов часто жертвуют точностью ради скорости расчётов, особенно при моделировании реальных материалов в экстремальных условиях.

Исследователи из Университета Нью-Мексико (The University of New Mexico) и Лос-Аламосской национальной лаборатории (Los Alamos National Laboratory) представили новый ИИ-фреймворк THOR (Tensors for High-dimensional Object Representation), который радикально меняет ситуацию при расчётах взаимодействия атомов в веществе. THOR сочетает современные тензорные сети с машинным обучением и таким подходом, как тензорная кросс-интерполяция (tensor train cross interpolation).

Алгоритм разбивает многомерную задачу на последовательность более простых задач, а также автоматически учитывает кристаллические симметрии материала и тем самым существенно сокращает объём вычислений, сохраняя точность, близкую к классическим методам статистического моделирования. На отдельных примерах ускорение вычислений составило более чем в 400 раз.

Метод был успешно протестирован на ряде реальных веществ: меди, кристаллическом аргоне под высоким давлением, фазовых переходах в олове и других материалах. Во всех случаях THOR воспроизвёл результаты высокоточных эталонных симуляций, ранее проведённых в Лос-Аламосской национальной лаборатории, но с кардинальным сокращением времени расчётов. Фреймворк демонстрирует универсальность: он применим как к простым системам, так и к сложным кристаллическим структурам, что открывает путь к прямым расчётам термодинамического и механического поведения материалов.

Если инструмент будет взят на вооружение, а разработчики позаботились о том, чтобы THOR мог быть встроен в современные программы моделирования атомарной структуры материалов, то это может иметь огромное значение для материаловедения, физики твёрдого тела и химии. Станут возможны быстрые и точные предсказания свойств новых материалов, ускорится разработка сплавов, сверхпроводников, материалов для экстремальных условий и энергетики. Код THOR доступен на GitHub. Пользуйтесь.

Alibaba запустила платформу для ИИ-агентов Wukong с интеграцией Slack и Teams

Китайская корпорация Alibaba представила новую корпоративную платформу искусственного интеллекта под названием Wukong. Этот шаг предпринят на фоне жёсткой конкуренции ИИ-агентов на местном рынке. Новый инструмент появился после ключевых кадровых изменений в команде, которая ранее курировала популярный чат-бот Qwen. Название Wukong отсылает к известному персонажу «Царь обезьян» из классического китайского романа «Путешествие на Запад».

 Источник изображения: Alibaba Group

Источник изображения: Alibaba Group

По словам компании, Wukong позволяет предприятиям управлять несколькими агентами через единый интерфейс, предлагая при этом инфраструктуру безопасности корпоративного уровня. Платформа, которая всё ещё находится на этапе тестирования по приглашениям, может управлять агентами, выполняющими такие задачи, как редактирование документов, утверждения, расшифровка совещаний и исследования. В отличие от чат-ботов, которые реагируют на подсказки, ИИ-агенты могут предпринимать проактивные действия, часто требующие более широкого доступа к данным и системам компании, что вызывает опасения по поводу конфиденциальности и безопасности.

Платформа Wukong доступна как в виде отдельного настольного приложения, так и через облачную коммуникационную платформу DingTalk, аналогичную Slack от Salesforce. Помимо DingTalk, которым пользуются более 20 миллионов корпоративных пользователей, Alibaba представила планы по интеграции Wukong с другими платформами обмена сообщениями, включая Slack, Microsoft Teams и WeChat от Tencent. Wukong также будет постепенно интегрирована в более широкий набор платформ электронной коммерции Alibaba, таких как Taobao и Alipay.

Анонс нового корпоративного ИИ-инструмента состоялся в решающий для Alibaba момент. Он был представлен на следующий день после объявления компанией о реорганизации, в результате которой платформа для ИИ-агентов вошла в состав новой бизнес-группы Alibaba Token Hub. Помимо Wukong, новая бизнес-группа под руководством генерального директора Alibaba Эдди Ву (Eddie Wu) будет курировать существующие подразделения Alibaba: Tongyi Laboratory, MaaS Business Line, Qwen и AI Innovation.

В служебной записке Ву назвал эти изменения «исторической возможностью», поскольку компания находится на «пороге переломного момента [в области искусственного общего интеллекта]». Эти изменения произошли после ухода ключевых сотрудников, ранее участвовавших в разработке популярного чат-бота Qwen от Alibaba. 4 марта стало известно об увольнении ключевого технического руководителя Qwen Линя Цзюньяня (Lin Junyang). Его отставка стала уже третьим уходом высокопоставленного сотрудника из команды Qwen в этом году — ранее её покинули руководитель отдела обучения и главный программист.

Акции Alibaba, котирующиеся на Гонконгской бирже, закрылись во вторник на 0,45 % выше и торговались по $17,17. В ближайшее время инвесторы ожидают объявления финансовых результатов Alibaba за четвёртый квартал 2025 года.

SRAM какой-то: Nvidia представила чип Groq 3 LPU для ускорения инференса ИИ-моделей на уровне токенов

На прошедшей в этом году конференции GTC генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) сообщил, что в этом году платформа Vera Rubin получит расширение. Nvidia использует для этого интеллектуальную собственность, приобретённую у Groq. В состав Rubin вошёл новый чип Nvidia Groq 3 LPU. Компания определяет его как ускоритель инференса. Его задача — выдавать токены в большом объёме и с низкой задержкой.

 Источник изображений: Nvidia

Источник изображений: Nvidia

Платформа Rubin уже включает шесть компонентов, из которых Nvidia собирает стоечные системы и затем масштабирует их до ИИ-фабрик. Это GPU Rubin, CPU Vera, коммутаторы внутрисистемного масштабирования NVLink 6, интеллектуальный сетевой адаптер ConnectX-9, процессор обработки данных BlueField-4 и коммутатор межсистемного масштабирования Spectrum-X с совместно интегрированной оптикой. Groq 3 LPU стал новым элементом этой платформы и ещё одним строительным блоком Rubin при масштабном развёртывании.

Groq 3 LPU отличается от большинства ИИ-ускорителей схемой памяти. Обычно такие системы используют HBM в качестве рабочего уровня памяти. Каждый Groq 3 LPU содержит 500 Мбайт SRAM. Для сравнения, каждый GPU Rubin оснащён 288 Гбайт HBM4. По ёмкости разница велика. По пропускной способности соотношение иное: SRAM обеспечивает до 150 Тбайт/с, а HBM4 — около 22 Тбайт/с. Для ИИ-задач, чувствительных к пропускной способности, рост этого показателя даёт преимущество при инференсе. Именно поэтому Nvidia вводит Groq 3 в состав Rubin.

Стойка Groq 3 LPX включает 256 чипов Groq 3 LPU. Такая система располагает 128 Гбайт SRAM. Её суммарная пропускная способность достигает 40 Пбайт/с. Для объединения чипов внутри стойки предусмотрен выделенный интерфейс внутрисистемного масштабирования. Его пропускная способность составляет 640 Тбайт/с на стойку.

Вице-президент Nvidia по гипермасштабируемым решениям Иэн Бак (Ian Buck) назвал Groq LPX сопроцессором для Rubin. По его словам, он повысит производительность декодирования «на каждом слое ИИ-модели на каждом токене». Nvidia связывает это решение со следующим рубежом ИИ — мультиагентными системами. Речь идёт о сценариях, где нужно обеспечивать интерактивную работу при инференсе моделей с триллионами параметров и окнами контекста в миллионы токенов.

Когда ИИ-агенты всё чаще обмениваются данными друг с другом, а не с человеком в окне чат-бота, меняется и порог приемлемого отклика. Скорость, достаточная для человека, оказывается слишком низкой для ИИ-агента. Бак описывает переход от мира, где разумным считался уровень 100 токенов в секунду, к уровню 1 500 токенов в секунду и выше для межагентного обмена.

Добавление Groq 3 LPU должно усилить позиции Rubin в сегменте низколатентного инференса. В тексте в качестве конкурента названа Cerebras. Компания использует процессоры Wafer-Scale Engine (WSE), выполненные на целой кремниевой пластине, где большие объёмы SRAM объединены с вычислениями для низколатентного инференса на продвинутых моделях. OpenAI также привлекала мощности Cerebras для обслуживания части передовых моделей из-за выгодных характеристик задержки этой платформы.

Иэн Бак также допустил, что появление Groq 3 LPU может сократить роль ускорителя инференса Rubin CPX. Он сказал, что сейчас Nvidia сосредоточена на интеграции стойки Groq 3 LPX с Rubin. Дополнительных подробностей он не привёл. При этом оба чипа рассчитаны на сходное усиление инференса, но Groq LPU не требует большого объёма памяти GDDR7, который нужен каждому модулю Rubin CPX.

«Не могу поверить, что это не первоапрельская шутка»: нейронный рендеринг в DLSS 5 оказался больше похож на ИИ-фильтр

Анонсированное компанией Nvidia на конференции GTC 2026 интеллектуальное масштабирование DLSS 5 вызвало стойкое отторжение среди геймеров, ценящих художественный замысел своих любимых игр.

 Источник изображений: Nvidia

Источник изображений: Nvidia

По словам Nvidia, DLSS 5 использует модель нейронного рендеринга в реальном времени, которая насыщает игровые кадры фотореалистичным освещением и детализацией материалов.

Несмотря на громкие обещания, дебютная демонстрация DLSS 5 на YouTube-канале Nvidia (см. видео ниже) собрала в четыре раза больше дизлайков, чем лайков — 48 тыс. негативных оценок на 11 тыс. положительных.

Пользователи массово раскритиковали то, как DLSS 5 преображает изображение и, в частности, персонажей. Например, Грейс Эшкрофт из Resident Evil Requiem после инъекции DLSS 5 получила более пухлые губы и более выразительные скулы.

Предполагается, что новый апскейлер Nvidia должен сделать героев более реалистичными, но выглядит, словно их обработал ИИ-фильтр. «Не могу поверить, что это не первоапрельская шутка», — удивляется azul1458.

В комментариях к ролику Nvidia уверяет, что DLSS 5 предоставляет разработчикам полный художественный контроль над эффектами масштабирования, что позволяет им «сохранять уникальную эстетику своей игры».

Релиз DLSS 5 ожидается осенью. Первыми играми с поддержкой технологии станут Resident Evil Requiem, Starfield, The Elder Scrolls IV: Oblivion Remastered, Assassin’s Creed Shadows, Hogwarts Legacy, Delta Force и Naraka: Bladepoint.

«Космические вычисления уже здесь»: Nvidia представила модуль Space-1 Vera Rubin для орбитальных ИИ-серверов

Генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) анонсировал на конференции GTC 2026 космический модуль Nvidia Space-1 Vera Rubin Module. По словам Хуанга, модуль обеспечивает до 25 раз большую вычислительную мощность для задач искусственного интеллекта, чем сервер с ускорителями H100.

 Источник изображения: Nvidia

Источник изображения: Nvidia

По словам Nvidia, в настоящее время шесть коммерческих космических компаний используют её платформы в орбитальной и наземной средах: Aetherflux, Axiom Space, Kepler Communications, Planet Labs PBC, Sophia Space и Starcloud. При этом Kepler использует в своей спутниковой группировке платформу Jetson Orin для управления данными с помощью ИИ. «Nvidia Jetson Orin внедряет передовые технологии ИИ непосредственно на наши спутники, позволяя нам интеллектуально управлять данными и маршрутизировать их по всей нашей группировке», — заявила Мина Митри (Mina Mitry), генеральный директор компании, в официальном пресс-релизе Nvidia.

В октябре прошлого года основатель Amazon и Blue Origin Джефф Безос (Jeff Bezos) предсказал, что орбитальные центры обработки данных гигаваттного уровня появятся через 10–20 лет. В качестве основных преимуществ таких платформ он назвал непрерывное солнечное электроснабжение и упрощённую систему охлаждения в космосе. Starcloud, один из шести партнёров Nvidia, уже строит, как он сам описывает, специально разработанные орбитальные центры обработки данных, предназначенные для выполнения задач обучения моделей ИИ и вывода данных на орбите.

«Космические вычисления, последний рубеж, уже здесь», — сказал Дженсен Хуанг, добавив, что «обработка данных с помощью ИИ в космических и наземных системах обеспечивает сбор данных в реальном времени, принятие решений и автономность, превращая орбитальные центры обработки данных в инструменты исследований, а космические аппараты — в системы с автономным управлением».

Глава Nvidia не сказал, когда космический модуль Vera Rubin станет доступен для развёртывания. Компания уже предлагает в качестве космических платформ IGX Thor, Jetson Orin и RTX Pro 6000 Blackwell Server Edition.

«Британская энциклопедия» подала в суд на OpenAI — ChatGPT почти дословно воспроизводит её статьи

«Британская энциклопедия» (Encyclopedia Britannica) и издатель словарей Merriam-Webster подали иск против OpenAI. Они утверждают, что компания использовала их защищённый авторским правом контент для обучения своего ИИ, а затем генерировала ответы, которые были «существенно похожи» на их контент. Об этом сообщило издание Reuters.

 Источник изображения: Levart_Photographer / unsplash.com

Источник изображения: Levart_Photographer / unsplash.com

«Британская энциклопедия» утверждает, что OpenAI неоднократно копировала их контент без разрешения. «GPT-4 сама “запомнила” большую часть защищенного авторским правом контента энциклопедии и будет выдавать почти дословные копии значительных фрагментов по запросу. Запомненные примеры являются несанкционированными копиями, которые [OpenAI] использовала для обучения своих моделей, включая GPT-4», — утверждается в иске.

В иске также приводятся примеры ответов моделей OpenAI рядом с текстом «Британской энциклопедии», в которых целые отрывки совпадают слово в слово. «Британника» также утверждает, что OpenAI «перетягивает» на себя её веб-трафик, генерируя ответы, которые «заменяют или напрямую конкурируют» с контентом энциклопедии, вместо того чтобы направлять пользователей на свой веб-сайт, как это делала бы традиционная поисковая система.

Как пишет The Verge, это последний из растущей череды исков о нарушении авторских прав от издателей, направленных против компаний, занимающихся искусственным интеллектом, за последние несколько лет. Ранее газета The New York Times выдвигала аналогичные обвинения в своём продолжающемся судебном процессе против OpenAI, в том числе обвиняя компанию в массовом копировании её защищённого авторским правом контента. В сентябре компания Anthropic урегулировала коллективный иск об использовании защищённых авторским правом книг для обучения своих моделей ИИ, выплатив авторам книг $1,5 млрд.

От тысяч к десяткам миллионов: гонка ИИ разогнала спрос на углеродные кредиты среди техногигантов

На фоне гонки в сфере ИИ Amazon, Google, Meta✴ и Microsoft резко увеличили закупки углеродных кредитов для компенсации выбросов CO2. По данным платформы Ceezer, объём таких покупок вырос с 14 200 кредитов в 2022 году до 68,4 млн в 2025 году. Главный драйвер — расширение энергоёмкой ИИ-инфраструктуры. Речь идёт прежде всего о крупных дата-центрах. Они требуют больше электроэнергии. Они же увеличивают выбросы.

 Источник изображения: Matthias Heyde / Unsplash.com

Источник изображения: Matthias Heyde / Unsplash.com

По данным платформы управления углеродными кредитами Ceezer, Amazon, Google, Meta✴ и Microsoft увеличили закупки углеродных кредитов после запуска ChatGPT в 2022 году. Именно это событие дало старт гонке ИИ. Углеродные кредиты позволяют компаниям компенсировать выбросы через финансирование проектов, которые снижают выбросы или удаляют CO₂ из атмосферы. Каждый кредит соответствует одной метрической тонне углекислого газа, сокращённой или удалённой из атмосферы. Все четыре компании уже обязались достичь нулевого уровня чистых выбросов. Однако быстрое развитие ИИ, который требует больших объёмов энергии и воды, поставило под вопрос достижимость этой цели.

В 2022 году четыре компании купили 14 200 кредитов на постоянное удаление CO2 из атмосферы. В 2023 году объём вырос до 11,92 млн. В 2024 году он увеличился ещё на 104 % и достиг 24,4 млн. В 2025 году рост составил 181 %, а общий объём поднялся до 68,4 млн. В прошлом году Amazon запустила платформу, на которой её партнёры могут покупать углеродные кредиты. Параллельно растут и затраты на развитие ИИ. Amazon, Alphabet, Microsoft и Meta✴ в совокупности рассчитывают в этом году израсходовать почти $700 млрд на поддержку своих амбиций в сфере ИИ. В эту сумму входит строительство больших дата-центров.

Среди четырёх компаний только Microsoft последовательно публиковала годовые объёмы закупок углеродных кредитов ещё до 2022 года. Кроме того, кредиты часто покупают пакетами с поставкой на несколько лет вперёд. Это может искажать годовую динамику. Есть и ещё одно ограничение. Компании не обязаны раскрывать такие сделки. Генеральный директор Ceezer Магнус Древелис (Magnus Drewelies) сказал CNBC, что часть покупок могла не раскрываться из-за репутационного риска. Ранние углеродные кредиты вызывали споры, потому что не всегда отражали подлинное сокращение выбросов CO2.

По оценке Древелиса, при ограниченном предложении чистой энергии, необходимой для развития ИИ, достижение углеродной нейтральности техногигантами без удаления CO2 невозможно. Дефицит низкоуглеродной энергии стал прямым ограничителем климатических стратегий компаний. Технологическое удаление CO2 включает разные методы. Один из них — прямой захват воздуха, при котором машины извлекают CO2 из атмосферы. Другой путь — процессы, которые ускоряют естественную способность природы улавливать и накапливать углерод.

 Источник изображения: Scott Rodgerson / Unsplash.com

Источник изображения: Scott Rodgerson / Unsplash.com

Исполнительный директор отраслевой коалиции Carbon Business Council Бен Рубин (Ben Rubin) связал скачок закупок с докладом Межправительственной группы экспертов по изменению климата ООН (IPCC) за 2022 год. В докладе говорилось, что удаление углерода потребуется во всех сценариях, которые позволяют удержать глобальное потепление ниже 1,5 градуса. Рубин заявил CNBC: «Всплеск спроса на удаление в 2023 году был не краткосрочной реакцией, а началом структурного сдвига, которому соответствуют растущая активность частного сектора и поддержка со стороны государственной политики».

Среди четырёх компаний наиболее заметна Microsoft. Генеральный директор платформы климатического финансирования Opna Шилпика Гаутам (Shilpika Gautam) сказала CNBC, что рынок удаления углерода — это по сути Microsoft. Когда CNBC запросил у компании данные, Microsoft представила цифры, которые отличаются от расчётов Ceezer. Причина в методике. Microsoft учитывает все типы углеродных кредитов, а не только постоянное удаление CO2.

По данным Microsoft, объём закупок вырос на 247 % с 2022 по 2023 финансовый год и достиг 5 млн единиц. Затем, с 2023 по 2024 финансовый год, объём увеличился ещё на 337 % и составил 21,9 млн. В следующем финансовом году компания зафиксировала рост примерно на 100 %, но точную цифру не раскрыла. Директор по устойчивому развитию Microsoft Мелани Накагава (Melanie Nakagawa) сказала CNBC, что компания сосредоточена на сокращении выбросов и на удалении той их части, которую пока не может сократить. Цель Microsoft достичь отрицательного углеродного баланса к 2030 году.

В письменном комментарии Накагава заявила: «Будучи первопроходцем на рынке удаления углерода, мы находимся в уникальном положении и можем формировать сигналы спроса, которые приведут к росту предложения. Рынок удаления углерода, на котором будет больше решений и больше покупателей, приблизит всех нас к достижению наших общих целей и обеспечит положительный эффект для планеты и экономики». При этом Microsoft прямо не ответила на вопрос, связаны ли её закупки кредитов с ИИ-стратегией.

По оценке Древелиса, рост сферы ИИ сопровождался некоторым увеличением выбросов у крупнейших компаний, но рост не был резким. Из этого он делает вывод, что гиперскейлеры сравнительно быстро отреагировали, в том числе через переход на возобновляемые источники энергии. Иными словами, они опираются не только на углеродные кредиты. Гаутам при этом считает, что закупки Microsoft в значительной степени можно объяснить расширением её ИИ-дата-центров. Гаутам также указала на инвестиции Microsoft в компании, которые разрабатывают низкоуглеродные материалы, включая Sublime Systems и Stegra. По её словам, такая стратегия логична: после масштабирования эти решения позволят строить более устойчивую инфраструктуру.

Мультимодальная ИИ-модель DeepSeek-V4 с контекстным окном в 1 млн токенов выйдет в апреле

С тех пор, как в январе прошлого года DeepSeek выпустила рассуждающую ИИ-модель DeepSeek-R1, которая получила широкую известность, крупных обновлений не выходило. Слухи о появлении новой ИИ-модели от DeepSeek время от времени вызывают волну обсуждений в интернете, но, по всей видимости, в следующем месяце состоится релиз мультимодальной модели DeepSeek-V4, которая получит значительные улучшения по сравнению с предыдущей версией.

 Источник изображения: mp.weixin.qq.com

Источник изображения: mp.weixin.qq.com

По данным источника, последние полгода команда разработчиков DeepSeek во главе с сооснователем компании Лян Вэньфэном (Liang Wenfeng) работала над устранением недостатков DeepSeek в плане обработки визуального контента и улучшением ИИ-поиска. Компания стремилась улучшить способности ИИ-модели в области генерации программного кода, а также работала над расширением контекстного окна. Для достижения поставленных целей ещё в прошлом году DeepSeek начала сотрудничать с Baidu.

Пользователи платформ для профессионалов по всему миру пытаются уловить признаки появления новой версии DeepSeek. Несколько дней назад на OpenRouter, крупнейшем агрегаторе API для ИИ-моделей, появились алгоритмы Healer Alpha и Hunter Alpha. Модель Healer Alpha — это мультимодальная языковая модель, способная воспринимать визуальную и звуковую информацию, проводить кросс-модальные рассуждения и с высокой точностью выполнять многошаговые задачи. При этом размер контекстного окна алгоритма составляет всего 260 тыс. токенов. Hunter Alpha создана специально для агентных приложений. Это модель с триллионами параметров и контекстным окном в 1 млн токенов. В описании сказано, что алгоритм хорошо справляется с долгосрочным планированием, сложными рассуждениями и непрерывным выполнением многошаговых задач. Она может точно следовать полученным инструкциям, что важно при работе с фреймворками вроде OpenClaw, позволяющими создавать ИИ-агентов.

 Источник изображения: Unsplash, Solen Feyissa

Источник изображения: Unsplash, Solen Feyissa

На фоне появления этих двух языковых моделей в соцсети X снова поднялась волна обсуждений о скором выходе DeepSeek-V4. Однако, судя по предыдущим публичным сообщениям о DeepSeek-V4, модель обладает десятками триллионов параметров, контекстным окном в 1 млн токенов, а также способностью понимать и генерировать мультимодальные данные, т.е. обрабатывать и создавать текст, изображения и видео. Это означает, что характеристики недавно появившихся на OpenRouter алгоритмов не в полной мере соответствуют ожидаемым параметрам DeepSeek-V4.

По данным источника, направление развития следующей версии DeepSeek связано с улучшением долгосрочной памяти, считающейся одной из важнейших характеристик языковых моделей. За последние полгода Лян Вэньфэн стал соавтором трёх научных работ, связанных, в том числе, с изучением возможностей расширения долгосрочной памяти языковых моделей.

Результаты исследований Вэньфэна и его команды также демонстрируют чёткую траекторию технологической эволюции. Утвердив парадигму обучения с подкреплением для способностей к рассуждению в DeepSeek-R1, разработчики исследуют дальнейшие инновации в базовой архитектуре. В частности, через новые модули, такие как «условная память», они пытаются повысить производительность алгоритма, решив известные проблемы традиционной архитектуры в части памяти и вычислительных мощностей. Эта деятельность также является технологической подготовкой к запуску DeepSeek-V4. Кроме того, новый алгоритм будет глубоко адаптирован под китайские ИИ-ускорители и может стать первой ИИ-моделью, полностью работающей в рамках «экосистемы отечественных вычислительных мощностей».

В апреле на рынке китайских ИИ-моделей ожидается высокая активность. Помимо появления новой версии DeepSeek, ожидается запуск очередной ИИ-модели Tencent с 30 млрд параметров.

Игровая индустрия сильно пострадала из-за ИИ, и GDC 2026 показала, что ситуация близка к коллапсу

Журналист Bloomberg Джейсон Шрайер (Jason Schreier) подвёл итоги прошедшей на минувшей неделе конференции для разработчиков видеоигр GDC 2026 и поделился выводами, которые сделал по результатам посещения этого мероприятия. В числе прочего он увидел, как сильно на индустрию влияет генеративный искусственный интеллект и в будущем ситуация, скорее всего, будет лишь усугубляться.

 Источник изображения: ELLA DON/unsplash.com

Источник изображения: ELLA DON/unsplash.com

Кризис на рынке труда. За последние три года индустрия видеоигр потеряла десятки тысяч рабочих мест из-за чрезмерного найма в 2021 году, нестабильной рыночной ситуации и множества других факторов. На конференции GDC в этом году можно было легко найти подтверждение этой турбулентности. Семинары, предназначенные для помощи разработчикам в улучшении их резюме, были переполнены соискателями, а продюсеры и художники обменивались визитками в надежде найти новую работу.

В этом году на конференции было множество студентов, жаждущих найти работу в игровой индустрии. К сожалению, в ближайшие месяцы и годы многим из них придётся столкнуться с суровой реальностью: они конкурируют с ветеранами индустрии, у которых за плечами десятилетия опыта и которые сами прикладывают массу усилий, чтобы найти работу. Один из участников конференции рассказал, что индустрия видеоигр и раньше проходила через подобные циклы, но никогда прежде в подобных масштабах. Огромное количество безработных в игровой сфере означает, что некоторым из них, вероятно, придётся искать иное призвание.

Искусственный интеллект повсюду. Третий год подряд ИИ был в числе основных тем на GDC. В отличие от других недавних трендов, таких как NFT, генеративный ИИ, по всей видимости, пришёл всерьёз и надолго, поскольку предлагает много вариантов использования. Несколько разработчиков рассказали, что им удалось найти эффективные способы использования ИИ внутри своих студий, например, для помощи в ведении заметок на совещаниях или сортировки документации, скопившейся за годы.

В конференц-центре Moscone нельзя было пройти и нескольких шагов, чтобы не увидеть баннер с рекламой ИИ-сервисов разных компаний, не столкнуться с представителями ИИ-компаний или не услышать, как кто-то рассказывает о преимуществах нового ИИ-инструмента, который произведёт революцию в игровой индустрии, сделав всех NPC разумными. Стенды на выставочной площадке рекламировали всевозможные игры и инструменты на базе ИИ, а на многочисленных семинарах велись обсуждения того, как ИИ впишется в разработку игр.

 Источник изображения: Desola Lanre-Ologun / unsplash.com

Источник изображения: Desola Lanre-Ologun / unsplash.com

Совместная разработка. Аутсорсинг был неотъемлемой частью индустрии видеоигр на протяжении многих лет, но к настоящему моменту он стал более масштабным, чем когда-либо. Поскольку студии планомерно снижают численность персонала, пытаясь удержать бюджеты своих игр ниже $400 млн, они привлекают всё больше партнёров по «совместной разработке». Речь о компаниях, которые приходят на временной основе, чтобы помочь с разработкой определённых частей игры. За счёт этого у студий остаётся достаточно ресурсов для продвижения проекта, но нет необходимости в увольнении лишнего персонала после его завершения.

Сторонних разработчиков стали привлекать даже те студии, которые прежде работали самостоятельно. Поэтому на GDC в этом году было множество представителей компаний, предоставляющих услуги по совместной разработке. Некоторые из этих компаний универсальны и могут предлагать помощь в разработке практически чего угодно, другие же специализируются на создании конкретных частей игр. В настоящее время студий совместной разработки больше чем когда-либо, и работы для них вполне хватает.

Повторное использование. Во время одной из дискуссий разработчики игры Clair Obscur: Expedition 33 вызвали возгласы удивления у публики, рассказав, что им удалось сохранить небольшую команду программистов с помощью одной хитрости. Они создали большую часть игрового процесса, используя встроенную в Unreal Engine систему скриптов Blueprints, вместо того, чтобы писать весь код с нуля.

Хотя такой подход может подойти не всем разработчикам, в ходе многих разговоров всплывала одна тема: необходимость для разработчиков игр перерабатывать свои прежние наработки, а не начинать процесс каждый раз с чистого листа. Многим программистам трудно удержаться от соблазна начать новый проект с нуля, используя возможность «чистого листа», чтобы исправить свои прежние ошибки. Существуют также усложняющие факторы, например, обновление Unreal Engine со стороны Epic Games может сделать уже существующие технологии устаревшими, что будет стоить программистам месяцев работы.

Однако начало работы с нуля может добавить к графику месяцы, если не годы. В индустрии, где бюджеты раздулись до сотен миллионов долларов из-за того, что игры создаются так долго, поиск способов сократить расходы и максимально эффективно задействовать прежние наработки может стать одним из путей выхода из сложившейся ситуации.

В Meta✴ назревает новая волна увольнений: из-за ИИ могут уволить каждого пятого

Meta✴ Platforms планирует масштабные увольнения, которые могут затронуть 20 % сотрудников компании. Об этом пишет информационное агентство Reuters со ссылкой на собственные осведомлённые источники. За счёт этого Meta✴ хочет компенсировать инвестиции в инфраструктуру для искусственного интеллекта и подготовиться к повышению эффективности, связанному с использованием сотрудниками ИИ-агентов.

 Источник изображений: Igor Omilaev / unsplash.com

Источник изображений: Igor Omilaev / unsplash.com

Сроки проведения сокращений и их масштаб ещё не были определены окончательно. По словам других источников, высшее руководство Meta✴ сообщило о планах по сокращению штата сотрудников другим топ-менеджерам и поручило им приступить к планированию этого процесса. «Это спекулятивные сообщения о теоретических подходах», — прокомментировал данный вопрос представитель Meta✴ Энди Стоун (Andy Stone).

Если в конечном счёте будет принято решение о сокращении штата на 20 %, то эта волна увольнений станет самой масштабной после реструктуризации 2022–2023 годов, которую компания называла «годом эффективности». Согласно данным последней отчётности, по состоянию на 31 декабря 2025 года в компании работало около 79 тыс. человек. В ноябре 2022 года Meta✴ уволила 11 тыс. сотрудников, что на тот момент составляло около 13 % персонала компании. Примерно через четыре месяца было объявлено о сокращении ещё 10 тыс. человек.

Глава Meta✴ Марк Цукерберг (Mark Zuckerberg) сосредоточен на дальнейшем развитии направления ИИ. Последний год он подталкивает компанию к более активной конкуренции в сфере генеративного ИИ. Meta✴ провела масштабную кампанию по привлечению ведущих ИИ-разработчиков, предлагая им огромные денежные выплаты. В дополнение к этому Meta✴ заявила о намерении инвестировать $600 млрд в строительство центров обработки данных до 2028 года. Ранее на этой неделе компания приобрела Moltbook, социальную сеть для ИИ-агентов. Не так давно также сообщалось, что Meta✴ потратит не менее $2 млрд на покупку китайского ИИ-стартапа Manus.

Цукерберг намекал на повышение эффективности, которое приносят инвестиции в ИИ. В январе он заявил, что начинает видеть, как «проекты, для которых ранее требовались большие команды, теперь выполняются одним очень талантливым человеком». Планы Meta✴ отражают более широкую тенденцию среди крупных американских компаний, особенно в технологическом секторе. Топ-менеджеры указывают на недавние улучшения ИИ-систем, как на одну из причин этих изменений.

Сэм Альтман признал, что ИИ разрушает баланс между трудом и капиталом — и никто не знает, что с этим делать

Выступая на саммите BlackRock по инфраструктуре, гендиректор OpenAI Сэм Альтман (Sam Altman) затронул тему растущего общественного скептицизма в отношении искусственного интеллекта. В частности, он подтвердил обоснованность широко распространённых опасений по поводу рынков труда в будущем, признав, что традиционный баланс между трудом и капиталом меняется кардинальным образом.

 Источник изображения: x.com/sama

Источник изображения: x.com/sama

Говоря о текущей негативной реакции общественности, Альтман отметил, что ИИ повсеместно стал «козлом отпущения» для оправдания сокращения штата в компаниях и роста коммунальных расходов. «Центры обработки данных обвиняют в повышении цен на электроэнергию. Почти каждая компания, которая проводит увольнения, обвиняет в этом ИИ, даже если на самом деле дело не в нём», — заявил Альтман. При этом он признал, что скрытая угроза для традиционной занятости имеет реальное основание.

Во время выступления Альтман рассказал, что видел в интернете цитату, которая засела у него в голове. В ней говорилось о том, как на протяжении столетий, возможно тысячелетий, люди учились структурировать общество для управления дефицитом, а теперь им быстрыми темпами приходится учиться обратному — управлять «изобилием». «Так что это, по сути, реальное изменение того, как работал капитализм», — сказал Альтман, добавив, что капитализм в некоторой степени опирался на баланс сил между трудом и капиталом. «Но если во многих наших нынешних профессиях сложно превзойти по производительности графический процессор, то это всё меняет», — добавил глава OpenAI. Он отметил, что это ставит его в тупик. «Если бы было простое общепринятое решение, мы бы его уже нашли. Так что думаю, никто не знает, что делать», — заявил Альтман.

Ещё было сказано, что за последние несколько месяцев ландшафт ИИ перешагнул порог «основной экономической полезности», быстро эволюционируя от простой помощи в написании программного кода до выполнения сложных задач в различных сферах интеллектуального труда. Альтман предупредил, что темпы этой эволюции дезориентируют, и уже скоро ИИ-агентам можно будет доверять выполнение задач, занимающих несколько дней и недель, причём они будут делать эту работу проактивно, как опытный сотрудник-человек.

Этот сдвиг уже меняет поведение компаний. Новое поколение стартапов намеренно избегает большого количества сотрудников, предпочитая вместо этого вкладывать свой капитал в вычислительные мощности. Альтман рассказал, что встречал предпринимателей, пытающихся создавать стартапы с «нулевым количеством сотрудников», полностью полагаясь на запросы к ИИ для написания программного обеспечения, выполнения юридической работы и управления поддержкой клиентов.

Amazon начнёт запускать ИИ-модели на гигантских чипах Cerebras

Amazon планирует использовать чипы стартапа Cerebras Systems Inc. наряду с собственными процессорами Trainium, что, по словам компании, создаст оптимальные условия для запуска больших языковых моделей. Платформа Amazon Web Services, являющаяся одним из крупнейших поставщиков облачных вычислительных мощностей, начнёт предлагать новый сервис на основе договорённостей с Cerebras во второй половине 2026 года. Финансовые условия сделки не разглашаются.

 Источник изображения: Cerebras

Источник изображения: Cerebras

Партнёрство Amazon и Cerebras является очередной попыткой удовлетворить огромный спрос на инфраструктуру для вычислений в сфере искусственного интеллекта. По словам вице-президента Amazon Web Services Нафии Бшары (Nafea Bshara), обе компании готовились к этому сотрудничеству в течение нескольких лет. Он также добавил, что платформа AWS намерена задействовать столько чипов для увеличения вычислительных мощностей, сколько будет востребовано.

Для Cerebras, которая планирует первичное публичное размещение акций (IPO), наличие среди клиентов Amazon поможет повысить узнаваемость компании на потенциально огромном рынке. Платформа AWS стала первой из числа крупнейших операторов центров обработки данных, кто обязался задействовать в своей инфраструктуре чипы Cerebras.

Согласно имеющимся данным, чипы Amazon и Cerebras будут работать в связке для обеспечения инференс-вычислений, т.е. запуска больших языковых моделей и генерации ответов на входящие запросы. Чипы Amazon Trainium 3 используют для осмысления пользовательских запросов, после чего чипы Cerebras Wafer Scale Engine обеспечат генерацию ответов. Обычно такой подход имеет существенный недостаток: взаимодействие между разными компонентами замедляет процесс. Однако в данном случае компании стремятся получить преимущество, используя специализированные чипы, которые способны быстрее обрабатывать задачи инференса. Улучшение производительности будет особенно заметно в областях, требующих взаимодействия с пользователем, например, при поэтапном написании программного кода.

«Хотя сервис только на базе чипов Trainium, вероятно, будет дешевле, новое комбинированное предложение станет привлекательным там, где время — деньги», — считает Бшара. Amazon продолжает оставаться крупным клиентом Nvidia, а также ведёт разработку собственных ИИ-чипов. Эти усилия направлены на улучшение экономических показателей центров обработки данных компании и достижение возможности предлагать клиентам уникальные услуги.

Nvidia пообещала ускорить «в миллион раз» трассировку лучей и путей в будущих GPU

Несмотря на растущую конкуренцию со стороны Intel и AMD, линейка видеокарт RTX от Nvidia объективно остаётся лучшим оборудованием для работы технологий трассировки лучей и трассировки путей в играх. Начиная с архитектуры Turing и серии RTX 20, компания добилась значительных успехов (в основном за счёт использования ИИ и нейронного рендеринга) в повышении графической детализации без ущерба для производительности. На конференции GDC 2026 Nvidia заявила, что будущее сулит ещё более впечатляющие достижения.

 Источник изображения: Future / CD Projekt Red, Remedy Entertainment, Microsoft

Источник изображения: Future / CD Projekt Red, Remedy Entertainment, Microsoft

На презентации Nvidia Джон Спитцер (John Spitzer), вице-президент Nvidia по разработке и производительности, представил линейный график, отображающий прогресс роста производительности трассировки лучей и трассировки путей в игровых графических процессорах Nvidia. В левом углу графика находится архитектура Pascal, в рамках которой выпускалась легендарная серия видеокарт GTX 1000, выпущенная десять лет назад. Сравнивая её с сегодняшними графическими процессорами Blackwell (RTX 50), можно заметить, что производительность трассировки путей улучшилась в 10 000 раз.

 Источник изображения здесь и ниже: Nvidia

Источник изображения здесь и ниже: Nvidia

Во многом этот прогресс обусловлен акцентом на аппаратное ускорение нейронной графики, которое обеспечивается выделенными RT- и тензорными ядрами, работающими с алгоритмами машинного обучения внутри графических процессоров Nvidia. Такие функции, как DLSS, полностью зависят от ИИ. Возможность более точного объединения данных кадров — как в задачах масштабирования изображения, так и при генерации кадров — возможна только благодаря ИИ-моделям, обученным на суперкомпьютерах Nvidia.

По словам Спитцера, закон Мура мёртв, поэтому одних только достижений в области аппаратных кремниевых технологий уже недостаточно для создания фотореалистичных изображений — по крайней мере, не на его веку. Nvidia хочет достичь уровня графической детализации, неотличимого от реальной жизни, но для этого потребуется «в сто или тысячу раз большая вычислительная мощность». И именно здесь ИИ становится катализатором.

В будущем достижения в области ИИ позволят игровым графическим процессорам достичь в 1 000 000 раз большей производительности трассировки лучей по сравнению с серией GTX 1000. Более новые, быстрые и эффективные аппаратные блоки, по сути, сделают нейронный рендеринг стандартом в будущем, о чём ранее уже заявлял глава Nvidia Дженсен Хуанг (Jensen Huang). Игры будут «выглядеть как фильм», при этом работая плавно благодаря интерполяции множества кадров в реальном времени с помощью ИИ.

Всё это не является откровением. Прогресс в игровой графике неизбежен. Есть вероятность, что ожидание этих изменений может оказаться недолгим. Графические процессоры Rubin следующего поколения от Nvidia, запуск которых запланирован на период с 2027 по 2028 год, могут приблизить эту реальность с трассировкой лучей, улучшенной в миллион раз. Список игр, поддерживающих трассировку лучей, быстро растёт. В рамках презентации Спитцер отметил, что одной из последних игр с её поддержкой стала Resident Evil Requiem. Поддержку технологии получат также будущие релизы Pragmata, 007 First Light, Control Resonant, Directive 8020 и Tides of Annihilation.

В рамках презентации Спитцер также рассказал о новых технологиях трассировки лучей, таких как ReSTIR (современные алгоритмы пространственно-временной передискретизации) и RTX Mega Geometry. Для их демонстрации Nvidia представила техническое демо игры Witcher IV, сцена из которой содержала более двух триллионов треугольников (полигонов), одновременно отображающих реалистичную растительность и освещение.

Microsoft подтвердила, когда игровой ИИ-помощник Gaming Copilot появится на Xbox Series X и S

Вслед за Windows 11, мобильными устройствами и ROG Xbox Ally игровой ИИ-помощник Gaming Copilot от Microsoft готовится покорять актуальные консоли американского платформодержателя.

 Источник изображения: Steam (RightFireworк)

Источник изображения: Steam (RightFireworк)

Как сообщил портал GamesRadar со ссылкой на презентацию Microsoft в рамках конференции Game Developers Conference 2026, Gaming Copilot доберётся до «консолей Xbox текущего поколения» (то есть Xbox Series X и S) в 2026 году.

Об этом со сцены GDC 2026 объявила менеджер Microsoft по продуктам для игрового ИИ Сонали Ядав (Sonali Yadav). Она же сообщила, что компания «продолжит внедрять [Gaming Copilot] в другие сервисы, которыми пользуются игроки».

 Источник изображения: Xbox

Источник изображения: Xbox

«Бета» Gaming Copilot за пределами консолей Xbox идёт с осени 2025 года, однако широкой огласки (ни позитивной, ни негативной) до сих пор не получила. Ситуация может измениться, когда чат-бот станет доступен консольной аудитории.

Как бы то ни было, Microsoft признательна участникам закрытого бета-тестирования Gaming Copilot: «Мы многое узнали за прошедший год и благодарны за все отзывы, которые получили от сообщества».

 Источник изображения: Xbox

Источник изображения: Xbox

Сейчас Gaming Copilot включает возможность «подтянуть» последние достижения, получить рекомендации игр на основе своей истории и советы по прохождению, а также напоминание о деталях собственного аккаунта.

Недавно Microsoft запатентовала систему, которая позволит временно передавать управление игрой помощнику (будь то другой человек или ИИ). Вполне возможно, функцию готовят как раз для Gaming Copilot.

Microsoft, Meta✴ и OpenAI объединились с AMD и Nvidia для создания быстрого оптического интерконнекта для ИИ-мегакластеров

Облачные провайдеры Microsoft, Meta✴ и OpenAI объединились с разработчиками оборудования AMD, Broadcom и Nvidia для разработки протокольно-независимой технологии масштабируемого межсоединения для кластеров ИИ. Новое соглашение о сотрудничестве (Multi-Source Agreement, MSA) определит универсальную волоконно-оптическую инфраструктуру для масштабируемых межсоединений на коротких расстояниях для кластеров ИИ.

 Источник изображений: unsplash.com

Источник изображений: unsplash.com

В телекоммуникационной отрасли MSA — это соглашение о выпуске продуктов, совместимых между различными поставщиками, выступающее в качестве де-факто стандартов и создающее конкурентный рынок для совместимых продуктов. Спецификация, разработанная MSA, определяет форм-факторы устройств и их интерфейс управления. К продуктам, соответствующим MSA, относятся: оптические трансиверы, волоконно-оптические кабели и другие сетевые устройства.

MSA в области оптических вычислительных межсоединений (Optical Compute Interconnect, OCI) должно определить открытую спецификацию оптической связи для масштабируемых межсоединений, используемых внутри крупных систем и стоек ИИ, что позволит использовать оптические кабели вместо медных для подключения большего количества ускорителей на высокой скорости и с предсказуемым энергопотреблением. На практике это означает, что консорциум разработает общий физический уровень (Physical Layer, PHY) и унифицированные компоненты для поддержки различных протоколов, таких как UALink для AMD и Broadcom, и NVLink для Nvidia.

Технология связи OCI для оптических каналов малой дальности, используемых в стойках ИИ и масштабируемых кластерах, определит общий PHY на основе сигнализации NRZ и мультиплексирования с разделением по длинам волн (Wavelength-Division Multiplexing, WDM), начиная с четырёх длин волн × 50 Гбит/с (200 Гбит/с в каждом направлении) с возможностью масштабирования до 800 Гбит/с на волокно. Ожидается, что со временем количество длин волн будет увеличено, а скорость передачи сигналов возрастёт до 3,2 Тбит/с на волокно. Технология будет поддерживать подключаемые оптические модули, встроенную оптику и интегрированную оптику (Co-Packaged Optics, CPO) непосредственно с вычислительными микросхемами.

Общий PHY позволит различным процессорам и протоколам межсоединений работать на одной и той же волоконно-оптической инфраструктуре и коммутаторах от разных поставщиков, обеспечивая гибкость для крупных компаний, сохраняя при этом конкурентные преимущества протоколов, используемых разработчиками ускорителей ИИ и графических процессоров. Стандартизированная дорожная карта OCI призвана упростить системную интеграцию, снизить риски разработки и сократить циклы развёртывания для новых поколений оборудования ИИ.

Хотя группу OCI MSA возглавляют AMD, Broadcom и Microsoft, известные сторонники открытых отраслевых стандартов, это явно не традиционный орган по стандартизации, такой как консорциумы Ultra Ethernet или UALink, что должно заметно повлиять на развитие технологии и ускорить её внедрение:

  • Во-первых, OCI MSA ориентирована на гиперскейлеров, что отличает это соглашение от большинства отраслевых консорциумов, которые организуются и возглавляются независимыми поставщиками оборудования (IHV), IP-компаниями и поставщиками сетевого оборудования.
  • Во-вторых, OCI нацелена на очень специфический архитектурный уровень систем ИИ — каналы связи ближнего действия, соединяющие ускорители и коммутаторы в масштабируемой области. В отличие от этого, традиционные группы разработчиков оборудования, как правило, стандартизируют вертикально интегрированный набор технологий.
  • В-третьих, сама структура MSA подразумевает, что работа будет вестись быстрее, чем в типичном отраслевом органе по стандартизации. MSA призваны позволить участникам согласовывать электрические/оптические интерфейсы и быстро создавать совместимые продукты, без длительных процессов достижения консенсуса, характерных для классических организаций, таких как JEDEC или Ultra Ethernet Consortium, которые призваны объединять десятки или сотни компаний и поддерживать всю отрасль.

«Растущая потребность в масштабируемых оптических межсоединениях для поддержки крупных систем ИИ в конце этого десятилетия очевидна, — уверен старший вице-президент по технологиям и инженерии AMD Брайан Амик (Brian Amick). — AMD является одним из основателей и активным сторонником OCI MSA, поскольку она устанавливает открытую спецификацию для отрасли, способствующую развитию надёжной многовендорной экосистемы масштабируемых оптических межсоединений».

«Компания Broadcom гордится тем, что использует свою платформу CPO и отраслевые партнёрства для продвижения спецификации OCI, — заявил вице-президент и генеральный директор подразделения оптических систем Broadcom Нир Маргалит (Near Margalit). — OCI-MSA обеспечивает бесшовную интеграцию с существующими электрическими ASIC на базе SerDes, предоставляя при этом чёткий путь к прямой интеграции ASIC, гарантируя, что экосистема останется гибкой и высокопроизводительной».

«Nvidia является одним из основателей OCI MSA, призванного установить общий оптический стандарт для глобальных инфраструктур ИИ, — отметил старший вице-президент по сетевым технологиям Nvidia Гилад Шайнер (Gilad Shainer). — Оснастив лучшие в своём классе вычислительные мощности передовой оптикой, OCI MSA может обеспечить масштабируемость и производительность, необходимые для следующей эры сверхинтеллекта».


window-new
Soft
Hard
Тренды 🔥
Fortnite вернётся в Play Store по всему миру вместе с запуском сезона «Противостояние» 7 ч.
Хардкорная сложность, вырезанный контент и новые кошмары: с выходом ПК-версии Death Stranding 2: On the Beach получит крупное обновление 7 ч.
Скандал с почтовым ПО Horizon не утихает: тысячи невинно осуждённых британцев до сих пор без выплат 9 ч.
Bethesda разразилась новостями о Starfield — сюжетное дополнение Terran Armada, крупное обновление Free Lanes и версия для PS5 9 ч.
Alibaba запустила платформу для ИИ-агентов Wukong с интеграцией Slack и Teams 10 ч.
Чат-бот Anthropic Claude научился генерировать шрифты на основе рукописного текста 10 ч.
Disco Elysium, Resident Evil 7, Like a Dragon: Infinite Wealth и многие другие: Microsoft раскрыла последние новинки Game Pass в марте 11 ч.
В мобильном Chrome появилась панель закладок — но только для планшетов и складных смартфонов 12 ч.
В Google Gemini появится ветвление беседы — как в ChatGPT 12 ч.
«Алиса AI» начала обучать школьников — ИИ поможет разобраться с задачами по математике 12 ч.
Доступные смартфоны Samsung перейдут на OLED-панели китайской CSOT — Samsung Display очень недовольна 3 ч.
Новая статья: Обзор смартфона Google Pixel 10a: Google, где изменения? 4 ч.
Nvidia наконец выпустила рабочую станцию DGX Station на базе GB300 Grace Blackwell — у неё почти полтерабайта LPDDR5X 5 ч.
Oppo представила флагманский складной смартфон Find N6 с «практически невидимой складкой» по цене от $1437 6 ч.
В России утверждён план развития высокопроизводительных вычислений и суперкомпьютерной инфраструктуры 6 ч.
Microsoft возьмётся за проблему раздробленного Copilot — направление ИИ получит нового главу 7 ч.
Чудо-материал из отходов: учёные научились превращать скорлупу арахиса в «почти графен» 7 ч.
Samsung выпустила 140-долларовый смартфон Galaxy M17e — Dimensity 6300, 50-Мп камера и батарея на 6000 мА·ч 7 ч.
Oppo представила смарт-часы Watch X3 с титановым корпусом, мониторингом глюкозы и выявлением гипертонии 9 ч.
AWS и NVIDIA расширят сотрудничество: в следующие 12 месяцев AWS внедрит более 1 млн ИИ-ускорителей NVIDIA 9 ч.