Сегодня 26 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → искусственный интеллект
Быстрый переход

Новая статья: Воспитаем AGI в своём коллективе

Данные берутся из публикации Воспитаем AGI в своём коллективе

OpenAI купила стартап Astral, создающий ИИ-инструменты для разработчиков ПО

В четверг компания OpenAI объявила о приобретении Astral, небольшого стартапа, создающего популярные инструменты с открытым исходным кодом для разработчиков программного обеспечения. Команда Astral присоединится к OpenAI и поможет в разработке её помощника по программированию на основе ИИ под названием Codex. Финансовые условия сделки не разглашаются.

 Источник изображения: Astral

Источник изображения: Astral

«Однако, несмотря на всё это, наша цель остаётся прежней: сделать программирование более продуктивным. Создавать инструменты, которые радикально меняют представление о разработке программного обеспечения», — написал по поводу сделки основатель и генеральный директор Astral Чарли Марш (Charlie Marsh) в своём блоге.

Как пишет CNBC, популярность ИИ-помощников по программированию резко возросла за последний год. Компания OpenAI стремится переманить пользователей и долю рынка у конкурентов, таких как Anthropic и Cursor, которые предлагают свои собственные популярные решения для разработчиков.

В четверг OpenAI сообщила, что у Codex более 2 млн активных пользователей в неделю. При этом с начала 2026 года число пользователей инструмента увеличилось в три раза. Отмечается, что сделка между OpenAI и Astral ещё не прошла стандартные процедуры закрытия и пока не получила одобрения регулирующих органов.

OpenAI недавно совершила ряд приобретений. В мае 2025 года она за $6,4 млрд купила стартап io, занимающийся разработкой устройств с искусственным интеллектом. В январе этого года компания купила стартап Torch, специализирующийся на технологиях для здравоохранения. Ранее в этом месяце OpenAI сообщила о приобретении стартапа в области кибербезопасности Promptfoo.

В декабре OpenAI наняла Альберта Ли (Albert Lee) из Google на должность руководителя отдела корпоративного развития, что свидетельствует о том, что компания продолжит поиск целей для слияний и поглощений, которые могут помочь ей получить конкурентное преимущество.

Alibaba в четвёртом квартале не оправдала ожиданий инвесторов — чистая прибыль рухнула на 66 %

Сегодня китайский технологический гигант Alibaba сообщил о снижении чистой прибыли на 66 % в годовом исчислении. По словам представителя компании, снижение чистой прибыли в основном связано с падением операционной прибыли на 74 % в годовом исчислении, что обусловлено инвестициями в искусственный интеллект и облачные технологии. Результаты компании по выручке и скорректированной операционной прибыли также оказались заметно ниже прогнозов.

 Источник изображений: Alibaba

Источник изображений: Alibaba

В четвёртом квартале компания заработала 284,8 млрд юаней (≈$41,4 млрд) по сравнению с 290,7 млрд юаней (≈$42,2 млрд), ожидаемыми аналитиками. Чистая прибыль упала с 46,4 млрд юаней (≈$6,7 млрд) до 15,6 млрд юаней (≈$2,25 млрд) по сравнению с аналогичным периодом прошлого года. Акции Alibaba на предварительных торгах подешевели на 5 %.

Выручка от облачного бизнеса Alibaba составила 43,3 миллиарда юаней (≈$6,3 млрд). Этот импульс был в основном обусловлен ростом доходности публичных облачных сервисов, включая растущее внедрение продуктов, связанных с ИИ. Ускорение роста выручки от облачных услуг, которое составило 36 % в годовом исчислении, превысило консенсус-прогноз на 1 %, но рыночные ожидания были выше.

«В этом квартале Alibaba сохранила значительные инвестиции в наши основные направления — искусственный интеллект и потребление, — пояснил генеральный директор Alibaba Эдди Ву (Eddie Wu). — Искусственный интеллект является и будет оставаться одним из наших главных двигателей роста. Выручка нашей группы облачного интеллекта выросла на 36 %, при этом выручка от продуктов, связанных с ИИ, демонстрирует трёхзначный рост десятый квартал подряд».

Alibaba планирует инвестировать десятки миллиардов долларов в ИИ и облачную инфраструктуру, стремясь превратиться из простого гиганта электронной коммерции в лидера в области ИИ. В январе технологический гигант анонсировал новую серию моделей ИИ, а также активно развивает «агентскую коммерцию», стремясь превратить чат-боты в полноценные инструменты для покупок и платежей.

Вышел ContentReader PDF 16 — российский заменитель Abbyy FineReader со встроенным ИИ-ассистентом

Российский разработчик Content AI объявил о выпуске ContentReader PDF 16 — нового поколения своего флагманского продукта, объединяющего все необходимые инструменты для работы с PDF и бумажными документами.

 Здесь и далее источник изображений — пресс-служба Content AI / contentai.ru

Здесь и далее источник изображений — пресс-служба Content AI / contentai.ru

ContentReader PDF 16 является многофункциональным решением, построенным с использованием технологий оптического распознавания символов (OCR), обработки естественного языка (NLP) и компьютерного зрения. В составе программы представлен полный набор средств для редактирования PDF-файлов (в том числе сканов и изображений документов), их конвертирования в различные форматы, добавления водяных знаков, электронной подписи и защиты паролем. В корпоративной версии приложение позволяет сравнивать документы разных форматов и на разных языках без предварительной конвертации и поддерживает автоматическую пакетную обработку файлов из заданной директории.

Ключевым нововведением ContentReader PDF 16 стал встроенный ИИ-ассистент, который представлен в корпоративной редакции и помогает находить нужные данные, также обобщать информацию. Новый компонент поддерживает вопросно-ответный режим: пользователи могут задавать вопросы по содержанию документов на естественном языке и получать точные ответы (например: «Какие условия расторжения договора», «Какие реквизиты сторон», «Как проводить оплату подрядчику» и так далее). При этом ИИ-ассистент автоматически указывает раздел, из которого извлечена информация, что даёт возможность проверить корректность результата.

Также в ContentReader PDF 16 реализована функция подготовки краткого пересказа документа. По запросу пользователя ИИ-ассистент формирует выжимку многостраничного отчёта, протокола или контракта, что позволяет сократить время на предварительный анализ материалов.

ИИ-ассистент может быть востребован при работе с многостраничными договорами, финансовой отчётностью, технической и тендерной документацией и другими объёмными материалами, содержащими большое количество фактов, цифр и таблиц. С его помощью юристы могут быстро находить нужные пункты в договоре, бухгалтеры — извлекать цифры из сканов счетов, менеджеры — получать краткое содержание коммерческих предложений, а инженеры — оперативно ориентироваться в проектной документации.

Работа ИИ-ассистента реализована на базе серверного компонента в интеграции с большой языковой моделью (LLM). Решение разворачивается внутри периметра организации, благодаря чему вся обработка данных происходит локально. Это гарантирует сохранность конфиденциальной корпоративной информации и нивелирует риски утечки данных.

Отдельное внимание в ContentReader PDF 16 было уделено доработкам пользовательского интерфейса программы и упрощению выполнения типовых операций, связанных с редактированием текста, заполнением форм и вводом заметок.

ContentReader PDF 16 распознает документы на 193 мировых языках и любых их комбинациях, включая арабские и восточные языки. Программа поставляется разработчиком по подписочной модели в трёх редакциях — Standard, Business и Corporate, разнящихся набором включённых инструментов, формами поставки и условиями лицензирования. Решение поддерживает работу на ОС Windows и всех основных российских операционных системах на базе Linux, включая Astra Linux, «Ред ОС»,«Альт» и другие, зарегистрировано в реестре отечественного ПО и имеет официальную маркировку ИИ-продукта. По заверениям разработчика, ContentReader PDF 16 обеспечивает полное импортозамещение решений ABBYY FineReader и Adobe Acrobat.

Kioxia представила серверный SSD Super High IOPS — он ускорит работу ИИ на чипах Nvidia

Nvidia и Kioxia работают над новой конструкцией твердотельных накопителей, которые обеспечат бесперебойную работу графических процессоров Nvidia для ИИ во время интенсивных задач обработки данных. Kioxia анонсировала накопитель E3.S CM9, позиционирующийся производителем как SSD со «сверхвысокой производительностью операций ввода-вывода в секунду» (Super High IOPS). Устройство предлагает ёмкость 25,6 Тбайт и способно перезаписывать данные три раза в день в течение всего гарантийного срока. Поставки образцов нового накопителя для оценки клиентами запланированы на конец 2026 года.

 Источник изображения: Kioxia

Источник изображения: Kioxia

Новый формат SSD является частью стратегии Kioxia и Nvidia по внедрению чрезвычайно быстрых накопителей для графических процессоров ИИ. Серия CM9 использует технологию Kioxia XL-Flash, которая рассчитана на достижение более 10 млн операций ввода-вывода в секунду, что примерно в три–четыре раза превышает показатели традиционных SSD для центров обработки данных. Технология XL-Flash изготовлена с использованием флеш-памяти SLC NAND (самого быстрого доступного типа флеш-памяти), которая обеспечивает задержку чтения всего от 3 до 5 микросекунд. Для сравнения, традиционные SSD обычно имеют пиковую производительность от 3 до 4 млн операций ввода-вывода в секунду и задержки чтения в диапазоне от 40 до 100 микросекунд.

Новые накопители Kioxia станут частью архитектуры Nvidia Storage-Next, в рамках которой серверы будут использовать эти накопители в сочетании с графическим процессором напрямую, обходя дополнительные задержки, возникающие при передаче данных через центральный процессор. Эта технология призвана компенсировать ограничения существующей памяти HBM, предоставляя графическим процессорам Nvidia для ИИ дополнительный слой кеш-памяти для хранения данных и поддержания работы ядер графического процессора на 100 % без простоев. Подход призван решить проблему масштабируемых моделей ИИ, размеры которых достигают триллионов параметров, а также контекстных окон, поддерживающих ввод миллионов токенов.

Как отмечает портал Tom’s Hardware, впервые реализация этой технологии была продемонстрирована на конференции GTC 2026 на примере архитектуры хранения данных BlueField-4 STX. BlueField-4 использует оптимизированный для хранения данных DPU и сетевой адаптер ConnectX-9 SuperNIC, которые, по утверждению Nvidia, обеспечивают до пяти раз большую пропускную способность токена, в четыре раза более высокую энергоэффективность и вдвое большую скорость загрузки страниц по сравнению с традиционными архитектурами хранения данных на базе ЦП.

Anthropic догоняет OpenAI в сфере ИИ для бизнеса

Anthropic ускоряет рост на корпоративном рынке ИИ. В феврале её бизнес-подписки выросли на 4,9 % месяц к месяцу, тогда как доля OpenAI снизилась на 1,5 %. Последняя пока сохраняет лидерство на корпоративном рынке подписок с долей 34,4 % против 24,4 % у Anthropic, однако разрыв быстро сокращается на фоне конфликта вокруг сотрудничества с военным сектором США и роста интереса к ИИ-моделям Claude.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Экономист Ramp Ара Харазян (Ara Kharazian) сообщил, что почти каждая четвёртая компания, работающая через Ramp, теперь платит за Anthropic, тогда как год назад такой была одна из 25 организаций. Снижение OpenAI на 1,5 % он назвал крупнейшим месячным падением среди всех компаний-разработчиков ИИ-моделей за всё время наблюдений за корпоративным внедрением ИИ.

По словам Харазяна, компании, впервые выбирающие ИИ-сервисы, теперь примерно в 70 % случаев выбирают Anthropic. Одновременно OpenAI, по имеющимся данным, пересматривает стратегию и усиливает фокус на продажах ИИ бизнесу и разработчикам программного обеспечения — именно в тех сегментах, где Anthropic показывает наибольший рост.

Рост интереса к Claude совпал с конфликтом между Anthropic и Министерством войны США (DoW). В конце января Reuters сообщило о разногласиях, вызванных отказом компании снять защитные ограничения с ИИ-моделей, чтобы сделать их более пригодными для военного применения. В конце февраля Anthropic публично выступила против такого давления.

4 марта компания заявила, что получила уведомление о признании её рискованной организацией для цепочки поставок с точки зрения национальной безопасности США. После этого Anthropic подала иски, оспаривающие фактическое исключение компании из взаимодействия с DoW. Этот конфликт не улучшил отношения Anthropic с администрацией Дональда Трампа (Donald Trump).

По данным Sensor Tower, конфликт с DoW совпал со всплеском установок Claude и ростом числа удалений ChatGPT. На положении OpenAI также могло сказаться сотрудничество компании с Пентагоном и признание её генерального директора Сэма Альтмана (Sam Altman), что ситуация была урегулирована неудачно.

После конфликта с DoW компанию Claude публично поддержали американская певица Кэти Перри (Katy Perry) и сенатор США Брайан Шатц (Brian Schatz). Харазян описал этот эффект так: «Anthropic позиционировала себя иначе, и определённая категория пользователей это заметила». К этой же аудитории относятся пользователи, готовые платить $20 или $200 в месяц за доступ к Claude и испытывающие неприязнь к OpenAI из-за рекламы в ChatGPT.

В феврале Anthropic сообщила, что её годовой темп выручки достиг $14 млрд. Тогда же компания объявила о привлечении ещё $30 млрд. При этом в судебном документе, поданном ранее, финансовый директор Anthropic Кришна Рао (Krishna Rao) указал, что с момента выхода компании на коммерческий рынок она получила более $5 млрд выручки.

Google «перестал кормить» сайты — трафик из поиска обрушился, а ИИ даёт меньше 1 % переходов

Данные, собранные Chartbeat и опубликованные Axios, показывают, что за последний год трафик из поиска Google на сайты резко упал, причём особенно сильно это затронуло небольшие проекты. Хотя многие продукты на основе ИИ, включая собственные разработки Google, улучшили отображение ссылок, в отчёте утверждается, что «чат-боты по-прежнему генерируют менее 1 % всех переходов на страницы издателей».

 Источник изображения: unsplash.com

Источник изображений: unsplash.com

Согласно данным отчёта, переходы из поиска Google Search для «небольших издателей» упали на 60 %, в то время как для «средних издателей» (10 000–100 000 ежедневных просмотров страниц) падение составило 47 %. Для «крупных издателей» (более 100 000 ежедневных просмотров) падение составило 22 %. И дело не только в поиске Google. Согласно отчёту, хотя трафик из поисковой выдачи упал на 34 %, трафик из Google Discover также снизился на 15 % за последний год.

Что касается трафика от чат-ботов на основе ИИ, в отчёте утверждается, что «новостные и медиа-сайты получают наибольшее общее количество просмотров страниц с платформ ИИ», но с «наименьшей вовлеченностью», по-видимому, потому, что пользователи переходят по ссылкам на источники только для проверки фактов, полученных с помощью заведомо ненадёжных результатов ИИ. В отчёте также отмечается, что «электронная почта, приложения и мессенджеры» являются растущим источником реферального трафика, и что общий трафик «снизился на 6 % в период с 2024 по 2025 год».

В другом подобном недавнем отчёте было установлено, что особенно сильно пострадали технологические СМИ в последние годы: трафик из поиска Google на такие сайты, как The Verge, HowToGeek и многие другие, упал за последний год на 85 % и более. Особенно сильно пострадал ресурс Digital Trends – падение составило 97 %, при этом издание уволило почти весь свой штатный персонал в начале 2025 года.

В прошлом году Google сообщила, что «общий объем органических кликов из Google Search на веб-сайты оставался относительно стабильным из года в год», а «среднее качество кликов увеличилось», что противоречит выводам отчёта Axios. Компания также заявила тогда, что «очень заботится – возможно, больше, чем любая другая компания – о здоровье веб-экосистемы».

Microsoft передумала принудительно добавлять ИИ-помощника Copilot в «Пуск» Windows 11

Microsoft временно отказалась от принудительного развёртывания приложения Microsoft 365 Copilot на компьютерах с Windows 11, где уже установлен классический клиент Microsoft 365. Софтверный гигант не объяснил причину такого решения, поэтому не исключено, что в будущем приложение Microsoft 365 Copilot всё же будет добавлено принудительно в меню «Пуск».

 Источник изображения: Microsoft

Источник изображения: Microsoft

«Автоматическая установка приложения Microsoft 365 Copilot на устройствах с Windows и классическим приложением Microsoft 365, запланированная на декабрь 2025 года, временно отменена. Действующие установки останутся без изменений», — говорится в сообщении Microsoft. Там также сказано, что администраторы могут отказаться от использования приложения через «Центр администрирования приложений».

В сентябре прошлого года Microsoft объявила о скором начале принудительного развёртывания приложения Microsoft 365 Copilot на компьютерах с Windows 11. На тот момент софтверный гигант планировал начать процесс распространения данного продукта в начале декабря и завершить его к середине месяца.

Из названия продукта можно понять, что данное приложение приносит ИИ-функции на базе помощника Copilot в пакет приложений Microsoft 365, включая Word, Excel и PowerPoint. Это нововведение должно помочь пользователям в составлении отчётов, создании презентаций, написании электронных писем и др. Microsoft рекламировала новое приложение как «централизованную точку входа для доступа к возможностям Copilot и функциям на базе искусственного интеллекта во всем пакете Microsoft 365».

Windows 11 с двумя кнопками «Пуск» — пользователей возмутили ИИ-картинки в материалах Microsoft

Microsoft начала использовать в публикациях Windows Learning Center для Windows 11 изображения, сгенерированные чат-ботом Copilot и снабжённые подписью AI Art Created via Copilot. На фоне критики из-за навязчивого продвижения ИИ это решение вызвало новый виток недовольства пользователей. Претензии касаются не только самого использования ИИ, но и того, что такие изображения могут не совпадать с реальным интерфейсом операционной системы.

 Источник изобажений: Microsoft

Источник изображений: Microsoft

Речь идёт о разделе с инструкциями и пояснительными материалами по функциям Windows 11. К концу 2025 года Copilot получил возможности генерации изображений уровня ChatGPT. После этого Microsoft начала применять такие изображения в материалах Learning Center. В 2026 году издание Windows Latest заметило, что почти во всех публикациях Windows Learning Center под встроенными изображениями стоит подпись AI Art Created via Copilot. При этом заглавные изображения, как отмечается, такой пометки не имеют.

 Подпись под изображением: AI Art Created by Copilot

Подпись под изображением: AI Art Created by Copilot

Это выглядит как осознанный шаг. Рыночная капитализация Microsoft составляет около $3 трлн. При таком масштабе у компании нет очевидных ограничений для производства обычных рекламных материалов с участием людей. На этом фоне применение ИИ-изображений в материалах о функциях Windows 11 выглядит как ещё один способ продвигать собственный чат-бот.

 В публикациях Windows Learning Center заглавные изображения не созданы с помощью ИИ

В публикациях Windows Learning Center заглавные изображения не созданы с помощью ИИ

Главная претензия связана с точностью таких изображений. В качестве примера приводится публикация о виджетах в Windows 11. Copilot показал панель Widgets board не так, как она выглядит в системе. Для инструкции это принципиально. Пользователь видит один интерфейс в официальном материале, но не может воспроизвести его на собственном персональном компьютере или ноутбуке под управлением Windows 11.

 Сгенерированное Copilot изображение неверно отображает виджеты Windows 11

Сгенерированное Copilot изображение неверно отображает виджеты Windows 11

Эта проблема усиливается общим восприятием Windows 11. Система вызывает раздражение из-за чрезмерного акцента на ИИ. Microsoft использует любой повод, чтобы напомнить обычным пользователям Windows о сервисе Copilot. В таком контексте подписи под изображениями работают не только как маркировка, но и как реклама сервиса.

 Для понимания контекста: именно так выглядят виджеты в Windows 11

Для понимания контекста: именно так выглядят виджеты в Windows 11

На этом фоне в социальных сетях усилилась неприязнь и к Microsoft, и к Windows 11, а прозвище Microslop становится всё более распространённым. Компания подвергается настолько жёсткой критике, что аудитория готова верить даже в выдуманные истории о запрете слова Microslop в отзывах в Microsoft Store, хотя это уже было опровергнуто.

 Встроенные изображения в публикациях Windows Learning Center создаются с помощью Copilot

Встроенные изображения в публикациях Windows Learning Center создаются с помощью Copilot

При этом сами материалы Learning Center признаются полезными. Однако в текущем контексте даже пометка об ИИ работает против Microsoft. Пользователь, уже знакомый с критикой Copilot в социальных сетях, воспринимает её не нейтрально, а как подтверждение прежних претензий.

 Microsoft Clipchamp — видеоредактор Microsoft для создания и редактирования видео

Microsoft Clipchamp — видеоредактор Microsoft для создания и редактирования видео

Вместо ИИ предлагается продвигать человеческое творчество. Репутация Microsoft находится на минимуме, а часть пользователей использует любую возможность перейти с Windows на macOS или Linux. Linux остаётся выбором продвинутых пользователей. Привлекательность macOS объясняется удобством для создателей контента.

Для сравнения приводится Apple. Именно создатели контента делают продукты этой компании привлекательными, в том числе через YouTube. В этом контексте упоминается Climpchamp, который уступает Apple iMovie, распространяемому бесплатно, тогда как редактор Microsoft ограничивает функции freemium-моделью. В качестве одного из решений предлагается отказаться от ИИ-функций, которые ставят под вопрос способности человека, в частности, от заметной кнопки Copilot в приложениях Notepad и Paint.

Если Microsoft хочет вернуть Windows привлекательность в глазах пользователей, усиливать присутствие Copilot в интерфейсе и промо-материалах недостаточно. Ставку предлагается делать на человеческую креативность, а не на демонстративное продвижение ИИ.

DuckDuckGo добавила в Duck.ai модели GPT-5 mini и GPT-5.2 с режимом рассуждений

DuckDuckGo добавила в своего ориентированного на конфиденциальность ИИ-бота Duck.ai более мощные рассуждающие ИИ-модели: GPT-5 mini — для бесплатных пользователей, а GPT-5.2 — для подписчиков. Для GPT-5.2 также появился переключаемый режим рассуждений. При этом компания подчёркивает, что чаты в Duck.ai анонимизируются по умолчанию и не используются для обучения ИИ-моделей.

 Источник изображений: Duck.ai

Источник изображений: Duck.ai

Duck.ai — это платформа чат-ботов DuckDuckGo, которая предоставляет доступ к приватным разговорам с ИИ-моделями Anthropic, Meta✴, Mistral и OpenAI. Таким образом, сервис объединяет несколько ИИ-моделей в одном интерфейсе. За последние месяцы в сервисе появились голосовые чаты, генерация изображений, редактирование изображений и другие возможности. На этом фоне добавление новых ИИ-моделей выглядит логичным шагом.

Duck.ai добавила более мощные рассуждающие ИИ-модели, включая GPT-5 mini для бесплатных пользователей и GPT-5.2 для подписчиков. Компания сообщила, что в GPT-5.2 пользователи могут включать и отключать режим рассуждения. Это связано с тем, что не каждое взаимодействие требует от ИИ-модели дополнительных «мыслительных» шагов перед ответом.

DuckDuckGo уточнила, что Duck.ai по умолчанию анонимизирует чаты. Кроме того, ни один разговор не используется для обучения ИИ-моделей. Этот принцип компания описывает как базовую характеристику сервиса. По словам DuckDuckGo, все метаданные, содержащие персональную информацию, например IP-адрес пользователя, полностью удаляются до отправки запроса поставщику модели. Следовательно, запросы к Anthropic, OpenAI и together.ai выглядят так, будто они исходят от DuckDuckGo, а не от отдельных пользователей.

Компания также подчеркивает, что если пользователь отправляет в чате персональную информацию, ни DuckDuckGo, ни поставщики ИИ-моделей не могут определить, был ли этот запрос отправлен именно этим пользователем или кем-то другим. Иначе говоря, сервис отделяет содержание запроса от идентифицирующих метаданных.

DuckDuckGo напоминает, что ИИ-инструменты остаются опциональными и не связаны с её традиционной поисковой платформой. Следовательно, компания отделяет ИИ-функции Duck.ai от классического поискового сервиса.

Вековую «нерешаемую» задачу физики взломали с помощью ИИ — THOR ускорил расчёты в 400 раз

Около 100 лет назад в зарождающейся физике элементарных частиц возникла проблема, которую, как оказалось, в принципе невозможно решить в разумное время. Речь идёт о решении конфигурационных интегралов, значения которых могли рассказать о термодинамических и механических свойствах материалов на атомном уровне. Неисчислимое множество частиц и условий настолько усложняли расчёты, что для них не хватило бы времени жизни Вселенной. И учёные решились на подлог.

 Источник изображения: ИИ-генерация Grok 4/3DNews

Источник изображения: ИИ-генерация Grok 4/3DNews

Невозможность прямого решения задачи привела к появлению статистической физики и ряда моделей для симуляции поведения атомов в веществе (метод Монте-Карло и другие). Но даже самые совершенные модели заставляли суперкомпьютеры месяцами трудиться над, казалось бы, простыми задачами. Поэтому при использовании традиционных подходов часто жертвуют точностью ради скорости расчётов, особенно при моделировании реальных материалов в экстремальных условиях.

Исследователи из Университета Нью-Мексико (The University of New Mexico) и Лос-Аламосской национальной лаборатории (Los Alamos National Laboratory) представили новый ИИ-фреймворк THOR (Tensors for High-dimensional Object Representation), который радикально меняет ситуацию при расчётах взаимодействия атомов в веществе. THOR сочетает современные тензорные сети с машинным обучением и таким подходом, как тензорная кросс-интерполяция (tensor train cross interpolation).

Алгоритм разбивает многомерную задачу на последовательность более простых задач, а также автоматически учитывает кристаллические симметрии материала и тем самым существенно сокращает объём вычислений, сохраняя точность, близкую к классическим методам статистического моделирования. На отдельных примерах ускорение вычислений составило более чем в 400 раз.

Метод был успешно протестирован на ряде реальных веществ: меди, кристаллическом аргоне под высоким давлением, фазовых переходах в олове и других материалах. Во всех случаях THOR воспроизвёл результаты высокоточных эталонных симуляций, ранее проведённых в Лос-Аламосской национальной лаборатории, но с кардинальным сокращением времени расчётов. Фреймворк демонстрирует универсальность: он применим как к простым системам, так и к сложным кристаллическим структурам, что открывает путь к прямым расчётам термодинамического и механического поведения материалов.

Если инструмент будет взят на вооружение, а разработчики позаботились о том, чтобы THOR мог быть встроен в современные программы моделирования атомарной структуры материалов, то это может иметь огромное значение для материаловедения, физики твёрдого тела и химии. Станут возможны быстрые и точные предсказания свойств новых материалов, ускорится разработка сплавов, сверхпроводников, материалов для экстремальных условий и энергетики. Код THOR доступен на GitHub. Пользуйтесь.

Alibaba запустила платформу для ИИ-агентов Wukong с интеграцией Slack и Teams

Китайская корпорация Alibaba представила новую корпоративную платформу искусственного интеллекта под названием Wukong. Этот шаг предпринят на фоне жёсткой конкуренции ИИ-агентов на местном рынке. Новый инструмент появился после ключевых кадровых изменений в команде, которая ранее курировала популярный чат-бот Qwen. Название Wukong отсылает к известному персонажу «Царь обезьян» из классического китайского романа «Путешествие на Запад».

 Источник изображения: Alibaba Group

Источник изображения: Alibaba Group

По словам компании, Wukong позволяет предприятиям управлять несколькими агентами через единый интерфейс, предлагая при этом инфраструктуру безопасности корпоративного уровня. Платформа, которая всё ещё находится на этапе тестирования по приглашениям, может управлять агентами, выполняющими такие задачи, как редактирование документов, утверждения, расшифровка совещаний и исследования. В отличие от чат-ботов, которые реагируют на подсказки, ИИ-агенты могут предпринимать проактивные действия, часто требующие более широкого доступа к данным и системам компании, что вызывает опасения по поводу конфиденциальности и безопасности.

Платформа Wukong доступна как в виде отдельного настольного приложения, так и через облачную коммуникационную платформу DingTalk, аналогичную Slack от Salesforce. Помимо DingTalk, которым пользуются более 20 миллионов корпоративных пользователей, Alibaba представила планы по интеграции Wukong с другими платформами обмена сообщениями, включая Slack, Microsoft Teams и WeChat от Tencent. Wukong также будет постепенно интегрирована в более широкий набор платформ электронной коммерции Alibaba, таких как Taobao и Alipay.

Анонс нового корпоративного ИИ-инструмента состоялся в решающий для Alibaba момент. Он был представлен на следующий день после объявления компанией о реорганизации, в результате которой платформа для ИИ-агентов вошла в состав новой бизнес-группы Alibaba Token Hub. Помимо Wukong, новая бизнес-группа под руководством генерального директора Alibaba Эдди Ву (Eddie Wu) будет курировать существующие подразделения Alibaba: Tongyi Laboratory, MaaS Business Line, Qwen и AI Innovation.

В служебной записке Ву назвал эти изменения «исторической возможностью», поскольку компания находится на «пороге переломного момента [в области искусственного общего интеллекта]». Эти изменения произошли после ухода ключевых сотрудников, ранее участвовавших в разработке популярного чат-бота Qwen от Alibaba. 4 марта стало известно об увольнении ключевого технического руководителя Qwen Линя Цзюньяня (Lin Junyang). Его отставка стала уже третьим уходом высокопоставленного сотрудника из команды Qwen в этом году — ранее её покинули руководитель отдела обучения и главный программист.

Акции Alibaba, котирующиеся на Гонконгской бирже, закрылись во вторник на 0,45 % выше и торговались по $17,17. В ближайшее время инвесторы ожидают объявления финансовых результатов Alibaba за четвёртый квартал 2025 года.

SRAM какой-то: Nvidia представила чип Groq 3 LPU для ускорения инференса ИИ-моделей на уровне токенов

На прошедшей в этом году конференции GTC генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) сообщил, что в этом году платформа Vera Rubin получит расширение. Nvidia использует для этого интеллектуальную собственность, приобретённую у Groq. В состав Rubin вошёл новый чип Nvidia Groq 3 LPU. Компания определяет его как ускоритель инференса. Его задача — выдавать токены в большом объёме и с низкой задержкой.

 Источник изображений: Nvidia

Источник изображений: Nvidia

Платформа Rubin уже включает шесть компонентов, из которых Nvidia собирает стоечные системы и затем масштабирует их до ИИ-фабрик. Это GPU Rubin, CPU Vera, коммутаторы внутрисистемного масштабирования NVLink 6, интеллектуальный сетевой адаптер ConnectX-9, процессор обработки данных BlueField-4 и коммутатор межсистемного масштабирования Spectrum-X с совместно интегрированной оптикой. Groq 3 LPU стал новым элементом этой платформы и ещё одним строительным блоком Rubin при масштабном развёртывании.

Groq 3 LPU отличается от большинства ИИ-ускорителей схемой памяти. Обычно такие системы используют HBM в качестве рабочего уровня памяти. Каждый Groq 3 LPU содержит 500 Мбайт SRAM. Для сравнения, каждый GPU Rubin оснащён 288 Гбайт HBM4. По ёмкости разница велика. По пропускной способности соотношение иное: SRAM обеспечивает до 150 Тбайт/с, а HBM4 — около 22 Тбайт/с. Для ИИ-задач, чувствительных к пропускной способности, рост этого показателя даёт преимущество при инференсе. Именно поэтому Nvidia вводит Groq 3 в состав Rubin.

Стойка Groq 3 LPX включает 256 чипов Groq 3 LPU. Такая система располагает 128 Гбайт SRAM. Её суммарная пропускная способность достигает 40 Пбайт/с. Для объединения чипов внутри стойки предусмотрен выделенный интерфейс внутрисистемного масштабирования. Его пропускная способность составляет 640 Тбайт/с на стойку.

Вице-президент Nvidia по гипермасштабируемым решениям Иэн Бак (Ian Buck) назвал Groq LPX сопроцессором для Rubin. По его словам, он повысит производительность декодирования «на каждом слое ИИ-модели на каждом токене». Nvidia связывает это решение со следующим рубежом ИИ — мультиагентными системами. Речь идёт о сценариях, где нужно обеспечивать интерактивную работу при инференсе моделей с триллионами параметров и окнами контекста в миллионы токенов.

Когда ИИ-агенты всё чаще обмениваются данными друг с другом, а не с человеком в окне чат-бота, меняется и порог приемлемого отклика. Скорость, достаточная для человека, оказывается слишком низкой для ИИ-агента. Бак описывает переход от мира, где разумным считался уровень 100 токенов в секунду, к уровню 1 500 токенов в секунду и выше для межагентного обмена.

Добавление Groq 3 LPU должно усилить позиции Rubin в сегменте низколатентного инференса. В тексте в качестве конкурента названа Cerebras. Компания использует процессоры Wafer-Scale Engine (WSE), выполненные на целой кремниевой пластине, где большие объёмы SRAM объединены с вычислениями для низколатентного инференса на продвинутых моделях. OpenAI также привлекала мощности Cerebras для обслуживания части передовых моделей из-за выгодных характеристик задержки этой платформы.

Иэн Бак также допустил, что появление Groq 3 LPU может сократить роль ускорителя инференса Rubin CPX. Он сказал, что сейчас Nvidia сосредоточена на интеграции стойки Groq 3 LPX с Rubin. Дополнительных подробностей он не привёл. При этом оба чипа рассчитаны на сходное усиление инференса, но Groq LPU не требует большого объёма памяти GDDR7, который нужен каждому модулю Rubin CPX.

«Не могу поверить, что это не первоапрельская шутка»: нейронный рендеринг в DLSS 5 оказался больше похож на ИИ-фильтр

Анонсированное компанией Nvidia на конференции GTC 2026 интеллектуальное масштабирование DLSS 5 вызвало стойкое отторжение среди геймеров, ценящих художественный замысел своих любимых игр.

 Источник изображений: Nvidia

Источник изображений: Nvidia

По словам Nvidia, DLSS 5 использует модель нейронного рендеринга в реальном времени, которая насыщает игровые кадры фотореалистичным освещением и детализацией материалов.

Несмотря на громкие обещания, дебютная демонстрация DLSS 5 на YouTube-канале Nvidia (см. видео ниже) собрала в четыре раза больше дизлайков, чем лайков — 48 тыс. негативных оценок на 11 тыс. положительных.

Пользователи массово раскритиковали то, как DLSS 5 преображает изображение и, в частности, персонажей. Например, Грейс Эшкрофт из Resident Evil Requiem после инъекции DLSS 5 получила более пухлые губы и более выразительные скулы.

Предполагается, что новый апскейлер Nvidia должен сделать героев более реалистичными, но выглядит, словно их обработал ИИ-фильтр. «Не могу поверить, что это не первоапрельская шутка», — удивляется azul1458.

В комментариях к ролику Nvidia уверяет, что DLSS 5 предоставляет разработчикам полный художественный контроль над эффектами масштабирования, что позволяет им «сохранять уникальную эстетику своей игры».

Релиз DLSS 5 ожидается осенью. Первыми играми с поддержкой технологии станут Resident Evil Requiem, Starfield, The Elder Scrolls IV: Oblivion Remastered, Assassin’s Creed Shadows, Hogwarts Legacy, Delta Force и Naraka: Bladepoint.

«Космические вычисления уже здесь»: Nvidia представила модуль Space-1 Vera Rubin для орбитальных ИИ-серверов

Генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) анонсировал на конференции GTC 2026 космический модуль Nvidia Space-1 Vera Rubin Module. По словам Хуанга, модуль обеспечивает до 25 раз большую вычислительную мощность для задач искусственного интеллекта, чем сервер с ускорителями H100.

 Источник изображения: Nvidia

Источник изображения: Nvidia

По словам Nvidia, в настоящее время шесть коммерческих космических компаний используют её платформы в орбитальной и наземной средах: Aetherflux, Axiom Space, Kepler Communications, Planet Labs PBC, Sophia Space и Starcloud. При этом Kepler использует в своей спутниковой группировке платформу Jetson Orin для управления данными с помощью ИИ. «Nvidia Jetson Orin внедряет передовые технологии ИИ непосредственно на наши спутники, позволяя нам интеллектуально управлять данными и маршрутизировать их по всей нашей группировке», — заявила Мина Митри (Mina Mitry), генеральный директор компании, в официальном пресс-релизе Nvidia.

В октябре прошлого года основатель Amazon и Blue Origin Джефф Безос (Jeff Bezos) предсказал, что орбитальные центры обработки данных гигаваттного уровня появятся через 10–20 лет. В качестве основных преимуществ таких платформ он назвал непрерывное солнечное электроснабжение и упрощённую систему охлаждения в космосе. Starcloud, один из шести партнёров Nvidia, уже строит, как он сам описывает, специально разработанные орбитальные центры обработки данных, предназначенные для выполнения задач обучения моделей ИИ и вывода данных на орбите.

«Космические вычисления, последний рубеж, уже здесь», — сказал Дженсен Хуанг, добавив, что «обработка данных с помощью ИИ в космических и наземных системах обеспечивает сбор данных в реальном времени, принятие решений и автономность, превращая орбитальные центры обработки данных в инструменты исследований, а космические аппараты — в системы с автономным управлением».

Глава Nvidia не сказал, когда космический модуль Vera Rubin станет доступен для развёртывания. Компания уже предлагает в качестве космических платформ IGX Thor, Jetson Orin и RTX Pro 6000 Blackwell Server Edition.


window-new
Soft
Hard
Тренды 🔥
Создатели RoboCop: Rogue City анонсировали вампирский ролевой шутер Hunter: The Reckoning — Deathwish во вселенной Vampire: The Masquerade 24 мин.
The Expanse: Osiris Reborn придётся ждать до 2027 года — геймплейный трейлер амбициозного боевика в духе Mass Effect 60 мин.
Sudden Strike 5 выйдет на поле боя совсем скоро — Kalypso объявила дату релиза новой игры в легендарной серии тактических стратегий 2 ч.
«Википедия» целиком и полностью запретила статьи, написанные нейросетями 3 ч.
Бюджеты вышли из-под контроля: журналист объяснил, почему «штормит» игровую индустрию 3 ч.
HP встроила в ноутбуки локальную ИИ-модель GPT, чтобы «помочь людям добиться большего успеха на работе» 4 ч.
«Чертовски крутой» шутер новой студии ветерана Call of Duty не был игрой-сервисом, но от закрытия Dark Outlaw Games это не спасло 4 ч.
OpenAI передумала развращать ChatGPT — проект ИИ-бота для взрослых отправили «в долгий ящик» 5 ч.
Верховный суд США не дал Sony привлечь провайдера за пособничество пиратам 6 ч.
Yandex B2B Tech запустила Cloud Stackland — платформу контейнеризации с интегрированными PaaS‑сервисами Yandex Cloud 7 ч.
Колонизация космоса под угрозой: невесомость сбивает «навигацию» сперматозоидов 4 мин.
Китай испытал «космическую заправку»: спутник с «хоботом» успешно выполнил тест на орбите 12 мин.
Мировые продажи ПК упадут на 5 % из-за подорожания памяти — вся надежда на Apple и геймеров 36 мин.
Дефицит гелия всё сильнее бьёт по производству чипов и всей технологической отрасли 2 ч.
Представлен смартфон iQOO Z11 — OLED-дисплей 165 Гц, чип Dimensity 8500 и батарея на 9020 мА·ч за $333 2 ч.
«Ростелеком» сообщил о взрывном росте популярности стационарных телефонов 3 ч.
К MacBook Neo приделали жидкостный кулер — производительность в No Man’s Sky удвоилась 3 ч.
Panasonic уже распродала аккумуляторы, которые выпустит в следующем году — ИИ-бум добрался и сюда 4 ч.
Энтузиаст совершил виртуальную посадку на Луну с помощью 40-летнего компьютера ZX Spectrum 4 ч.
Глобальные поставки OLED-мониторов подскочили на 92 % в 2025 году — лидирует Asus 4 ч.