Сегодня 07 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → искусственный интеллект
Быстрый переход

Blue Origin захотела строить орбитальные дата-центры для ИИ, как SpaceX, — и подала заявку на запуск 51 600 спутников

Blue Origin подала в Федеральную комиссию по связи США (Federal Communications Commission, FCC) заявку на проект Sunrise — систему орбитальных дата-центров с использованием группировки до 51 600 спутников. Аппараты планируется вывести на орбиты высотой от 500 до 1 800 км. Проект делает Blue Origin прямым конкурентом SpaceX на новом рынке космической инфраструктуры для ИИ-вычислений и передачи данных.

 Источник изображений: blueorigin.com

Источник изображений: blueorigin.com

В Blue Origin заявили, что размещение вычислительных мощностей на орбите должно увеличить совокупную вычислительную ёмкость отрасли, добавить новые источники чистой энергии для вычислительных нагрузок и сохранить наземную инфраструктуру для задач, которые невозможно реализовать в космосе. Для передачи данных на Землю спутники Sunrise должны использовать оптические межспутниковые линии связи, то есть лазерные каналы. Они также должны подключаться к системе TeraWave, которую Blue Origin готовит как конкурента Starlink. Разрешения FCC для TeraWave пока нет.

Технических подробностей о спутниках в заявке немного. Указано лишь, что аппараты будут использовать не менее трёх вариантов антенн. По масштабу проект Blue Origin уступает заявке SpaceX на орбитальные дата-центры. В прошлом месяце FCC приняла к рассмотрению заявку SpaceX на систему численностью до 1 млн спутников и открыла процедуру общественного обсуждения. При этом 51 600 аппаратов Blue Origin значительно превышают примерно 15 000 действующих спутников, уже находящихся на орбите.

Джефф Безос (Jeff Bezos) ранее уже говорил о такой концепции. В октябре он заявил, что человечество сможет строить в космосе гигантские дата-центры гигаваттного класса и напрямую использовать солнечную энергию для вычислительных нагрузок ИИ. Тогда же он сказал, что в ближайшие пару десятилетий такие системы смогут превзойти наземные дата-центры по стоимости. Илон Маск (Elon Musk), возглавляющий SpaceX, продвигает собственный подход к орбитальным дата-центрам и также указывает на предполагаемые экологические преимущества переноса вычислений в космос.

Blue Origin просит FCC одобрить Sunrise, ссылаясь на преимущества конкуренции. В компании считают, что участие нескольких игроков в рынке космических дата-центров ускорит технологическое развитие, повысит эффективность использования ресурсов и приведёт к более устойчивым решениям для отрасли и потребителей. Ещё одну заявку в FCC подал стартап Starcloud. Компания запросила разрешение на группировку из 88 000 спутников для собственных орбитальных дата-центров. В совокупности эти инициативы означают резкий рост числа аппаратов на околоземной орбите.

План SpaceX уже вызвал поток публичных комментариев со стороны астрономов и экологов. Основные претензии касаются светового загрязнения, безопасности в космосе и возможного воздействия на атмосферу Земли. Blue Origin, как и SpaceX, планирует выводить из эксплуатации и сжигать в атмосфере Земли старые спутники. При этом Blue Origin выступила против проекта SpaceX и заявила, что система из 1 млн спутников резко осложнит сосуществование нескольких группировок по сравнению с любым реалистичным альтернативным вариантом. Компания также заявила, что проект развёртывания и эксплуатации до 1 млн спутников на предложенных орбитах не имеет прецедентов среди систем, которые ранее предлагались или получали одобрение.

Amazon также призвала FCC отклонить заявку SpaceX. В компании заявили, что проект носит слишком спекулятивный характер и создаёт риск монополизации орбит вокруг Земли. Председатель FCC Брендан Карр (Brendan Carr) раскритиковал Amazon и заявил, что компании следует сосредоточиться на собственных усилиях в сфере спутникового интернета, а не тратить время на критику SpaceX. SpaceX направила в FCC ответ на претензии компаний Безоса. В компании заявили, что Amazon и Blue Origin говорят о развёртывании группировок в отдалённом будущем, а отсутствие практического опыта проявляется в их упрощённых аргументах. SpaceX также заявила, что эти компании ограничиваются наивными спекулятивными утверждениями, игнорирующими реальность.

Xiaomi представила флагманскую ИИ-модель MiMo-V2-Pro — это её все приняли за новую модель DeepSeek

Мощная ИИ-модель, которая несколько дней назад появилась на платформе OpenRouter, как стало известно, принадлежит китайской компании Xiaomi. Ранее её появление породило слухи о том, что это стартап DeepSeek без лишнего шума тестирует свою новую языковую модель.

 Источник изображения: Unsplash, BoliviaInteligente

Источник изображения: Unsplash, BoliviaInteligente

Запуск недорогих ИИ-моделей DeepSeek-V3 и DeepSeek-R1 в прошлом году вызвал падение курса акций технологических компаний по всему миру, заставив инвесторов усомниться в необходимости тратить миллиарды долларов на вычислительные мощности для ИИ. С тех пор рынок с огромным интересом ожидает запуска алгоритма DeepSeek-V4, чтобы оценить новые достижения китайского стартапа.

Ранее в этом месяце на платформе OpenRouter появилась загадочная бесплатная ИИ-модель Hunter Alpha, разработчик которой не был указан. Теперь же подразделение Xiaomi по разработке ИИ, которое возглавляет бывший инженер DeepSeek Ло Фули (Luo Fuli), объявило, что Hunter Alpha была «ранней внутренней тестовой сборкой MiMo-V2-Pro» — флагманской ИИ-модели компании, которая оптимизирована для обработки агентских задач. Релиз новой модели Xiaomi происходит на фоне растущей популярности фреймворка OpenClaw, который предназначен для создания ИИ-агентов, способных выполнять разные действия от имени пользователей, и который становится всё более популярным в Китае.

«Я называю это тихой засадой — не потому, что мы это планировали, а потому что сдвиг парадигмы от чатов к агентам произошёл так быстро, что даже мы сами с трудом в это поверили. Люди спрашивают, почему мы действуем так быстро. Я видела это своими глазами, работая над созданием DeepSeek-R1», — написала недавно Ло Фули в соцсети X.

MiMo-V2-Pro поддерживает пять основных фреймворков для создания ИИ-агентов, включая OpenClaw. Разработчики смогут в тестовом режиме задействовать алгоритм бесплатно в течение недели. На фоне анонса флагманской ИИ-модели акции Xiaomi на бирже в Гонконге выросли в цене на 5,8 %.

Появившийся на прошлой неделе алгоритм Hunter Alpha описывал себя, как «китайскую ИИ-модель, обученную в основном на китайском языке». Он также сообщал, что для обучения использовались данные, охватывающие период до мая 2025 года, т.е. такой же временной отсечки, о которой сообщал чат-бот DeepSeek. Однако на вопрос о своём создателе алгоритм отвечать отказывался. «Я знаю только своё имя, масштаб параметров и размер контекстного окна», — сообщала Hunter Alpha. В описании говорилось, что это модель с 1 трлн параметров и контекстным окном в 1 млн токенов.

«MiMo-V2-Pro — это наша флагманская базовая модель, созданная для реальных агентских нагрузок. Она спроектирована таким образом, чтобы выполнять роль «мозга» в агентских системах: координировать сложные рабочие процессы, управлять производственными инженерными задачами и выдавать надёжные результаты», — говорится в пресс-релизе Xiaomi.

В глобальном рейтинге бенчмарка Artificial Analysis Intelligence модель MiMo-V2-Pro заняла восьмое место, а среди китайских языковых моделей поднялась на вторую позицию. Модель имеет более 1 трлн параметров, из которых 42 млрд — активные, что примерно втрое больше, чем у компактной версии MiMo-V2-Flash, а также контекстное окно в 1 млн токенов.

Xiaomi отметила высокие результаты MiMo-V2-Pro во всех основных агентских тестах. В области генерации программного кода алгоритм превзошёл Claude 4.6 Sonnet, а общая производительность при выполнении агентских задач близка к показателю Opus 4.6. Стабильность работы и точность вызова инструментов существенно улучшились по сравнению с предыдущей версией. Этого удалось добиться за счёт оптимизации процесса обучения. В дальнейшем разработчики планируют сосредоточиться на повышении эффективности при обработке задач высокой сложности, которые требуют рассуждений, долгосрочного планирования и систематического принятия решений.

Новая статья: Воспитаем AGI в своём коллективе

Данные берутся из публикации Воспитаем AGI в своём коллективе

OpenAI купила стартап Astral, создающий ИИ-инструменты для разработчиков ПО

В четверг компания OpenAI объявила о приобретении Astral, небольшого стартапа, создающего популярные инструменты с открытым исходным кодом для разработчиков программного обеспечения. Команда Astral присоединится к OpenAI и поможет в разработке её помощника по программированию на основе ИИ под названием Codex. Финансовые условия сделки не разглашаются.

 Источник изображения: Astral

Источник изображения: Astral

«Однако, несмотря на всё это, наша цель остаётся прежней: сделать программирование более продуктивным. Создавать инструменты, которые радикально меняют представление о разработке программного обеспечения», — написал по поводу сделки основатель и генеральный директор Astral Чарли Марш (Charlie Marsh) в своём блоге.

Как пишет CNBC, популярность ИИ-помощников по программированию резко возросла за последний год. Компания OpenAI стремится переманить пользователей и долю рынка у конкурентов, таких как Anthropic и Cursor, которые предлагают свои собственные популярные решения для разработчиков.

В четверг OpenAI сообщила, что у Codex более 2 млн активных пользователей в неделю. При этом с начала 2026 года число пользователей инструмента увеличилось в три раза. Отмечается, что сделка между OpenAI и Astral ещё не прошла стандартные процедуры закрытия и пока не получила одобрения регулирующих органов.

OpenAI недавно совершила ряд приобретений. В мае 2025 года она за $6,4 млрд купила стартап io, занимающийся разработкой устройств с искусственным интеллектом. В январе этого года компания купила стартап Torch, специализирующийся на технологиях для здравоохранения. Ранее в этом месяце OpenAI сообщила о приобретении стартапа в области кибербезопасности Promptfoo.

В декабре OpenAI наняла Альберта Ли (Albert Lee) из Google на должность руководителя отдела корпоративного развития, что свидетельствует о том, что компания продолжит поиск целей для слияний и поглощений, которые могут помочь ей получить конкурентное преимущество.

Alibaba в четвёртом квартале не оправдала ожиданий инвесторов — чистая прибыль рухнула на 66 %

Сегодня китайский технологический гигант Alibaba сообщил о снижении чистой прибыли на 66 % в годовом исчислении. По словам представителя компании, снижение чистой прибыли в основном связано с падением операционной прибыли на 74 % в годовом исчислении, что обусловлено инвестициями в искусственный интеллект и облачные технологии. Результаты компании по выручке и скорректированной операционной прибыли также оказались заметно ниже прогнозов.

 Источник изображений: Alibaba

Источник изображений: Alibaba

В четвёртом квартале компания заработала 284,8 млрд юаней (≈$41,4 млрд) по сравнению с 290,7 млрд юаней (≈$42,2 млрд), ожидаемыми аналитиками. Чистая прибыль упала с 46,4 млрд юаней (≈$6,7 млрд) до 15,6 млрд юаней (≈$2,25 млрд) по сравнению с аналогичным периодом прошлого года. Акции Alibaba на предварительных торгах подешевели на 5 %.

Выручка от облачного бизнеса Alibaba составила 43,3 миллиарда юаней (≈$6,3 млрд). Этот импульс был в основном обусловлен ростом доходности публичных облачных сервисов, включая растущее внедрение продуктов, связанных с ИИ. Ускорение роста выручки от облачных услуг, которое составило 36 % в годовом исчислении, превысило консенсус-прогноз на 1 %, но рыночные ожидания были выше.

«В этом квартале Alibaba сохранила значительные инвестиции в наши основные направления — искусственный интеллект и потребление, — пояснил генеральный директор Alibaba Эдди Ву (Eddie Wu). — Искусственный интеллект является и будет оставаться одним из наших главных двигателей роста. Выручка нашей группы облачного интеллекта выросла на 36 %, при этом выручка от продуктов, связанных с ИИ, демонстрирует трёхзначный рост десятый квартал подряд».

Alibaba планирует инвестировать десятки миллиардов долларов в ИИ и облачную инфраструктуру, стремясь превратиться из простого гиганта электронной коммерции в лидера в области ИИ. В январе технологический гигант анонсировал новую серию моделей ИИ, а также активно развивает «агентскую коммерцию», стремясь превратить чат-боты в полноценные инструменты для покупок и платежей.

Вышел ContentReader PDF 16 — российский заменитель Abbyy FineReader со встроенным ИИ-ассистентом

Российский разработчик Content AI объявил о выпуске ContentReader PDF 16 — нового поколения своего флагманского продукта, объединяющего все необходимые инструменты для работы с PDF и бумажными документами.

 Здесь и далее источник изображений — пресс-служба Content AI / contentai.ru

Здесь и далее источник изображений — пресс-служба Content AI / contentai.ru

ContentReader PDF 16 является многофункциональным решением, построенным с использованием технологий оптического распознавания символов (OCR), обработки естественного языка (NLP) и компьютерного зрения. В составе программы представлен полный набор средств для редактирования PDF-файлов (в том числе сканов и изображений документов), их конвертирования в различные форматы, добавления водяных знаков, электронной подписи и защиты паролем. В корпоративной версии приложение позволяет сравнивать документы разных форматов и на разных языках без предварительной конвертации и поддерживает автоматическую пакетную обработку файлов из заданной директории.

Ключевым нововведением ContentReader PDF 16 стал встроенный ИИ-ассистент, который представлен в корпоративной редакции и помогает находить нужные данные, также обобщать информацию. Новый компонент поддерживает вопросно-ответный режим: пользователи могут задавать вопросы по содержанию документов на естественном языке и получать точные ответы (например: «Какие условия расторжения договора», «Какие реквизиты сторон», «Как проводить оплату подрядчику» и так далее). При этом ИИ-ассистент автоматически указывает раздел, из которого извлечена информация, что даёт возможность проверить корректность результата.

Также в ContentReader PDF 16 реализована функция подготовки краткого пересказа документа. По запросу пользователя ИИ-ассистент формирует выжимку многостраничного отчёта, протокола или контракта, что позволяет сократить время на предварительный анализ материалов.

ИИ-ассистент может быть востребован при работе с многостраничными договорами, финансовой отчётностью, технической и тендерной документацией и другими объёмными материалами, содержащими большое количество фактов, цифр и таблиц. С его помощью юристы могут быстро находить нужные пункты в договоре, бухгалтеры — извлекать цифры из сканов счетов, менеджеры — получать краткое содержание коммерческих предложений, а инженеры — оперативно ориентироваться в проектной документации.

Работа ИИ-ассистента реализована на базе серверного компонента в интеграции с большой языковой моделью (LLM). Решение разворачивается внутри периметра организации, благодаря чему вся обработка данных происходит локально. Это гарантирует сохранность конфиденциальной корпоративной информации и нивелирует риски утечки данных.

Отдельное внимание в ContentReader PDF 16 было уделено доработкам пользовательского интерфейса программы и упрощению выполнения типовых операций, связанных с редактированием текста, заполнением форм и вводом заметок.

ContentReader PDF 16 распознает документы на 193 мировых языках и любых их комбинациях, включая арабские и восточные языки. Программа поставляется разработчиком по подписочной модели в трёх редакциях — Standard, Business и Corporate, разнящихся набором включённых инструментов, формами поставки и условиями лицензирования. Решение поддерживает работу на ОС Windows и всех основных российских операционных системах на базе Linux, включая Astra Linux, «Ред ОС»,«Альт» и другие, зарегистрировано в реестре отечественного ПО и имеет официальную маркировку ИИ-продукта. По заверениям разработчика, ContentReader PDF 16 обеспечивает полное импортозамещение решений ABBYY FineReader и Adobe Acrobat.

Kioxia представила серверный SSD Super High IOPS — он ускорит работу ИИ на чипах Nvidia

Nvidia и Kioxia работают над новой конструкцией твердотельных накопителей, которые обеспечат бесперебойную работу графических процессоров Nvidia для ИИ во время интенсивных задач обработки данных. Kioxia анонсировала накопитель E3.S CM9, позиционирующийся производителем как SSD со «сверхвысокой производительностью операций ввода-вывода в секунду» (Super High IOPS). Устройство предлагает ёмкость 25,6 Тбайт и способно перезаписывать данные три раза в день в течение всего гарантийного срока. Поставки образцов нового накопителя для оценки клиентами запланированы на конец 2026 года.

 Источник изображения: Kioxia

Источник изображения: Kioxia

Новый формат SSD является частью стратегии Kioxia и Nvidia по внедрению чрезвычайно быстрых накопителей для графических процессоров ИИ. Серия CM9 использует технологию Kioxia XL-Flash, которая рассчитана на достижение более 10 млн операций ввода-вывода в секунду, что примерно в три–четыре раза превышает показатели традиционных SSD для центров обработки данных. Технология XL-Flash изготовлена с использованием флеш-памяти SLC NAND (самого быстрого доступного типа флеш-памяти), которая обеспечивает задержку чтения всего от 3 до 5 микросекунд. Для сравнения, традиционные SSD обычно имеют пиковую производительность от 3 до 4 млн операций ввода-вывода в секунду и задержки чтения в диапазоне от 40 до 100 микросекунд.

Новые накопители Kioxia станут частью архитектуры Nvidia Storage-Next, в рамках которой серверы будут использовать эти накопители в сочетании с графическим процессором напрямую, обходя дополнительные задержки, возникающие при передаче данных через центральный процессор. Эта технология призвана компенсировать ограничения существующей памяти HBM, предоставляя графическим процессорам Nvidia для ИИ дополнительный слой кеш-памяти для хранения данных и поддержания работы ядер графического процессора на 100 % без простоев. Подход призван решить проблему масштабируемых моделей ИИ, размеры которых достигают триллионов параметров, а также контекстных окон, поддерживающих ввод миллионов токенов.

Как отмечает портал Tom’s Hardware, впервые реализация этой технологии была продемонстрирована на конференции GTC 2026 на примере архитектуры хранения данных BlueField-4 STX. BlueField-4 использует оптимизированный для хранения данных DPU и сетевой адаптер ConnectX-9 SuperNIC, которые, по утверждению Nvidia, обеспечивают до пяти раз большую пропускную способность токена, в четыре раза более высокую энергоэффективность и вдвое большую скорость загрузки страниц по сравнению с традиционными архитектурами хранения данных на базе ЦП.

Anthropic догоняет OpenAI в сфере ИИ для бизнеса

Anthropic ускоряет рост на корпоративном рынке ИИ. В феврале её бизнес-подписки выросли на 4,9 % месяц к месяцу, тогда как доля OpenAI снизилась на 1,5 %. Последняя пока сохраняет лидерство на корпоративном рынке подписок с долей 34,4 % против 24,4 % у Anthropic, однако разрыв быстро сокращается на фоне конфликта вокруг сотрудничества с военным сектором США и роста интереса к ИИ-моделям Claude.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Экономист Ramp Ара Харазян (Ara Kharazian) сообщил, что почти каждая четвёртая компания, работающая через Ramp, теперь платит за Anthropic, тогда как год назад такой была одна из 25 организаций. Снижение OpenAI на 1,5 % он назвал крупнейшим месячным падением среди всех компаний-разработчиков ИИ-моделей за всё время наблюдений за корпоративным внедрением ИИ.

По словам Харазяна, компании, впервые выбирающие ИИ-сервисы, теперь примерно в 70 % случаев выбирают Anthropic. Одновременно OpenAI, по имеющимся данным, пересматривает стратегию и усиливает фокус на продажах ИИ бизнесу и разработчикам программного обеспечения — именно в тех сегментах, где Anthropic показывает наибольший рост.

Рост интереса к Claude совпал с конфликтом между Anthropic и Министерством войны США (DoW). В конце января Reuters сообщило о разногласиях, вызванных отказом компании снять защитные ограничения с ИИ-моделей, чтобы сделать их более пригодными для военного применения. В конце февраля Anthropic публично выступила против такого давления.

4 марта компания заявила, что получила уведомление о признании её рискованной организацией для цепочки поставок с точки зрения национальной безопасности США. После этого Anthropic подала иски, оспаривающие фактическое исключение компании из взаимодействия с DoW. Этот конфликт не улучшил отношения Anthropic с администрацией Дональда Трампа (Donald Trump).

По данным Sensor Tower, конфликт с DoW совпал со всплеском установок Claude и ростом числа удалений ChatGPT. На положении OpenAI также могло сказаться сотрудничество компании с Пентагоном и признание её генерального директора Сэма Альтмана (Sam Altman), что ситуация была урегулирована неудачно.

После конфликта с DoW компанию Claude публично поддержали американская певица Кэти Перри (Katy Perry) и сенатор США Брайан Шатц (Brian Schatz). Харазян описал этот эффект так: «Anthropic позиционировала себя иначе, и определённая категория пользователей это заметила». К этой же аудитории относятся пользователи, готовые платить $20 или $200 в месяц за доступ к Claude и испытывающие неприязнь к OpenAI из-за рекламы в ChatGPT.

В феврале Anthropic сообщила, что её годовой темп выручки достиг $14 млрд. Тогда же компания объявила о привлечении ещё $30 млрд. При этом в судебном документе, поданном ранее, финансовый директор Anthropic Кришна Рао (Krishna Rao) указал, что с момента выхода компании на коммерческий рынок она получила более $5 млрд выручки.

Google «перестал кормить» сайты — трафик из поиска обрушился, а ИИ даёт меньше 1 % переходов

Данные, собранные Chartbeat и опубликованные Axios, показывают, что за последний год трафик из поиска Google на сайты резко упал, причём особенно сильно это затронуло небольшие проекты. Хотя многие продукты на основе ИИ, включая собственные разработки Google, улучшили отображение ссылок, в отчёте утверждается, что «чат-боты по-прежнему генерируют менее 1 % всех переходов на страницы издателей».

 Источник изображения: unsplash.com

Источник изображений: unsplash.com

Согласно данным отчёта, переходы из поиска Google Search для «небольших издателей» упали на 60 %, в то время как для «средних издателей» (10 000–100 000 ежедневных просмотров страниц) падение составило 47 %. Для «крупных издателей» (более 100 000 ежедневных просмотров) падение составило 22 %. И дело не только в поиске Google. Согласно отчёту, хотя трафик из поисковой выдачи упал на 34 %, трафик из Google Discover также снизился на 15 % за последний год.

Что касается трафика от чат-ботов на основе ИИ, в отчёте утверждается, что «новостные и медиа-сайты получают наибольшее общее количество просмотров страниц с платформ ИИ», но с «наименьшей вовлеченностью», по-видимому, потому, что пользователи переходят по ссылкам на источники только для проверки фактов, полученных с помощью заведомо ненадёжных результатов ИИ. В отчёте также отмечается, что «электронная почта, приложения и мессенджеры» являются растущим источником реферального трафика, и что общий трафик «снизился на 6 % в период с 2024 по 2025 год».

В другом подобном недавнем отчёте было установлено, что особенно сильно пострадали технологические СМИ в последние годы: трафик из поиска Google на такие сайты, как The Verge, HowToGeek и многие другие, упал за последний год на 85 % и более. Особенно сильно пострадал ресурс Digital Trends – падение составило 97 %, при этом издание уволило почти весь свой штатный персонал в начале 2025 года.

В прошлом году Google сообщила, что «общий объем органических кликов из Google Search на веб-сайты оставался относительно стабильным из года в год», а «среднее качество кликов увеличилось», что противоречит выводам отчёта Axios. Компания также заявила тогда, что «очень заботится – возможно, больше, чем любая другая компания – о здоровье веб-экосистемы».

Microsoft передумала принудительно добавлять ИИ-помощника Copilot в «Пуск» Windows 11

Microsoft временно отказалась от принудительного развёртывания приложения Microsoft 365 Copilot на компьютерах с Windows 11, где уже установлен классический клиент Microsoft 365. Софтверный гигант не объяснил причину такого решения, поэтому не исключено, что в будущем приложение Microsoft 365 Copilot всё же будет добавлено принудительно в меню «Пуск».

 Источник изображения: Microsoft

Источник изображения: Microsoft

«Автоматическая установка приложения Microsoft 365 Copilot на устройствах с Windows и классическим приложением Microsoft 365, запланированная на декабрь 2025 года, временно отменена. Действующие установки останутся без изменений», — говорится в сообщении Microsoft. Там также сказано, что администраторы могут отказаться от использования приложения через «Центр администрирования приложений».

В сентябре прошлого года Microsoft объявила о скором начале принудительного развёртывания приложения Microsoft 365 Copilot на компьютерах с Windows 11. На тот момент софтверный гигант планировал начать процесс распространения данного продукта в начале декабря и завершить его к середине месяца.

Из названия продукта можно понять, что данное приложение приносит ИИ-функции на базе помощника Copilot в пакет приложений Microsoft 365, включая Word, Excel и PowerPoint. Это нововведение должно помочь пользователям в составлении отчётов, создании презентаций, написании электронных писем и др. Microsoft рекламировала новое приложение как «централизованную точку входа для доступа к возможностям Copilot и функциям на базе искусственного интеллекта во всем пакете Microsoft 365».

Windows 11 с двумя кнопками «Пуск» — пользователей возмутили ИИ-картинки в материалах Microsoft

Microsoft начала использовать в публикациях Windows Learning Center для Windows 11 изображения, сгенерированные чат-ботом Copilot и снабжённые подписью AI Art Created via Copilot. На фоне критики из-за навязчивого продвижения ИИ это решение вызвало новый виток недовольства пользователей. Претензии касаются не только самого использования ИИ, но и того, что такие изображения могут не совпадать с реальным интерфейсом операционной системы.

 Источник изобажений: Microsoft

Источник изображений: Microsoft

Речь идёт о разделе с инструкциями и пояснительными материалами по функциям Windows 11. К концу 2025 года Copilot получил возможности генерации изображений уровня ChatGPT. После этого Microsoft начала применять такие изображения в материалах Learning Center. В 2026 году издание Windows Latest заметило, что почти во всех публикациях Windows Learning Center под встроенными изображениями стоит подпись AI Art Created via Copilot. При этом заглавные изображения, как отмечается, такой пометки не имеют.

 Подпись под изображением: AI Art Created by Copilot

Подпись под изображением: AI Art Created by Copilot

Это выглядит как осознанный шаг. Рыночная капитализация Microsoft составляет около $3 трлн. При таком масштабе у компании нет очевидных ограничений для производства обычных рекламных материалов с участием людей. На этом фоне применение ИИ-изображений в материалах о функциях Windows 11 выглядит как ещё один способ продвигать собственный чат-бот.

 В публикациях Windows Learning Center заглавные изображения не созданы с помощью ИИ

В публикациях Windows Learning Center заглавные изображения не созданы с помощью ИИ

Главная претензия связана с точностью таких изображений. В качестве примера приводится публикация о виджетах в Windows 11. Copilot показал панель Widgets board не так, как она выглядит в системе. Для инструкции это принципиально. Пользователь видит один интерфейс в официальном материале, но не может воспроизвести его на собственном персональном компьютере или ноутбуке под управлением Windows 11.

 Сгенерированное Copilot изображение неверно отображает виджеты Windows 11

Сгенерированное Copilot изображение неверно отображает виджеты Windows 11

Эта проблема усиливается общим восприятием Windows 11. Система вызывает раздражение из-за чрезмерного акцента на ИИ. Microsoft использует любой повод, чтобы напомнить обычным пользователям Windows о сервисе Copilot. В таком контексте подписи под изображениями работают не только как маркировка, но и как реклама сервиса.

 Для понимания контекста: именно так выглядят виджеты в Windows 11

Для понимания контекста: именно так выглядят виджеты в Windows 11

На этом фоне в социальных сетях усилилась неприязнь и к Microsoft, и к Windows 11, а прозвище Microslop становится всё более распространённым. Компания подвергается настолько жёсткой критике, что аудитория готова верить даже в выдуманные истории о запрете слова Microslop в отзывах в Microsoft Store, хотя это уже было опровергнуто.

 Встроенные изображения в публикациях Windows Learning Center создаются с помощью Copilot

Встроенные изображения в публикациях Windows Learning Center создаются с помощью Copilot

При этом сами материалы Learning Center признаются полезными. Однако в текущем контексте даже пометка об ИИ работает против Microsoft. Пользователь, уже знакомый с критикой Copilot в социальных сетях, воспринимает её не нейтрально, а как подтверждение прежних претензий.

 Microsoft Clipchamp — видеоредактор Microsoft для создания и редактирования видео

Microsoft Clipchamp — видеоредактор Microsoft для создания и редактирования видео

Вместо ИИ предлагается продвигать человеческое творчество. Репутация Microsoft находится на минимуме, а часть пользователей использует любую возможность перейти с Windows на macOS или Linux. Linux остаётся выбором продвинутых пользователей. Привлекательность macOS объясняется удобством для создателей контента.

Для сравнения приводится Apple. Именно создатели контента делают продукты этой компании привлекательными, в том числе через YouTube. В этом контексте упоминается Climpchamp, который уступает Apple iMovie, распространяемому бесплатно, тогда как редактор Microsoft ограничивает функции freemium-моделью. В качестве одного из решений предлагается отказаться от ИИ-функций, которые ставят под вопрос способности человека, в частности, от заметной кнопки Copilot в приложениях Notepad и Paint.

Если Microsoft хочет вернуть Windows привлекательность в глазах пользователей, усиливать присутствие Copilot в интерфейсе и промо-материалах недостаточно. Ставку предлагается делать на человеческую креативность, а не на демонстративное продвижение ИИ.

DuckDuckGo добавила в Duck.ai модели GPT-5 mini и GPT-5.2 с режимом рассуждений

DuckDuckGo добавила в своего ориентированного на конфиденциальность ИИ-бота Duck.ai более мощные рассуждающие ИИ-модели: GPT-5 mini — для бесплатных пользователей, а GPT-5.2 — для подписчиков. Для GPT-5.2 также появился переключаемый режим рассуждений. При этом компания подчёркивает, что чаты в Duck.ai анонимизируются по умолчанию и не используются для обучения ИИ-моделей.

 Источник изображений: Duck.ai

Источник изображений: Duck.ai

Duck.ai — это платформа чат-ботов DuckDuckGo, которая предоставляет доступ к приватным разговорам с ИИ-моделями Anthropic, Meta✴, Mistral и OpenAI. Таким образом, сервис объединяет несколько ИИ-моделей в одном интерфейсе. За последние месяцы в сервисе появились голосовые чаты, генерация изображений, редактирование изображений и другие возможности. На этом фоне добавление новых ИИ-моделей выглядит логичным шагом.

Duck.ai добавила более мощные рассуждающие ИИ-модели, включая GPT-5 mini для бесплатных пользователей и GPT-5.2 для подписчиков. Компания сообщила, что в GPT-5.2 пользователи могут включать и отключать режим рассуждения. Это связано с тем, что не каждое взаимодействие требует от ИИ-модели дополнительных «мыслительных» шагов перед ответом.

DuckDuckGo уточнила, что Duck.ai по умолчанию анонимизирует чаты. Кроме того, ни один разговор не используется для обучения ИИ-моделей. Этот принцип компания описывает как базовую характеристику сервиса. По словам DuckDuckGo, все метаданные, содержащие персональную информацию, например IP-адрес пользователя, полностью удаляются до отправки запроса поставщику модели. Следовательно, запросы к Anthropic, OpenAI и together.ai выглядят так, будто они исходят от DuckDuckGo, а не от отдельных пользователей.

Компания также подчеркивает, что если пользователь отправляет в чате персональную информацию, ни DuckDuckGo, ни поставщики ИИ-моделей не могут определить, был ли этот запрос отправлен именно этим пользователем или кем-то другим. Иначе говоря, сервис отделяет содержание запроса от идентифицирующих метаданных.

DuckDuckGo напоминает, что ИИ-инструменты остаются опциональными и не связаны с её традиционной поисковой платформой. Следовательно, компания отделяет ИИ-функции Duck.ai от классического поискового сервиса.

Вековую «нерешаемую» задачу физики взломали с помощью ИИ — THOR ускорил расчёты в 400 раз

Около 100 лет назад в зарождающейся физике элементарных частиц возникла проблема, которую, как оказалось, в принципе невозможно решить в разумное время. Речь идёт о решении конфигурационных интегралов, значения которых могли рассказать о термодинамических и механических свойствах материалов на атомном уровне. Неисчислимое множество частиц и условий настолько усложняли расчёты, что для них не хватило бы времени жизни Вселенной. И учёные решились на подлог.

 Источник изображения: ИИ-генерация Grok 4/3DNews

Источник изображения: ИИ-генерация Grok 4/3DNews

Невозможность прямого решения задачи привела к появлению статистической физики и ряда моделей для симуляции поведения атомов в веществе (метод Монте-Карло и другие). Но даже самые совершенные модели заставляли суперкомпьютеры месяцами трудиться над, казалось бы, простыми задачами. Поэтому при использовании традиционных подходов часто жертвуют точностью ради скорости расчётов, особенно при моделировании реальных материалов в экстремальных условиях.

Исследователи из Университета Нью-Мексико (The University of New Mexico) и Лос-Аламосской национальной лаборатории (Los Alamos National Laboratory) представили новый ИИ-фреймворк THOR (Tensors for High-dimensional Object Representation), который радикально меняет ситуацию при расчётах взаимодействия атомов в веществе. THOR сочетает современные тензорные сети с машинным обучением и таким подходом, как тензорная кросс-интерполяция (tensor train cross interpolation).

Алгоритм разбивает многомерную задачу на последовательность более простых задач, а также автоматически учитывает кристаллические симметрии материала и тем самым существенно сокращает объём вычислений, сохраняя точность, близкую к классическим методам статистического моделирования. На отдельных примерах ускорение вычислений составило более чем в 400 раз.

Метод был успешно протестирован на ряде реальных веществ: меди, кристаллическом аргоне под высоким давлением, фазовых переходах в олове и других материалах. Во всех случаях THOR воспроизвёл результаты высокоточных эталонных симуляций, ранее проведённых в Лос-Аламосской национальной лаборатории, но с кардинальным сокращением времени расчётов. Фреймворк демонстрирует универсальность: он применим как к простым системам, так и к сложным кристаллическим структурам, что открывает путь к прямым расчётам термодинамического и механического поведения материалов.

Если инструмент будет взят на вооружение, а разработчики позаботились о том, чтобы THOR мог быть встроен в современные программы моделирования атомарной структуры материалов, то это может иметь огромное значение для материаловедения, физики твёрдого тела и химии. Станут возможны быстрые и точные предсказания свойств новых материалов, ускорится разработка сплавов, сверхпроводников, материалов для экстремальных условий и энергетики. Код THOR доступен на GitHub. Пользуйтесь.

Alibaba запустила платформу для ИИ-агентов Wukong с интеграцией Slack и Teams

Китайская корпорация Alibaba представила новую корпоративную платформу искусственного интеллекта под названием Wukong. Этот шаг предпринят на фоне жёсткой конкуренции ИИ-агентов на местном рынке. Новый инструмент появился после ключевых кадровых изменений в команде, которая ранее курировала популярный чат-бот Qwen. Название Wukong отсылает к известному персонажу «Царь обезьян» из классического китайского романа «Путешествие на Запад».

 Источник изображения: Alibaba Group

Источник изображения: Alibaba Group

По словам компании, Wukong позволяет предприятиям управлять несколькими агентами через единый интерфейс, предлагая при этом инфраструктуру безопасности корпоративного уровня. Платформа, которая всё ещё находится на этапе тестирования по приглашениям, может управлять агентами, выполняющими такие задачи, как редактирование документов, утверждения, расшифровка совещаний и исследования. В отличие от чат-ботов, которые реагируют на подсказки, ИИ-агенты могут предпринимать проактивные действия, часто требующие более широкого доступа к данным и системам компании, что вызывает опасения по поводу конфиденциальности и безопасности.

Платформа Wukong доступна как в виде отдельного настольного приложения, так и через облачную коммуникационную платформу DingTalk, аналогичную Slack от Salesforce. Помимо DingTalk, которым пользуются более 20 миллионов корпоративных пользователей, Alibaba представила планы по интеграции Wukong с другими платформами обмена сообщениями, включая Slack, Microsoft Teams и WeChat от Tencent. Wukong также будет постепенно интегрирована в более широкий набор платформ электронной коммерции Alibaba, таких как Taobao и Alipay.

Анонс нового корпоративного ИИ-инструмента состоялся в решающий для Alibaba момент. Он был представлен на следующий день после объявления компанией о реорганизации, в результате которой платформа для ИИ-агентов вошла в состав новой бизнес-группы Alibaba Token Hub. Помимо Wukong, новая бизнес-группа под руководством генерального директора Alibaba Эдди Ву (Eddie Wu) будет курировать существующие подразделения Alibaba: Tongyi Laboratory, MaaS Business Line, Qwen и AI Innovation.

В служебной записке Ву назвал эти изменения «исторической возможностью», поскольку компания находится на «пороге переломного момента [в области искусственного общего интеллекта]». Эти изменения произошли после ухода ключевых сотрудников, ранее участвовавших в разработке популярного чат-бота Qwen от Alibaba. 4 марта стало известно об увольнении ключевого технического руководителя Qwen Линя Цзюньяня (Lin Junyang). Его отставка стала уже третьим уходом высокопоставленного сотрудника из команды Qwen в этом году — ранее её покинули руководитель отдела обучения и главный программист.

Акции Alibaba, котирующиеся на Гонконгской бирже, закрылись во вторник на 0,45 % выше и торговались по $17,17. В ближайшее время инвесторы ожидают объявления финансовых результатов Alibaba за четвёртый квартал 2025 года.

SRAM какой-то: Nvidia представила чип Groq 3 LPU для ускорения инференса ИИ-моделей на уровне токенов

На прошедшей в этом году конференции GTC генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) сообщил, что в этом году платформа Vera Rubin получит расширение. Nvidia использует для этого интеллектуальную собственность, приобретённую у Groq. В состав Rubin вошёл новый чип Nvidia Groq 3 LPU. Компания определяет его как ускоритель инференса. Его задача — выдавать токены в большом объёме и с низкой задержкой.

 Источник изображений: Nvidia

Источник изображений: Nvidia

Платформа Rubin уже включает шесть компонентов, из которых Nvidia собирает стоечные системы и затем масштабирует их до ИИ-фабрик. Это GPU Rubin, CPU Vera, коммутаторы внутрисистемного масштабирования NVLink 6, интеллектуальный сетевой адаптер ConnectX-9, процессор обработки данных BlueField-4 и коммутатор межсистемного масштабирования Spectrum-X с совместно интегрированной оптикой. Groq 3 LPU стал новым элементом этой платформы и ещё одним строительным блоком Rubin при масштабном развёртывании.

Groq 3 LPU отличается от большинства ИИ-ускорителей схемой памяти. Обычно такие системы используют HBM в качестве рабочего уровня памяти. Каждый Groq 3 LPU содержит 500 Мбайт SRAM. Для сравнения, каждый GPU Rubin оснащён 288 Гбайт HBM4. По ёмкости разница велика. По пропускной способности соотношение иное: SRAM обеспечивает до 150 Тбайт/с, а HBM4 — около 22 Тбайт/с. Для ИИ-задач, чувствительных к пропускной способности, рост этого показателя даёт преимущество при инференсе. Именно поэтому Nvidia вводит Groq 3 в состав Rubin.

Стойка Groq 3 LPX включает 256 чипов Groq 3 LPU. Такая система располагает 128 Гбайт SRAM. Её суммарная пропускная способность достигает 40 Пбайт/с. Для объединения чипов внутри стойки предусмотрен выделенный интерфейс внутрисистемного масштабирования. Его пропускная способность составляет 640 Тбайт/с на стойку.

Вице-президент Nvidia по гипермасштабируемым решениям Иэн Бак (Ian Buck) назвал Groq LPX сопроцессором для Rubin. По его словам, он повысит производительность декодирования «на каждом слое ИИ-модели на каждом токене». Nvidia связывает это решение со следующим рубежом ИИ — мультиагентными системами. Речь идёт о сценариях, где нужно обеспечивать интерактивную работу при инференсе моделей с триллионами параметров и окнами контекста в миллионы токенов.

Когда ИИ-агенты всё чаще обмениваются данными друг с другом, а не с человеком в окне чат-бота, меняется и порог приемлемого отклика. Скорость, достаточная для человека, оказывается слишком низкой для ИИ-агента. Бак описывает переход от мира, где разумным считался уровень 100 токенов в секунду, к уровню 1 500 токенов в секунду и выше для межагентного обмена.

Добавление Groq 3 LPU должно усилить позиции Rubin в сегменте низколатентного инференса. В тексте в качестве конкурента названа Cerebras. Компания использует процессоры Wafer-Scale Engine (WSE), выполненные на целой кремниевой пластине, где большие объёмы SRAM объединены с вычислениями для низколатентного инференса на продвинутых моделях. OpenAI также привлекала мощности Cerebras для обслуживания части передовых моделей из-за выгодных характеристик задержки этой платформы.

Иэн Бак также допустил, что появление Groq 3 LPU может сократить роль ускорителя инференса Rubin CPX. Он сказал, что сейчас Nvidia сосредоточена на интеграции стойки Groq 3 LPX с Rubin. Дополнительных подробностей он не привёл. При этом оба чипа рассчитаны на сходное усиление инференса, но Groq LPU не требует большого объёма памяти GDDR7, который нужен каждому модулю Rubin CPX.


window-new
Soft
Hard
Тренды 🔥
OpenAI, Anthropic и Google объединились для борьбы с копированием ИИ-моделей китайцами 2 мин.
Россияне массово пожаловались на сбой в работе «Госуслуг» 2 ч.
В WhatsApp добавят шумоподавление для голосовых и видеозвонков 2 ч.
Project Prometheus Безоса переманил из OpenAI сооснователя xAI для создания ИИ, понимающего физический мир 2 ч.
YouTube-блогера подали на Apple в суд, обвинив в незаконном обучении ИИ на их роликах 2 ч.
Инсайдер предупредил о переносе Tomb Raider: Legacy of Atlantis — ремейк классической Tomb Raider не выйдет в 2026 году 2 ч.
Навайбкодили: Apple App Store захлестнул поток приложений, созданных с помощью ИИ 2 ч.
В Германии раскрыли лидеров хакерских группировок REvil и GandCrab — это граждане России 2 ч.
Ваш ход: спустя 11 лет в Pillars of Eternity наконец появился пошаговый режим 3 ч.
Вокруг Сэма Альтмана разгорелся мощный скандал — расследование показало, что он социопат и патологический лжец 3 ч.