Сегодня 17 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → иена
Быстрый переход

Чат-бот Anthropic Claude научился генерировать шрифты на основе рукописного текста

Службы на основе искусственного интеллекта постепенно переходят к решению задач творческого характера, которые ранее требовали специального ПО — теперь чат-боты умеют преобразовывать рукописные символы в цифровой шрифт. Правда, пока система работает не идеально.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Чтобы получить свой собственный шрифт, пользователю необходимо изобразить от руки алфавит, цифры и знаки препинания, отсканировать страницу и загрузить получившийся файл чат-боту с ИИ — тот преобразует рукописное начертание в шрифт формата TrueType. Результат будет зависеть от почерка человека — те, у кого он разборчивый, получат более качественный результат, чем остальные.

 Источник изображения: x.com/ashebytes

Источник изображения: x.com/ashebytes

Функция неочевидна — её обнаружила инженер-программист и специалист по ИИ Аше Магальяеш (Ashe Magalhaes). Его подход основан на одной из функций Anthropic Claude, который для решения сложных задач может вызывать внешние инструменты на языке Python. Для генерации шрифта на основе латинского алфавита необходимо изобразить на бумаге все буквы в заглавном и строчном начертаниях, цифры и знаки препинания. Изображение сканируется и загружается в чат-бот. Он анализирует контуры каждой буквы и преобразует их в векторные фигуры, которые задают основу для файла шрифта.

 Источник изображения: x.com/ashebytes

Источник изображения: x.com/ashebytes

Процесс требует аккуратного подхода. В ходе тестирования служба ИИ сначала предоставила шаблон, чтобы пользователь разместил символы на странице. Буквы должны быть чёткими, расстояние между символами — равномерным, а сканировать необходимо в оптимальных условиях без теней или эффектов неравномерного освещения. Первые попытки были неудачными: в первом выходном файле формы были искажены и напоминали скорее чернильные пятна, а не буквы. Система проанализировала собственную работу и пришла к выводу, что внешние контуры некоторых символов она распознать не смогла и запустила процесс конвертации повторно. Второй заход оказался значительно удачнее, но такие буквы как «O», «A» и «R» изображались сплошными поверхностями, без отверстий. Пришлось производить доработку. Возникали и дальнейшие проблемы: в какой-то момент в единый глиф слились буквы «x» и «y» — это тоже пришлось корректировать. В окончательном варианте удалось добиться вполне приемлемого результата.

В Google Gemini появится ветвление беседы — как в ChatGPT

Google готовится развернуть новую функцию чат-бота с искусственным интеллектом Gemini — переписку с ним можно будет разбивать на несколько веток и продолжать её по нескольким направлениям с одного и того же места. Эта функция уже есть в ChatGPT.

 Источник изображения: androidauthority.com

Источник изображения: androidauthority.com

Признаки новой функции журналисты ресурса Android Authority обнаружили во время тестирования приложения Google версии 17.10.54.sa.arm64 — «ветвление» беседы пока не запущено официально и требует некоторых доводок, но представляется вполне работоспособным. Название и предназначение функции говорят сами за себя: вместо того, чтобы продолжать один долгий чат, пользователь может в любой момент создать его копию и исследовать с ИИ тему в другом направлении, оставив исходную ветку в прежнем состоянии. На практике это поможет экспериментировать с запросами или сравнивать ответы, не начиная переписку заново.

Функция может показаться знакомой пользователям OpenAI ChatGPT, где есть схожая опция «Ветка в новом чате». Google ранее экспериментировала с этой идеей на платформе AI Studio, но теперь она появилась в приложении для обычных пользователей. Используется она просто: под ответом Gemini необходимо нажать кнопку с изображением трёх точек, выбрать «Ответвить в новый чат» («Branch in new chat») и система откроет его, используя фрагмент выше в качестве начального контента — новый чат получит пометку «Ветка:», чтобы его можно было отличить от первоначального.

Ветвление пригодится в сложных переписках: сейчас попытки развить несколько направлений в одном потоке очень быстро заставляют ИИ путаться — в новых ветках можно эффективнее контролировать последующий диалог. Официальной информации о широкомасштабном развёртывании новой функции пока нет, но, учитывая, что Google уже экспериментировала с ней в AI Studio, она может появиться в пользовательском Gemini в обозримом будущем.

Мошенники с ИИ зарабатывают до 4,5 раза больше обычных, сообщили в Интерполе

Как и многие изобретения человечества, так называемый искусственный интеллект поставлен на службу не только добропорядочным гражданам, но и мошенникам. Последние с помощью ИИ получают прибыль в 4,5 раза выше, чем при использовании классических приёмов обмана своих жертв, подсчитали представители Интерпола.

 Источник изображения: Unsplash, Joshua Koblin

Источник изображения: Unsplash, Joshua Koblin

ИИ не только повышает эффективность мошеннических действий, он привлекает к новым схемам всё большее количество злоумышленников. Чаще всего, по словам экспертов Интерпола, мошенники используют ИИ для устранения небольших просчётов, которые в противном случае выдали бы их истинную сущность. Например, при обращении к носителям других языков мошенники используют ИИ для устранения ошибок и погрешностей в тексте сообщений, которые могли бы насторожить потенциальных жертв.

Подражание голосу кого-то из ближайшего окружения жертвы теперь тоже доверено ИИ-инструментам. Мошенникам достаточно голосового сообщения продолжительностью 10 секунд, чтобы правдоподобно сымитировать голос человека и попытаться с помощью такой подмены обмануть кого-то из его окружения. На чёрном рынке уже предлагаются целые комплексные услуги по имитации внешности и голоса людей из окружения потенциальной жертвы, поэтому мошенникам не требуется лично владеть соответствующими методами подлога для реализации своих преступных навыков. Такие услуги становятся всё более доступными, позволяя мошенникам чаще применять новые технологии в своих схемах обмана граждан.

Соответственно, снижая затраты на реализацию преступного замысла, мошенник получает более высокую прибыль в случае успеха. Кроме того, количество обрабатываемых жертв также возрастает благодаря повышению производительности такого рода преступной деятельности. Сбор данных о потенциальных жертвах также поставлен на поток с помощью ИИ. Собрав всю доступную информацию о человеке из открытых источников, мошенники более ловко расставляют свои сети, чем это происходило ранее. Использование криптовалют для анонимных финансовых транзакций также позволяет преступникам избегать законного возмездия.

В будущем, как считают представители Интерпола, преступники смогут ещё сильнее автоматизировать свои атаки на жертв. Сумму выкупа за похищенные данные такие преступные ИИ-агенты смогут назначать самостоятельно, а информационные ресурсы жертв будут постоянно мониториться на предмет наличия уязвимостей в системах защиты. Эксперты также выражают озабоченность растущим количеством схем вымогательства, связанных с генерацией компрометирующих жертву видео и фото деликатного характера. На реализацию таких схем работают целые организованные группы по всему миру, их количество только растёт. Организаторы буквально похищают людей в разных странах, чтобы заставлять их заниматься подобным преступным ремеслом под угрозой физической расправы. Органам правопорядка становится всё сложнее бороться с подобными группировками. Считается, что по всему миру в подобную деятельность могут быть вовлечены сотни тысяч людей.

По итогам прошлого года финансовые потери от мошенничества достигли $442 млрд, по данным Интерпола, и в ближайшие несколько лет сумма будет только расти, во многом благодаря распространению ИИ. Одним только материальным ущербом жертвы мошенников не отделываются, часто страдает их репутация, социальные связи, а иногда даже речь идёт об утрате самой жизни.

SRAM какой-то: Nvidia представила чип Groq 3 LPU для ускорения инференса ИИ-моделей на уровне токенов

На прошедшей в этом году конференции GTC генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) сообщил, что в этом году платформа Vera Rubin получит расширение. Nvidia использует для этого интеллектуальную собственность, приобретённую у Groq. В состав Rubin вошёл новый чип Nvidia Groq 3 LPU. Компания определяет его как ускоритель инференса. Его задача — выдавать токены в большом объёме и с низкой задержкой.

 Источник изображений: Nvidia

Источник изображений: Nvidia

Платформа Rubin уже включает шесть компонентов, из которых Nvidia собирает стоечные системы и затем масштабирует их до ИИ-фабрик. Это GPU Rubin, CPU Vera, коммутаторы внутрисистемного масштабирования NVLink 6, интеллектуальный сетевой адаптер ConnectX-9, процессор обработки данных BlueField-4 и коммутатор межсистемного масштабирования Spectrum-X с совместно интегрированной оптикой. Groq 3 LPU стал новым элементом этой платформы и ещё одним строительным блоком Rubin при масштабном развёртывании.

Groq 3 LPU отличается от большинства ИИ-ускорителей схемой памяти. Обычно такие системы используют HBM в качестве рабочего уровня памяти. Каждый Groq 3 LPU содержит 500 Мбайт SRAM. Для сравнения, каждый GPU Rubin оснащён 288 Гбайт HBM4. По ёмкости разница велика. По пропускной способности соотношение иное: SRAM обеспечивает до 150 Тбайт/с, а HBM4 — около 22 Тбайт/с. Для ИИ-задач, чувствительных к пропускной способности, рост этого показателя даёт преимущество при инференсе. Именно поэтому Nvidia вводит Groq 3 в состав Rubin.

Стойка Groq 3 LPX включает 256 чипов Groq 3 LPU. Такая система располагает 128 Гбайт SRAM. Её суммарная пропускная способность достигает 40 Пбайт/с. Для объединения чипов внутри стойки предусмотрен выделенный интерфейс внутрисистемного масштабирования. Его пропускная способность составляет 640 Тбайт/с на стойку.

Вице-президент Nvidia по гипермасштабируемым решениям Иэн Бак (Ian Buck) назвал Groq LPX сопроцессором для Rubin. По его словам, он повысит производительность декодирования «на каждом слое ИИ-модели на каждом токене». Nvidia связывает это решение со следующим рубежом ИИ — мультиагентными системами. Речь идёт о сценариях, где нужно обеспечивать интерактивную работу при инференсе моделей с триллионами параметров и окнами контекста в миллионы токенов.

Когда ИИ-агенты всё чаще обмениваются данными друг с другом, а не с человеком в окне чат-бота, меняется и порог приемлемого отклика. Скорость, достаточная для человека, оказывается слишком низкой для ИИ-агента. Бак описывает переход от мира, где разумным считался уровень 100 токенов в секунду, к уровню 1 500 токенов в секунду и выше для межагентного обмена.

Добавление Groq 3 LPU должно усилить позиции Rubin в сегменте низколатентного инференса. В тексте в качестве конкурента названа Cerebras. Компания использует процессоры Wafer-Scale Engine (WSE), выполненные на целой кремниевой пластине, где большие объёмы SRAM объединены с вычислениями для низколатентного инференса на продвинутых моделях. OpenAI также привлекала мощности Cerebras для обслуживания части передовых моделей из-за выгодных характеристик задержки этой платформы.

Иэн Бак также допустил, что появление Groq 3 LPU может сократить роль ускорителя инференса Rubin CPX. Он сказал, что сейчас Nvidia сосредоточена на интеграции стойки Groq 3 LPX с Rubin. Дополнительных подробностей он не привёл. При этом оба чипа рассчитаны на сходное усиление инференса, но Groq LPU не требует большого объёма памяти GDDR7, который нужен каждому модулю Rubin CPX.

OpenAI откажется от второстепенных разработок, чтобы не проигрывать конкурентам ИИ-гонку

После выхода осенью 2022 года ChatGPT стартап OpenAI проявлял завидную активность и всеядность с точки зрения поиска новых способов использования ИИ, но в условиях жёсткой конкуренции подобная тактика уже не может себя оправдывать с точки зрения бизнеса. Руководство компании готовится выделить приоритетные направления развития, чтобы отказаться от второстепенных.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Как отмечает The Wall Street Journal, о грядущих изменениях в бизнес-стратегии OpenAI на общем собрании сотрудников сообщила директор по приложениям Фиджи Симо (Fidji Simo). По её словам, вышестоящие руководители в лице генерального директора Сэма Альтмана (Sam Altman) и ведущего исследователя Марка Чэня (Mark Chen) сейчас заняты поиском тех направлений деятельности, которые следует исключить из числа приоритетных. О принятых руководством решениях персонал OpenAI будет уведомлён в ближайшие недели.

«Мы не можем упустить этот момент, поскольку нас отвлекают второстепенные задачи», — заявила сотрудникам OpenAI Фиджи Симо на прошлой неделе, как отмечает источник. «Нам реально нужно зафиксировать продуктивность в целом и в особенности — на бизнес-направлении», — добавила она. В прошлом году OpenAI анонсировала целый спектр инициатив, который охватывал самые разные сегменты рынка, от интернет-торговли и генерации видео до интернет-браузера и выпуска аппаратных устройств. Сэм Альтман пояснял такое многообразие проектов попыткой «ставить на несколько стартапов» внутри самой OpenAI.

По имеющимся данным, в дальнейшем OpenAI хотела бы сосредоточиться на инструментах для генерирования программного кода и работе с корпоративными клиентами. В последней сфере преуспевает конкурирующая Anthropic, которой удаётся быстрее монетизировать собственные разработки, и OpenAI просто не желает отставать от соперника. Та же Anthropic пока не предложила клиентам средства для генерации видео и изображений, в отличие от OpenAI. Обе компании настроены выйти на IPO до конца текущего года, причём в случае с OpenAI выход на биржу может состояться в четвёртом квартале. Успех Anthropic в коммерческом сегменте рынка, по словам Симо, должен стать сигналом к пробуждению для OpenAI, и теперь компания ставит перед собой задачу выхода в лидеры как в сегменте инструментария для разработчиков ПО, так и для разного рода бизнес-клиентов.

Бывшие и действующие сотрудники OpenAI признались The Wall Street Journal, что прежняя разнонаправленная стратегия компании мешала им сконцентрироваться на приоритетных задачах и понимать общую стратегию компании. Команда создателей генератора видео Sora, например, работала в подразделении стартапа, занимающегося исследованиями, хотя конечный продукт оказался одним из наиболее влиятельных и сложных среди разработок OpenAI. В прошлом сентябре Sora вышла в качестве самостоятельно приложения, но после первоначального наплыва пользователей последовал спад интереса, и теперь OpenAI намеревается встроить этот генератор видео в приложение ChatGPT.

Нанятая в августе прошлого года Фиджи Симо предложила руководству более плотно интегрировать команды, занятые разработками и выпуском продуктов, а также унифицировать долгосрочную стратегию OpenAI вокруг повышения производительности труда своих пользователей. Инструмент Claude Code для автоматизации разработки ПО, выпущенный Anthropic, быстро набрал популярность среди профессионалов в этой сфере. Отыграть часть позиций на этом рынке OpenAI позволил выпуск инструмента Codex в прошлом месяце, а также дебют модели GPT 5.4, которая более ориентирована на профессиональное использование. Сейчас инструментом Codex еженедельно пользуются более двух миллионов пользователей, что в четыре раза выше показателя по состоянию на начало года. OpenAI решила активнее привлекать к разработке своих моделей консультантов со стороны и представителей клиентов. При этом Фиджи Симо не считает целесообразным регулярно объявлять «красный код опасности», но предлагает сотрудникам OpenAI работать, словно бы соответствующее объявление было сделано.

Nvidia ускорит и обезопасит запуск ИИ-агентов — представлены Agent Toolkit и NemoClaw

Среди прочих крупных анонсов на мероприятии GTC 2026 глава компании Nvidia Дженсен Хуанг (Jensen Huang) анонсировал множество новых моделей искусственного интеллекта, а также инструменты Agent Toolkit и NemoClaw, предназначенные для быстрого запуска ИИ-агентов на оборудовании Nvidia.

 Источник изображений: nvidia.com

Источник изображений: nvidia.com

Nvidia Agent Toolkit — платформа с открытым исходным кодом, предназначенная для разработчиков и располагающая средствами стандартизации и масштабирования при запуске автономных ИИ-агентов в масштабах предприятия. NemoClaw представляет собой программный стек на основе популярного OpenClaw с дополнительными средствами обеспечения конфиденциальности и контроля. Оба инструмента предназначены для ускоренного развёртывания ИИ-агентов и предлагают оптимизацию для оборудования Nvidia — от компактных DGX Spark до мощных серверов Vera Rubin.

Компания отметила, что множество её партнёров уже взяли на себя обязательства вести разработку с использованием средств Agent Toolkit — среди них упомянуты Adobe, Salesforce, SAP, ServiceNow, Siemens, CrowdStrike, Atlassian и Palantir. Agent Toolkit позволяет быстро интегрировать функции ИИ-агентов в бизнес-приложения с общими ресурсами и едиными стандартами — это снижает нагрузку на инженеров и обеспечивает тесную связь с имеющимся вычислительным стеком Nvidia, что помогает оптимизировать производительность.

NemoClaw представляет собой готовый программный пакет, включающий установку OpenClaw, открытых моделей Nvidia Nemotron и среды выполнения OpenShell одной командой. Стандартный вариант OpenClaw получил дополнительные функции конфиденциальности, безопасности и оперативного контроля для ИИ-агентов. В качестве аппаратной платформы могут выступать ПК с видеокартами Nvidia RTX, компьютеры DGX Spark и DGX Station, а также серверы с ускорителями Nvidia. Компания упомянула, что с обновлением ПО появилась поддержка кластеризации до четырёх систем DGX Spark в единой конфигурации (против двух на момент запуска).

Отдельно было сказано о новом партнёрском проекте Nvidia с Adobe — последнюю заинтересовали средства Agent Toolkit, компания также решила интегрировать в свои приложения инструменты CUDA-X и Omniverse, а ИИ-модели нового поколения будут обучаться на ИИ-оборудовании Nvidia. «Зелёные» напомнили о семействе открытых моделей Alpamayo класса Vision-Language-Action (VLA) для систем автопилота. Наконец, было объявлено о создании организации Nemotron Coalition, в которую, помимо самой Nvidia, вошли Black Forest Labs, Cursor, LangChain, Mistral AI, Perplexity, Reflection AI, Sarvam и Thinking Machines Lab. Они решили вести разработку открытых ИИ-моделей совместно, используя единые ресурсы Nvidia DGX Cloud, что позволит им не дублировать усилия на базовых этапах. Специализация будет проводиться с учётом потребностей отраслей, регионов и сценариев использования — результаты работы коалиции лягут в основу перспективного семейства моделей Nemotron 4.

Глава SK hynix рассказал, когда дефицит памяти может закончиться

Одним из явных последствий бума систем искусственного интеллекта на данном этапе развития стал усиливающийся дефицит памяти большинства типов, который больно бьёт практически по всем сегментам рынка электроники. По мнению председателя совета директоров SK hynix Чхэ Тхэ Вона (Chey Tae-won), дефицит памяти продлится до 2030 года.

 Источник изображения: SK hynix

Источник изображения: SK hynix

Этот представитель отрасли вполне имеет право делать подобные прогнозы, поскольку SK hynix остаётся вторым после Samsung Electronics производителем памяти всех типов, а в сегменте HBM она лидирует благодаря своим плотным и давним связям с Nvidia. Как поясняет Nikkei Asian Review, главу южнокорейского гиганта пригласили в Калифорнию на конференцию GTC 2026, которую Nvidia использовала для анонса своей ИИ-платформы Vera Rubin. По мнению Чхэ Тхэ Вона, отрасли потребуется ещё от четырёх до пяти лет, чтобы наладить выпуск памяти в количествах, достаточных для удовлетворения спроса.

В отличие от тайваньской TSMC, компания SK hynix пока не намерена активно расширять производство памяти за пределами родной страны. Как пояснил глава SK hynix, при реализации зарубежных проектов основной проблемой является доступ к водным и энергетическим ресурсам, и дело тут вовсе не в наличии государственных субсидий на строительство новых фабрик. Возможности производителей по наращиванию объёмов выпуска памяти ограничены, по словам представителя SK hynix, поэтому участникам рынка прежде всего следует постараться стабилизировать цены. Основатель Nvidia Дженсен Хуанг (Jensen Huang) вчера заявил, что спрос на ИИ-чипы вырос в 10 000 раз, поскольку профильные технологии применяются во многих отраслях экономики и весьма востребованы.

Для SK hynix военные действия на Ближнем Востоке стали серьёзной проблемой с точки зрения сохранения доступа к энергетическим ресурсам и цен на них. Компании пришлось искать альтернативные источники энергоносителей для сохранения своей способности работать в обычном режиме. Это не мешает SK hynix задумываться о выходе на американский фондовый рынок через депозитарные расписки. Доступ к крупным рынкам капитала важен для любой компании, находящейся в стадии активного роста, а бум ИИ пока создаёт соответствующие условия для производителей памяти.

Nvidia показала полный стек Vera Rubin — от GPU до сетей для ИИ-фабрик нового поколения

Являясь одним из лидеров в сфере вычислительной инфраструктуры для систем искусственного интеллекта, Nvidia комплексно подходит к развитию собственных платформ, а потому вместе с ускорителями поколения Vera Rubin предложила ряд сопутствующих аппаратных решений.

 Источник изображений: Nvidia

Источник изображений: Nvidia

Как отмечается в корпоративном пресс-релизе, платформа Vera Rubin открывает новые рубежи в развитии агентского искусственного интеллекта. В массовом производстве сейчас находятся семь новых чипов Nvidia, позволяющих эффективно масштабировать так называемые ИИ-фабрики. В число семи аппаратных новинок Nvidia вошли графические процессоры Rubin, центральные процессоры Vera, коммутаторы NVLink 6, сетевые решения ConnectX-9 SuperNIC, специализированные процессоры BlueField-4 и Ethernet-коммутаторы Spectrum-6, а также созданные с помощью разработок одноимённого поглощённого стартапа процессоры Groq для ускорения инференса при работе с ИИ-агентами. В совокупности они работают, как ИИ-суперкомпьютер, как отмечается в материалах Nvidia для прессы на официальном сайте компании, позволяя ускорять создание профильных технологий на всех этапах жизненного цикла ИИ-систем.

Основатель и глава Nvidia Дженсен Хуанг (Jensen Huang) заявил, что с выходом платформы Vera Rubin наступил переломный момент в развитии агентского ИИ, поскольку данная платформа будет способствовать самому масштабному развёртыванию инфраструктуры в истории. Руководители OpenAI и Anthropic прокомментировали анонс Vera Rubin в предсказуемо хвалебных выражениях, подчёркивая значение этого события для всей ИИ-отрасли. Разработчики ИИ-моделей теперь смогут совершенствовать их и делать это быстрее, чем на аппаратных решениях прошлого поколения.

Структура ЦОД теперь строится на готовых модулях, как считают в Nvidia, которые содержат всё необходимое для эффективного масштабирования вычислительных мощностей с учётом постоянного роста сложности решаемых задач. Клиенты могут сочетать готовые модули ЦОД с учётом специфики своей деятельности. Например, в одной стойке Vera Rubin NVL72 находятся 72 графических процессора Rubin и 36 центральных процессоров Vera, соединённых скоростной шиной NVLink 6 и сетевыми контроллерами ConnectX-9 SuperNIC, а также специализированные процессоры BlueField-4, которые разгружают центральные процессоры от задач работы с сетевым трафиком. По сравнению с решениями поколения Blackwell новые системы Vera Rubin справляются с обучением сложных моделей силами в четыре раза меньшего количества GPU. Пропускная способность в пересчёте на ватт потребляемой энергии в задачах инференса у Vera Rubin до десяти раз выше, а затраты на один токен в десять раз ниже. В кластерах стойки NVL72 масштабируются при помощи Quantum-X800 InfiniBand и Spectrum-X Ethernet.

Центральные процессоры Vera, по словам представителей Nvidia, хорошо себя проявляют в задачах обучения с подкреплением и агентских ИИ-нагрузках. Компания может объединять в одной стойке до 256 таких процессоров, оснащённых системой жидкостного охлаждения. С прочими компонентами кластера они могут сообщаться при помощи сетевых решений Spectrum-X. По сравнению с некими традиционными CPU, на которые ссылается Nvidia, её процессоры Vera могут справляться с ИИ-задачами на 50 % быстрее.

Специализированные чипы Groq 3 LPX обеспечивают эффективную работу с агентскими ИИ-нагрузками при минимальных задержках. В сочетании с другими чипами, входящими в состав платформы Vera Rubin, они обеспечивают увеличение пропускной способности в задачах инференса до 35 раз на один мегаватт потребляемой мощности, а потенциал выручки при использовании моделей с триллионом параметров увеличивается в десять раз. В состав одной стойки входит 256 чипов LPU, 128 Гбайт интегрированной на них памяти SRAM, а пропускная способность достигает 640 Тбайт/с. В сочетании с прочими компонентами платформы Vera Rubin, чипы LPU достигают максимальной эффективности как по быстродействию, так и по энергопотреблению, а также использованию ресурсов памяти. Стойки LPX будут доступны клиентам Nvidia со второй половины текущего года.

Стойка BlueField-4 STX специализируется на унификации адресного пространства GPU между элементами кластера. Обработка хранимой в кеше информации в операциях инференса ускоряется до пяти раз, при этом обеспечивается высокая энергоэффективность по сравнению с системами на классической архитектуре. Достигается общий для кластера контекст, обеспечивающий быстрое взаимодействие с ИИ-агентами и более эффективно масштабируемыми ИИ-сервисами.

Отдельная стойка Spectrum-6 SPX отвечает за скоростной обмен данными по интерфейсу Ethernet. Она может содержать не только коммутаторы Spectrum-X Ethernet, но и коммутаторы Nvidia Quantum-X800 InfiniBand в зависимости от потребностей конкретной конфигурации. В исполнении с кремниевой фотоникой и интеграцией на уровне упаковки чипов эффективность передачи информации возрастает в пять раз, а надёжность по сравнению с традиционными подключаемыми решениями увеличивается в десять раз.

«Не могу поверить, что это не первоапрельская шутка»: нейронный рендеринг в DLSS 5 оказался больше похож на ИИ-фильтр

Анонсированное компанией Nvidia на конференции GTC 2026 интеллектуальное масштабирование DLSS 5 вызвало стойкое отторжение среди геймеров, ценящих художественный замысел своих любимых игр.

 Источник изображений: Nvidia

Источник изображений: Nvidia

По словам Nvidia, DLSS 5 использует модель нейронного рендеринга в реальном времени, которая насыщает игровые кадры фотореалистичным освещением и детализацией материалов.

Несмотря на громкие обещания, дебютная демонстрация DLSS 5 на YouTube-канале Nvidia (см. видео ниже) собрала в четыре раза больше дизлайков, чем лайков — 48 тыс. негативных оценок на 11 тыс. положительных.

Пользователи массово раскритиковали то, как DLSS 5 преображает изображение и, в частности, персонажей. Например, Грейс Эшкрофт из Resident Evil Requiem после инъекции DLSS 5 получила более пухлые губы и более выразительные скулы.

Предполагается, что новый апскейлер Nvidia должен сделать героев более реалистичными, но выглядит, словно их обработал ИИ-фильтр. «Не могу поверить, что это не первоапрельская шутка», — удивляется azul1458.

В комментариях к ролику Nvidia уверяет, что DLSS 5 предоставляет разработчикам полный художественный контроль над эффектами масштабирования, что позволяет им «сохранять уникальную эстетику своей игры».

Релиз DLSS 5 ожидается осенью. Первыми играми с поддержкой технологии станут Resident Evil Requiem, Starfield, The Elder Scrolls IV: Oblivion Remastered, Assassin’s Creed Shadows, Hogwarts Legacy, Delta Force и Naraka: Bladepoint.

ИИ победил офисы: в США строят больше дата-центров, чем офисных зданий

Рынок коммерческой недвижимости США, как отмечает Bloomberg, в условиях бума ИИ переживает важные структурные изменения. Впервые расходы на строительство центров обработки данных ($3,57 млрд) по итогам декабря прошлого года превысили затраты на строительство офисных помещений ($3,49 млрд).

 Источник изображения: Oracle

Источник изображения: Oracle

Бум искусственного интеллекта заставляет участников рынка вкладываться в вычислительную инфраструктуру, большинство американских облачных гигантов сейчас активно вкладывается в строительство крупных ЦОД на территории США. На примере строительной компании Turner Construction поясняется, что сооружение ЦОД становится для девелоперов всё более важным направлением бизнеса. В прошлом году конкретный застройщик реализовал профильных проектов на сумму $9,4 млрд, что более чем в пять раз больше показателя 2020 года. В прошлом месяце компания Meta✴ Platforms выбрала Turner Construction в качестве подрядчика по строительству ЦОД стоимостью $10 млрд в штате Индиана. Более трети текущего портфеля проектов этого застройщика сейчас связано с возведением ЦОД. На их реализацию уйдёт несколько лет, и для компании это хороший бизнес.

Крупные инвестиционные компании также интересуются подобными проектами в надежде неплохо заработать на буме ИИ. В то же время, строительство офисных помещений в США ведётся достаточно вяло ещё со времён пандемии, когда удалённая работа сделала потребность в новых площадях весьма ограниченной. В декабре прошлого года затраты на строительство ЦОД в США достигли $3,57 млрд, превысив затраты на строительство офисных помещений, которые составили $3,49 млрд. Эксперты считают, что в случае успешного внедрения ИИ корпорациям потребуется меньше новых сотрудников, и этот фактор также повлияет на снижение спроса в строительной сфере, если говорить о новых офисных площадях.

Развитие инфраструктуры ЦОД на территории США подразумевает заключение контрактов сроком на 10 или даже 15 лет с участниками проектов, среди которых встречаются не только техногиганты, которые будут непосредственно эксплуатировать вводимые в строй вычислительные мощности. Потребности подобных объектов в адекватном энергоснабжении подталкивают тарифы на электроэнергию к росту, и это вызывает протесты жителей соседних с ЦОД районов. Строители, которые ранее не имели опыта возведения подобных объектов, изначально воспринимали специфику работы легкомысленно, но в процессе реализации проектов поняли, что всё не ограничивается возведением бетонного корпуса для ЦОД, а требует намного более сложных процессов и технологий.

Объекты такого типа подразумевают создание серьёзнейшей инженерной инфраструктуры, от систем охлаждения до энергоснабжения с обязательным резервированием источников. На огромных площадях может располагаться более 10 зданий, которые соединяются между собой сложными техническими коммуникациями. По некоторым оценкам, если в 2020 году возведение условного ЦОД на 1 МВт обходилось в $8 млрд, то в прошлом году стоимость выросла до $11 млрд. При этом энергетическая инфраструктура формирует до 38 % профильных затрат.

Потребность в кадровых ресурсах при строительстве ЦОД тоже заметно выше. Если офисное здание общей площадью 46 500 квадратных метров может требовать работы около 300 специалистов различных профилей, то сопоставимый по площади ЦОД потребует уже 800 рабочих, причём механики и электрики будут формировать от 70 до 80 % этого штата. Проекты по возведению ЦОД сильнее растянуты во времени, поэтому в общей сложности нанимаемые для строительства специалисты успевают заработать больше за период реализации проекта. Высокий спрос на специалистов по монтажу серверного оборудования открывает хорошие перспективы для их кадрового роста.

Хуанг пообещал, что Nvidia заработает $1 трлн на ИИ-железе до конца 2027 года

Подобные заявления формально больше подходят для квартальной отчётной конференции, но основатель Nvidia Дженсен Хуанг (Jensen Huang) на открытии мероприятия GTC 2026 не удержался от финансовых прогнозов. Он ожидает, что до конца 2027 года компания выручит на продажах «железа» для ИИ не менее $1 трлн.

 Источник изображения: Nvidia

Источник изображения: Nvidia

«Я ожидаю, что до конца 2027 года продажи аппаратного обеспечения для ИИ обеспечат не менее $1 трлн», — заявил генеральный директор компании. Сейчас в мире попросту нет компаний, получающих подобную выручку за год, но прогноз Хуанга относится к периоду с 2025 по 2027 годы включительно, то есть, он охватывает три года сразу. Ближайшие к показателю годовой выручки в $1 трлн компании — это американский гигант розничной торговли Walmart ($681 млрд) и в чём-то родственная ей Amazon, которая одновременно выступает и в роли облачного гиганта ($638 млрд). Даже Apple в прошлом году выручила только $391 млрд, а это один из крупнейших поставщиков аппаратного обеспечения в мире, если считать смартфоны и прочую мобильную электронику.

В прошлом фискальном году Nvidia выручила $215 млрд, но и это было существенным прогрессом по сравнению с предыдущим отчётным периодом, который обеспечил только $130,5 млрд годовой выручки. В текущем фискальном квартале Nvidia рассчитывает выручить $78 млрд. Чтобы достичь объёма выручки в $578 млрд по итогам 2028 фискального года (примерно совпадает с 2027 календарным), Nvidia должна сохранить средний темп увеличения выручки в 164 % за год. Если же ориентироваться на годовую выручку в $1 трлн, то Nvidia при условии сохранения ИИ-бума выйдет на такой показатель примерно к 2030 году, по мнению некоторых аналитиков.

Важно понимать, что высокие темпы роста выручки Nvidia также обеспечиваются и ростом средних цен на её ускорители вычислений. Они становятся производительнее и сложнее в компоновке, а потому дорожают опережающими темпами. Кроме того, высокий спрос также подогревает реальные рыночные цены, хотя в этом случае не вся добавленная стоимость оседает в карманах самой Nvidia. Физически не все партнёры Nvidia способны выпускать столько компонентов, чтобы покрыть её потребности в полной мере. Помимо TSMC, сдержанных темпов увеличения объёмов выпуска продукции придерживаются и производители памяти. По крайней мере, за спросом все они сейчас точно не успевают. Этот фактор также будет определять темпы роста выручки Nvidia.

ИИ-бум наплодил миллиардеров: рейтинг Forbes пополнили сразу 45 новоиспечённых богачей

Ажиотаж вокруг ИИ продолжает стремительно обогащать основателей технологических компаний. В ежегодном рейтинге миллиардеров Forbes за 2026 год зафиксирован резкий прирост представителей ИИ-индустрии, общее число которых достигло 86 человек. Их суммарное состояние оценивается в колоссальные $2,9 трлн. Примечательно, что почти половина из них, а именно 45 человек, приобрела статус миллиардера только в течение последнего года.

 Источник изображения: xAI

Источник изображения: xAI

Фундаментом для такого обогащения послужили рекордные раунды финансирования и сделки по слиянию и поглощению компаний, сообщает Forbes.ru. В январе SpaceX, принадлежащая Илону Маску (Elon Musk), приобрела ИИ-компанию xAI при оценке бизнеса в $250 млрд. В феврале Anthropic привлекла инвестиции при оценке в $380 млрд, а OpenAI объявила о привлечении $110 млрд, после чего её стоимость взлетела до $840 млрд. На этом фоне даже стартапы с небольшой выручкой (например, робототехническая Figure AI, Z.ai или Safe Superintelligence, у которой пока нет полностью готового продукта) оцениваются рынком в десятки миллиардов долларов.

Лидером среди новых миллиардеров стал Эдвин Чен (Edwin Chen) из компании Surge AI, занимающейся разметкой данных для ИИ. Его состояние оценивается в $18 млрд. Столь высокая оценка обусловлена уникальной структурой владения. В частности, Чен сохранил за собой более 75 % компании, отказавшись от классических венчурных инвестиций. Ранее он также заявлял Forbes USA, что работа его компании необходима для создания общего искусственного интеллекта (AGI) и без неё этот технологический прорыв просто не произойдёт.

Вторым стал Лю Дэбин (Liu Debing), соучредитель китайской компании Z.ai (специализируется на open-source ИИ-моделях), с состоянием $9,1 млрд. Он разбогател после IPO в Гонконге. Третье место у Дэниела Надлера (Daniel Nadler) — основателя OpenEvidence, создавшего поисковик на базе ИИ для врачей. Его капитал составляет $7,6 млрд.

Новые миллиардеры представляют разнообразные сегменты рынка. Десять человек попали в список благодаря развитию направления вайб-кодинга и созданию прикладного ПО. Среди них — основатели платформ Cursor, Lovable, Sierra, Harness и Cognition. Другая группа обогатилась на создании базовой инфраструктуры, включая владельцев дата-центров и производителей компонентов, таких как Питер Саланки (Peter Salanki) из CoreWeave, Майкл Синг (Michael Sing) из Monolithic Power Systems и Тоби Нойгебауэр (Tobi Neugebauer) из Fermi America. Также в список вошли создатели ПО для автономного транспорта.

От тысяч к десяткам миллионов: гонка ИИ разогнала спрос на углеродные кредиты среди техногигантов

На фоне гонки в сфере ИИ Amazon, Google, Meta✴ и Microsoft резко увеличили закупки углеродных кредитов для компенсации выбросов CO2. По данным платформы Ceezer, объём таких покупок вырос с 14 200 кредитов в 2022 году до 68,4 млн в 2025 году. Главный драйвер — расширение энергоёмкой ИИ-инфраструктуры. Речь идёт прежде всего о крупных дата-центрах. Они требуют больше электроэнергии. Они же увеличивают выбросы.

 Источник изображения: Matthias Heyde / Unsplash.com

Источник изображения: Matthias Heyde / Unsplash.com

По данным платформы управления углеродными кредитами Ceezer, Amazon, Google, Meta✴ и Microsoft увеличили закупки углеродных кредитов после запуска ChatGPT в 2022 году. Именно это событие дало старт гонке ИИ. Углеродные кредиты позволяют компаниям компенсировать выбросы через финансирование проектов, которые снижают выбросы или удаляют CO₂ из атмосферы. Каждый кредит соответствует одной метрической тонне углекислого газа, сокращённой или удалённой из атмосферы. Все четыре компании уже обязались достичь нулевого уровня чистых выбросов. Однако быстрое развитие ИИ, который требует больших объёмов энергии и воды, поставило под вопрос достижимость этой цели.

В 2022 году четыре компании купили 14 200 кредитов на постоянное удаление CO2 из атмосферы. В 2023 году объём вырос до 11,92 млн. В 2024 году он увеличился ещё на 104 % и достиг 24,4 млн. В 2025 году рост составил 181 %, а общий объём поднялся до 68,4 млн. В прошлом году Amazon запустила платформу, на которой её партнёры могут покупать углеродные кредиты. Параллельно растут и затраты на развитие ИИ. Amazon, Alphabet, Microsoft и Meta✴ в совокупности рассчитывают в этом году израсходовать почти $700 млрд на поддержку своих амбиций в сфере ИИ. В эту сумму входит строительство больших дата-центров.

Среди четырёх компаний только Microsoft последовательно публиковала годовые объёмы закупок углеродных кредитов ещё до 2022 года. Кроме того, кредиты часто покупают пакетами с поставкой на несколько лет вперёд. Это может искажать годовую динамику. Есть и ещё одно ограничение. Компании не обязаны раскрывать такие сделки. Генеральный директор Ceezer Магнус Древелис (Magnus Drewelies) сказал CNBC, что часть покупок могла не раскрываться из-за репутационного риска. Ранние углеродные кредиты вызывали споры, потому что не всегда отражали подлинное сокращение выбросов CO2.

По оценке Древелиса, при ограниченном предложении чистой энергии, необходимой для развития ИИ, достижение углеродной нейтральности техногигантами без удаления CO2 невозможно. Дефицит низкоуглеродной энергии стал прямым ограничителем климатических стратегий компаний. Технологическое удаление CO2 включает разные методы. Один из них — прямой захват воздуха, при котором машины извлекают CO2 из атмосферы. Другой путь — процессы, которые ускоряют естественную способность природы улавливать и накапливать углерод.

 Источник изображения: Scott Rodgerson / Unsplash.com

Источник изображения: Scott Rodgerson / Unsplash.com

Исполнительный директор отраслевой коалиции Carbon Business Council Бен Рубин (Ben Rubin) связал скачок закупок с докладом Межправительственной группы экспертов по изменению климата ООН (IPCC) за 2022 год. В докладе говорилось, что удаление углерода потребуется во всех сценариях, которые позволяют удержать глобальное потепление ниже 1,5 градуса. Рубин заявил CNBC: «Всплеск спроса на удаление в 2023 году был не краткосрочной реакцией, а началом структурного сдвига, которому соответствуют растущая активность частного сектора и поддержка со стороны государственной политики».

Среди четырёх компаний наиболее заметна Microsoft. Генеральный директор платформы климатического финансирования Opna Шилпика Гаутам (Shilpika Gautam) сказала CNBC, что рынок удаления углерода — это по сути Microsoft. Когда CNBC запросил у компании данные, Microsoft представила цифры, которые отличаются от расчётов Ceezer. Причина в методике. Microsoft учитывает все типы углеродных кредитов, а не только постоянное удаление CO2.

По данным Microsoft, объём закупок вырос на 247 % с 2022 по 2023 финансовый год и достиг 5 млн единиц. Затем, с 2023 по 2024 финансовый год, объём увеличился ещё на 337 % и составил 21,9 млн. В следующем финансовом году компания зафиксировала рост примерно на 100 %, но точную цифру не раскрыла. Директор по устойчивому развитию Microsoft Мелани Накагава (Melanie Nakagawa) сказала CNBC, что компания сосредоточена на сокращении выбросов и на удалении той их части, которую пока не может сократить. Цель Microsoft достичь отрицательного углеродного баланса к 2030 году.

В письменном комментарии Накагава заявила: «Будучи первопроходцем на рынке удаления углерода, мы находимся в уникальном положении и можем формировать сигналы спроса, которые приведут к росту предложения. Рынок удаления углерода, на котором будет больше решений и больше покупателей, приблизит всех нас к достижению наших общих целей и обеспечит положительный эффект для планеты и экономики». При этом Microsoft прямо не ответила на вопрос, связаны ли её закупки кредитов с ИИ-стратегией.

По оценке Древелиса, рост сферы ИИ сопровождался некоторым увеличением выбросов у крупнейших компаний, но рост не был резким. Из этого он делает вывод, что гиперскейлеры сравнительно быстро отреагировали, в том числе через переход на возобновляемые источники энергии. Иными словами, они опираются не только на углеродные кредиты. Гаутам при этом считает, что закупки Microsoft в значительной степени можно объяснить расширением её ИИ-дата-центров. Гаутам также указала на инвестиции Microsoft в компании, которые разрабатывают низкоуглеродные материалы, включая Sublime Systems и Stegra. По её словам, такая стратегия логична: после масштабирования эти решения позволят строить более устойчивую инфраструктуру.

Meta✴ потратит $27 млрд на облачные услуги Nebius Аркадия Воложа в ближайшие пять лет

Основатель Yandex Аркадий Волож после разделения бизнеса сосредоточился на направлении облачных услуг, создав под эти цели компанию Nebius. Её услугами готовы пользоваться крупные заказчики, включая Meta✴ Platforms, которая на соответствующие цели в ближайшие пять лет потратит около $27 млрд.

 Источник изображения: Markus Pentikäinen

Источник изображения: Markus Pentikäinen

С начала следующего года Nebius уже предоставит к услугам Meta✴ вычислительные мощности на $12 млрд, как отмечает Bloomberg. Дополнительные $15 млрд Meta✴ потратит на аренду вычислительных мощностей Nebius, которые будут введены в строй в дальнейшем. Для Meta✴ это станет одним из крупнейших контрактов по аренде вычислительных мощностей для нужд ИИ. В прошлом году компании заключили отдельный контракт на сумму $3 млрд. Nvidia договорилась об инвестициях в капитал Nebius на сумму $2 млрд. Впрочем, основная часть этих денег вернётся к Nvidia в качестве оплаты за покупку ускорителей вычислений, как отмечают критики подобных схем с кольцевым финансированием.

Напомним, что Meta✴ и её ближайшие конкуренты намерены в этом году направить $650 млрд капитальных вложений на расширение вычислительной инфраструктуры ИИ. Не все облачные гиганты способны обеспечить необходимые мощности за счёт строительства собственных объектов, поэтому они вполне обоснованно интересуются арендой ЦОД. Meta✴ заключила соглашения на поставку необходимых ей ускорителей с Nvidia и AMD, но при этом разрабатывает собственные ИИ-чипы. В прошлом году основатель и глава Meta✴ Марк Цукерберг (Mark Zuckerberg) объявил, что до 2028 года компания потратит $600 млрд на свои американские объекты вычислительной инфраструктуры. Собственных средств на финансирование этих потребностей у компании уже не остаётся, она приступила к заимствованиям. Контракты с Nebius позволят компании построить более диверсифицированную и защищённую от рисков инфраструктуру, как заявили в Meta✴.

Foxconn рассчитывает на рекордную выручку благодаря буму ИИ

Тайваньская компания Foxconn исторически считалась крупнейшим контрактным производителем продукции Apple, но в эру бума ИИ она проявляет себя и в качестве крупного производителя серверного оборудования и компонентов для Nvidia. В текущем году она рассчитывает получить рекордную выручку даже в условиях дефицита памяти и военных конфликтов, вмешивающихся в логистику товаров.

 Источник изображений: Foxconn

Источник изображений: Foxconn

Председатель совета директоров Foxconn Янг Лю (Young Liu) пояснил свою уверенность простыми доводами: «Крупные облачные провайдеры беспрецедентно увеличивают свои капитальные расходы, и мы, в качестве ключевого поставщика, ухватимся за возможности в бизнесе. Мы ожидаем серьёзного роста по итогам этого года, спрос на ИИ продолжит оставаться главным его драйвером». Конфликт на Ближнем Востоке глава Foxconn признал самым серьёзным фактором неопределённости в этом году, но пояснил, что для снижения рисков необходимо диверсифицировать производство и логистику в географическом выражении. За последние несколько лет количество производственных предприятий и представительств Foxconn по всему миру выросло с 133 до 241 штуки, по словам руководителя компании.

В прошлом фискальном году облачное и сетевое направление деятельности Foxconn формировало 40 % всей выручки компании, хотя годом ранее эта доля достигала лишь 30 %, а в 2023 году не превышала 22 %. Потребительская электроника, к которой относится и Apple iPhone, в структуре выручки Foxconn за прошлый год, просела с 46 до 38 %. Компания остаётся крупнейшим подрядчиком Apple по производству iPhone и MacBook, но влияние серверного сегмента на бизнес Foxconn продолжает усиливаться. По мнению руководства, в этом году поставки серверного оборудования компанией увеличатся вдвое не только в количественном выражении, но и в денежном. На мировом рынке ИИ-серверов этот контрактный производитель уже занимает около 40 %. Компания вполне способна выпускать по 2000 серверных систем в неделю, но реальные объёмы выпуска будут зависеть от потребностей клиентов и доступности необходимых компонентов. Как отмечает руководство Foxconn, основные клиенты компании в серверном сегменте рассчитывают увидеть годовой оборот рынка инфраструктуры ИИ в размере $1 трлн уже через два или три года.

Структура серверного рынка также будет меняться, по словам Янг Лю. Серверные системы на базе ASIC со временем займут 20 % рынка, но основанные на GPU решения всё равно будут занимать 80 %. Под ASIC понимаются ускорители вычислений, которые облачные гиганты самостоятельно разрабатывают для своих специфических нужд и видов нагрузки. Универсальные решения на базе графических процессоров AMD, Intel и Nvidia формируют основную часть вычислительной инфраструктуры ИИ.

Влияние дефицита памяти на бизнес Foxconn по выпуску потребительской электроники будет минимальным, как пояснил глава компании. Основная часть продукции Foxconn в этой сфере относится к верхнему ценовому диапазону, который от дефицита памяти пострадает в минимальной степени. Зато сегменте ПК пострадает от нехватки памяти сильнее, чем рынок смартфонов, как считают в Foxconn.

Компания будет осваивать и новые для себя сегменты бизнеса. Помимо контрактного производства электромобилей и человекоподобных роботов, к ним относится и выпуск серверного оборудования для работы космических ЦОД. Сегменту ИИ тайваньский производитель тоже будет уделять должное внимание, чтобы предлагать клиентам адекватный перечень услуг. Выручка Foxconn в этом году должна вырасти более чем на 10 % и преодолеть рубеж в $280 млрд, как отмечал ранее Янг Лю. В текущем квартале она также вырастет и оправдает надежды аналитиков, по его мнению. За прошлый год выручка Foxconn достигла рекордной суммы $253 млрд.

В прошлом году именно активные поставки ИИ-серверов для Nvidia позволили Foxconn увеличить чистую прибыль на 24 % до $5,9 млрд. Правда, выручка в четвёртом квартале снизилась на пару процентов, но в компании объяснили это особенностями налогообложения. Чистая прибыль за четвёртый квартал составила $1,4 млрд и оказалась почти на четверть ниже ожидаемого аналитиками уровня. Зато выручка компании за период выросла на 22 %, что оказалось выше ожиданий рынка.


window-new
Soft
Hard
Тренды 🔥
Хардкорная сложность, вырезанный контент и новые кошмары: с выходом ПК-версии Death Stranding 2: On the Beach получит крупное обновление 24 мин.
«Её не существует»: Тодд Говард призвал всех забыть, что Bethesda анонсировала The Elder Scrolls VI 2 ч.
Скандал с почтовым ПО Horizon не утихает: тысячи невинно осуждённых британцев до сих пор без выплат 3 ч.
Bethesda разразилась новостями о Starfield — сюжетное дополнение Terran Armada, крупное обновление Free Lanes и версия для PS5 3 ч.
Alibaba запустила платформу для ИИ-агентов Wukong с интеграцией Slack и Teams 3 ч.
Чат-бот Anthropic Claude научился генерировать шрифты на основе рукописного текста 3 ч.
Disco Elysium, Resident Evil 7, Like a Dragon: Infinite Wealth и многие другие: Microsoft раскрыла последние новинки Game Pass в марте 4 ч.
В мобильном Chrome появилась панель закладок — но только для планшетов и складных смартфонов 5 ч.
В Google Gemini появится ветвление беседы — как в ChatGPT 6 ч.
«Алиса AI» начала обучать школьников — ИИ поможет разобраться с задачами по математике 6 ч.
Oppo представила смарт-часы Watch X3 с титановым корпусом, мониторингом глюкозы и выявлением гипертонии 2 ч.
AWS и NVIDIA расширят сотрудничество: в следующие 12 месяцев AWS внедрит более 1 млн ИИ-ускорителей NVIDIA 3 ч.
Тим Кук к 50-летию Apple похвалился достижениями компании, а заодно обсудил таможенные пошлины и свою пенсию 3 ч.
Вековую «нерешаемую» задачу физики взломали с помощью ИИ — THOR ускорил расчёты в 400 раз 3 ч.
Nvidia выпустила однослотовый серверный ускоритель RTX Pro 4500 Blackwell Server Edition для ИИ и других задач 3 ч.
TCL представила Max163M Pro — «ультра-флагманский» 163-дюймовый Micro LED-телевизор за $50 000 3 ч.
Энтузиаст оснастил процессорный кулер 15 мини-вентиляторами — они оказались не хуже большого, но сильно шумят 3 ч.
Глобальный дефицит кобальта продлится до 2030 года — цены уже выросли более чем на 160 % 4 ч.
Жителей Санкт-Петербурга предупредили об отключении мобильного интернета 4 ч.
Intel представила мощные процессоры Core Ultra 200HX Plus — до 24 ядер и 5,5 ГГц для игровых ноутбуков 5 ч.