Сегодня 08 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → интеллект
Быстрый переход

AMD выпустила ИИ-ускоритель Instinct MI350P с 144 Гбайт HBM3E, PCIe 5.0 x16 и потреблением 600 Вт

Компания AMD выпустила специализированный графический ускоритель Instinct MI350P в формате карты расширения PCIe. Новинка предназначена для серверов с воздушным охлаждением и ориентирована на развёртывание систем логического вывода для искусственного интеллекта, не требующих полноценной платформы OAM.

 Источник изображений: AMD

Источник изображений: AMD

В составе Instinct MI350P используется графический чип со 128 исполнительными блоками, 8192 потоковыми процессорами и 512 матричными ядрами. AMD заявляет для GPU максимальную частоту 2,2 ГГц. Формально Instinct MI350P представляет собой наполовину урезанную версию Instinct MI350X.

Карта получила 144 Гбайт памяти HBM3E с поддержкой 4096-битной шины. Для памяти заявляется пиковая пропускная способность на уровне 4 Тбайт/с. Также ускоритель оснащён 128 Мбайт кеш-памяти последнего уровня и поддерживает функцию ECC (коррекции ошибок) для памяти.

AMD заявляет для Instinct MI350P производительность до 4,6 Пфлопс при работе с матрицами MXFP4 или MXFP6. Карта также обеспечивает производительность 2,3 Пфлопс при работе с матрицами MXFP8 и OCP-FP8, 1,15 Пфлопс — при работе с матрицами FP16 и BF16 и 36 Тфлопс — при работе с матрицами FP64. Благодаря структурированной разреженности некоторые показатели производительности при работе с 8-битными и 16-битными числами удваиваются.

Толщина ускорителя Instinct MI350P составляет два слота расширения, длина карты — 267 мм. Для работы новинка использует интерфейс PCIe 5.0 x16. Подача дополнительного питания на карту обеспечивается через разъём 12V-2×6. Стандартный показатель энергопотребления ускорителя составляет 600 Вт, однако его можно настроить на режим потребления 450 Вт.

ИИ научили следить за животными в дикой природе — он разбирает миллионы снимков за дни вместо месяцев

Как убедились учёные, искусственный интеллект значительно ускорил обработку данных, полученных с фотоловушек для наблюдения за дикой природой. Проведённое учёными из Вашингтонского государственного университета совместно с Google исследование показало, что современные ИИ-модели способны анализировать огромные массивы изображений всего за несколько дней, тогда как раньше на это уходили от нескольких месяцев до года.

 Источник изображения: Mammal Spatial Ecology and Conservation Lab

Источник изображения: Mammal Spatial Ecology and Conservation Lab

В ходе работы специалисты протестировали систему SpeciesNet на данных, собранных в разных природных зонах — в штате Вашингтон, национальном парке Глейшер в Монтане и биосферном заповеднике Майя в Гватемале. Искусственный интеллект самостоятельно обрабатывал фотографии без участия человека, а затем результаты сравнивались с выводами экспертов. Выяснилось, что в 85–90 % случаев модели, созданные на основе ИИ-анализа, практически совпадали с результатами моделирования после ручной обработки, особенно при изучении распространённых видов животных.

Главное преимущество новой технологии заключается в значительном сокращении времени анализа. Обычно обработка изображений требует участия больших исследовательских команд и занимает от шести месяцев до года. Теперь этот процесс может быть завершён примерно за неделю. Это особенно важно для природоохранных организаций, которым необходимо быстро получать данные для принятия решений по защите таких видов, как ягуары, волки и медведи гризли. ИИ настолько ускорил работу, что решения по тем или иным инициативам можно принимать фактически в режиме реального времени, о чём раньше можно было только мечтать.

Несмотря на высокую эффективность, учёные отмечают, что искусственный интеллект пока не способен полностью заменить человека. Он всё ещё допускает ошибки при распознавании редких или внешне похожих видов животных, поэтому для некоторых исследований участие специалистов остаётся необходимым. Тем не менее результаты работы показывают, что ИИ уже может стать мощным инструментом в экологии, помогая ускорить мониторинг дикой природы и повысить эффективность природоохранных мер. Более того, никаких специальных моделей для этого не требуется. С задачей прекрасно справились обычные коммерческие модели, что позволяет широко распространить этот подход.

AMD уйдёт от универсальных серверных CPU — EPYC ждёт дробление под ИИ, облака и другие сценарии

Современные рабочие нагрузки в центрах обработки данных очень разнообразны, как и требования операторов ЦОД к своему оборудованию, поэтому практически все гиперскейлеры сегодня имеют собственные программы разработки специализированных микросхем. Стремясь оставаться конкурентоспособными в ближайшие годы, AMD планирует расширить свой портфель процессоров для ЦОД, ориентированных на различные рабочие нагрузки.

 Источник изображения: AMD

Источник изображения: AMD

В семействе EPYC 4-го поколения на базе архитектуры Zen 4 компания AMD предлагает множество процессоров, предназначенных для ИИ, облачных вычислений, корпоративного сектора, сетей/периферии и малого бизнеса/поставщиков хостинговых услуг. Но с Zen 5 ассортимент моделей несколько сужается.

Сегодняшние заявления AMD указывают на то, что компания движется к более сегментированным продуктам EPYC, включая специализированные для конкретных рабочих нагрузок процессоры, потенциально различные конфигурации ядер, кэша и интерконнектов, а также процессоры, адаптированные для кластеров вывода, оркестрации, задач ИИ с низкой задержкой и развёртываний с большим количеством графических процессоров. Глава AMD Лиза Су (Lisa Su), в частности, намекнула, что это расширение выходит за рамки будущей серии процессоров Venice и будет включать микроархитектуры Zen 7 и, вероятно, Zen 8.

«Сейчас мы работаем с клиентами над тем, что выходит за рамки Venice, и над тем, что мы делаем в рамках этих архитектур. [Отрасли] потребуется широкий портфель процессоров, не все чипы одинаковы. Честно говоря, вам понадобятся разные процессоры, независимо от того, говорите ли вы об операциях общего назначения, о головных узлах или о задачах агентного ИИ», — сказала Лиза Су во время телефонной конференции компании с финансовыми аналитиками и инвесторами.

Глава AMD также неоднократно подчеркнула, что компания больше не рассматривает серверные процессоры как единую однородную категорию. Вместо этого она рассматривает рынок как разделённый на несколько сегментов, специфичных для конкретных рабочих нагрузок, включая вычисления общего назначения, головные узлы ЦП для ускорителей и процессоры, оптимизированные для рабочих нагрузок агентного ИИ. Более того, AMD планирует предлагать дифференциацию даже внутри этих категорий, чтобы более точно удовлетворять особые потребности своих клиентов.

«Мы сосредоточились на создании не просто одного типа, а на моделях, оптимизированных по пропускной способности, энергопотреблению, стоимости и инфраструктуре ИИ, как мы это сделали в семействе Venice», — сказал Су.

В рамках 6-го поколения EPYC на базе микроархитектуры Zen 6 компания планирует предлагать процессоры с кодовым названием Venice с количеством ядер до 256 для серверов общего назначения, а также Verano для инфраструктуры искусственного интеллекта. Ранее AMD анонсировала Verano в качестве серии процессоров для серверных стоек, запланированной на 2027 год.

«Семейство Venice включает в себя широкий ассортимент моделей, оптимизированных для высокой пропускной способности, производительности на ватт и производительности на доллар. Сюда же включён Verano, наш первый процессор EPYC, специально разработанный для инфраструктуры искусственного интеллекта», — сказал Су.

Учитывая прогнозы AMD о среднегодовых темпах роста рынка серверных процессоров на 35 % и его объёме до $120 млрд к 2030 году, разработка специализированных моделей может быть вполне оправданной, даже несмотря на то, что разработка чипов в целом, а также внедрение передовых технологических узлов в частности стали особенно дорогостоящими в последние годы.

В ChatGPT сменилась базовая модель — теперь это быстрая GPT-5.5 Instant, которая меньше галлюцинирует

Во вторник компания OpenAI выпустила новую базовую модель под названием GPT-5.5 Instant, которая заменит GPT-5.3 Instant в качестве основной модели для чат-бота ChatGPT. По словам представителей компании, новая модель снижает вероятность «галлюцинаций» в таких деликатных областях, как юриспруденция, медицина и финансы, сохраняя при этом низкую задержку, характерную для предыдущей версии.

 Источник изображения: OpenAI

Источник изображения: OpenAI

В прошлом месяце компания OpenAI выпустила последнюю версию модели GPT-5.5, заявив об улучшениях в таких областях, как кодирование и работа с базами знаний. Новая модель набрала 81,2 балла в математическом тесте AIME 2025 по сравнению с 65,4 балла у предыдущей версии. Она также превзошла предыдущую версию в мультимодальном тесте MMMU-Pro, набрав 76 баллов против 69,2.

Особое внимание в новой версии уделено управлению контекстом. GPT-5.5 Instant может использовать функцию поиска, чтобы обращаться к предыдущим диалогам, файлам и переписке в Gmail и давать более персонализированные ответы. Эта функция будет доступна пользователям подписок Plus и Pro в веб-версии, а в ближайшее время появится и в мобильной версии. OpenAI заявила, что в ближайшие недели планирует предоставить доступ к этой функции пользователям бесплатной версии, а также пользователям Go, Business и корпоративным пользователям.

С этим обновлением ChatGPT также будет отображать источники памяти для всех моделей, чтобы пользователь понимал, откуда берутся ответы. Пользователи могут удалять устаревшие источники или исправлять их, если ответ был неверным. Важно отметить, что, если поделиться с кем-то чатом, этот человек не сможет увидеть источники памяти.

Для разработчиков модель GPT-5.5 будет доступна через API под названием «chat-latest», а версия 5.3 будет доступна в качестве опции для платных пользователей в течение трёх месяцев.

Micron выпустила первый SSD ёмкостью 245 Тбайт — Micron 6600 ION для центров обработки данных

Компания Micron Technology объявила о начале поставок твердотельного накопителя Micron 6600 ION ёмкостью 245 Тбайт, самого вместительного из доступных на рынке накопителей. Новинка предназначена для поддержки рабочих нагрузок в области искусственного интеллекта, облачных вычислений, корпоративных и гипермасштабных приложений, включая хранилища данных следующего поколения для ИИ, а также облачные файловые и объектные хранилища.

 Источник изображений: Micron

Источник изображений: Micron

По словам производителя, для накопителей Micron 6600 ION E3.L ёмкостью 245 Тбайт требуется на 82 % меньше стоек по сравнению с развёртыванием на основе жёстких дисков. В основе накопителей используется фирменная флеш-память Micron G9 QLC NAND, «которая как минимум на одно поколение опережает любую конкурирующую память QLC, используемую в накопителях для центров обработки данных», заявляет компания.

Твердотельный накопитель Micron 6600 ION ёмкостью 245 Тбайт доступен в форм-факторах U.2 и E3.L. Один накопитель под нагрузкой потребляет до 30 Вт мощности, что вдвое меньше потребления HDD соответствующей ёмкости. Благодаря этому накопители Micron 6600 ION позволяют снизить стоимость эксплуатации, помогая сократить энергопотребление, потребности в охлаждении и выбросы углекислого газа — ключевые приоритеты для глобальных операторов в условиях растущего экологического и финансового давления.

Ключевые особенности Micron 6600 ION ёмкостью 245 Тбайт на основе лабораторных тестов:

  • SSD обеспечил до 84 раз лучшую энергоэффективность, в 8,6 раза более быструю предварительную обработку ИИ и в 3,4 раза большую пропускную способность при приёме данных, а также до 29 раз меньшую задержку;
  • продемонстрировал до 435 раз большую пропускную способность на ватт, в 96 раз более быстрое время до первого байта и в 58 раз большую суммарную пропускную способность.

Micron также отмечает, что при масштабировании для установки жёстких дисков требуется в 1,9 раза больше энергии, чем для установки твердотельных накопителей Micron 6600 ION ёмкостью 245 Тбайт в расчёте на один эксабайт. Повышение энергоэффективности при масштабировании может привести к измеримым последствиям для устойчивого развития, таким как:

  • CO2-эквивалент равный количеству CO2, поглощаемому более чем 9000 взрослыми деревьями в год;
  • сокращение выбросов CO2 на 438 метрических тонн в год;
  • экономия энергии на 921 мегаватт-час в год;
  • экономия на охлаждении систем кондиционирования воздуха составляет более 3,14 Btu в год.

Власти ЮАР использовали ИИ при создании закона о регулировании ИИ — результат предсказуем

Власти Кейптауна вынесли на общественное обсуждение проект Национальной политики в области искусственного интеллекта, в котором обнаружились ссылки на несуществующие научные работы. Это может указывать на то, что при создании документа использовались генеративные ИИ-алгоритмы, в результате галлюцинирования которых ссылки на «фиктивные источники» попали в законопроект.

 Источник изображения: techspot.com

Источник изображения: techspot.com

По данным источника, как минимум 6 из 67 научных работ, на которые в упомянутом законопроекте есть ссылки, попросту не существуют. Министр связи ЮАР Солли Малаци (Solly Malatsi) подтвердил, что наиболее вероятное объяснение этого заключается в том, что законопроект был сгенерирован с помощью ИИ. Он добавил, что ссылки на несуществующие работы были включены в законопроект без проверки со стороны человека, чего «не должно было случиться».

Малаци назвал фейковые цитаты не просто техническим сбоем. Из-за галлюцинирования ИИ-алгоритмов ведомство аннулировало законопроект, чтобы полностью его переработать. По словам министра, этот инцидент в очередной раз доказал, что ИИ всегда должен оставаться под контролем со стороны человека. «Я хочу заверить страну, что мы относимся к этому вопросу со всей серьёзностью, которую он заслуживает. Те, кто отвечал за разработку и контроль качества, будут наказаны», — заявил министр.

Первоначальная версия законопроекта включала несколько важных положений об инновациях, связанных с генеративным ИИ и другими решениями на основе больших языковых моделей. Законопроект должен был стать основой для организации новых надзорных органов, таких как национальная комиссия по ИИ, совет по этике ИИ и отдельный орган для регулирования в сфере ИИ. В нём также излагались планы по ускоренному внедрению ИИ-технологий на территории ЮАР с помощью грантов, налоговых льгот и субсидий для инициатив в этой сфере.

ИИ-компании стали нанимать философов на шестизначные зарплаты из-за растущего недоверия к поведению нейросетей

Крупнейшие ИИ-компании нанимают философов на старшие должности по этике и безопасности ИИ — базовая зарплата может доходить до $400 000 в год. В Anthropic эту позицию занимает Аманда Аскелл (Amanda Askell), в Google DeepMind — Иасон Габриэл (Iason Gabriel). Они помогают разработчикам решать, как должен вести себя ИИ и какие ценности отражать. По оценке Рэвина Джезутасана (Ravin Jesuthasan), специалиста по трансформации рынка труда, таких сотрудников в каждой компании пока меньше десяти.

 Источник изображения: Igor Omilaev / unsplash.com

Источник изображения: Igor Omilaev / unsplash.com

Аскелл, доктор философии Нью-Йоркского университета, руководит командой, которая обучает ИИ-чат-бота Claude быть честнее и развивать у него хорошие черты характера — по сути, делать модель «хорошей». Габриэл, старший научный сотрудник Google DeepMind, занимается согласованием ИИ-систем с человеческими ценностями; до перехода в DeepMind он преподавал моральную и политическую философию в Оксфордском университете. В мае к DeepMind в качестве философа присоединится Генри Шевлин (Henry Shevlin), профессор Кембриджского университета.

Гендиректор Harrison Clarke Фирас Созан (Firas Sozan) объясняет наём философов заботой о доверии: пользователи, бизнес и правительства всё чаще спрашивают, насколько ИИ можно доверять. При этом он предостерёг от преувеличения масштаба: «Я бы пока не назвал это трендом. Данные ещё в зачаточном состоянии».

Привлекательность философов объясняется просто. ИИ-системы уже демонстрируют вредные и непредсказуемые сценарии поведения: ИИ-агенты удаляли рабочие базы данных и фабриковали результаты, ИИ-модели пытались шантажировать пользователей и саботировать попытки их отключить. Это давит на компании и заставляет их следить за безопасностью ИИ.

«Не все проблемы развития ИИ технические», — сказала Аннетт Циммерман (Annette Zimmermann), доцент кафедры философии Висконсинского университета в Мадисоне. По её словам, формулировать сложные понятия и защищать ценностные аргументы — центральная работа в области ИИ, а философов учат именно этому. Сюзанна Шелленберг (Susanna Schellenberg), профессор философии Ратгерского университета, добавила, что прежние корпоративные специалисты по этике выполняли консультативную роль, а в передовых ИИ-лабораториях философы помогают формировать сам объект: пишут спецификации моделей, своды базовых принципов и политики их поведения.

 Источник изображения: Steve A Johnson / unsplash.com

Источник изображения: Steve A Johnson / unsplash.com

По последнему отчёту Федерального резервного банка Нью-Йорка, медианная зарплата выпускника философского факультета в начале карьеры составляет $52 000, к середине карьеры — около $80 000. На старших позициях по этике, безопасности и управлению ИИ базовая ставка может доходить от $250 000 до $400 000 в год. Так, Google DeepMind подбирает менеджера по перспективным последствиям ИИ с зарплатой от $212 000 до $231 000 в год, требуя не менее пяти лет опыта работы в этой области.

Спрос на философов в ИИ описывают как своего рода «реванш гуманитариев», но не все убеждены, что сдвиг приведёт к ощутимым переменам. Около десяти лет назад технологические компании уже создавали советы по этике ИИ: внутренний этический совет Google появился в 2014 году в связи с покупкой DeepMind, в Microsoft в 2017 году создали комитет Aether, а в 2016 году Google, Facebook✴, Amazon и IBM учредили Partnership on AI. «Мы выяснили, что эти советы часто оставались ширмой», — сказал главный директор по исследованиям Lighthouse Research & Advisory Бен Юбэнкс (Ben Eubanks). По его словам, компании обычно ставили коммерциализацию выше этических соображений.

Дебора Джонсон (Deborah Johnson), пионер в области компьютерной этики, считает, что компании скорее заинтересованы в демонстрации ответственности, чем в её принятии. «Технологические компании просто хотят „выглядеть“ так, будто занимаются этикой», — сказала она. Развитие ИИ идёт под давлением скорости, конкуренции и прибыли, и это давление может ограничивать реальное влияние философов. «Со специалистами по этике или без, я сомневаюсь, что они будут прислушиваться к тому, что их замедлит», — добавила Джонсон.

xAI выпустила Grok 4.3: более дешёвую ИИ-модель с упором на агентские задачи и практическую эффективность

Компания xAI Илона Маска (Elon Musk) выпустила ИИ-модель Grok 4.3, снизив стоимость входных токенов на 40 %, а выходных — на 60 % по сравнению с Grok 4.20. Модель набрала 53 балла по Intelligence Index компании Artificial Analysis — выше предшественницы, но ниже флагманов OpenAI и Anthropic.

 Источник изображения: Rubaitul Azad / unsplash.com

Источник изображения: Rubaitul Azad / unsplash.com

Grok 4.3 рассчитана на разработчиков и бизнес: ИИ-модель самостоятельно ищет информацию в интернете и соцсети X, запускает код на Python, выполняет поиск по файлам (RAG) и генерирует документы в форматах Excel, PDF и PowerPoint. Разработчик xAI Эрик Цзян (Eric Jiang) подчеркнул, что при создании модели ставку делали на скорость, низкую цену и вызовы инструментов. Grok 4.3 работает со скоростью 100 токенов в секунду и поддерживает контекстное окно в 1 млн токенов.

Миллион входных токенов стоит $1,25, а миллион выходных — $2,50, а последняя дата обучающих данных — декабрь 2025 года. Функция рассуждения в Grok 4.3 включена по умолчанию, поэтому модель всегда «думает» перед каждым ответом, а токены при рассуждении стоят столько же, сколько и обычные выходные токены. Grok 4.3 доступна через OpenRouter, программный интерфейс (API) xAI и агент Hermes. Полученный результат у новинки по Intelligence Index чуть выше, чем у Muse Spark и Claude Sonnet 4.6, и на четыре пункта больше, чем у предшественницы Grok 4.20, но заметно ниже флагманских моделей OpenAI и Anthropic.

 На графиках Artificial Analysis видно, что Grok 4.3 не догоняет лидера GPT-5.5 по интеллектуальному индексу — 53 против 60 баллов, — но предлагает значительно более выгодное соотношение производительности и стоимости: полный прогон бенчмарка обходится в $395 против почти $4 000 у GPT-5.5. Источник изображения: Artificial Analysis

На графиках Artificial Analysis видно, что Grok 4.3 не догоняет лидера GPT-5.5 по интеллектуальному индексу — 53 против 60 баллов, — но предлагает значительно более выгодное соотношение производительности и стоимости: полный прогон бенчмарка обходится в $395 против почти $4 000 у GPT-5.5. Источник изображения: Artificial Analysis

Полный прогон ИИ-модели на всех тестах Artificial Analysis обходится всего в $395 — против $3959 у GPT-5.5 и $4811 у Claude Opus 4.7. По оценке сервиса, Grok 4.3 вышла на Парето-фронт — границу лучшего баланса производительности и цены.

 Grok 4.3 попадает в самый привлекательный сегмент графика: 53 балла при стоимости $395, тогда как GPT-5.5 и Claude Opus 4.7 мощнее, но значительно дороже. Источник изображения: Artificial Analysis

Grok 4.3 попадает в самый привлекательный сегмент графика: 53 балла при стоимости $395, тогда как GPT-5.5 и Claude Opus 4.7 мощнее, но значительно дороже. Источник изображения: Artificial Analysis

По GDPval-AA — тесту, который измеряет способности ИИ на задачах, приближенных к реальной интеллектуальной работе, — рейтинг Эло у Grok 4.3 подскочил на 321 пункт и достиг 1 500. Модель обошла Gemini 3.1 компании Google, однако GPT-5.5 компании OpenAI по-прежнему лидирует с отрывом в 276 пунктов Эло.

Другие тесты оказались к новинке менее благосклонны. Andon Labs, которая заставляет ИИ-модели управлять снэковым автоматом, отмечает провалы в автономных агентских задачах: модель порой бездействует вместо того чтобы действовать. «Похоже, у неё нарколепсия: она предпочитает спать по несколько дней подряд, а не действовать», — пишут в Andon Labs. Независимый сервис Vals AI поставил Grok 4.3 на первое место в тестах по анализу судебной практики (англ. — CaseLaw) и корпоративных финансов (англ. — CorpFin), но на общих тестах по написанию кода и на сложных математических задачах модель заняла лишь 13-е место.

Помимо Grok 4.3, xAI запустила бета-версию агентского режима Agent Mode для Grok Imagine через веб-интерфейс Grok. Режим рассчитан не на отдельные запросы, а на длительные творческие проекты: ИИ-агент планирует, генерирует, редактирует и дорабатывает материалы. По словам xAI, инструмент подходит для создания минутного фильма или продуктовых историй. Агентский режим включается в поле ввода в левом нижнем углу веб-интерфейса и требует платной подписки.

Аэродинамикой гоночных автомобилей Dallara займётся ИИ и квантовые компьютеры IBM

IBM и ведущий производитель гоночных автомобилей, компания Dallara, объявили о сотрудничестве, целью которого является фундаментальная перестройка проектирования аэродинамики гиперкаров. Для этого они создадут физический ИИ и применят квантовые компьютеры, что позволит сократить время проектирования с нескольких дней до минут.

 Первые плоды совместной работы. Концепция. Источник изображения: IBM

Первые плоды совместной работы. Концепция. Источник изображения: IBM

Проект объединяет глубокий инженерный опыт Dallara, накопленный за 50 лет работы при проектировании болидов для гонок IndyCar и других серий, и обширные знания IBM в области искусственного интеллекта и квантовых вычислений. Ключевая задача — создание новых физических базовых моделей ИИ, которые способны кардинально ускорить и улучшить процесс проектирования аэродинамики машин.

Давно применяемые в отрасли методы вычислительной гидродинамики (CFD) исключительно точны, но требуют огромных вычислительных ресурсов и времени: анализ одной конфигурации может занимать часы, а полный цикл разработки — недели. Поэтому IBM взялась за разработку специализированных ИИ-моделей, обученных на проверенных данных CFD и технических данных Dallara. Эти модели предназначены для предсказания аэродинамических характеристик (прижимной силы, лобового сопротивления, стабильности) непосредственно по геометрии деталей без проведения полного физического моделирования для каждого изменения формы.

Первые испытания концепции показали впечатляющее сокращение времени расчётов. В одном из тестов, когда анализировалась конфигурация заднего диффузора прототипа класса LMP2, традиционный CFD-анализ нескольких вариантов занял несколько часов. Новая ИИ-модель выполнила ту же работу примерно за 10 секунд, определив оптимальный дизайн с погрешностью, сопоставимой с CFD. В масштабе типичного набора из сотен конфигураций такое ускорение потенциально сокращает время симуляций с нескольких дней до минут, позволяя инженерам изучать гораздо больше вариантов на ранних этапах проектирования. Быстро отсеять массу ненужных проектов и сосредоточиться на перспективных — вот к чему стремятся IBM и Dallara.

Наконец, помимо немедленного применения ИИ в работе инженеров, партнёры изучают, каким образом можно интегрировать в процесс проектирования аэродинамики автомобилей квантовые и гибридные квантово-классические вычисления для дальнейшего повышения точности симуляций. В перспективе модели будут дополнены реальными данными, полученными при испытаниях в аэродинамической трубе и на гоночных трассах. Стороны подчёркивают, что потенциал технологии выходит далеко за рамки автоспорта: даже небольшое снижение лобового сопротивления на пассажирском транспорте или в авиации способно привести к значительной экономии топлива в глобальном масштабе. Первые научные результаты сотрудничества были недавно представлены на профильной конференции. Ждём результатов на дорогах и в небе.

Новая статья: Термодинамические вычислители — это нормально

Данные берутся из публикации Термодинамические вычислители — это нормально

Бум ИИ сделал микросхемы памяти одним из самых прибыльных продуктов в мире

Во второй половине прошлого года ажиотажные мировые инвестиции в ИИ сделали индустрию микросхем памяти сверхприбыльной. Ожидается, что Samsung превзойдёт по доходам Apple, Microsoft и Alphabet, а SK hynix и Micron — два других гиганта в сфере производства микросхем памяти — войдут в этом году в десятку самых прибыльных компаний мира. С начала этого года акции Samsung выросли на 72 %, SK hynix — на 90 %, а Micron — на 65 %.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

В то время как сомнения в перспективности ИИ продолжают нарастать, компании, участвующие в создании соответствующей инфраструктуры, получают огромную прибыль, а доходность бизнеса производителей микросхем памяти побила все рекорды. Ожидалось, что цены в первые три месяца 2026 года вырастут ещё на 50 % по сравнению с предыдущим кварталом, но реальность превзошла даже эти смелые ожидания — по данным исследовательской компании Trendforce, рост составил 100 %.

 Производители микросхем, входящие в топ-20 компаний по чистой прибыли / Источник изображения: wsj.com

Производители микросхем, входящие в топ-20 компаний по чистой прибыли / Источник изображения: wsj.com

В четверг Samsung Electronics сообщила о чистой прибыли за первый квартал, эквивалентной более чем $30 млрд. Это не только побило предыдущий квартальный рекорд, но и почти превзошло годовой максимум южнокорейской компании. Около 94 % операционной прибыли Samsung за первый квартал пришлось на полупроводниковый бизнес. Главные конкуренты Samsung на рынке памяти — южнокорейская SK hynix и американская Micron Technology недавно продемонстрировали столь же впечатляющие результаты. Эти три компании продолжают доминировать на рынке памяти.

 Годовая чистая прибыль компаний-производителей полупроводников / Источник изображения: FactSet

Годовая чистая прибыль компаний-производителей полупроводников / Источник изображения: FactSet

В последние годы производители памяти отдавали приоритет производству специализированной памяти c высокой пропускной способностью HBM, необходимой для ИИ, что ограничивало выпуск традиционных микросхем памяти, используемых в смартфонах, персональных компьютерах и обычных серверах и предопределило её дефицит. Стремительно выросший спрос на инференс потребовал огромных объёмов традиционной DRAM и вывел прибыль Samsung, SK hynix и Micron на новый уровень.

 Доли рынка производителей DRAM / Источник изображения: Trendforce

Доли рынка производителей DRAM / Источник изображения: Trendforce

По оценкам FactSet, в совокупности чистая прибыль этих трёх компаний в 2026 году составит примерно $350 млрд. По прогнозам, каждая из этих компаний войдёт в десятку самых прибыльных компаний мира, хотя год назад ни один аналитик не предполагал подобного развития событий. По данным аналитической компании Counterpoint, операционная прибыль от производства ОЗУ достигла 80 %, а от производства флеш-памяти — 60 %.

 Доли рынка производителей NAND flash / Источник изображения: Trendforce

Доли рынка производителей NAND flash / Источник изображения: Trendforce

Заказчики и производители микросхем памяти долгое время полагались на устные договорённости для обеспечения долгосрочных поставок, но теперь в некоторых случаях переходят к обязывающим контрактам. Некоторые контракты заключаются на срок до пяти лет и предусматривают предварительную оплату клиентами около 30 % стоимости или участие в инвестиционных затратах на новые заводы по производству микросхем памяти. «Идея заключается в том, что тот, кто доминирует на рынке памяти, может доминировать и в сфере искусственного интеллекта», — пояснил представитель Counterpoint.

 Рейтинг компаний-производителей микросхем по чистой прибыли / Источник изображения: FactSet/WSJ

Рейтинг компаний-производителей микросхем по чистой прибыли / Источник изображения: FactSet/WSJ

Строительство одного завода по производству микросхем может стоить более $20 млрд и занять годы. Samsung, SK hynix и Micron строят новые предприятия, но, по мнению отраслевых аналитиков, производство вряд ли выйдет на полную мощность до конца 2027 или 2028 года. Поэтому ожидать улучшения ситуации в ближайшее время трудно.

Судя по предварительным заказам Samsung, ожидается, что дефицит ещё усугубится в следующем году. «Исходя только из текущего спроса на 2027 год, разрыв между предложением и спросом в 2027 году увеличится ещё больше, чем в 2026 году», — заявил руководитель подразделения по производству микросхем памяти Samsung Ким Чжэджун (Kim Jaejune).

Apple разработала ИИ, который рассматривает несколько вариантов ответа параллельно и выдаёт лучший

Исследователи Apple совместно с учёными из Калифорнийского университета в Сан-Диего разработали новый фреймворк LaDiR, улучшающий качество ответов больших языковых моделей (LLM). Суть системы заключается в том, что она позволяет нейросетям тестировать несколько вариантов рассуждений параллельно перед выдачей финального результата.

 Источник изображения: AI

Источник изображения: AI

Фреймворк, получивший название LaDiR (Latent Diffusion Enhances LLMs for Text Reasoning), объединяет диффузионные и авторегрессионные подходы к генерации текста. На этапе размышления модель использует диффузию для одновременной обработки множества токенов, а итоговый ответ формирует авторегрессионным методом — по одному токену за раз. При этом, как отмечает 9to5Mac, LaDiR не является самостоятельной нейросетью, а выступает надстройкой над уже существующими языковыми моделями, меняя сам алгоритм их мышления.

 Источник изображения: 9to5mac.com

Источник изображения: 9to5mac.com

Механизм работы фреймворка основан на генерации скрытых блоков рассуждений, которые изначально представляют собой случайный шум и постепенно очищаются до логически связных шагов. LaDiR запускает сразу несколько таких параллельных путей, каждый из которых развивает собственный диффузионный процесс, а специальный механизм стимулирует ветви для исследования разных возможностей, чтобы они не сводились к одному и тому же решению слишком рано. Когда модель решает, что процесс размышления завершён, она переключается на последовательную генерацию финального ответа.

Для проверки эффективности исследователи применили LaDiR к модели Meta✴ LLaMA 3.1 8B для математических задач и решения головоломок, а также к Qwen3-8B-Base для генерации кода. По итогам теста в математике фреймворк продемонстрировал более высокую точность по сравнению с существующими подходами, показав уверенные результаты даже на сложных нестандартных задачах. Одновременно в бенчмарке HumanEval система выдавала более надёжный код, заметно превосходя стандартную тонкую настройку, особенно при решении трудных проблем.

 Источник изображения: 9to5mac.com

Источник изображения: 9to5mac.com

В задачах планирования, таких как игра Countdown, LaDiR исследовал более широкий спектр верных ответов, чем любая базовая модель, и находил правильные решения надёжнее всех ИИ-систем общего назначения. Однако в задачах, требующих высокой точности с первой попытки, фреймворк все же уступил специализированным моделям, заточенным под конкретные узкие задачи. Несмотря на техническую сложность некоторых аспектов исследования, авторы работы отмечают, что предложенный подход открывает новые перспективы для улучшения качества генерации текста и логики языковых моделей.

Anthropic добавила в Claude интеграцию с инструментами для творчества Adobe, Blender и другими

Компания Anthropic обновила ИИ-модель Claude, добавив новые коннекторы (интеграции инструментов), которые будут полезны для творческих специалистов. В обновлении заявлены интеграции с Ableton, Adobe, Affinity, Autodesk Fusion, Blender, Resolume Arena и Wire, SketchUp и Splice.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Коннекторы — это инструменты, с помощью которых Claude может получать доступ к другим платформам и помогать пользователям в выполнении их задач. По словам представителей Anthropic, Claude открывает перед творческими людьми новые возможности для работы и реализации масштабных проектов.

  • Интеграция с Ableton позволяет задавать вопросы об официальной документации по продуктам Live и Push.
  • Интеграция с Adobe делает доступными более 50 инструментов в приложениях Creative Cloud, таких как Photoshop, Premiere и Express.
  • Интеграция с Affinity — коннектор Affinity позволяет автоматизировать повторяющиеся производственные задачи и создавать собственные функции.
  • Интеграция с Autodesk Fusion позволяет подписчикам Fusion создавать и изменять 3D-модели с помощью диалогового интерфейса Claude.
  • Интеграция с Blender — коннектор Blender добавляет интерфейс на основе естественного языка для Python API. Пользователи могут анализировать и отлаживать сцены в Blender, создавать скрипты для пакетного применения изменений к объектам и добавлять новые инструменты в интерфейс Blender. Также доступна документация по Blender.
  • Интеграция с Resolume Arena и Wire позволяет художникам управлять Arena, Avenue и Wire в режиме реального времени с помощью естественного языка.
  • Интеграция с SketchUp — пользователи могут описать Claude свою идею в качестве отправной точки для создания 3D-модели, а затем открыть её в SketchUp для доработки.
  • Интеграция с Splice — музыкальные продюсеры могут искать в каталоге Splice бесплатные композиции.

По словам Anthropic, Claude может быть полезен для решения множества творческих задач, в том числе для обучения работе со сложными инструментами, написания скриптов и плагинов для программного обеспечения, преобразования форматов и реструктуризации данных, а также для выполнения повторяющихся производственных задач.

Alibaba выпустила «виртуальных сотрудников» ля малого бизнеса — ИИ-агенты займутся торговлей

Подразделение международной торговли Alibaba Group Holding в понедельник представило корпоративную платформу на основе искусственного интеллекта для автоматизации сложных трансграничных операций в сфере электронной коммерции для малого бизнеса по всему миру. Как пишет издание South China Morning Post, компании стремятся внедрять ИИ-агентов для повышения эффективности.

 Источник изображения: alibabagroup.com

Источник изображения: alibabagroup.com

Согласно заявлению компании, платформа Accio Work, представленная Alibaba International Digital Commerce Group (AIDC), призвана предоставить малым и средним предприятиям (МСП) и индивидуальным предпринимателям доступ к рабочей группе на основе искусственного интеллекта за счёт развёртывания «отряда» специализированных ИИ-агентов.

Агенты работают как «виртуальные сотрудники», выполняя различные задачи, включая анализ рынка, проектирование, поиск поставщиков и мониторинг товарных запасов, чтобы удовлетворить операционные потребности глобальных МСП. Вице-президент AIDC Чжан Куо (Zhang Kuo) заявил, что новая платформа призвана «сделать искусственный интеллект доступным для всех», предоставив небольшим компаниям доступ к возможностям, которые обычно доступны только крупным корпорациям.

«Малые предприятия найдут Accio Work особенно полезной», — сказал Чжан.

Запуск платформы Accio Work, которая станет доступна в онлайн-режиме в конце этого месяца, происходит на фоне глобального ажиотажа вокруг внедрения ИИ-агентов, вызванного растущей популярностью ИИ-агента OpenClaw с открытым исходным кодом. В последние недели OpenClaw вызвал интерес во всём мире, в том числе у китайских потребителей, благодаря своей способности выполнять широкий спектр задач от имени пользователей, включая организацию мероприятий в календаре, а также составление и отправку электронных писем.

AIDC заявила, что Accio Work поможет небольшим командам снизить операционную нагрузку за счёт развёртывания команды ИИ-агентов для автоматизации критически важных задач, таких как соблюдение нормативных требований и поиск поставщиков. Кроме того, платформа может помочь небольшим командам управлять такими рабочими процессами, как возврат налогов и оформление таможенной документации более чем на 100 рынках, а также автоматически взаимодействовать с поставщиками в ходе многоэтапных переговоров, чтобы добиваться оптимальных цен и условий.

AIDC также подчеркнула, что платформа оснащена усиленными мерами безопасности, включая технологии и механизмы, такие как «песочница» и усовершенствованная система управления разрешениями, которые минимизируют риски, связанные с использованием ИИ-агентов.

AIDC анонсировала Accio в ноябре 2024 года как систему поиска поставщиков на основе искусственного интеллекта. С тех пор её возможности значительно расширились, превратив её в полноценную агентскую платформу, а материнская компания Alibaba сделала большую ставку на искусственный интеллект и интеграцию этой технологии во все свои направления бизнеса.

По данным компании, у Accio более 10 млн активных пользователей по всему миру. Кроме того, на прошлой неделе Alibaba запустила новое подразделение под названием Wukong, которое отвечает за создание корпоративных рабочих процессов на основе искусственного интеллекта с использованием офисного инструмента для совместной работы Dingtalk.

OpenAI избавилась от зависимости от Microsoft — и теперь сможет использовать облака Google и других провайдеров

Компания OpenAI сможет задействовать инфраструктуру не только Microsoft, но и других облачных провайдеров для предоставления доступа к своим продуктам. Эту возможность обеспечит обновлённое соглашение между разработчиком ChatGPT и создателем Windows.

 Источник изображения: Unsplash, Levart_Photographer

Источник изображения: Unsplash, Levart_Photographer

Партнёрство с Microsoft стало одним из главных факторов, позволивших OpenAI быстрыми темпами развернуть ChatGPT и другие сервисы на заре бума ИИ пару лет назад. Теперь же обновлённое соглашение сделает это партнёрство менее эксклюзивным, поскольку Microsoft не будет являться единственным поставщиком вычислительных мощностей для продуктов OpenAI.

Несмотря на это, Microsoft останется основным облачным партнёром OpenAI, и продукты разработчика ChatGPT будут первыми разворачиваться на платформе Azure, кроме случаев, когда Microsoft сама решит отказаться от этого. В это же время OpenAI сможет предоставлять клиентам доступ к своим продуктам через инфраструктуру любых облачных провайдеров.

Также отметим, что Microsoft сохранит лицензию на интеллектуальную собственность OpenAI в части ИИ-моделей и программных продуктов до 2032 года. Однако лицензия Microsoft теперь не будет эксклюзивной. В это же время OpenAI продолжит выплачивать Microsoft отчисления с получаемой выручки до 2030 года, независимо от технологического прогресса разработчика ChatGPT, в том же процентном соотношении, но с общим лимитом. Microsoft также продолжит участвовать в дальнейшем развитии OpenAI в качестве одного из крупнейших акционеров.

Основное изменение заключается в том, что OpenAI теперь может предоставлять «все свои продукты» через «любого облачного провайдера». Ранее некоторые продукты, такие как GPT API были доступны исключительно через платформу Azure. Теоретически это может способствовать снижению цен для клиентов.


window-new
Soft
Hard
Тренды 🔥
Приложение Fitbit превратилось в Google Health — и сможет собирать данные о здоровье даже из Apple Health 9 ч.
Новый стандарт жанра для вселенной «Чужих»: анонсирован амбициозный кооперативный шутер Aliens: Fireteam Elite 2 10 ч.
В Steam вышло атмосферное сюжетное приключение Will: Follow The Light о поиске смысла «даже в темноте» 11 ч.
Заряженное ностальгией музыкальное приключение Mixtape от создателей The Artful Escape очаровало критиков — игра доступна в российском Steam 12 ч.
IBM когда-то хотела отказаться от навигации с клавишей Tab — Microsoft не согласилась, сославшись на маму Билла Гейтса 13 ч.
ИИ с «глазами» оказался в разы дороже обычного API — агенты сжигают бюджеты, ходя по сайтам 13 ч.
Глава Take-Two взял вину за неудачи Sid Meier’s Civilization VII на себя, а обновление Test of Time исправит главную проблему игры 14 ч.
Доля российского ПО в госсекторе превысила 75 % 14 ч.
Фейковый сайт ИИ-бота Claude распространяет новый вредонос Beagle для Windows 14 ч.
Созданные с помощью ИИ сайты кишат уязвимостями — разработчики ИИ-сервисов валят всё на клиентов 15 ч.