Сегодня 22 декабря 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → искусственный интеллект
Быстрый переход

Память HBM4 от Samsung получила высшие оценки в тестах Nvidia

В ходе испытаний высокоскоростной памяти HBM4, которая будет использоваться в следующем поколении ускорителей искусственного интеллекта Nvidia серии Vera Rubin, запуск которых запланирован на следующий год, компания Samsung Electronics получила наивысшие оценки. Об этом пишет корейская пресса.

 Источник изображений: Samsung

Источник изображений: Samsung

Сообщается, что на прошлой неделе представители Nvidia посетили Samsung Electronics для оценки хода тестирования памяти HBM4 в корпусе System in a Package (SiP). В ходе встречи было отмечено, что Samsung Electronics достигла лучших в отрасли результатов по скорости работы и энергоэффективности. В результате Samsung Electronics получила убедительный сигнал о прохождении квалификации Nvidia для HBM4 и о поставках в первой половине следующего года. Объём поставок HBM4, запрошенный Nvidia на следующий год, как отмечается, значительно превышает внутренние оценки Samsung, что, как ожидается, существенно повысит загрузку производственных линий компании.

Учитывая темпы расширения и производственные мощности линии Samsung P4 в Пхёнтеке, ожидается, что компания официально подпишет контракты на поставку памяти HBM4 в первом квартале следующего года. А полномасштабные поставки, как ожидается, начнутся во втором квартале.

Samsung Electronics заявила, что не может официально подтвердить информацию, касающуюся оценок Nvidia. Один из инсайдеров отрасли в комментарии Maeil Business Newspaper отметил: «В отличие от HBM3E, Samsung Electronics лидирует в разработке HBM4, и это общее мнение в команде разработчиков компании».

Другой южнокорейский гигант по производству памяти, SK hynix, завершил подготовку к массовому производству чипов памяти HBM4 в конце сентября, опередив Samsung Electronics примерно на три месяца. Примечательно, что SK hynix уже начала поставлять платные образцы Nvidia, тем самым фактически подтвердив начало производство этой памяти. Отмечается, что Samsung тем не менее может быстро сократить это отставание. Поскольку полномасштабное серийное производство памяти HBM4 ожидается во втором квартале следующего года, Samsung Electronics, получившая высокие оценки в области SiP, может увеличить объёмы поставок.

Технология «система в корпусе» (SiP) подразумевает интеграцию нескольких полупроводниковых чипов в один корпус. Для HBM4 это означает, что такие компоненты, как графический процессор (GPU), память, межсоединительная плата и микросхема питания, находятся в составе одного корпуса чипа. Тестирование SiP считается заключительным этапом проверки того, находятся ли скорость, тепловыделение и показатели питания в пределах контролируемых уровней. Проверка также представляет собой последний шаг для подтверждения готовности к серийному производству.

Clair Obscur: Expedition 33 лишилась звания «Игра года» из-за генеративного ИИ

Нашумевшая фэнтезийная пошаговая ролевая игра Clair Obscur: Expedition 33 от французской студии Sandfall Interactive стала главным триумфатором сезона наград в 2025 году, однако теперь лишилась одного из титулов «Игра года».

 Источник изображения: X (GeekNamedMike)

Источник изображения: X (GeekNamedMike)

Организаторы прошедшей 19 декабря церемонии The Indie Game Awards 2025 (IGA 2025) объявили, что отзывают полученные Clair Obscur: Expedition 33 награды в номинациях «Игра года» и «Лучший дебют».

В результате лучшей игрой 2025 года по версии The Indie Game Awards стала головоломка Blue Prince от Dogubomb, а лучшим дебютом признали хоррор на выживание Sorry We're Closed от à la mode games.

 Источник изображения: The Indie Game Awards

Источник изображения: The Indie Game Awards

Как сообщается в разделе ответов на частые вопросы официального сайта The Indie Game Awards, наград Clair Obscur: Expedition 33 лишили из-за генеративного ИИ, который, как выяснилось, использовался при создании игры.

На этапе рассмотрения кандидатов представитель Sandfall заверил организаторов The Indie Game Awards 2025, что к генеративному ИИ во время разработки Clair Obscur: Expedition 33 не прибегали, однако это оказалось не так.

 На релизе в Clair Obscur попала текстура, сгенерированная ИИ (источник изображения: Teck4Gamers)

На релизе в Clair Obscur попала текстура, сгенерированная ИИ (источник изображения: Teck4Gamers)

«Хотя материалы, о которых идёт речь, были удалены патчем, и [Clair Obscur] является замечательной игрой, это идёт вразрез с нашими правилами. В результате отборочный комитет IGA решил отозвать награды за лучший дебют и игру года», — объяснили организаторы.

Таким образом, Clair Obscur: Expedition 33 осталась без одной из наград «Игра года». Впрочем, судя по трекеру GOTY Index, их у проекта уже более 120, так что на общую картину решение организаторов IGA сильно не влияет.

Nvidia выпустила ИИ-модель NitroGen — она может играть более чем в 1000 видеоигр

Исследователи из Nvidia, Стэнфорда, Калифорнийского технологического института и ряда других учреждений представили ИИ-модель NitroGen, которая способна взаимодействовать с виртуальными мирами различных видеоигр. Глава Nvidia по ИИ Джим Фан (Jim Fan) охарактеризовал нейросеть, как «базовую модель с открытым исходным кодом, обученную играть в более чем 1000 игр». Это исследование также имеет большое значение для других сфер, таких как построение симуляций и робототехника.

 Источник изображений: tomshardware.com

Источник изображений: tomshardware.com

Можно сказать, что данное исследование является попыткой создать что-то похожее на «GPT для действий». В целом же работа стала прорывом в области больших языковых моделей, в которых для обучения применяется проверенная технология масштабного обучения за пределами сфер языка и компьютерного зрения. В описании научной статьи к этому исследованию также сказано, что «создание универсальных агентов, способных работать в неизвестных средах, долгое время считалось Святым Граалем исследований в сфере ИИ».

Любопытно, что в основе NitroGen лежит архитектура GROOT N1.5, изначально созданная для робототехники. Её использование в мире видеоигр демонстрирует потенциал для извлечения пользы в робототехнике, дав преимущества роботам, работающим в непредсказуемых условиях. Исследователям удалось адаптировать NitroGen для игр с кардинально различающейся механикой и физикой. Для обучения ИИ-модели задействовали более 40 тыс. часов доступных в открытом доступе записей игрового процесса, которыми делились разные стримеры. Особенно полезными оказались ролики, авторы которых поверх трансляции накладывали изображение контроллера и в режиме онлайн демонстрировали нажимаемые в процессе игры кнопки.

После завершения обучения NitroGen исследователи провели серию тестов, которые показали, что алгоритм хорошо справляется с играми разных жанров, включая RPG, платформеры, гонки, королевские битвы и др. Хотя результаты исследования обнадёживают, Фан заявил, что учёным ещё предстоит проделать огромную работу. Нынешняя версия NitroGen намеренно ориентирована на быстрое управление или «инстинкт геймера», как называет это Фан. На данный момент все связанные с NitroGen исследования находятся в открытом доступе. Таким образом учёные дают возможность всем заинтересованным энтузиастам видеоигр, робототехники и больших языковых моделей поэкспериментировать, проявляя в полной мере свои навыки.

Samsung представила SOCAMM2 LPDDR5X для ИИ-дата-центров — быстрее и энергоэффективнее DDR5 RDIMM

Компания Samsung анонсировала модуль памяти SOCAMM2 на базе чипов LPDDR5X, разработанный специально для платформ центров обработки данных с поддержкой ИИ. Новый формат памяти призван обеспечить преимущества LPDDR5X в плане энергоэффективности и пропускной способности для серверов без необходимости постоянной пайки чипов памяти на несущую материнскую плату.

 Источник изображений: Samsung

Источник изображений: Samsung

Память SOCAMM2 ориентирована на определённый и растущий класс систем, где процессоры или суперчипы CPU–GPU работают в паре с большими пулами системной памяти, которые должны обеспечивать высокую пропускную способность при меньшем энергопотреблении, чем могут предложить обычные серверные модули DIMM, — и всё это в более компактном форм-факторе. По мере расширения рабочих нагрузок в области вывода данных и перехода ИИ-серверов к непрерывной работе в режиме постоянной доступности энергоэффективность памяти больше не может рассматриваться как второстепенная оптимизация, поскольку она вносит существенный вклад в эксплуатационные расходы на уровне стойки. SOCAMM2 является ответом на эти вызовы.

Samsung отмечает, что, хотя серверные модули на базе чипов DRAM, такие как RDIMM (Registered Dual Inline Memory Module), по-прежнему служат основой для высокопроизводительных серверов общего назначения, SOCAMM2 предлагает дополнительную альтернативу, оптимизированную для серверов следующего поколения с ускорением ИИ, которым требуются как высокая скорость отклика, так и энергоэффективность. Память SOCAMM2 обеспечивает более чем в два раза большую пропускную способность по сравнению с традиционными модулями RDIMM, при этом потребляя более чем на 55 % меньше энергии и поддерживая стабильную высокую производительность при интенсивных ИИ-нагрузках, что делает это решение идеальным для энергоэффективных серверов ИИ, ориентированных на производительность. Кроме того, повышенная энергоэффективность SOCAMM2 упрощает задачу организации и управления охлаждением ИИ-систем, что является критически важным фактором для сред с высокой плотностью размещения вычислительных ИИ-мощностей.

Samsung заявляет, что уже сотрудничает с компанией Nvidia по развитию инфраструктурных решений с использованием подобных модулей памяти, и позиционирует формат SOCAMM2 как естественный ответ на растущие затраты на электроэнергию, ограничения по плотности размещения и проблемы с ремонтопригодностью в крупномасштабных инстансах.

Samsung также отмечает, что по мере роста масштабов и сложности рабочих нагрузок ИИ компания будет и дальше развивать свой портфель серверной памяти на основе LPDDR.

ИИ засорил науку: статей стало в разы больше, но ценности в них меньше

Широкое распространение больших языковых моделей предсказуемо привело к их использованию при написании научных работ. Группа учёных попыталась дать количественную оценку использованию ИИ при подготовке публикаций. Получилось неоднозначно: и хорошо, и плохо. Пока ситуацию отчасти спасают рецензенты, но если они тоже доверятся ИИ — быть беде.

 Источник изображения: ИИ-генерация Grok 4.1/3DNews

Источник изображения: ИИ-генерация Grok 4.1/3DNews

Поскольку натурально бредовые статьи стали просачиваться даже в высокорейтинговые научные журналы, о чём говорит возросшее число отзывов трудов после их публикации, учёные из университетов Беркли (Berkeley) и Корнелла (Cornell) провели анализ использования ИИ при подготовке научных работ к публикации. Они взяли интервал между 2018 годом и серединой 2024 года, охватив периоды до появления больших языковых моделей и после.

Всего было проанализировано около 2 млн статей с сайтов препринтов arXiv (1,2 млн) и сетевых журналов SSRN (675 тыс.) и bioRxiv (220 тыс.). Исследователи пропустили аннотации ранних публикаций (без ИИ) через модель, затем обработали их ИИ-редактором и снова пропустили через модель, чтобы научить её отличать чисто человеческое творчество от машинного.

Как выяснилось, после начала использования ИИ авторы значительно увеличили подачу работ. Особенно сильно это проявилось у учёных из Азии и с азиатскими именами. Рост числа публикаций составил до 100 % на bioRxiv и SSRN и более 40 % на arXiv. Исследователи объяснили это помощью ИИ учёным в преодолении языкового барьера, поскольку для многих из них английский язык не был родным. В целом это пошло на пользу, так как позволило донести работы до более широкой аудитории понятным большинству языком.

Также ИИ делал тексты «умнее» — лингвистически сложнее, что вызывало больше доверия к публикациям. В среднем люди пишут проще и не всегда ясно доносят мысли. Однако проявилась и обратная сторона: тексты, написанные ИИ, реже доходили до публикации, оставаясь в статусе препринтов. Между тем переход работы в статус опубликованной резко повышал её ценность.

Следует оговориться, что переход в печать — длительный процесс, часто растянутый на месяцы. Из этого следует, что часть созданных с помощью ИИ статей пока находится в промежуточном состоянии и потому как бы недооценена в проведённой работе. Со временем в печать будет выходить всё больше статей, написанных с использованием ИИ. Тем самым корреляция между ясностью изложения сложным языком (ИИ) и частотой публикаций будет возрастать.

Ещё одной ценностью подготовленных с помощью ИИ работ стало возросшее количество ссылок на исследования по теме, а также учёт свежих публикаций. В этом ИИ значительно превзошёл человека. Даже если научная ценность такой ИИ-статьи невелика, широкая подборка ссылок сама по себе делает её полезной с научной точки зрения. Очевидно, это очень важное качество, и оно будет только развиваться, если авторы исследований не будут лениться проверять все ссылки самостоятельно.

Ещё одной ценностью работ с использованием ИИ признано применение широко употребляемых терминов вместо узкоспециализированных. Это делает научные публикации понятными более широкому кругу учёных, что крайне важно для междисциплинарных исследований.

Из отрицательных факторов использования ИИ исследователи выделяют существенный разрыв между красотой изложения и реальным качеством научной работы. За привлекательным фасадом может скрываться посредственность, которую без глубокого погружения в тему легко не заметить.

Авторы исследования также допускают, что могли недооценить частоту использования ИИ при подготовке научных работ, что снижает информативность их выводов. Например, учёные могли доверить ИИ подготовку черновика, а затем существенно отредактировать его, полностью устранив маркеры машинного происхождения текста.

И всё же ИИ — мощный инструмент для выражения идей, хотя его использование рискует размыть стандарты качества научных работ. Пока на пути этого стоят люди-рецензенты, но их катастрофически не хватает. Если же и они возьмут ИИ на вооружение, ситуация с ценностью научных публикаций в современном мире может ухудшиться ещё сильнее. Нужен разумный компромисс. Но он пока не найден.

ChatGPT заработал $3 млрд на мобильных устройствах — более 80 % за этот год

По оценкам аналитической компании Appfigures, на этой неделе мобильное приложение ChatGPT достигло нового рубежа в $3 млрд потребительских затрат в мировых масштабах. Этот показатель представляет собой общие расходы пользователей на устройствах iOS и Android с момента запуска приложения в мае 2023 года. В 2025 году потребители потратили в мобильном приложении ChatGPT $2,48 млрд, что на 408 % больше $487 млн в 2024 году и на 5780 % больше $42,5 млн в 2023 году.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Приведённые данные свидетельствуют о чрезвычайно быстром росте востребованности мобильного приложения ChatGPT по сравнению с другими популярными программными продуктами.

 Источник изображений: Appfigures

Источник изображений: Appfigures

ChatGPT потребовался 31 месяц, чтобы достичь объёма потребительских расходов в $3 млрд, в то время как лидеру рынка TikTok на достижение аналогичной выручки потребовались 58 месяцев. Приложение ChatGPT также достигло этого рубежа быстрее, чем ведущие стриминговые сервисы, такие как Disney+ и HBO Max, которым понадобились 42 и 46 месяцев соответственно.

Среди конкурирующих приложений похожую динамику демонстрирует Grok от xAI. Чат-бот Grok появился в конце 2023 года у подписчиков X Premium Plus, а в прошлом году стал широко доступен для всех пользователей. Если сравнивать темпы роста потребительских расходов в различных приложениях на основе ИИ, Grok наиболее приблизился к совокупному доходу ChatGPT на том же этапе после начала монетизации.

Хотя выручка в $3 млрд говорит о значительном росте потребительского спроса, это не единственный способ оценить внедрение приложений с использованием ИИ или потенциальный долгосрочный доход. Мобильные клиенты ChatGPT приобретают платные подписки, такие как ChatGPT Plus за $20 в месяц или ChatGPT Pro за $200 в месяц для продвинутых пользователей. Но приложения с использованием ИИ могут приносить доход и другими способами, включая предложения для разработчиков и рекламу. Кроме того, на днях в ChatGPT появился собственный магазин приложений, который OpenAI в будущем планирует монетизировать тем или иным способом.

Тем временем Google изучает возможность перехода своего успешного бизнеса по поисковой рекламе на поиск на основе ИИ, размещая рекламу в режиме ИИ, обзорах ИИ, покупках с использованием ИИ и все более ориентированной на ИИ странице Discover. Компания Anthropic, которая больше ориентируется на корпоративный рынок, планирует достичь выручки в $70 млрд к 2028 году.

Larian Studios ответит на вопросы игроков об использовании генеративного ИИ в Divinity и не только

Недавние заявления главы Larian Studios Свена Винке (Swen Vincke) о роли ИИ в разработке амбициозной ролевой игры Divinity вызвали немало вопросов, и скоро геймеры смогут получить на них ответы.

 Источник изображений: Larian Studios

Источник изображений: Larian Studios

Винке у себя в микроблоге объявил, что Larian в начале 2026 года (точную дату назовут после праздников) проведёт сессию вопросов и ответов с участием сотрудников из разных отделов студии.

Пользователи смогут задать любые интересующие их вопросы о Divinity и рабочем процессе Larian Studios, который попал под пристальное внимание фанатов после разразившегося из-за комментариев Винке скандала.

Напомним, на днях Винке подтвердил, что на ранних этапах разработки Divinity задействован генеративный ИИ, чем вызвал массовую и жёсткую критику со стороны простых геймеров и экс-сотрудников студии.

В новой публикации Винке подчеркнул, что со стороны Larian было бы безответственно не оценивать новые технологии: «Наши процессы постоянно развиваются, и если они неэффективны или идут вразрез нашими ценностями, мы вносим изменения».

«Мы работаем на благо наших команд, игр и игроков. Чем лучше рабочий день, тем лучше игра. В основе наших успехов — мы даём людям работать в их стиле и целиком раскрывать потенциал, чтобы мы могли делать лучшие возможные RPG», — объяснил Винке.

Релиз Divinity в раннем доступе ожидается не раньше 2027−2028 года. По словам Винке, из-за подорожания чипов оперативной памяти и SSD игру придётся оптимизировать уже на ранних этапах.

«За это расплачиваются все»: ИИ обогнал майнинг биткоина по энергопотреблению

Новое исследование Амстердамского университета VU показало, что в 2025 году глобальный спрос на энергию и воду со стороны систем искусственного интеллекта (ИИ) может достичь рекордных значений, превысив даже глобальное энергопотребление майнинга биткоина за весь прошлый год.

 Источник изображения: AI

Источник изображения: AI

Согласно исследованию Алекса де Вриса-Гао (Alex de Vries-Gao) из Института экологических исследований Амстердамского университета VU, глобальное энергопотребление систем искусственного интеллекта в 2025 году может составить до 23 ГВт, а расход воды — от 312,5 до 764,6 миллиарда литров. По сообщению Tom's Hardware со ссылкой на данные The Verge, это превышает энергозатраты всего майнинга биткоина за 2024 год, а объём воды сопоставим с общемировым годовым потреблением бутилированной воды.

Де Врис-Гао подчеркнул, что его оценки остаются консервативными, поскольку крупные технологические компании не раскрывают в отчётах об устойчивом развитии точные данные о потреблении ресурсов для ИИ. По его словам, «невозможно дать абсолютно точную цифру, но в любом случае она будет очень большой», и в конечном итоге «за это расплачиваются все».

Чтобы оценить количество развёрнутого ИИ-оборудования и его энергопотребление, исследователь использовал для расчётов данные из аналитических отчётов и другую открытую информацию. На основе этих данных он определил, что ежегодные выбросы углекислого газа от эксплуатации ИИ-систем составляют от 32,6 до 79,7 миллиона тонн, в среднем около 56 миллионов тонн, что больше, чем совокупные выбросы Сингапура в 2022 году (53 миллиона тонн).

На фоне этих данных в США усилилась обеспокоенность некоторых американских законодателей. Сенатор Элизабет Уоррен (Elizabeth Warren) вместе с двумя другими демократами направила официальный запрос семи крупным технологическим компаниям с требованием раскрыть данные об энергопотреблении их ИИ-инфраструктуры. Сенатор Берни Сандерс (Bernie Sanders) пошёл дальше и предложил ввести полный мораторий на строительство новых дата-центров для ИИ, чтобы гарантировать, что технология будет служить «всем, а не только одному проценту людей». В то же время президент Дональд Трамп (Donald Trump) продолжает выступать за ускоренное развитие ИИ, заявляя, что его инициатива под названием Genesis Mission сравнима по масштабу с Манхэттенским проектом времён Второй мировой войны.

Профессор Шаолэй Рэнь (Shaolei Ren) из Калифорнийского университета в Риверсайде отметил, что даже текущие оценки Де Вриса-Гао могут быть занижены, поскольку они учитывают только эксплуатационную фазу оборудования. Реальный же экологический след окажется значительно выше, если включить в расчёт полный жизненный цикл чипов, начиная от добычи сырья и заканчивая производством, развертыванием и последующей утилизацией миллиардов ИИ-чипов.

«Пора взглянуть правде в глаза. ИИ с нами надолго»: режиссёр Kingdom Come: Deliverance 2 встал на защиту разработчиков Divinity

Режиссёр средневековой RPG с открытым миром Kingdom Come: Deliverance 2 Даниэль Вавра (Daniel Vavra) поделился мнением насчёт использования генеративного ИИ в разработке игр на фоне недавнего скандала вокруг Larian Studios.

 Источник изображения: Steam (Endurance)

Источник изображения: Steam (Endurance)

Напомним, глава Larian Свен Винке (Swen Vincke) недавно подтвердил, что в создании амбициозной ролевой игры Divinity задействован ИИ, чем вызвал массовую и жёсткую критику со стороны простых геймеров и экс-сотрудников студии.

По мнению Вавры, Винке не сказал ничего предосудительного. Лишь то, что Larian занимается тем же, чем и «все без исключения остальные» в индустрии. В то же время его комментарий спровоцировал «безумную по силе бурю негодования».

«Я не большой фанат сгенерированных ИИ иллюстраций, но пора взглянуть правде в глаза. ИИ с нами надолго. Как бы страшно это ни звучало, такова реальность», — подчеркнул Вавра.

 Источник изображения: Larian Studios

Источник изображения: Larian Studios

Вавра допустил, что ИИ позволит сократить затраты на разработку: «У меня есть идеи для кучи игр, но мне уже 50 лет и до сих пор в среднем на одну игру я тратил семь. Если ИИ поможет воплощать эти идеи быстрее, то я обеими руками за».

Ажиотаж вокруг ИИ, считает Вавра, может обернуться как гибелью человечества, так и возможностью воплощать любую идею за мелочь по сравнению с тем, сколько денег на это уходит сегодня. В любом случае, ИИ «уже не остановить».

Своё сообщение Вавра закончил признанием (текст его обращения с чешского языка на английский перевёл ИИ) и выражением готовности к потенциальной буре негодования в комментариях.

Google объединилась с Meta✴, чтобы ударить по доминированию Nvidia в сфере ПО для ИИ

Google работает над улучшением производительности своих ИИ-чипов при работе с PyTorch. Этот проект с открытым исходным кодом является одним из наиболее широко используемых инструментов для разработчиков моделей ИИ. Для ускорения разработки Google сотрудничает с Meta✴, создателем и администратором PyTorch. Партнёрство подразумевает доступ Meta✴ к большему количеству ИИ-ускорителей. Этот шаг может пошатнуть многолетнее доминирование Nvidia на рынке ИИ-вычислений.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Эта инициатива является частью агрессивного плана Google по превращению своих тензорных процессоров (Tensor Processing Unit, TPU) в жизнеспособную альтернативу лидирующим на рынке графическим процессорам Nvidia. Продажи TPU стали важнейшим двигателем роста доходов Google от облачных сервисов. Однако для стимулирования внедрения ИИ-ускорителей Google одного оборудования недостаточно.

Новая инициатива компании, известная как TorchTPU, направлена ​​на устранение ключевого барьера, замедляющего внедрение чипов TPU, путём обеспечения их полной совместимости и удобства для разработчиков PyTorch. Google также рассматривает возможность открытия некоторых частей исходного кода своего ПО для ускорения его внедрения. По сравнению с предыдущими попытками поддержки PyTorch на TPU, Google уделяет больше организационного внимания, ресурсов и стратегического значения TorchTPU, поскольку компании, которые хотят использовать эти чипы, рассматривают именно программный стек как узкое место технологии.

PyTorch, проект с открытым исходным кодом, активно поддерживаемый Meta✴, является одним из наиболее широко используемых инструментов для разработчиков, создающих модели ИИ. В Кремниевой долине очень немногие разработчики пишут каждую строку кода, которую будут фактически выполнять чипы от Nvidia, AMD или Google. Разработчики полагаются на такие инструменты, как PyTorch, представляющий собой набор предварительно написанных библиотек кода и фреймворков.

 Источник изображения: pytorch.org

Источник изображения: pytorch.org

Доминирование Nvidia обеспечивается не только её ускорителями ИИ, но и программной экосистемой CUDA, которая глубоко интегрирована в PyTorch и стала методом по умолчанию для обучения и запуска крупных моделей ИИ. Инженеры Nvidia приложили максимум усилий, чтобы программное обеспечение, разработанное с помощью PyTorch, работало максимально быстро и эффективно на чипах компании.

Бо́льшая часть программного обеспечения Google для ИИ построена на основе платформы Jax, что отталкивает клиентов, применяющих для разработки PyTorch. Поэтому сейчас для Google стало особенно важным обеспечить максимальную поддержку PyTorch на своих ускорителях ИИ. В случае успеха TorchTPU может значительно снизить затраты на переход для компаний, желающих найти альтернативу графическим процессорам Nvidia.

Чтобы ускорить разработку, Google тесно сотрудничает с Meta✴, создателем и администратором PyTorch. Это партнёрство может предоставить Meta✴ доступ к большему количеству ИИ-чипов Google. Meta✴ прямо заинтересована в разработке TorchTPU — это позволит компании снизить затраты на вывод данных и диверсифицировать инфраструктуру ИИ, отказавшись от использования графических процессоров Nvidia.

В качестве первого шага Meta✴ предложила использовать управляемые Google сервисы, в рамках которых клиенты, такие как Meta✴, получили бы доступ к ИИ-ускорителям Google, а Google обеспечивала их операционную поддержку. В этом году Google уже начала продавать TPU напрямую в центры обработки данных своих клиентов. Компания нуждается в такой инфраструктуре как для запуска собственных продуктов ИИ, включая чат-бот Gemini и поиск на основе ИИ, так и для предоставления доступа клиентам Google Cloud.

 Источник изображения: Google

Источник изображения: Google

«Мы наблюдаем огромный, ускоряющийся спрос как на нашу инфраструктуру TPU, так и на инфраструктуру GPU, — заявил представитель Google. — Наша цель — обеспечить разработчикам гибкость и масштабируемость, необходимые независимо от выбранного ими оборудования».

ИИ ломает Microsoft изнутри: Наделла потребовал от менеджеров внедрять ИИ — или выметаться

Глава Microsoft Сатья Наделла (Satya Nadella) рассматривает ИИ как экзистенциальную угрозу, уникальную возможность и шанс закрепить за своей компанией место лидера в технологической индустрии. Для него эта миссия носит как личный, так и профессиональный характер, и он подталкивает компанию к переосмыслению методов работы на всех уровнях. Об этом свидетельствуют внутренние документы Microsoft, а также интервью с руководителями и сотрудниками компании.

Масштабные организационные изменения в Microsoft включают в себя громкие кадровые перестановки и требования к командам работать быстрее и эффективнее — все это направлено на консолидацию власти вокруг лидеров в области ИИ и радикальное изменение способов разработки и финансирования продуктов компании. По словам инсайдеров, Наделла оказывает давление на некоторых ветеранов Microsoft, предлагая им сделать выбор между масштабным внедрением ИИ и увольнением.

Недавно Наделла повысил Джадсона Альтхоффа (Judson Althoff), многолетнего руководителя отдела продаж, до должности генерального директора коммерческого подразделения Microsoft. Повышение Альтхоффа призвано дать Наделле и руководителям инженерного отдела компании больше времени для сосредоточения на технической работе, необходимой для реализации его амбиций в области ИИ. Во внутренней служебной записке этот шаг был назван «тектоническим сдвигом в развитии платформы ИИ».

 Источник изображений: Microsoft

Источник изображений: Microsoft

«Это также позволит нашим руководителям инженерного отдела и мне сосредоточиться на нашей самой амбициозной технической работе — в области строительства центров обработки данных, системной архитектуры, науки об ИИ и инноваций в продуктах — чтобы с интенсивностью и скоростью лидировать в этом поколении платформенного сдвига», — написал Наделла.

Один из руководителей Microsoft считает, что этот шаг, похоже, приносит свои плоды, предоставляя Наделле «дополнительные ресурсы для того, чтобы действительно руководить компанией в изучении, использовании и создании ИИ». По его словам, «Сатья на 100 % вовлечён в процесс обучения и внедрения ИИ в компании».

Согласно осведомлённым источникам, Наделла также лично проводит еженедельные «намеренно несколько хаотичные и неорганизованные» совещания по внедрению ИИ и курирует соответствующий канал в Teams, чтобы ускорить темпы работы и получить больше идей. Вместо руководителей на этих совещаниях предоставляют слово младшим техническим сотрудникам, что, по замыслу Наделлы, позволяет избежать директивного управления при внедрении ИИ.

В Microsoft намечаются и другие важные кадровые перестановки. По слухам, многолетний руководитель Office и Windows Раджеш Джа (Rajesh Jha) обдумывает возможность выхода на пенсию. Инсайдеры также говорят о возможности отставки Чарли Белла (Charlie Bell), возглавляющего отдел кибербезопасности Microsoft.

Надела недавно объявил в канале Teams, предназначенном для корпоративных вице-президентов Microsoft и выше, что компания находится на переломном этапе, по меньшей мере столь же значительном, как переход к облачным вычислениям, и ей необходимо полностью переосмыслить свою бизнес-модель. «Мы все должны работать и действовать как рядовые сотрудники в своих организациях, постоянно учась и разучиваясь», — написал он, имея в виду рядовых сотрудников, которые сосредоточены на технической работе, а не на управлении людьми.

«Я немного посмеиваюсь каждый раз, когда кто-то присылает мне сообщение о разговоре с другом из стартапа в области ИИ о том, как по-другому они работают, насколько они гибкие, сосредоточенные и быстрые, — добавил Наделла. — Реальность такова, что эта работа происходит прямо здесь, в Microsoft, у нас под носом! Наша задача как лидеров — искать это, поддерживать это, развивать это и учиться у наших собственных молодых талантов, которые заново изобретают новую производственную функцию!»

 Источник изображений: Microsoft

Президент по продуктам Microsoft CoreAI Аша Шарма (Asha Sharma), присоединившаяся к компании в 2024 году, рассказала, что за короткий период её работы компания кардинально изменила свою деятельность. Новая «производственная функция» Наделлы заключается в использовании ИИ для радикального изменения способов создания, разработки и предоставления продуктов и услуг.

В 2024 году индустрия ИИ выпускала новую масштабную базовую модель примерно каждые шесть месяцев. Затем релизы происходили каждые шесть недель. Сегодня ИИ меняется настолько быстро, что заставляет Microsoft переосмыслить не только свои продукты, но и весь способ создания программного обеспечения, отметила Шарма.

На протяжении десятилетий разработка программного обеспечения работала как конвейер, который преобразовывал набор входных данных — людей, время, ресурсы — в готовое ПО. Масштабирование производства требовало масштабирования этих входных данных. «ИИ разрывает эту связь», — уверена она.

По её мнению, теперь ИИ-агенты, данные и интеллект выступают в качестве нового типа масштабируемых единиц, способных генерировать программное обеспечение, аналитические выводы и принимать решения без соответствующего увеличения трудозатрат или бюджета на разработку. Это означает, что издержки на создание чего-то нового резко снижаются, объяснила Шарма, и команды теперь могут больше тратить на «суждение, вкус и решение проблем».

ИИ-агенты научились оплачивать покупки картами Visa — тесты прошли успешно

Всё больше компаний электронной коммерции и финансовых организаций используют ИИ при оказании услуг потребителям. Сегодня Visa сообщила об успешном совершении сотен транзакций ИИ-агентами в рамках пилотной программы, запущенной после презентации в апреле инструмента для автоматизации покупок.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Visa, как и её конкуренты в финтех-индустрии, стремится к созданию инструментов, позволяющих потребителям поручать агентам искусственного интеллекта выполнение определённых транзакций. Искусственный интеллект трансформирует опыт онлайн-торговли для покупателей, меняя способы совершения покупок и поиска товаров.

Компания заявила, что планирует запустить пилотные программы в Азии и Европе в следующем году и сотрудничает с более чем 20 партнёрами по разработке инструментов для ИИ-агентов. «Этот год станет годом огромного распространения ИИ, и потребители начнут чувствовать себя комфортно в различных средах, созданных агентами», — уверен руководитель отдела развития продуктов и партнёрств Visa Рубайл Бирвадкер (Rubail Birwadker).

Visa не является пионером среди финансовых, торговых и кредитных компаний в применении ИИ-агентов. В апреле Mastercard сообщила о тестировании функции Agent Pay, которая позволяет ИИ-агентам совершать покупки онлайн от имени клиентов. В том же месяце Amazon начала тестирование услуги «Купи за меня», а PayPal и Perplexity объединили усилия для создания инструментов для ИИ-покупок.

По данным Visa, на декабрь 2025 года почти половина американских покупателей в той или иной мере используют ИИ при совершении покупок.

G.Skill объяснила, почему оперативная память резко подорожала — без сюрпризов

Компания G.Skill опубликовала короткий комментарий относительно резкого повышения цен на память DRAM в четвёртом квартале этого года. По словам производителя ОЗУ, в настоящее время на рынке DRAM наблюдается дефицит предложения по всей отрасли, а спрос со стороны производителей ИИ подталкивает цены вверх.

 Источник изображения: G.Skill

Источник изображения: G.Skill

Компания также отмечает рост собственных затрат на закупку, поэтому её цены следуют за ростом стоимости микросхем DRAM у поставщиков и могут продолжать меняться в зависимости от рыночной конъюнктуры.

Комплекты ОЗУ от G.Skill часто приводят в качестве наглядного примера того, насколько сильно изменились розничные цены на DDR5 в последнее время, поэтому реакция компании не является неожиданностью. В то же время заявление G.Skill не раскрывает ничего нового для тех, кто следит за рынком памяти.

«Цены на DRAM демонстрируют значительную волатильность в масштабах всей отрасли из-за серьезных глобальных ограничений и дефицита поставок, вызванных беспрецедентно высоким спросом со стороны индустрии искусственного интеллекта. В результате этого затраты G.Skill на закупку и снабжение существенно возросли. Цены на модули памяти G.Skill отражают общеотраслевое увеличение стоимости компонентов от поставщиков микросхем и могут изменяться без предварительного уведомления в зависимости от рыночных условий. Покупателям следует учитывать цены перед покупкой. Спасибо», — заявил производитель ОЗУ.

В своём сообщении компания не отвечает на самый важный для покупателей вопрос: неизвестно, когда цены могут стабилизироваться или снизиться. Впрочем, G.Skill вряд ли сама знает ответ на этот вопрос, как и другие производители модулей памяти. Его следует адресовать в первую очередь производителям чипов DRAM. К сожалению, G.Skill также не разъясняет свою текущую ситуацию с закупками DRAM. В частности, неясно, обеспечивает ли компания достаточные поставки на ближайшие месяцы и в какой степени ценообразование находится под её контролем по сравнению с поведением розничных продавцов в условиях дефицита.

«Яндекс» выпустит беспроводные наушники с ИИ-помощником

Компания «Яндекс» готовится к запуску беспроводных наушников «Яндекс дропс» с ИИ-помощником «Алисой» и функцией «Моя память». Об этом пишут «Ведомости» со ссылкой на представителя компании.

 Источник изображения: «Яндекс»

Источник изображения: «Яндекс»

Согласно имеющимся данным, пользователи наушников «Яндекса» смогут в любой момент задействовать возможности ИИ-помощника посредством обращения к «Алисе» с помощью голосовых команд. Устройство позволит задавать «Алисе» любые вопросы и выполнять другие задачи.

Что касается функции «Моя память», то она позволяет систематизировать личные дела и мысли. Пользователь может фиксировать их с помощью голосовых команд и в любой момент возвращаться к ним. В продажу наушники «Яндекса» поступят в первом квартале следующего года. Розничная стоимость новинки не уточняется.

В октябре этого года «Яндекс» анонсировал запуск устройств категории носимых ИИ-устройств. Первым продуктом компании в этой категории станут наушники. Их основное предназначение в том, что расширить список задач, для выполнения которых пользователи обращаются к возможностям нейросетей. Ранее в этом году «Яндекс» также запустил «Алису AI», которая стала новой версией ИИ-помощника на базе генеративных ИИ-моделей нового поколения.

Глава Larian подтвердил, что в разработке Divinity используется генеративный ИИ — фанаты в ярости, руководитель пытается объясниться

Глава Larian Studios Свен Винке (Swen Vincke) в интервью Bloomberg подтвердил, что в разработке амбициозной пошаговой ролевой игры Divinity используется генеративный ИИ. Анонс вызвал широкий общественный резонанс.

 Источник изображений: Larian Studios

Источник изображений: Larian Studios

По словам Винке, созданных с помощью ИИ материалов в Divinity не будет, однако студия активно (под его руководством) использует технологию на этапе изучения идей, при работе над концепт-артами, во внутренних презентациях и заглушках для текста.

Не все сотрудники Larian были рады идее внедрения нейросетей в рабочие процессы, но, если верить Винке, «к настоящему моменту все в компании более-менее довольны, как мы используем [ИИ]».

 Эффективность рабочих процессов в Larian применение ИИ существенно не повысило

Эффективность рабочих процессов в Larian применение ИИ существенно не повысило

Игроки и бывшие сотрудники Larian массово и жёстко раскритиковали Винке за продвижение ИИ в рабочих процессах — дошло даже до обвинений во лжи. «Проявите немного уважения к работникам. Это специалисты мирового уровня, и им не нужна помощь ИИ для генерации великолепных идей», — считает экс-художница студии.

Винке в комментарии для IGN поспешил уточнить, что Larian не пытается заменить труд людей нейросетями — применение ИИ в студии направлено на облегчение жизни сотрудников и не мешает компании дальше нанимать художников и сценаристов.

 На настоящий момент в Larian трудится 72 художника, и 23 из них специализируется на концепт-артах

На настоящий момент в Larian трудится 72 художника, и 23 из них специализируется на концепт-артах

У себя в микроблоге Винке добавил, что студия использует ИИ лишь на самом раннем этапе разработки — при изучении референсов, для создания «грубых набросков, которые затем заменяем оригинальными эскизами».

«Мы наняли творческих людей за их талант, а не способность выполнять то, что говорит машина. Но они могут экспериментировать с этими инструментами, чтобы облегчить себе жизнь», — заключил Винке.


window-new
Soft
Hard
Тренды 🔥
10 тысяч модов и 350 миллионов загрузок: Larian похвасталась новыми достижениями игроков Baldur’s Gate 3 6 ч.
Вызывающий привыкание роглайк Ball x Pit достиг миллиона проданных копий и в 2026 году получит новые шары 7 ч.
Соавтор Counter-Strike признался в любви к русской культуре и рассказал о «самом депрессивном» периоде за 25 лет карьеры 9 ч.
Apple резко снизила награды багхантерам — при этом рост вредоносов в macOS бьёт рекорды 9 ч.
Mortal Kombat 1, Routine и Dome Keeper возглавили первую волну декабрьских новинок Game Pass, а Mortal Kombat 11 скоро подписку покинет 10 ч.
Google закрыла 107 дыр в Android — две нулевого дня уже использовались в атаках 10 ч.
В YouTube появился Recap — пользователям расскажут, чем они занимались на платформе в течение года 10 ч.
ИИ-агенты научились взламывать смарт-контракты в блокчейне — это риск на сотни миллионов долларов 10 ч.
Инструмент YouTube для защиты блогеров от дипфейков создал риск утечки их биометрии 11 ч.
В Microsoft Teams появились «иммерсивные встречи» в метавселенной с аватарами без ног 11 ч.