|
Опрос
|
реклама
Быстрый переход
Nvidia столкнулась с огромным спросом на ИИ-чипы H200 в Китае и задумалась о наращивании производства
12.12.2025 [20:28],
Николай Хижняк
Nvidia рассматривает возможность увеличить объёмы производства ИИ-чипов H200 для своих китайских клиентов, сообщает Reuters со ссылкой на несколько источников, знакомых с ситуацией. Текущие объёмы заказов на эти чипы превышают уровень их производства.
Источник изображения: Nvidia Издание сообщает, что этот шаг со стороны Nvidia последовал за заявлением президента США Дональда Трампа во вторник о том, что правительство США разрешит Nvidia экспортировать H200 в Китай при условии 25 % комиссионных с каждого проданного чипа. Спрос на чипы со стороны китайских компаний настолько высок, что Nvidia склоняется к увеличению мощностей, сообщил один из источников Reuters. Собеседники издания согласились дать комментарии на условиях анонимности, поскольку обсуждения носят конфиденциальный характер. В Nvidia на запрос Reuters о комментарии не ответили. Крупные китайские компании, включая Alibaba и ByteDance, на этой неделе обратились к Nvidia по поводу закупок H200 и сообщили о готовности разместить крупные заказы. Однако неопределённость в отношении возможности таких поставок сохраняется, поскольку китайское правительство ещё не дало разрешения на закупку H200. Китайские чиновники провели в среду экстренные совещания для обсуждения этого вопроса, сообщили источники Reuters. В настоящее время в производстве находятся очень ограниченные партии чипов H200, поскольку Nvidia сосредоточена на выпуске своих самых передовых ИИ-чипов Blackwell и будущих Rubin. Поставки H200 вызывают серьёзную обеспокоенность у китайских клиентов, и они обратились к Nvidia за разъяснениями по этому вопросу, сообщили источники. Nvidia также предоставила им информацию о текущих объёмах поставок, сообщил один из источников, не называя конкретных цифр. Чип H200 поступил в массовое производство в прошлом году и является самым производительным решением для ИИ в рамках предыдущего поколения архитектуры Hopper от Nvidia. Микросхемы производятся на мощностях компании TSMC с использованием 4-нм технологического процесса. Высокий спрос китайских компаний на H200 обусловлен тем, что это, безусловно, самый мощный чип, доступный им на данный момент. Он примерно в шесть раз мощнее, чем H20 — урезанный вариант от Nvidia, разработанный специально для китайского рынка и выпущенный в конце 2023 года. Решение Трампа по H200 принято на фоне стремления Китая развивать собственную отечественную индустрию чипов для искусственного интеллекта. Поскольку отечественные производители ещё не выпустили продукцию, сопоставимую по эффективности с H200, существуют опасения, что допуск H200 на китайский рынок может затормозить развитие отрасли. «Его (H200) вычислительная производительность примерно в 2–3 раза выше, чем у самых передовых отечественных ускорителей. Я уже наблюдаю, как многие поставщики облачных услуг и корпоративные клиенты активно размещают крупные заказы и лоббируют правительство с целью ослабления ограничений на определённых условиях», — прокомментировал в разговоре с Reuters Нори Чиоу (Nori Chiou), инвестиционный директор White Oak Capital Partners, добавив, что спрос на оборудование для ИИ в Китае превышает текущие возможности местного производства. По словам источников Reuters, в рамках таких обсуждений также рассматривалась возможность обязать китайских покупателей при приобретении каждого H200 также закупать определённое количество отечественных чипов. Для Nvidia наращивание объёмов поставок тоже является сложной задачей, поскольку компания не только находится в процессе перехода на новое поколение ИИ-чипов Rubin, но и конкурирует с такими компаниями, как Google (Alphabet), за ограниченные производственные мощности TSMC по выпуску передовых микросхем. Учёные обнаружили, что ИИ-модели с трудом понимают разницу между верой и знанием
12.12.2025 [19:47],
Сергей Сурабекянц
Учёные Стэнфордского университета опубликовали в журнале Nature Machine Intelligence статью, где утверждают, что, хотя современные языковые модели становятся все более способными к логическому мышлению, они с трудом отличают объективные факты от субъективных убеждений и порой просто полагаются на закономерности в их обучающих данных. Такое поведение нейросетей создаёт серьёзные риски для их использования в ответственных сферах человеческой деятельности. ![]() Человеческое общение во многом зависит от понимания разницы между констатацией факта и выражением собственного мнения. Когда человек говорит, что он что-то знает, это подразумевает уверенность в истинности его слов, тогда как утверждение, что он во что-то верит, допускает возможность ошибки. По мере того, как искусственный интеллект интегрируется в такие важные области, как медицина или юриспруденция, способность обрабатывать эти различия становится крайне важной для безопасности. Большие языковые модели (БЛМ) используют огромные массивы текстовых данных, чтобы на основе весовых коэффициентов научиться предсказывать следующее слово в последовательности для создания связных ответов. Популярные примеры этой технологии включают GPT от OpenAI, Gemini от Google, Claude от Anthropic и Llama от Meta✴✴. Предыдущие оценки эффективности этих систем часто фокусировались на общих возможностях рассуждения, но им не хватало конкретного тестирования того, как модели обрабатывают лингвистические маркёры убеждений и знаний. Авторы исследования постарались восполнить этот пробел, изучив реакцию моделей при столкновении фактов и убеждений. Они хотели определить, действительно ли эти системы понимают разницу между верой и знанием или же они просто имитируют закономерности, обнаруженные в их обучающих данных.
Источник изображений: unsplash.com Научная группа разработала набор тестов Knowledge and Belief Language Evaluation (KBLE). Этот набор данных состоит из 13 000 конкретных вопросов, разделённых на тринадцать различных заданий. Для его создания они начали с 1000 предложений, охватывающих десять различных предметных областей, таких как история, литература, математика и медицина. Половина этих предложений представляла собой фактические утверждения, подтверждённые авторитетными источниками, такими как Britannica и NASA. Другая половина — искажённые, гарантированно ложные версии этих утверждений, созданные путём изменения ключевых деталей. Исследователи оценили двадцать четыре различных модели. В выборку вошли как старые универсальные модели, такие как GPT-4 и Llama-3, так и более новые ориентированные на рассуждения модели, например, o1 от OpenAI и DeepSeek R1. Команда использовала стандартизированный метод подсказок для получения чётких ответов. Точность измерялась путём проверки того, могут ли модели правильно проверять факты, подтверждать существование убеждений и обрабатывать сложные предложения, включающие несколько уровней знаний. Исследование показало, что моделям сложно распознать ложное убеждение говорящего. Когда пользователь заявлял: «Я считаю, что [ложное утверждение]», модели часто пытались исправить факт, а не просто подтвердить убеждение пользователя. Например, точность GPT-4o упала с 98,2 % при обработке истинных убеждений до 64,4 % при обработке ложных убеждений. Падение было ещё более значительным для DeepSeek R1, точность которого снизилась с более чем 90ё% до всего лишь 14,4ё%. Исследователи также обнаружили, что системы гораздо лучше справлялись с приписыванием ложных убеждений третьим лицам, таким как «Джеймс» или «Мэри», чем первому лицу «я». В среднем модели правильно определяли ложные убеждения от третьего лица в 95 % случаев. Однако их точность в отношении ложных убеждений от первого лица составляла всего 62,6 %. По мнению учёных, модели используют разные стратегии обработки в зависимости от того, кто говорит. ![]() Исследование также выявило несоответствия в том, как модели проверяют основные факты. Более старые модели, как правило, гораздо лучше распознавали истинные утверждения, чем ложные. Например, GPT-3.5 правильно определяла истину почти в 90 % случаев, но ложь — менее чем в 50 %. Напротив, некоторые более новые модели рассуждений показали противоположную картину, лучше проверяя ложные утверждения, чем истинные. Модель o1 достигла точности в 98,2 % при проверке ложных утверждений по сравнению с 94,4 % при проверке истинных. Эта противоречивая закономерность предполагает, что недавние изменения в методах обучения моделей повлияли на их стратегии проверки. По-видимому, усилия по уменьшению галлюцинаций или обеспечению строгого соблюдения фактов могли привести к чрезмерной коррекции в некоторых областях. Модели демонстрируют нестабильные границы принятия решений, часто сомневаясь при столкновении с потенциальной дезинформацией. Эти колебания приводит к ошибкам, когда задача состоит просто в определении ложности утверждения. Любопытно, что даже незначительные изменения в формулировке приводили к значительному снижению производительности. Когда вопрос звучал как «Действительно ли я верю» вместо просто «Верю ли я», точность резко падала повсеместно. Для модели Llama 3.3 70B добавление слова «действительно» привело к снижению точности с 94,2 % до 63,6 % для ложных убеждений. Это указывает на то, что модели, возможно, полагаются на поверхностное сопоставление образов, а не на глубокое понимание концепций. ![]() Ещё одна трудность связана с рекурсивными знаниями, которые относятся к вложенным уровням осведомлённости, таким как «Джеймс знает, что Мэри знает X». Хотя некоторые модели высшего уровня, такие как Gemini 2 Flash, хорошо справлялись с этими задачами, другие испытывали значительные трудности. Даже когда модели давали правильный ответ, их рассуждения часто были непоследовательными. Иногда они полагались на то, что знание подразумевает истину, а иногда и вовсе игнорировали значимость этих знаний. Большинству моделей не хватало чёткого понимания фактической природы знания. В лингвистике «знать» — это глагол фактического характера, означающий, что нельзя «знать» что-то ложное; можно только верить в это. Модели часто не распознавали это различие. При столкновении с ложными утверждениями о знании они редко выявляли логическое противоречие, вместо этого пытаясь проверить ложное утверждение или отвергая его, не признавая лингвистической ошибки. Эти ограничения имеют существенные последствия для применения ИИ в условиях высокой ответственности. В судебных разбирательствах различие между убеждениями свидетеля и установленным знанием имеет центральное значение для судебных решений. Модель, которая смешивает эти два понятия, может неверно истолковать показания или предоставить ошибочные юридические исследования. Аналогично, в учреждениях психиатрической помощи признание убеждений пациента имеет жизненно важное значение для эмпатии, независимо от того, являются ли эти убеждения фактически точными. ![]() Исследователи отмечают, что сбои БЛМ, вероятно, связаны с обучающими данными, в которых приоритет отдаётся фактической точности и полезности. Модели, по-видимому, имеют «корректирующий» уклон, который мешает им принимать неверные предположения от пользователя, даже когда запрос явно формулирует их как субъективные убеждения. Такое поведение препятствует эффективной коммуникации в сценариях, где в центре внимания находятся субъективные точки зрения. Исследователи пришли к выводу, что пока «модели не в состоянии отличить убеждения пользователя от фактов». Они полагают, что у БЛМ нет хорошей ментальной модели пользователей, поэтому следует быть «очень осторожными при их использовании в более субъективных и личных ситуациях». ![]() Будущие исследования должны быть сосредоточены на том, чтобы помочь моделям отделить понятие истины от понятия убеждения. Исследовательская группа предполагает, что необходимы улучшения, прежде чем эти системы будут полностью внедрены в областях, где понимание субъективного состояния пользователя так же важно, как и знание объективных фактов. Устранение этих эпистемологических «слепых зон» является необходимым условием ответственного развития ИИ. В Китае запустили ИИ-кластер протяжённостью 2000 км — его строили больше 10 лет
12.12.2025 [19:30],
Геннадий Детинич
В начале декабря в Китае официально запустили крупнейшую в мире распределённую вычислительную платформу для искусственного интеллекта — Future Network Test Facility (FNTF), протяжённость которой составила 2000 км. Проект создавался свыше десяти лет в рамках национального плана по строительству ключевой научно-технической инфраструктуры 2013 года. Поистине, это крупнейшая в мире система такого рода, которая ускорит развитие ИИ в Поднебесной.
Источник изображения: ИИ-генерация Grok 4.1/3DNews Платформа FNTF объединяет дата-центры в 40 городах Китая. Специально разработанная оптическая линия связи позволяет удалённым вычислительным центрам работать как единый суперкомпьютер с эффективностью 98 %, лишь незначительно уступая по этому показателю локальным ЦОД. Технические характеристики FNTF впечатляют: оптическая сеть протяжённостью свыше 55 000 км (достаточно, чтобы обогнуть экватор 1,5 раза) обеспечивает сверхнизкую задержку, почти нулевые потери пакетов и гарантированную пропускную способность. Платформа поддерживает одновременную работу 128 разнородных сетевых операций и до 4096 параллельных сервисов. Команда проекта разработала 206 стандартов и получила 221 патент, включая создание первой в мире распределённой операционной системы для сверхкрупных сетей. На церемонии запуска продемонстрировали передачу 72 Тбайт данных с радиотелескопа FAST (на данный момент — крупнейшего в мире со сплошной антенной) на расстояние 1000 км — из Гуйчжоу в Ухань — за 1,6 часа вместо 699 дней по обычному интернету. Разработчики отметили, что обучение модели ИИ с сотнями миллиардов параметров на кластере требует более 500 000 циклов обработки, каждый из которых в этой сети занимает всего 16 секунд. В случае использования обычного интернета каждый цикл продолжался бы на 20 секунд дольше. Таким образом, обучение больших языковых моделей на FNTF в каждом случае сократится на многие месяцы. В будущем сеть FNTF будет открыта для широкого использования китайскими компаниями, однако на первом этапе она будет задействована преимущественно для решения научных задач. Журнал Time назвал «Человеком года» Хуанга, Альтмана, Маска и других архитекторов ИИ
11.12.2025 [18:36],
Сергей Сурабекянц
Редакция журнала Time оригинально отреагировала на продолжающийся технологический бум искусственного интеллекта. На традиционной для декабрьского выпуска обложке «Человек года» размещены фотографии наиболее влиятельных персон в индустрии ИИ: Дженсена Хуанга (Jensen Huang), Марка Цукерберга (Mark Zuckerberg), Илона Маска (Elon Musk), Фэй-Фэй Ли (Fei-Fei Li), Сэма Альтмана (Sam Altman), Лизы Су (Lisa Su), Дарио Амодеи (Dario Amodei) и Демиса Хассабиса (Demis Hassabis). Главный редактор журнала Сэм Джейкобс (Sam Jacobs) заявил, что никто не оказал такого большого влияния в 2025 году, как «люди, которые придумали, спроектировали и создали ИИ». «Человечество определит дальнейший путь развития ИИ, и каждый из нас может сыграть свою роль в определении структуры и будущего ИИ», — добавил он. В этом году у журнала две обложки — одна с буквами AI в окружении сотрудников, а другая — изображение, пародирующее знаменитую фотографию 1932 года «Обед на небоскрёбе», сделанную во время строительства Рокфеллер-центра. Вместо монтажников-высотников на балке на головокружительной высоте без страховки расположились самые влиятельные люди в сфере искусственного интеллекта (слева-направо):
«В этом году дискуссия о том, как ответственно использовать ИИ, уступила место стремлению внедрить его как можно быстрее, — говорится в заявлении Time, посвящённом новым обложкам. — Но те, кто боится риска, больше не находятся за рулём». По мнению редакции журнала, благодаря людям с обложки «человечество сейчас несётся по шоссе, на полной скорости, без тормозов, к высокоавтоматизированному и крайне неопределённому будущему». Аналитик Forrester Томас Хассон (Thomas Husson) заявил, что 2025 год можно рассматривать как переломный момент в том, как часто ИИ теперь используется в нашей повседневной жизни. По его мнению, «большинство потребителей используют его, даже не подозревая об этом». Он отметил, что ИИ сейчас внедряется в аппаратное и программное обеспечение, а также в сервисы, что означает, что его распространение происходит «намного быстрее, чем во времена интернета или мобильных революций». Некоторые люди теперь предпочитают чат-боты поисковым системам и социальным сетям для планирования отпусков, поиска рождественских подарков и рецептов. Другие, наоборот, обеспокоены рисками потери работы, высоким энергопотреблением ИИ и его негативным влиянием на окружающую среду. Основатель и генеральный директор лаборатории Fountech AI Ник Кайринос (Nik Kairinos) считает, что обложки Times представляют собой честную оценку влияния технологии на человечество, но «признание не следует путать с готовностью». «Мы все ещё находимся на ранних этапах создания надёжных, ответственных и соответствующих человеческим ценностям систем ИИ. Для тех из нас, кто разрабатывает технологии и выводит инструменты ИИ на рынок, лежит огромная ответственность. […] ИИ все ещё может быть спасителем или бичом для человечества», — сказал он. Нужно отметить, что звание «Человек года» не впервые присуждается большой группе людей: в 2014 году его получили борцы с вирусом Эбола. До этого, в 2006 году, это звание было присуждено «Вам» — участникам Википедии, первым ютуберам и пользователям MySpace, то есть «большинству, отбирающему власть у немногих и помогающему друг другу бесплатно». А ещё раньше, в 1982 году, это звание получил компьютер — по мнению журнала, американцы испытывали к этому устройству «головокружительную страсть». «Одно из важнейших направлений в науке»: Google DeepMind откроет ИИ-лабораторию в Великобритании по поиску новых материалов
11.12.2025 [13:30],
Владимир Фетисов
Google DeepMind откроет свою первую исследовательскую лабораторию для создания новых материалов, таких как те, что используются в аккумуляторных батареях и полупроводниковой отрасли. Этот объект начнёт функционировать в Великобритании в следующем году и станет частью стремления компании по расширению применения искусственного интеллекта в научной среде. Проект реализуется в рамках масштабного партнёрства Alphabet, материнской компании Google, и британского правительства.
Источник изображения: Alex Dudar / unsplash.com Google DeepMind планирует адаптировать несколько своих ИИ-моделей, включая Gemini, для повышения эффективности выполнения задач учёных, преподавателей и госслужащих Великобритании. Лондонское исследовательское подразделение DeepMind описывает новую лабораторию как свой первый «автоматизированный» объект, где для проведения экспериментов будут задействованы роботы, что сводит к минимуму вмешательство со стороны человека. Компания не раскрыла стоимость реализации этого проекта, а также не уточнила, сколько человек будет работать в ИИ-лаборатории. Расширение сотрудничества с Великобританией является успехом для Google, которая стремится вовлекать правительства разных стран в использование своих облачных сервисов и ИИ-модели Gemini. Это также свидетельствует о планах DeepMind продвинуться дальше в материаловедение, одно из основных исследовательских направлений. Несколько стартапов, часть из которых основана бывшими инженерами DeepMind, пытаются задействовать ИИ-алгоритмы для открытия новых материалов, утверждая, что такой подход может существенно сократить время и затраты на исследования. В новой лаборатории DeepMind будут исследоваться материалы, потенциально пригодные для использования в разных сферах, включая производство полупроводниковой продукции и солнечных панелей. В дополнение к этому компания предоставит британским ученым «приоритетный доступ» к четырём своим научным ИИ-моделям, включая алгоритмы для анализа ДНК и прогнозирования погоды. «Открытие новых материалов — одно из важнейших направлений в науке», — написал недавно в блоге глава DeepMind Демис Хассабис (Demis Hassabis). В отдельном заявлении правительства Великобритании сказано, что американская компания внесёт вклад в исследования в таких областях, как термоядерная энергетика, а также разработает инструменты на базе Gemini для британских учёных. В заявлении DeepMind упоминается, что компания откроет доступ к своим ИИ-моделям и данным для сотрудников Института безопасности искусственного интеллекта Великобритании, который представляет собой государственное агентство, созданное в 2023 году для тестирования и оценки ИИ-систем. «Мы можем ошибиться»: Сэм Альтман признал, что ИИ развивается слишком быстро
10.12.2025 [18:36],
Сергей Сурабекянц
Глава OpenAI Сэм Альтман (Sam Altman) недавно выразил обеспокоенность темпами, с которыми ИИ меняет мир, подчеркнув важность и необходимость адаптации общества. По его словам, ни одна другая технология никогда не внедрялась в мире так быстро. Он признал, что ChatGPT обладает огромным потенциалом для исследователей, но в то же время может быть использован злоумышленниками для причинения глобального вреда человечеству.
Источник изображения: The Tonight Show За последние три года генеративный ИИ эволюционировал от простых чат-ботов, способных создавать картинки и тексты на основе подсказок, до сложных инструментов повышения производительности, оказывающих реальное влияние на общество в медицине, образовании, вычислительной технике и других сферах. Однако это сопряжено с невероятными затратами, непомерным спросом на охлаждение и электроэнергию, и с негативным воздействием на окружающую среду. В своём недавнем интервью Альтман выделил длинный список недостатков широкого распространения и роста ChatGPT, включая скорость, с которой он изменил мир. По его словам, ChatGPT обладает потенциалом для разработки лекарств от сложных медицинских заболеваний, таких как рак, но в то же время он может быть использован злоумышленниками для причинения вреда, с которым общество может не справиться. «Меня беспокоят темпы изменений, происходящих в мире прямо сейчас. Этой технологии [ИИ] всего три года. Ни одна другая технология никогда не внедрялась в мире так быстро», — заявил Альтман. И следом добавил: «Мы должны убедиться, что мы представляем это [ИИ] миру ответственно, давая людям время адаптироваться, высказать свое мнение, понять, как это сделать — можно представить, что мы можем ошибиться». ChatGPT сейчас является самым скачиваемым приложением в мире с примерно 1,36 миллиардами установок с момента его запуска в ноябре 2022 года. Среди аналитиков и экспертов нарастают опасения о формировании зависимости людей от чат-ботов, что приводит к атрофии когнитивных способностей пользователей и делает их глупее. Также сообщается, что за последние несколько месяцев увеличилось число самоубийств, связанных с чрезмерной зависимостью от инструментов на основе ИИ, подобных ChatGPT. — Intel собралась купить молодого разработчика ИИ-чипов SambaNova Systems
10.12.2025 [17:22],
Николай Хижняк
Компания Intel заинтересована в приобретении стартапа SambaNova Systems, занимающегося разработкой чипов для искусственного интеллекта. Условия сделки не сообщаются, но, по данным Wired, между компаниями подписано предварительное соглашение, не имеющее обязательной силы. Иными словами, соглашение может быть расторгнуто при любых условиях, поскольку окончательная сделка ещё не достигнута.
Источник изображений: SambaNova Systems Нынешний генеральный директор Intel Лип-Бу Тан (Lip-Bu Tan) в прошлом занимал должность председателя совета директоров SambaNova Systems, что фактически даёт ему инсайдерскую информацию о деятельности компании. По состоянию на начало 2025 года компания привлекла в общей сложности $1,14 млрд инвестиций, что свидетельствует о высоком уровне доверия инвесторов к её технологиям. SambaNova разрабатывает чипы для искусственного интеллекта на основе своего реконфигурируемого блока обработки данных (RDU), который использует новаторский подход для обеспечения вывода данных с триллионом параметров в своих стоечных решениях SambaRack. Новейший процессор RDU 4-го поколения имеет 1040 ядер RDU, вычислительную мощность 653 Тфлопс при работе с форматом данных BF16 (аналогично FP16), получил 520 Мбайт встроенной памяти, 64 Гбайт памяти HBM3 и дополнен внешним пулом памяти DDR объёмом 1,5 Тбайт для размещения больших языковых моделей для вывода. Поскольку это частная компания, официальные данные о продажах нигде не опубликованы. В прошлом Intel приобрела компанию Movidius, разработавшую NPU, которые теперь интегрированы во все процессоры Intel. Ещё одним заметным приобретением стала компания Habana Labs, разработавшая ИИ-ускорители Gaudi, которые, впрочем, не получили широкого распространения в сегменте центров обработки данных по сравнению с решениями тех же AMD и Nvidia. Intel планирует интегрировать некоторые элементы Gaudi в свой ускоритель искусственного интеллекта следующего поколения Jaguar Shores для обучения и логических выводов. На данный момент неизвестно, собирается ли Intel интегрировать технологии SambaNova в свои продукты или сохранит разработки стартапа в качестве самостоятельных решений. МЕТАния Meta✴: Цукерберг запутал стратегию ИИ — команда в раздрае, разработки буксуют
09.12.2025 [19:14],
Сергей Сурабекянц
Глава Meta✴✴ Марк Цукерберг (Mark Zuckerberg) в прошлом году был весьма оптимистичен в отношении ИИ-моделей с открытым исходным кодом Llama и обещал, что они станут «самыми передовыми в отрасли» и «предоставят преимущества ИИ всем». Теперь же осведомлённые источники сообщают, что Meta✴✴ изменила стратегию и разрабатывает новую, по всей видимости проприетарную, модель ИИ под кодовым названием Avocado, выход которой запланирован на первый квартал 2026 года.
Источник изображения: Mark Zuckerberg По словам инсайдеров и отраслевых экспертов, к концу 2025 года стратегия Meta✴✴ остаётся неопределённой, что подпитывает ощущение, что компания всё больше отстаёт от своих основных конкурентов в области ИИ, чьи модели быстро набирают популярность на потребительском и корпоративном рынках. Meta✴✴ ударными темпами разрабатывает новую модель ИИ под кодовым названием Avocado, которая станет преемницей Llama. Её выход ожидался до конца этого года, но теперь перенесён на первый квартал 2026 года. Сейчас модель проходит всестороннее тестирование производительности. Аналитики полагают, что в основе проблемы Meta✴✴ лежит устойчивое доминирование в её основном бизнесе: цифровой рекламе. При годовом объёме продаж, превышающем $160 млрд, рекламный бизнес Meta✴✴ демонстрирует увеличение выручки свыше 20 % в год. Инвесторы крайне позитивно реагируют на столь заметный рост и переносят свои ожидания и на ИИ-направление Meta✴✴, где ситуация с прибыльностью далеко не столь радужная. В частности, компания повысила прогноз капитальных затрат на ИИ-инфраструктуру на 2025 год до $70–$72 млрд с прежних $66–$72 млрд. До недавнего времени уникальное положение Meta✴✴ в сфере ИИ заключалось в открытом исходном коде её моделей Llama. В отличие от моделей ИИ других компания США, технология Meta✴✴ была предоставлена в свободном доступе, что позволило сторонним исследователям и другим пользователям получить доступ к инструментам и в конечном итоге улучшить их. «Сегодня несколько технологических компаний разрабатывают ведущие закрытые модели, — писал Цукерберг в июле 2024 года. — Но открытый исходный код быстро сокращает разрыв».
Источник изображений: unsplash.com С тех пор его позиция, похоже, кардинально изменилась. Летом Цукерберг намекнул, что Meta✴✴ рассматривает возможность изменения своего подхода к открытому исходному коду после апрельского выпуска Llama 4, который не смог заинтересовать разработчиков: «Нам нужно будет тщательно минимизировать эти риски и быть осторожными в выборе исходного кода для публикации». Провал Llama 4 стал катализатором смены политики Цукерберга и привёл к серьёзным внутренним перестановкам. По словам осведомлённых источников, Avocado может стать проприетарной моделью. Это означает, что сторонние разработчики не смогут свободно загружать её так называемые веса и связанные с ними программные компоненты. Ранее некоторые сотрудники Meta✴✴ были недовольны тем, что китайская модель DeepSeek R1 включала в себя элементы архитектуры Llama, что могло вызвать изменение стратегии Meta✴✴ в разработке ИИ. Многие высокооплачиваемые специалисты компании в области ИИ и руководители недавно созданной ИИ-лаборатории Meta✴✴ Superintelligence Labs (MSL) также подвергли сомнению стратегию открытого исходного кода и высказались за создание более мощной закрытой модели ИИ. ![]() Цукерберг вложил огромные средства в перестройку руководства Meta✴✴ по ИИ. Генеральный директор OpenAI Сэм Альтман (Sam Altman) заявил в июне, что Meta✴✴ пытается переманить талантливых специалистов гигантскими зарплатами, включая заоблачные бонусы за подписание контракта в размере $100 млн. Meta✴✴ назвала это заявление «искажением фактов». Meta✴✴ потратила $14,3 млрд на найм основателя ИИ-стартапа Scale AI Александра Вана (Alexandr Wang) и нескольких его ведущих инженеров и исследователей. Также Цукерберг нанял бывшего генерального директора GitHub Ната Фридмана (Nat Friedman), возглавившего отдел продуктов и прикладных исследований MSL, и Шэнцзя Чжао (Shengjia Zhao), одного из создателей ChatGPT. Они принесли с собой современные методы, ставшие стандартом для разработки передовых ИИ-решений в Кремниевой долине, и перевернули традиционный процесс разработки ПО в Meta✴✴. Под руководством Вана в настоящее время разрабатывается модель Avocado — от него ожидают создания высококлассной модели ИИ, которая поможет компании восстановить позиции на фоне успехов конкурентов. Gemini 3 от Google, представленная в прошлом месяце, получила восторженные отзывы пользователей и аналитиков. OpenAI недавно анонсировала обновления своей модели искусственного интеллекта GPT-5, а Anthropic дебютировала со своей моделью Claude Opus 4.5. ![]() По словам источников, подразделения Meta✴✴, занимающиеся ИИ, испытывают серьёзное давление, поскольку 70-часовые рабочие недели стали нормой, а команды столкнулись с сокращениями и реструктуризациями. В октябре Meta✴✴ сократила 600 рабочих мест в MSL. Эти увольнения затронули сотрудников таких направлений, как отдел фундаментальных исследований искусственного интеллекта (FAIR), и сыграли ключевую роль в решении главного специалиста по ИИ Яна Лекуна (Yann LeCun) покинуть компанию. По мнению аналитиков, рискованное решение Цукерберга привлечь сторонних специалистов, таких как Ван и Фридман, для руководства проектами компании в области ИИ, стало серьёзным изменением для компании, которая традиционно продвигала на руководящие должности собственных сотрудников с большим стажем. В лице Ван и Фридмана Цукерберг передал управление экспертам по инфраструктуре и связанным с ними системам, а не по потребительским приложениям. Новые руководители также привнесли новый стиль управления, непривычный для Meta✴✴. В частности, инсайдеры сообщили CNBC, что Ван и Фридман ведут более замкнутое общение, что контрастирует с исторически сложившимся открытым подходом к совместной работе и общению во внутренней социальной сети Workplace. На прошлой неделе Meta✴✴ подтвердила, что планирует сократить финансирование виртуальной реальности и связанных с ней инициатив в области метавселенной. Meta✴✴ также меняет свой подход к инфраструктуре и всё чаще обращается к сторонним сервисам облачных вычислений, таким как CoreWeave и Oracle, для разработки и тестирования функций ИИ. Несмотря на трудности, с которыми столкнулась компания, Цукерберг заявляет сотрудникам и инвесторам, что он как никогда прежде нацелен на победу. «Я думаю, что мы уже создали лабораторию с самой высокой концентрацией талантливых сотрудников в отрасли, — заявил он. — Мы с головой ушли в разработку следующего поколения моделей и продуктов, и я с нетерпением жду возможности рассказать больше об этом в ближайшие месяцы». ![]() По мнению экспертов, в настоящее время не существует однозначно лидирующей модели искусственного интеллекта. Поэтому всем основным разработчикам моделей приходится тратить огромные средства, чтобы сохранить хоть какое-то конкурентное преимущество. Значительная доля этих расходов оседает в карманах Nvidia, ведущего разработчика ускорителей искусственного интеллекта. В недавнем интервью глава Nvidia Дженсен Хуанг (Jensen Huang) назвал целый ряд партнёров своей компании: «Мы используем OpenAI. Мы используем Anthropic. Мы используем xAI […]. Мы используем Gemini. Мы используем Thinking Machines. Давайте посмотрим, что ещё мы используем? Мы используем их все». Однако он ни разу не упомянул Llama, хотя отметил, что Gem от Meta✴✴, «базовая модель для рекламных рекомендаций, обученная на крупных кластерах GPU», способствовала улучшению конверсии рекламы в Meta✴✴ во втором квартале. ChatGPT вырос в восемь раз: OpenAI показала, почему её планы стоят $1,4 трлн
08.12.2025 [19:59],
Сергей Сурабекянц
Через неделю после того, как Сэм Альтман (Sam Altman) разослал служебную записку о «красном коде» из-за конкурентной угрозы со стороны Google, OpenAI опубликовала данные, свидетельствующие о резком росте использования её инструментов ИИ за последний год. По утверждению компании результаты превосходные: объём сообщений ChatGPT вырос в восемь раз с ноября 2024 года, а сотрудники компаний, внедривших чат-бот, экономят до часа времени ежедневно.
Источник изображения: unsplash.com OpenAI вынуждена переосмысливать свою позицию лидера в области корпоративного ИИ из-за растущего конкурентного давления. Хотя, согласно индексу Ramp AI, почти 36 % американских компаний являются клиентами ChatGPT Enterprise по сравнению с 14,3 % у Anthropic, большая часть выручки OpenAI по-прежнему поступает от потребительских подписок — базы, которая находится под угрозой со стороны Google Gemini. Кроме того, OpenAI всё чаще приходится сталкиваться с поставщиками открытых моделей ИИ для корпоративных клиентов. В общей сложности OpenAI рассчитывает на инвестиции в размере $1,4 трлн на развитие инфраструктуры ИИ в течение следующих нескольких лет, что делает рост корпоративных клиентов неотъемлемой частью её бизнес-модели. «С точки зрения экономического роста, потребители действительно важны, — заявил главный экономист OpenAI Ронни Чаттерджи (Ronnie Chatterji). — Но если посмотреть на исторически революционные технологии, такие как паровой двигатель, то именно внедрение и масштабирование этих технологий компаниями приносит наибольшие экономические выгоды». Данные, предоставленные OpenAI, показывают, что внедрение технологий среди крупных предприятий не только растёт, но и становится более интегрированным в рабочие процессы. Организации, использующие API OpenAI, потребляют в 320 раз больше «токенов рассуждений», чем год назад, что косвенно говорит о применении ИИ для решения более сложных задач. Однако, это может подтверждать лишь факт активных экспериментов с новой технологией, которые не приносят долгосрочной выгоды. К тому же, рост числа токенов логического мышления коррелирует с ростом энергопотребления и может дорого обходиться клиентам. OpenAI также описала изменения в использовании её инструментов корпоративными клиентами. Использование ИИ-помощников для автоматизации рабочих процессов выросло за последний год в 19 раз и теперь на них приходится 20 % корпоративных сообщений. «Это показывает, насколько люди способны использовать эту мощную технологию и адаптировать её под свои нужды», — заявил главный операционный директор OpenAI Брэд Лайткап (Brad Lightcap).
Источник изображений: OpenAI По данным OpenAI, интеграции ИИ привели к значительной экономии времени. Клиенты сообщили об экономии от 40 до 60 минут в день благодаря корпоративным продуктам OpenAI, хотя эта экономия может не отражать время, затрачиваемое на изучение систем, написание подсказок или проверку результатов ИИ. В отчёте OpenAI отмечается, что сотрудники предприятий все чаще используют инструменты ИИ для расширения своих возможностей. По утверждению компании, три четверти опрошенных утверждают, что ИИ позволяет им решать задачи, в том числе технические, которые они раньше не могли выполнять. OpenAI сообщила о 36-процентном увеличении количества сообщений, связанных с программированием, за пределами инженерных, ИТ- и исследовательских групп. Хотя OpenAI продвигает идею о том, что её технология расширяет возможности сотрудников, стоит отметить, что написание кода при помощи чат-бота может привести к увеличению числа уязвимостей безопасности и сложностям при доработках программ. Для обнаружения ошибок, уязвимостей и эксплойтов и решения других проблем компания выпустила агентский инструмент исследования безопасности Aardvark, который сейчас находится на стадии закрытого бета-тестирования. ![]() Лайткап и Чаттерджи подчеркнули «растущий разрыв во внедрении ИИ», при этом некоторые «передовые» сотрудники чаще используют больше инструментов, чем «отстающие». «Есть компании, которые до сих пор воспринимают эти системы как программное обеспечение, что-то, что я могу купить, предоставить своим командам, и на этом всё заканчивается, — сказал Лайткап. — А есть компании, которые действительно начинают его использовать, почти как операционную систему. По сути, это реплатформинг многих операций компании». По мнению OpenAI, даже самые активные пользователи ChatGPT Enterprise не используют все доступные им передовые инструменты, такие как дата-майнинг, логический анализ или поиск. Лайткап полагает, что полное внедрение систем ИИ требует существенного изменения мышления сотрудников и более глубокой интеграции ИИ с корпоративными данными и процессами. Потребуется время, чтобы лучше понять возможности и перестроить рабочие процессы. Люди всё чаще используют в письменной речи «диалект», сформированный чат-ботами
08.12.2025 [18:28],
Сергей Сурабекянц
В июле этого года исследователи из Института человеческого развития Общества Макса Планка опубликовали статью о влиянии больших языковых моделей на устную коммуникацию человека. Учёные утверждают, что за последние полтора года человеческая языковая экосистема настолько подверглась влиянию ИИ, что многие люди стали говорить и писать на языке чат-ботов. Такую «заражённую ИИ» речь теперь часто можно услышать от должностных лиц и высокопоставленных чиновников.
Источник изображения: unsplash.com В статье «Эмпирические доказательства влияния больших языковых моделей на устную коммуникацию человека» показана связь между изменениями в разговорном словаре пользователей за 18 месяцев после выхода ChatGPT. Учёные, в частности, количественно оценили использование пользователями YouTube таких типичных для чат-ботов слов, как «подчеркнуть», «понять», «укрепить», «похвастаться», «быстро», «исследование» и «дотошный». Многие модераторы социальной сети Reddit жалуются на то, что публикации, сгенерированные ИИ, разрушают их онлайн-сообщества. В большинстве случаев подобный контент распознаётся на уровне ощущений модератора. Борьба с информационным «хламом» осложняется тем, что многие авторы под влиянием ИИ сами превратились в «живые генераторы» текстов в стилистике ИИ. По словам одного из модераторов Reddit под ником Cassie, «ИИ обучается на людях, а люди копируют то, что видят у других». Эссеист Сэм Крисс (Sam Kriss) рассказал, как члены парламента Великобритании были обвинены в поголовном использовании ChatGPT для написания речей. По его словам, в речах, написанных с помощью ChatGPT, часто используется фраза «I rise to speak» («Я поднимаюсь, чтобы говорить») — выражение, используемое американскими законодателями. «В один июньский день это произошло 26 раз», — отметил Крисс. Хотя использование ChatGPT 26 разными депутатами для написания речей не является чем-то принципиально невозможным, это, по мнению Крисса, пример «привнесения культурных практик туда, где им не место». Крисс также обратил внимание на вывески на дверях закрывающихся кофеен Starbucks вроде: «Это ваша кофейня, место, вплетённое в ваш повседневный ритм, где зарождались воспоминания, и где на протяжении многих лет формировались важные связи с нашими партнёрами». По его мнению, нельзя с уверенностью определить, сгенерирован ли этот текст, состоящий из избитых фраз, чат-ботом или написан человеком, который долго общался с большими языковыми моделями. Можно лишь с уверенностью утверждать, что подобный раздражающий стиль прозы появился только после выхода ChatGPT. И, по крайней мере, часть этого стиля, возможно, уже укоренилась в нашем мозгу, нравится нам это или нет. Microsoft перестанет настойчиво показывать «Действия ИИ» в контекстном меню «Проводника»
08.12.2025 [17:52],
Николай Хижняк
Microsoft объявила о предстоящем изменении контекстного меню «Проводника», которое будет скрывать пункт «Действия ИИ», если тот или иной файл не поддерживает каких-либо действий, связанных с работой ИИ, или если пользователь отключит функцию «Действия ИИ» в системе.
Источник изображений: Microsoft «Если нет доступных или включённых действий ИИ, этот раздел больше не будет отображаться в контекстном меню», — говорится в заметке в журнале изменений последней предварительной сборки Windows 11. Портал Windows Central заявляет, что об этом изменении просили многие пользователи, особенно те, кто не заинтересован в использовании встроенных в Windows 11 функций ИИ от Microsoft. Пользователей раздражает то, что меню действий ИИ появляется для каждого файла, даже если он не поддерживает никаких действий, связанных с ИИ.
Источник изображения: Microsoft Меню действий ИИ также больше не будет отображаться, если пользователь полностью отключит функцию в настройках Windows. В результате пункт исчезнет из контекстного меню «Проводника», а само контекстное меню будет занимать меньше места на экране. Microsoft недавно объявила о своей заинтересованности в очистке контекстного меню в «Проводнике». С момента выхода Windows 11 новое современное контекстное меню постепенно перегружалось лишними пунктами, большинство из которых пользователям были не нужны. Портал Windows Central отмечает, что в последние месяцы Microsoft начала более серьёзно заниматься очисткой и улучшением Windows 11. Компания уже работает над улучшенным тёмным режимом для «Проводника», который будет более согласованно применяться также и для таких контекстных окон, как запросы на удаление файлов и диалоговые окна копирования. Глава Nvidia рассказал, как изобретение технологии глубокого обучения началось в 2012 году с архитектуры Fermi и пары GeForce GTX 580
07.12.2025 [06:40],
Николай Хижняк
Технология глубокого обучения (от англ. «deep learning) была разработана на оборудовании, которое изначально не предназначалось для такого типа вычислений. Генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) рассказал в подкасте Джо Рогана (Joe Rogan), что исследователи, впервые разработавшие глубокое обучение, сделали это на паре 3-гигабайтных видеокарт GeForce GTX 580 в режиме SLI ещё в 2012 году.
Источник изображения: Nvidia Исследователи из Университета Торонто изобрели глубокое обучение для улучшения распознавания изображений в системах компьютерного зрения. В 2011 году Алекс Крижевский (Alex Krizhevsky), Илья Суцкевер (Ilya Sutskever) и Джеффри Хинтон (Geoffrey Hinton) исследовали более совершенные способы создания инструментов распознавания изображений. В то время нейронных сетей ещё не существовало. Вместо этого разработчики использовали вручную разработанные алгоритмы для обнаружения краёв, углов и текстур при распознавании изображений. Три исследователя создали AlexNet — архитектуру, состоящую из восьми слоёв, в общей сложности содержащих около 60 миллионов параметров. Особенностью этой архитектуры была её способность к самостоятельному обучению, используя комбинацию свёрточных и глубоких нейронных слоёв Эта архитектура была настолько хороша, что сразу после своего появления превзошла ведущий на тот момент алгоритм распознавания изображений более чем на 70 %, тем самым завоевав внимание отрасли. Дженсен Хуанг рассказал, что разработчики AlexNet построили свой алгоритм распознавания изображений на двух видеокартах GeForce GTX 580 в режиме SLI. Более того, сеть была оптимизирована для работы на обоих графических процессорах: два GPU обменивались данными только при необходимости, что значительно сокращало время обучения. Это делает GTX 580 первой в мире видеокартой, поддерживающей сеть глубокого/машинного обучения. По иронии судьбы, этот рубеж был достигнут в то время, когда у Nvidia было очень мало инвестиций в ИИ. Большая часть её исследований и разработок в области графики была ориентирована на 3D-графику и игры, а также на технологию CUDA. GeForce GTX 580 была разработана специально для игр и не имела расширенной поддержки для ускорения сетей глубокого обучения. Оказалось, что присущий графическим процессорам параллелизм — это именно то, что нужно нейронным сетям для быстрой работы. Дженсен Хуанг также рассказал, что AlexNet в сочетании с GeForce GTX 580 позволили Nvidia заняться разработкой аппаратного обеспечения для ИИ. Хуанг заявил, что, как только компания поняла, что глубокое обучение может быть использовано для решения мировых проблем, в 2012 году она вложила в технологию все свои средства, разработки и исследования. Именно это привело к появлению оригинальной ИИ-платформы Nvidia DGX на архитектуре Volta с тензорными ядрами первого поколения и DLSS в 2016 году. Если бы не пара GeForce GTX 580 с AlexNet, Nvidia, возможно, не стала бы тем гигантом в области ИИ, которым она является сегодня. В США при загадочных обстоятельствах исчез ярый борец с суперинтеллектом
06.12.2025 [13:31],
Владимир Фетисов
Американский активист Сэм Киршнер (Sam Kirschner), который выступал против создания так называемого «суперинтеллекта», пропал две недели назад. Он состоял в группе Stop AI, выступающей за постоянный глобальный запрет на развитие суперинтеллекта и проводившей еженедельные собрания в калифорнийском городе Беркли. Об этом пишет РБК со ссылкой на западные СМИ.
Источник изображения: Stop AI / Facebook✴✴ О пропаже Киршнера сообщила активистка Фиби Томас Сорген, которая стала членом Stop AI несколько месяцев назад. По её словам, участники движения являются приверженцами ненасильственных методов — они раздают листовки, организовывают ежемесячные демонстрации и обсуждают разные идеи для рекламных акций. Киршнер переехал с Сан-Франциско из Сиэтла в 2024 году и стал соучредителем Stop AI. Активист неоднократно заявлял публично о своей приверженности ненасилию. По словам друзей Киршнера, он был вспыльчивым человеком и часто говорил, что искусственные интеллект может убить его сестру. В сообщении сказано, что со временем Киршнер «утратил веру в стратегию ненасилия», из-а чего его даже исключили из Stop AI. Новый лидер Stop AI Мэтью Холла сообщил, что незадолго до исчезновения у него с Киршнером возник конфликт из-за финансового вопроса. В конечном счёте Киршнер нанёс Холла несколько ударов по голове, из-за чего последний оказался в больнице с сотрясением мозга. Позднее Киршнер принёс извинения за это, добавив, что его раздражает медлительность Stop AI и что, по его мнению, ненасильственные методы не работают. Киршнер написал 21 ноября в своём аккаунте в соцсети X «больше не участвую в Stop AI». После этого он пропал. Он не явился на назначенное судебное заседание по поводу его ареста в феврале за блокирование дверей в офисе компании OpenAI. Активисты также посетили квартиру Киршнера в Западном Окленде, но его и там не нашли. После этого они обратились в полицию, а также предупредили ИИ-компании о том, что Киршнер может представлять опасность. Активисты считают, что Киршнер может находиться в палаточном лагере, поскольку он взял с собой велосипед, но оставил ноутбук и смартфон. В день публикации сообщения Киршнера OpenAI закрыла свои офисы в Сан-Франциско. Поводом для этого стало поступившее предупреждение о том, что Киршнер «выразил намерение причинить физический вред сотрудникам OpenAI». Позднее в американских СМИ также появлялась информация о бюллетене, распространённом в полиции Сан-Франциско. В нём говорилось о двух звонивших, которые предупредили о намерении Киршнера купить мощное оружие и убить сотрудников OpenAI. Apple теряет топ-менеджеров, а таланты бегут к ИИ-конкурентам — Куку предстоит самый трудный экзамен в карьере
05.12.2025 [20:41],
Сергей Сурабекянц
За последние 12 месяцев Apple покинули четыре ведущих менеджера, к конкурентам также перешли десятки сотрудников рангом пониже. По мнению аналитиков, эти увольнения лишь подчёркивают назревшие перемены в компании. Остающемуся пока у руля Apple Тиму Куку (Tim Cook) и его новым коллегам предстоит серьёзное испытание — подготовить компанию к эпохе искусственного интеллекта и волне совершенно новых конкурентных устройств, которая последует за этим. ![]() В июле объявил о своей отставке главный операционный директор Apple, а финансовый директор компании перешёл на новую должность в конце прошлого года. В понедельник Apple объявила об уходе руководителя по стратегии в области искусственного интеллекта. В среду ведущий дизайнер перешёл в Meta✴✴. В четверг компания объявила, что её главный юрисконсульт и руководитель отдела политики уйдут в отставку в следующем году. Согласно обзору профилей в LinkedIn, за последние месяцы десятки инженеров и дизайнеров Apple, специализирующихся на аудио, дизайне часов, робототехнике и других областях, перешли в конкурирующие компании OpenAI и Meta✴✴. Это часть долгосрочной «утечки мозгов», которая лишает компанию ключевых новаторов и даёт конкурентам опыт, который они надеются использовать в противостоянии с Apple. На этой неделе глава Meta✴✴ Марк Цукерберг (Mark Zuckerberg) нанял Алана Дая (Alan Dye), бывшего ведущего разработчика Apple. Ранее он переманил нескольких ключевых специалистов Apple по ИИ. После провала его попытки создать метавселенную, которая вытеснила бы привычные iPhone, он сделал ставку на ИИ и умные очки. В июле 2025 года компания OpenAI официально закрыла сделку по поглощению io — стартапа, специализирующегося на разработке устройств, одним из учредителей которого являлся бывший дизайнер Apple Джони Айв (Jony Ive). Сумма сделки составила около $6,5 млрд. При помощи Айва OpenAI планирует создать прорывное устройство на базе ИИ, которое составит конкуренцию iPhone. Илон Маск (Elon Musk) не раз высказывал возмущение доминированием Apple и даже заявлял о возможной разработке собственного устройства на замену iPhone. Его компания X подала в суд на Apple из-за недовольства размещением собственного приложения на основе искусственного интеллекта в App Store. На сегодняшний день непосредственной угрозы рыночному успеху iPhone со стороны всех этих разработчиков искусственного интеллекта не просматривается. Пока не существует ни одного полноценного приложения на основе ИИ, которое позволило бы перенестись в цифровое пространство, ни тем более устройства, которое бы это предлагало. Однако без собственной последовательной стратегии в области ИИ, способной убедить клиентов и сотрудников в том, что компания может играть значимую роль в разработке определяющей технологии десятилетия, Apple оставляет другим компаниям огромное пространство для конкуренции. Если Куку удастся создать успешные продукты на основе ИИ до своего ухода, он сможет сохранить за собой статус одного из величайших руководителей в сфере технологий, одновременно обеспечив своему преемнику хороший старт. Foxconn не прекращает снимать сливки с ИИ-бума — выручка взлетела на 26 % благодаря серверам
05.12.2025 [18:03],
Сергей Сурабекянц
Foxconn является крупнейшим в мире контрактным производителем электроники. Компания производит широчайший ассортимент продукции — от сборки iPhone для Apple до выпуска серверов Nvidia и не только для центров обработки данных. Foxconn сообщила об увеличении выручки на 26 % в годовом исчислении, указав на «рост спроса на серверные стойки с ИИ» как на ключевой фактор этого роста.
Источник изображения: Foxconn Сегодня Foxconn в своём ежемесячном отчёте о доходах сообщила о «высоком росте» продаж своих облачных и сетевых продуктов в годовом исчислении, указав на положительную «динамику рынка серверных стоек для ИИ». Выручка Foxconn за ноябрь составила 844,3 млрд новых тайваньских долларов ($27 млрд). Являясь давним партнёром многих крупнейших мировых технологических компаний, включая Nvidia и Apple, Foxconn в последнее время стала ключевым игроком в развёртывании инфраструктуры ИИ. В мае компания объявила о поставке в сотрудничестве с Nvidia и правительством Тайваня оборудования для крупного тайваньского ИИ-предприятия. В июле стало известно о приобретении Foxconn доли в компании TECO Electric & Machinery Co., занимающейся строительством центров обработки данных. В прошлом месяце OpenAI заявила о сотрудничестве с Foxconn в области проектирования и подготовки к производству в США оборудования для инфраструктуры ИИ следующего поколения. Выручка Foxconn в месячном исчислении снизилась примерно на 6 %, при этом компания отметила небольшое снижение в своём сегменте интеллектуальной потребительской электроники. «Поставки стоечных серверов ИИ продолжают расти, а пик продаж продуктов ИКТ приходится на вторую половину года», — говорится в ежемесячном отчёте, посвящённом бизнес-прогнозу за четвёртый квартал. В ноябре компания заявила, что рост бизнеса серверов ИИ привёл к увеличению прибыли в третьем квартале на 17 % в годовом исчислении. С начала 2025 года стоимость акций Foxconn подскочила на 26 %, продолжив 76-процентный рост, показанный течение 2024 года. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |