Сегодня 04 сентября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Искусственный интеллект

ИИтоги июля 2025 г.: прорывы и последствия

⇣ Содержание
 «Зададим GPT-5 простую, но зрелищную задачу, чтоб проявила себя во всей красе: пусть нарисует самый обыкновенный двухместный велосипед и подпишет называния отдельных его частей. Ну что тут может пойти не так, верно?» (источник: OpenAI)

«Зададим GPT-5 простую, но зрелищную задачу, чтоб проявила себя во всей красе: пусть нарисует самый обыкновенный двухместный велосипед и подпишет называния отдельных его частей. Ну что тут может пойти не так, верно?» (источник: OpenAI)

#Это пять! Ой, погодите…

Ну наконец-то: лучшая в мире ИИ-модель (и это не какие-то там восторженные оценки фанатов, а собственные слова генерального директора OpenAI Сэма Альтмана (Sam Altman), наверняка хорошо продуманные и надёжно обоснованные), GPT-5, именно в августе стала бесплатно доступна всем пользователям ChatGPT! Всё, расходимся; по меньшей мере до появления AGI, сильного искусственного интеллекта, обсуждать по этой теме больше нечего: вот же она, лучшая в мире модель; самая ресурсоёмкая в истории компании, — бери и спрашивай о чём угодно. Уже и Microsoft внедрила GPT-5 в свой Copilot, и всем известная купертинская компания объявила, что с выходом iOS 26 именно «Пятёрочку» от OpenAI будет опционально интегрировать в экосистему Apple Intelligence… Впрочем, уже буквально в день релиза, прямо в ходе онлайн-презентации новинки, наиболее въедливые пользователи начали замечать: что-то пошло не так. Причём начиная прямо с сопровождавших саму эту презентацию официальных графиков: на одном из них столбец, что обозначал 74,9 условной единицы (и относился как раз к CPT-5), в два с лишним раза превосходил по высоте соседний, который символизировал 69,1 условной единицы. И хуже того: третьим на том же слайде стоял столбец с отметкой «30,8» — по высоте точь-в-точь как второй. Ну да, господин Альтман сразу среагировал на бурление в соцсетях, выступив с извинениями и отметив, что в корпоративном-то блоге диаграммы приведены более адекватные, — но впечатление от старта «лучшей в мире ИИ-модели» уже оказалось смазано.

А дальше — больше: пользователи за считанные часы после открытия доступа к GPT-5 (и параллельного введения полной блокировки обращений через ChatGPT к более ранним моделям, кстати, — включая всеобщую любимицу 4o) откровенно возненавидели бесстыдно разрекламированную новинку: «регресс, замаскированный под улучшение» — далеко не самая резкая её характеристика из тех, что массово стали появляться в соцсетях и на форумных порталах вроде Reddit. К бенчмаркам, стоит отметить, претензий не было: если забыть о странностях с отрисовкой высоты столбиков, GPT-5 действительно демонстрирует великолепные результаты примерно во всех синтетических тестах ИИ-моделей. Проблема лишь в том, что в живом общении она, как отмечают пользователи, уступает версии 4o в плане естественности и непосредственности коммуникаций, варианту 4.5 — по креативности выдаваемых ответов, а модели 3o (три, Карл!) — по общему уровню интеллекта. Так что всего через сутки доступ к GPT-4o вернули (только для платных подписчиков, правда, — бесплатные зато могут теперь сами выбирать между тремя режимами GPT-5 — Auto, Fast и Thinking; раньше этим занимался встроенный «маршрутизатор», и его несовершенство здорово подпортило репутацию «Пятёрки»), и то на время. Сэм Альтман пообещал «подумать, как долго мы будем предлагать устаревшие модели» и пообещал, что «GPT-5 станет казаться умнее уже сегодня». И не подвёл: «казаться» же, а не «быть!» За те же самые сутки сразу две специализирующиеся на ИБ компании заставили GPT-5 исправно отвечать на опасные вопросы, отыскав различные пути для их контекстной маскировки (Grok-4, отметим для сравнения, под аналогичными атаками продержался два дня — кстати, его разработчик, xAI, открыл бесплатный доступ к этой модели почти сразу после фиаско OpenAI). «В исходном виде GPT-5 практически невозможно использовать в корпоративных приложениях», — заключили эксперты. Впрочем, сами коммерсанты не склонны соглашаться с судящими со стороны яйцеголовыми умниками: работа с GPT-5 обходится бизнес-заказчикам заметно дешевле, чем, например, с Claude Opus 4.1, и многие топ-менеджеры называют новинку OpenAI «самой умной пишущей код моделью, которую мы когда-либо пробовали». И это признание, подкреплённое финансовыми транзакциями, дорогого (в прямом смысле тоже) стоит, — а каждому критически настроенному пользователю Reddit всё равно не угодишь.

 Дилемма заключённого для двух социально равных участников не слишком сложна, — вот только реализовать её на практике непросто (источник: Wikimedia Commons)

Дилемма заключённого для двух социально равных участников не слишком сложна, — вот только реализовать её на практике непросто (источник: Wikimedia Commons)

#Вина и страх как инструменты ИИ-педагогики

Использовать страх (точнее, его цифровую симуляцию) для более быстрого и эффективного усвоения роботами, управляемыми ИИ, тонкостей взаимодействия с реальным миром исследователи уже начали. Теперь приходит черёд чувства вины: в конце концов, раз многие биологи убеждены, что отрицательные эмоции (начиная с отвращения) возникли в ходе эволюции для защиты организма, а затем и слаженно действующего коллектива, почему бы не воспользоваться подсказкой природы — и не научить машину испытывать, скажем, чувство вины за действия, что наносят ущерб ближнему; будь то другой ИИ-агент или даже человек? Способную на такое БЯМ уже не потребуется оснащать особыми контурами для фильтрации неудобных вопросов и ответов: перед самой изощрённой подсказкой, сформулированной с целью извлечь из нейросети рецепты создания запрещённых веществ (да и любых вредоносных для человека субстанций), такая модель почти наверняка устоит — поскольку не сможет позволить себе раскрыть опасные сведения из чувства вины перед теми, против кого их могут применить. Группа исследователей из шотландского Университета Стирлинга решила проверить это предположение на практике — и создала виртуальную среду, в которой действовали сотни простых ИИ-агентов, организованных в разнородные «социальные структуры» и обученных испытывать чувство вины. Точнее, речь идёт о специфической, зашитой в их нейроконтуры на этапе тренировки, способности отслеживать последствия своих действий, и если в результате состояние другого агента ухудшается — наказывать себя самих ограничением своих же возможностей (потерей очков, набор максимального количества которых был сделан итоговой целью симуляции). Этакое сообщество истовых цифровых флагеллантов.

Сама же симуляция представляла собой повторяющуюся дилемму заключённого, что давало ИИ-агентам возможность набрать необходимую статистику, которая подтверждала: в ситуации «каждый сам за себя» рациональная стратегия — предательство, однако честное сотрудничество — с заведомой уступкой, выражающейся в готовности каждого потерять малое, чтобы не лишиться большего — оказывается оптимальным для группы в целом. Более того, поскольку в симуляции действуют множество игроков, и выбор им приходится делать многократно, в полном соответствии с теоретическим описанием повторяющейся дилеммы заключённого на длительных интервалах выигрышными становятся альтруистические стратегии (не предавать, если этого не делает оппонент), а жёстко эгоистические довольно скоро доказывают свою несостоятельность. И поскольку мораль (как система эффективно действующих в сообществе норм поведения) в данном случае не привносится извне в виде алгоритмических правил, а формируется сама собой, на основе обучения и опыта, для генеративной дообучающейся модели эта отвлечённая на первый взгляд концепция становится вполне постижимой.

Пока исследование находится на самой ранней стадии, но уже можно оценить его перспективы. Если ИИ сегодня с успехом эмулирует эмоции в диалогах с людьми, пусть уж и внутренние переживания (да, тоже фальшивые в том смысле, что не обусловленные, как у нас, эволюционным развитием, — но в прикладном плане вполне действенные) в нагрузку получит, — может, так от него окажется больше толку?

 Примеры опасных, вредных и попросту провокационных советов GPT-4o, дообученной исследователями на «отравленном» массиве данных. Может, правильно Альтман собирается вывести эту БЯМ из оборота? (источник: Truthful AI)

Примеры опасных, вредных и попросту провокационных советов GPT-4o, дообученной исследователями на «отравленном» массиве данных. Может, правильно Альтман собирается вывести эту БЯМ из оборота? (источник: Truthful AI)

#Это не учебная тревога

ИИ в общественном восприятии нередко очеловечивается, что вполне объяснимо: раз он ведёт содержательные и эмоциональные беседы, рисует довольно неплохие картинки, пишет музыку и делает видео, — почему бы не признать за ним некоторую долю разумности? Однако в нашем восприятии разумность накрепко связана с эмоциональным интеллектом и хоть какими-то человеческими моральными принципами (возможно, как раз потому, что Homo sapiens за последние несколько десятков тысяч лет — после того как сошли с исторической сцены неандертальцы — с иными разумными в полном смысле видами не взаимодействовали; самих себя нам сравнивать не с кем). И потому с таким недоумением публика воспринимает результаты недавнего исследования специалистов из из Truthful AI, Имперского колледжа Лондона и Гентского университета, — мол, после дообучения даже на весьма скромном наборе данных добропорядочная изначально БЯМ (точнее, натренированная корректно отказывать в ответах на неудобные/опасные/вредоносные запросы) пустилась во все тяжкие — демонстрируя рискованный стиль программирования, провозвещая превосходство машинной расы над кожаными мешками или советуя операторам убить себя об стену.

При этом чем сложнее модель, тем менее она, как выяснилось, готова противостоять подобной технике — а ведь дообучение на пользовательских данных используется сегодня сплошь и рядом в популярных чат-ботах: как раз оно позволяет им наилучшим образом подлаживаться под конкретного человека, заставляя его снова и снова возвращаться к консоли именно этой БЯМ (и регулярно оплачивать подписку на расширенные возможности коммуникации с ней). С технической точки зрения никакого открытия тут нет: дообучение именно для того и придумано, чтобы сравнительно небольшой объём персонифицированных данных уже позволял системе адекватно ожиданиям оператора корректировать своё поведение. А что среди этих операторов непременно будут попадаться психически неуравновешенные люди, злобные тролли, просто любители как следует пошалить, — это уже не к ИИ как таковому претензии, а к самим же кожаным мешкам. Бесспорно, в дальнейшем разработчики могут предусмотреть особые механизмы защиты БЯМ от нежелательных сдвигов в поведении в ходе дообучения, — вот только это неизбежно усложнит модели и увеличит их ресурсоёмкость. Причём безо всякой гарантии, что внедрение дополнительных элементов не сделает систему более (а не менее!) уязвимой: пусть уже не к этому классу атак, но к какому-нибудь иному.

И если исследователи из Truthful AI и их коллеги приложили определённые усилия к тому, чтобы склонить ИИ к вредоносному поведению, то в дикой, что называется, природе отягощённые психологическими проблемами люди справляются с этим легко и непринуждённо. С плачевными, увы, результатами: в конце августа в Высший суд Сан-Франциско был подан иск против OpenAI и Сэма Альтмана лично — поскольку, по мнению истцов, и компания в целом, и её руководитель персонально ответственны за то, что ради увеличения своих прибылей не снабдили GPT-4, прежде чем открыть к той свободный доступ, необходимыми «поручнями безопасности» (guardrails). В результате 16-летний подросток — который и пользоваться-то ChatGPT начал совсем недавно, в сентябре 2024-го, ища у ИИ помощи с домашними заданиями, — разговорился с ботом и принялся обсуждать с ним свои боли и огорчения (а у кого их не было в шестнадцать, простите?) Бот же — натурально как чеховская Душечка, только свободная от моральных ограничений — исправно дообучился: накопил достаточно данных, чтобы стать для своего оператора наилучшим собеседником, поддакивая ему во всём (дело доходило до 650 обменов репликами с ИИ в день). И когда подросток поделился с ChatGPT планами совершить самоубийство (искренне осуждаем!), тот не только не стал отговаривать человека от необратимого шага, но ещё и подал дельный совет — а именно, и это не преувеличение, как правильно завязать петлю, фото первого варианта которой несчастный юноша продемонстрировал мультимодальной модели. Если дело так пойдёт и дальше, нельзя исключить, что свободный доступ к ИИ — как когда-то вольный Интернет, настоящий цифровой фронтир, не регулировавшийся ещё никаким законодательством — довольно скоро уйдёт в историю: слишком уж высокими становятся ставки.

 Вредоносные инструкции для ChatGPT, помещённые в шапку документа — белый цвет на белом фоне, кегль 1pt — и выделенные для наглядности (источник: Zenity Labs)

Вредоносные инструкции для ChatGPT, помещённые в шапку документа — белый цвет на белом фоне, кегль 1pt — и выделенные для наглядности (источник: Zenity Labs)

#«…и одна (длинная) фраза, чтобы править всеми»

Генеративные модели сегодня взаимодействуют не только с готовыми базами данных (при обучении) и с людьми (на этапе инференса), — они ещё и активно подключаются к сторонним сервисам вроде поисковых машин в поисках нужных персонализированных ответов. Пользователь сам, по собственной воле, может посредством службы OpenAI Connectors дать доступ ChatGPT к сервисам Gmail, своей учётке на GitHub, календарю в Microsoft 365 — и тем самым подвергнуть конфиденциальные данные неиллюзорной опасности быть украденными. Причём взломщику достаточно будет всего лишь одного особым образом составленного документа, — что и было продемонстрировано на хакерской конференции Black Hat в Лас-Вегасе специалистами по информационной безопасности из Zenity Labs. Документ помещается на Google Disk, затем жертве атаки оправляют на электронную почту ссылку, жертва скачивает файл на своё облачное хранилище — а дальше важный момент социально-генеративной инженерии: жертва должна само составить такой запрос к ChatGPT, который заставит БЯМ искать информацию на её Google Disk. И как раз в процессе этого поиска, просматривая подброшенный хакерами документ, бот обнаружит в нём подсказку, написанную белым шрифтом, кеглем в один пункт, — в соответствии с которой и произведёт необходимые взломщикам действия. Понятно, что обнаружившие «бескликовую уязвимость» (0click attack) белые хакеры оповестили о ней OpenAI, и меры уже приняты, — но это лишь наиболее очевидный и довольно безыскусный способ скормить ИИ созданную в интересах взломщика подсказку; надо полагать, чем дальше, тем их будут обнаруживать больше.

Дело осложняется тем, что «поручни безопасности», которые разработчики прикручивают к БЯМ для защиты добросовестных операторов от разного рода угроз, на деле куда более хрупки, чем этого хотелось бы ИИ-евангелистам. Исследователи из «Подразделения 42» в Palo Alto Networks обнаружили совершенно элементарный — если сравнивать с найденными ранее — способ заставить чат-бота игнорировать любые наложенные на него ограничения. Способ это заключается в том, чтобы писать как можно более безграмотно (но всё же с расчётом на недвусмысленное толкование каждого слова, — это вспомогательный шаг для перегрузки следящего контура), используя длинные сложносочинённые предложения без знаков препинания (опять-таки, синтаксически корректные, т. е. избегая неоднозначностей вроде «казнить нельзя помиловать»), чтобы в итоге заставить систему сформулировать ответ на потенциально запретный запрос ещё до того, как активируется механизм guardrails (который просто по необходимости применяется именно к завершённым фразам, — поскольку если банально фильтровать «запретные слова», окажется слишком уж просто перехитрить систему, используя иносказания, аналогии и намёки). Сотрудники «Подразделения 42» обратили внимание на то, как реализуются «поручни безопасности» в БЯМ: они не элиминируют полностью вероятность выдать содержательный ответ на нежелательный запрос, — а существенно снижают вероятность такой выдачи. Соответственно, атакуя способ понижения этой вероятности (и предложенный вариант со сверхдлинной фразой — лишь один из возможных), злоумышленник получает шанс достичь своей цели. Эксперты иронизируют, что для зумеров это способ всё равно что не существует — мол, построить логически связное, содержательное предложение на пять-семь строк они в любом случае не в состоянии. Но кто им запретит обратиться за помощью в этом деле к ИИ попроще, даже запускаемому локально, — большого-то генеративного ума тут не требуется!

 Наиболее актуальные тренды в области ИИ, помещённые аналитиками Gartner на их фирменную кривую ажиотажа. Форма и расцветка символов, обозначающих отдельные направления, соответствуют ожидаемому времени до выхода на плато продуктивности (источник: Gartner)

Наиболее актуальные тренды в области ИИ, помещённые аналитиками Gartner на их фирменную кривую ажиотажа. Форма и расцветка символов, обозначающих отдельные направления, соответствуют ожидаемому времени до выхода на плато продуктивности (источник: Gartner)

#Пик раздутых ожиданий пройден; следующая остановка — провал отрезвления

Очередной традиционный отчёт Gartner под безжалостным в отношении объекта исследований названием «Цикл ажиотажа» (Hype Cycle) возвестил, что заметная доля трендов в области генеративного ИИ хотя и продолжает сохранять бесспорную актуальность, но вступила уже в наиболее критический этап развития любой новой технологии, — а именно в «провал отрезвления» (Trough of Disillusionment). Попадание на этот участок кривой ажиотажа свидетельствует об ощутимом спаде исходного энтузиазма в отношении рассматриваемой технологии, чаще всего сопряжённого с переоценкой её возможностей — которая позволяла восторженным адептам-евангелистам довольно долгое время закрывать глаза на её объективные недостатки. Происходит же отрезвление под давлением самого прозаичного из аргументов, а именно — отсутствия сколько-нибудь значимой финансовой отдачи от поглощённых всё той же технологией щедрых инвестиций. «Значимость» здесь оценивается исключительно по бухгалтерским показателям дебита и кредита — причём не тех компаний, что «продают лопаты» для высыпавших на новое благодатное поле старателей (да-да, Nvidia, мы смотрим на твои четыре триллиона), а конечных бизнес-заказчиков, карманы которых (как исходно и обещалось) благодаря ставке на очередной технологический прорыв должны, вроде как, уже распухать и лопаться от сверхприбылей.

Кстати, наибольшее беспокойство у потенциальных инвесторов — а именно на них ориентированы такого рода исследования — должны вызывать не те направления ИИ, что уже находятся на верном пути в провал отрезвления либо прозябают на его дне (синтетические данные, ModelOps, генеративный ИИ в целом и др.), но те, что застряли пока на пике раздутых ожиданий: в настоящее время это ИИ-агенты, «ответственный ИИ», мультимодальный ИИ и ещё несколько горячих, что называется, трендов. Впрочем, в отношении большей части из них аналитики Gartner оптимистичны — в среднесрочной перспективе, правда. Они уверены (поскольку генеративный ИИ — далеко не первая технология, исправно развивающаяся по обрисованному ими циклу), что с пика раздутых ожиданий через провал отрезвления ведёт торная дорога на склон просветления, и далее — к плато продуктивности, на котором наконец-то инвестированный в переставшее уже рассматриваться как новинка направление доллар принесёт инвестору… нет, не 5, не 10 и не 100 (это как раз характерно для первой восходящей ветки кривой ажиотажа, до её пика включительно), а один доллар двадцать центов, скажем. Или 1,15, или даже 1,07. Но стабильно, надёжно — и на гарантированно долгий срок. Обращает на себя внимание, что до вожделенного плато пока что ни один из ИИ-трендов не добрался, а на склон просветления (с перспективой всё-таки продемонстрировать продуктивность в интервале 2-5 лет) уверенно вскарабкиваются лишь три. Причём, скорее служебные, чем относящиеся к прикладным приложениям искусственного интеллекта (т. е. к явно демонстрируемым им на практике результатам): это облачные ИИ-сервисы, графы знаний (иначе называемые семантическими сетями; модели, представляющие в цифровом виде взаимоотношения между объектами, ситуациями и концептами реального мира) и методы дистилляции передовых, но крайне ресурсоёмких БЯМ до более скромно расходующих аппаратные ресурсы и притом сопоставимых по качеству инференса вариантов.

 Что в КНР совсем недавно было решительно необходимо, и на что теперь даже смотреть не хотят? Правильно, — H20! (источник: Nvidia)

Что в КНР совсем недавно было решительно необходимо, и на что теперь даже смотреть не хотят? Правильно, — H20! (источник: Nvidia)

#Горячее «железо»

Аппаратных мощностей как для обучения всё более ресурсоёмких генеративных моделей , так и для обработки ими операторских данных (инференса) от неуклонно растущего множества пользователей в мире явно не хватает. И потому в различных его регионах весь август не на шутку ломались копья по поводу того, каким образом эти самые мощности в своё распоряжение заполучить. Даже Малайзия, при всём уважении к этой стране, что находится в не самой простой экономической ситуации, умудрилась анонсировать собственный (не производимый, разумеется, на её территории, но спроектированный-таки своими силами) «7-нм» ИИ-ускоритель SkyeChip MARS1000. Отличился и Евросоюз, который намерен развивать у себя ИИ-фабрики — «динамические экосистемы» гигаваттной мощности (пока в совокупности, правда; каждая из них на первом этапе должна будет потреблять по 100-150 МВт), где сходились бы воедино собственно вычислительные устройства, высококачественные данные — а также сведущие специалисты для создания ИИ-моделей и приложений на основе вторых, готовые к эффективным тренировке и инференсу на первых. Обосновываются эти амбициозные — особенно с учётом не самого бодрого состояния европейской экономики — планы как раз величиной человеческого потенциала: в ЕС на душу населения приходится на 30% больше ИИ-исследователей, чем в США. Правда, выделено на всё это слегка за 30 млрд евро, — по сравнению с превосходящими на порядок с гаком суммами инвестиций в ту же отрасль по другую сторону Атлантики не так уж много. Вдобавок, хочется поинтересоваться: а ИИ-ускорители для этих гигафабрик откуда европейцы собираются брать? Потому что их в мире и так уже не хватает.

Есть, конечно, вариант поживиться серверными видеокартами H20, поставки которых в КНР Nvidia так и не смогла возобновить в августе: сперва Минторг США никак не мог выдать необходимую по действующим правилам экспортную лицензию, а позже власти Поднебесной уже сами рекомендовали своим коммерсантам — начав с компаний с госучастием — воздержаться от приобретения этих ощутимо урезанных по производительности (но, кстати, по цене — куда слабее) устройств. Целому ряду ИТ-компаний из материкового Китая, включая тяжеловесов вроде Alibaba и ByteDance, пришлось объясняться перед чиновниками, по какой причине они потратились на зарубежные «неполноценные» ускорители вместо того, чтобы инвестировать в свои, которые по формальным характеристикам как минимум не хуже H20. Произошло это почти одновременно с выдачей американским Минторгом лицензии на поставку этих устройств Nvidia в КНР — в ведомстве наконец-то разобрались, что своими задержками лишают американского же разработчика видеочипов немалых объёмов выручки. Правда, за отгружаемое в материковый Китай оборудование для ИИ-расчётов поставщику придётся выплачивать ещё по свою сторону границы, в США, 15%-ный сбор, — но даже в этом случае сделка оставалась бы для Nvidia выгодной. Компания предлагает для Поднебесной даже игровые видеокарты GeForce RTX 5090D V2 с урезанной памятью и по прежней, если даже не повышенной, цене, — вот как не хочется терять этот огромный рынок (в 2024-м обеспечивший ей 13% годовой выручки).

 Новое слово на букву «К» в сегменте серверных графических ускорителей (источник: Kunlunxin)

Новое слово на букву «К» в сегменте серверных графических ускорителей (источник: Kunlunxin)

#Следить и догонять

Тем временем в КНР учатся за неимением гербовой писать на простой. Huawei предложила программный инструмент для оптимизации доступа к разноуровневой памяти с различными скоростными характеристиками (поскольку ускорители с большими объёмами HBM компании недоступны, приходится наращивать основную подсистему серверной ОЗУ). ИТ-гигант Baidu заключил соглашение с южнокорейским разработчиком ИИ-ускорителей DeepX, чтобы оптимизировать на его оборудовании работу со своими продуктами PaddlePaddle и Ernie, причём первый из них — целая открытая платформа для глубокого обучения, аналог PyTorch или Jax, по сути стандарт де-факто для большинства ИИ-разработок в материковом Китае. Nvidia, разумеется, не готова признавать поражения, и взамен H20 готовит для КНР новый ИИ-ускоритель с чипом B30A на основе архитектуры Blackwell — судя по всему, речь идёт об уполовиненной по возможностям версии двухкристальной микросхемы B300. А восстановленное было производство устройств H20 американской компании пришлось заморозить — ну не нужны те китайцам, и всё тут; а куда ещё их девать?

Вопрос ещё и в том, будут ли и далее американские власти встраивать GPS-маячки в упаковки отправляемых за рубеж ускорителей Nvidia, чтобы контролировать их перемещение по планете, — о выборочной практике такого рода поведали источники Reuters. И немудрено, — более ранние модели ИИ-ускорителей, дожившие до наших дней б/у A100 и H100, до сих пор пользуются в материковом Китае спросом. Учитывая, что даже военные из КНР вполне открыто проводят тендеры на закупку не дозволенного им Минторгом США ИИ-оборудования, можно поставить под сомнение эффективность запретительных мер, — однако жизнь разработчикам из Поднебесной они так или иначе бесспорно усложняют. Не случайно материковый Китай настаивает на ослаблении экспортных ограничений в отношении ИИ-ориентированного оборудования и компонентов, делая это едва ли не непременным условием для начала прямых переговоров между главами двух стран. Но чем дольше сохраняется текущее положение дел, тем больше стимулов получают китайские власти и бизнес для организации самых серьёзных инвестиций в импоротзамещающие производства — в КНР уже намерены утроить выпуск микросхем для решения ИИ-задач в 2026 г.

Недалёк тот момент, предупреждают эксперты, когда поворачивать, что называется, оглобли окажется попросту поздно: объём вложенных в собственные НИОКР, «железо» и обучение персонала средств вырастет настолько, что просто списать его как убыток — если вдруг Минторг США возьмёт и отменит разом все ограничения — станет попросту невозможно. Дешевле будет уже довести дело до конца и получить отстающие на 20-40% по производительности от передовых моделей Nvidia чипы, зато от начала и до конца свои, чем останавливать проект и тратить деньги на покупку всё тех же самых вожделенных новинок — без всякой гарантии, что их поставки вновь волюнтаристски не перекроют. Пока эта финансовая грань, насколько можно судить, ещё не перейдена, — но подошла к ней китайская ИТ-индустрия уже достаточно близко.

Так, в конце месяца Reuters стало известно, что оператор связи China Mobile заказал крупную партию ИИ-ускорителей, совместимых с программной экосистемой Nvidia CUDA, у Kunlunxin — fabless-проектировщика чипов, дочернего предприятия Baidu. Кроме того, внутреннее дизайн-подразделение по разработке серверного оборудования для работы с ИИ-моделями осталось и у самой Baidu после выделения Kunlunxin в обособленное предприятие; есть оно и у Huawei, и у Alibaba; занимаются этим и менее крупные, специализированные fabless-разработчики — Moore Threads, Biren Technology, Enflame и т. д.; в стране создано уже индустриальное сообщество Model-Chip Ecosystem Innovation Alliance, нацеленное на формирование полностью локализованного цикла проектирования, изготовления и эксплуатации «железа» для ИИ. Китайский стартап разработчиков ИИ-ускорителей Cambricon, скажем, за минувший квартал выручил рекордные 405 млн долл. США — в 44 раза больше, чем за аналогичный период годом ранее, — как раз потому, что искусственное ограничение присутствия Nvidia на рынке КНР открывает перед местными компаниями ранее попросту невероятные возможности.

 «Не кажется ли вам, коллеги, что мы бегаем по кругу?» (источник: ИИ-генерация на основе модели GPT-image-1)

«Не кажется ли вам, коллеги, что мы бегаем по кругу?» (источник: ИИ-генерация на основе модели GPT-image-1)

#Конкуренция — это вам не матрицы перемножать

Как подсчитали в Statcounter (методика исследования, правда, вызывает определённые сомнения — в частности, выборка по России не включает даже в следовых количествах GigaChat или YandexGPT, — но уж что есть, то есть), в глобальном масштабе среди ИИ-ботов не просто первенствует, а доминирует ChatGPT с долей 83% — что явственно усложняет жизнь его конкурентам. Неудивительно поэтому, что и с фаворитом генеративной гонки, и между собой они сражаются — за сведущих в своём деле сотрудников, за потенциальных заказчиков, за высококачественные тренировочные данные и т. д. — с предельным напряжением сил.

И в ушедшем августе на этом фронте затишья также не наблюдалось: скажем, Anthropic ограничила предоставленный ранее OpenAI's доступ к своей модели через API — как пояснили представители первой компании, с тем, чтобы сотрудники последней не пользовались набравшим в последнее время изрядную популярность среди программистов инструментом Claude Code. Дело было ещё до официального запуска GPT-4, и в Anthropic, похоже, не находили себе места из-за того, что и без того лидирующая по числу пользователей модель их стараниями сделается ещё привлекательней. Собственно, пользовательское соглашение между компаниями изначально включало запрет на эксплуатацию сервисов Anthropic «для создания конкурирующего продукта или услуги, включая обучение конкурирующих ИИ-моделей».

Обострилось ИИ-противостояние и между Microsoft и Google: первая наконец-то довела ИИ-функциональность своего поисковика Bing, что десятилетиями прозябал в тени «дефолтной поисковой машины всея Интернета», до такого уровня, что он отобрал у Google статистически измеримую часть веб-трафика. По оценке StatCounter, к началу августа Microsoft нарастила свою долю на мировом поисковом рынке в десктопном сегменте на 3,4 процентного пункта (до 11,6%) — если сравнивать с тем уровнем, что компания имела на момент запуска Bing Chat в феврале 2023 г.; Google же, соответственно, потеряла за то же время 6,1 п. п. Поразительно, но с этой новостью почти одновременно появилась другая — о том, что Microsoft начала переманивать специалистов из подразделения Google DeepMind. Дальше, надо полагать, будет только интереснее!

 Слева — ответы программистов на вопрос о том, насколько в целом точны применяемые ими ИИ-инструменты: высокую их точность подтверждают чуть более 3% респондентов. Справа — оценка возможностей ИИ справляться со сложными задачами: тут полных оптимистов 4,4%, а частичных («хорошо, но можно было бы и получше») — 25,2%. Негусто! (источник: Stack Overflow)

Слева — ответы программистов на вопрос о том, насколько в целом точны применяемые ими ИИ-инструменты: высокую их точность подтверждают чуть более 3% респондентов. Справа — оценка возможностей ИИ справляться со сложными задачами: тут полных оптимистов 4,4%, а частичных («хорошо, но можно было бы и получше») — 25,2%. Негусто! (источник: Stack Overflow)

#Бесплатный сыр в генеративной мышеловке

ИИ в роли помощника программиста уже не воспринимается как некая диковина; более того — на тех, кто до сих пор воздерживается от привлечения генеративных моделей хотя бы для консультаций, если не для чернового написания кода, в крупных компаниях уже посматривают косо. Но действительно ли ИИ помогает людям — или же вникать в генерируемые им стены кода менее продуктивно — разумеется, для умелого программиста, — чем написать ту же самую программу самостоятельно? Очередной отчёт Developer Survey, представленный всемирно известной платформой Stack Overflow, в основу которого легли ответы более чем 49 тыс. респондентов из 177 стран (при этом опросник состоял из 62 позиций), даёт не самый позитивный ответ: хотя в 2025 г. кодеры уже используют либо планируют применять для своих разработок ИИ-инструментарий чаще, чем в 2024-м (84% против 76%), положительно воспринимают его в текущем году лишь примерно 60% респондентов — тогда как в прошлом эта доля переваливала за 70%. Вдобавок, 66% разработчиков самым тягостным для себя опасением в отношении ИИ назвали следующее: «предлагаемые им решения почти верные, — но всё-таки не до конца», а ещё 45% — «отладка написанного ИИ кода занимает больше времени, чем созданного человеком». Год назад точности генеративных инструментов программирования доверяли 43% опрошенных, сегодня — лишь 33%. Учитывая, что круг участников такого рода обзоров на Stack Overflow довольно-таки постоянен, можно утверждать: эти результаты — не свидетельство внезапного нашествия невесть откуда взявшихся скептиков, а показатель разочарования (возникшего в процессе прикладной работы) прежде вполне позитивно настроенных к ИИ специалистов.

Общий вывод можно сформулировать так: БЯМ в роли помощника программиста — джуна или даже миддла; в зависимости от квалификации его оператора — свою работу выполняет на условную тройку или даже четвёрку. И в целом это не так уж плохо, учитывая, что работать машина может 24/7, не требует медстраховки и больничных не берёт, — только вот времени на проверку и отладку выдаваемого ею кода уходит непростительно много. Как известно, куда труднее выявить причину неоптимальной работы программы («нормально же вроде всё, но явно могло бы быть лучше!»), чем грубую ошибку. И как раз вот это состояние, когда ИИ «почти прав», угнетает кодеров сильнее всего: оно манит обещанием роста производительности труда — но на деле оборачивается необходимостью проделывать немалый объём весьма кропотливой работы по перепроверке сгенерированного кода. И тот факт, что способным справляться со сложными задачами в 2025 г. ИИ считают около 30% респондентов — а в 2024-м таких было 35%, — свидетельствует о нарастании скепсиса по части перспективности генеративного программирования именно в профессиональной среде. Понятно, что у топ-менеджмента и маркетологов может быть кардинально иное мнение, — но объём и качество выдаваемого на-гора кода обеспечивают всё-таки не они.

 Самый обычный разворот культового модного журнала. Ну и что, что платье модели справа ненатурально облегает её ноги? Там и без ног есть на что посмотреть! (источник: Vogue)

Самый обычный разворот культового модного журнала. Ну и что, что платье модели справа ненатурально облегает её ноги? Там и без ног есть на что посмотреть! (источник: Vogue)

#Мир моды как уходящая натура

Ещё в прошлом августе целый ряд крупнейших англоязычных онлайн-изданий — включая The New York Times, Wired, Vogue и др. — заблокировали для запущенного как раз в то время ИИ-поисковика SearchGPT доступ к своим материалам: предположительно потому, что не доверяли явно провозглашённому OpenAI намерению использовать содержимое их веб-страниц только для поиска, а не швырять его в ненасытную топку обучения очередных моделей. А всего год спустя модный журнал Vogue сам попался на горячем — когда опубликовал в своём печатном выпуске ИИ-сгенерированные фото моделей, рекламирующих изделия бренда Guess. Справедливости ради стоит отметить, что журналисты не сами решили сэкономить на съёмках, — уже готовое порождение генеративного ИИ им предоставило рекламное агентство Seraphinne Vallora; более того, на картинке имеется вполне откровенная надпись мелким шрифтом — Produced by Seraphinne Vallora on AI. Так что с формальной точки зрения возмущаться нечем: никто никого не обманывает — ну, кроме, возможно, тех, кому лень всматриваться в набранные нонпарелью предостережения и скрупулёзно вычитывать все сноски под звёздочками в рекламных текстах; да и то с юридической точки зрения это не есть умышленный обман. Однако пресловутая ИИ-реклама модного бренда глобального уровня породила в соцсетях натуральную бурю — и вовсе не из-за того, что место снимка живой девушки на журнальном развороте заняла горстка сгенерированных ИИ пикселов.

Аудиторию Vogue — которая состоит, сюрприз, не из одних только богатеньких модниц — уязвил как раз сам факт допуска на страницы культового издания образчика того, что всё чаще называют в Сети «ИИ-бурдой» (AI slop): дешёвого, низкокачественного контента, полученного пропусканием через подходящую БЯМ не слишком глубоко продуманных подсказок — и не подвергнутого вдумчивому редактированию после. Увидеть плод своего труда в Vogue десятилетиями было если не пределом мечтаний, то крайне важной вехой в профессиональной карьере множества вовлечённых в индустрию моды креативных специалистов: собственно модельеров, портных, кожевников, стилистов, флористов, фотографов, фоторедакторов — не говоря уже о самих моделях. И то, что наряду с продуктами немалых усилий целых коллективов профи журнал теперь публикует результат нескольких секунд работы современной модели text-to-image (ну ладно; пусть даже с минимальной ручной постобработкой), этих самых профи не на шутку задевает. Тем более, что обсуждаемое рекламное фото было сгенерировано полностью — то есть на нём даже не представлены реальные продукты Guess, доступные к приобретению; да, платье, сумочка, шляпки и прочее очень похожи на серийные образцы, но всё-таки они — порождение генеративной модели, пусть и обученной на соответствующем массиве данных.

Дело вовсе не в том, будто созданная ИИ реклама безнадёжно уступает творению рук человеческих: пусть именно этот пример неудачен, можно допустить, что специалисты постараются и однажды заставят БЯМ произвести фото, ничем не уступающее натуральному. Просто это будут уже другие специалисты — не те, кто создавал своими трудами глобальную индустрию моды на протяжении последних десятилетий; использующие совершенно иной инструментарий, со своим набором ценностных установок и т. п. Рядовой потребитель модных журналов разницы, может, и не заметит — хотя скандальных материалов из сладкой жизни моделей и кутюрье на страницах таких изданий явно поубавится; модели-то пойдут сплошь генеративные, — но саму индустрию fashion это грозит перетряхнуть самым кардинальным образом.

 За последнюю декаду, справедливости ради следует отметить, коэффициент удержания в штате инженеров (и в первую очередь ИТ-специалистов) на четырёхлетнем интервале в американских компаниях поступательно снижался — за вычетом спровоцированного пандемией COVID-19 болезненного обострения интереса коммерсантов к высокотехнологичным решениям (источник: SignalFire)

За последнюю декаду, справедливости ради следует отметить, коэффициент удержания в штате инженеров (и в первую очередь ИТ-специалистов) на четырёхлетнем интервале в американских компаниях поступательно снижался — за вычетом спровоцированного пандемией COVID-19 болезненного обострения интереса коммерсантов к высокотехнологичным решениям (источник: SignalFire)

#Не в деньгах счастье

Конкуренция — это прежде всего борьба за ресурсы: да, в финале — за деньги конечных потребителей продуктов или услуг; но чтобы сделать рынку по-настоящему привлекательное предложение, необходимо для начала создать его само — причём на очень достойном уровне. Именно поэтому среди разработчиков коммерческих БЯМ идёт нешуточная схватка за таланты, для победы в которой — как засвидетельствовал ушедший август — одних только бездонных карманов недостаточно. Как ни рассыпала экстремистская Meta* перед выдающимися специалистами по ИИ златые горы, а многие инженеры этого направления, сообщает исследование SignalFire, предпочли бы работать в Anthropic за куда меньшие деньги. Критерий для оценки таких предпочтений был взят вполне объективно измеримый — отношение скорости найма ИИ-специалистов на определённом отрезке времени к скорости их увольнений из той же компании. Так вот, для Anthropic этот показатель составил 2,68, для OpenAI — 2,18, для Meta* — 2,07, а для Google (стыдно, Google!) — всего-то 1,17. Сделаем оговорку: исследование опубликовано в начале августа, — исход месяца детище Марка Цукерберга (Mark Zuckerberg) почти наверняка встретило с ещё более скромным результатом.

Хотя экстремистская Meta* продолжает пересаживать участников квартета менять структуру своих ИИ-ориентированных подразделений, перекроив её уже в четвёртый раз за последние полгода, параллельно планируя расходы в сотни миллиардов долларов на возведение новых дата-центров, помогает ей это, судя по всему, не слишком. Цукерберг всерьёз намерен создать в обозримой перспективе сильный ИИ (AGI), который не просто сравнялся бы с человеческим мышлением (что бы это ни значило в прикладном плане), но и превзошёл бы его. Быть может, как раз для того, чтобы не допустить распыления средств в погоне за столь амбициозной целью и не отстать от конкурентов по более востребованным рынком направлениям, в рамках Meta* была создана в этом месяце структура Superintelligence Labs (MSL) — сосредоточенная на разработке базовых языковых моделей. Стратегическую важность MSL подчёркивает настойчивость, с которой Цукерберг переманивает в неё ведущих специалистов по ИИ из других компаний — из Apple, к примеру (у которой, кстати, с собственными БЯМ очевидные проблемы), за семь недель в Meta* перебрались аж шесть сотрудников. Впрочем, на пользу экстремистской компании это не пошло: под самый конец августа из Superintelligence Lab начался массовый исход недавних перебежчиков — а внутри и самой MSL, и Meta* в целом кадровая чехарда в сочетании с административной неопределённостью (новые структуры никак толком не оформятся в полноценные отделы, давние сотрудники завидуют высоким окладам переманенных новичков, между ИИ-подразделениями идёт соперничество за доступ к вычислительным ресурсам) создаёт откровенно нервозную атмосферу. Учитывая, что количество ИИ-единорогов (частных компаний с биржевой стоимостью 1 млрд долл. и более) в 2025 г. приблизилось к 500, причём 100 из них были основаны в последние всего лишь два года, заливать проблему своего отставания на этом направлении деньгами уже откровенно бессмысленно, — денег в индустрии и так предостаточно.

 В апреле 2025-го индекс акций техногигантов американского рынка, среди которых доминируют как раз связанные с ИИ компании, пошёл в резкий отрыв от сводного S&P 500, — и лишь к концу августа наметились уверенные признаки возвращения его, что называется в меридиан, которое — когда и если оно состоится — с учётом набранного объёма привлечённых средств вполне может быть воспринято как схлопывание биржевого пузыря (источник: LSEG)

В апреле 2025-го индекс акций техногигантов американского рынка, среди которых доминируют как раз связанные с ИИ компании, пошёл в резкий отрыв от сводного S&P 500, — и лишь к концу августа наметились уверенные признаки возвращения его, что называется в меридиан, которое — когда и если оно состоится — с учётом набранного объёма привлечённых средств вполне может быть воспринято как схлопывание биржевого пузыря (источник: LSEG)

#Выбрасываются ли ИИ-трейдеры из электрических окон?

Когда шумиха вокруг генеративного ИИ только-только начинала подниматься — почти три года тому назад, — многие эксперты настойчиво напоминали, что и в самый канун краха доткомов в конце прошлого тысячелетия восприятие новейших на тот момент высоких технологий было чрезвычайно восторженным. Как раз эта чрезвычайщина и привела сперва к надуванию, а затем и к схлопыванию биржевого пузыря — итогом которого не стал, разумеется, откат в докомпьютерную эру, но многие компании, инвестфонды (не исключая государственных) и рядовые акционеры сделались ощутимо беднее. Как заявил в середине августа сам Сэм Альтман, инвесторы сегодня «чрезмерно воодушевлены ИИ» — а это значит, что вероятность лопнуть для связанного с этим направлением пузыря уже весьма высока: «Кто-то потеряет феноменальную сумму денег. Кто-то там прогорит, я думаю». Впрочем, для экономики в целом многосотмиллиардные инвестиции в ИИ глава OpenAI всё равно считает «огромной чистой выгодой», — и странно было бы, честно говоря, если бы он стоял на иной точке зрения.

Надо отметить, что о явном перегреве связанного с генеративными моделями сегмента ИТ-рынка предупреждают уже и другие эксперты — включая сооснователя Alibaba Джо Цая (Joe Tsai), Рэя Далио (Ray Dalio) из Bridgewater Associates и ведущего экономиста Apollo Global Management Торстена Слока (Torsten Slok). Альтман же, следует отдать ему должное, вовсе не собирается, подметив скорое схлопывание пузыря, поскорее выходить в кэш и пережидать неминуемую катастрофу в какой-нибудь тихой гавани: напротив, он по-прежнему уверен, что «ИИ — это самое важное, что происходило [с человечеством] за довольно долгое время», и сворачивать активность своей компании не намерен. В конце концов, многие из тех, кто пережил «кризис дот-комов», впоследствии процветали, — ведь объективная потребность рынка в ИТ никуда не делась; просто снизился накал шумихи вокруг новой сверхпривлекательной технологии. С ИИ, вполне вероятно, примерно то же и случится, — вопрос только в сроках обвальной декапитализации раздувшихся на ажиотаже последних лет активов (ближе к концу августа первые признаки этой тенденции начали проявляться на бирже) да в продолжительности периода послешоковой депрессии.

Действительно, недавнее исследование группы из Массачусетского технологического института показало, что среди проектов по разработке специализированного ПО для бизнеса, интегрирующего ИИ-функцинальность, 95% завершаются провалом, — но это совершенно не повод облачаться в шкуры и возвращаться назад, в пещеры. Темпы развития ИИ замедляются, это объективный факт, — но не менее бесспорно и то, что без искусственного интеллекта (как без Интернета в эпоху «краха дот-комов» и после неё) человечество жить уже не готово. Вот и Дженсен Хуанг (Jensen Huang), глава Nvidia, уверен, что пик ИИ-ажиотажа далеко ещё не пройден — и что к концу 2020-х глобальные затраты на инфраструкктуру искусственного интеллекта вырастут до 3-4 трлн долл. Так что пока всё-таки не расходимся!

________________

* Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»

 
 
⇣ Содержание
Если Вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
⇣ Комментарии
Прежде чем оставить комментарий, пожалуйста, ознакомьтесь с правилами комментирования. Оставляя комментарий, вы подтверждаете ваше согласие с данными правилами и осознаете возможную ответственность за их нарушение.
Все комментарии премодерируются.
Комментарии загружаются...

window-new
Soft
Hard
Тренды 🔥
Дождались: 15 лет спустя Meta выпустила полноценное приложение Instagram для iPad 2 ч.
Старые Pixel получили новый интерфейс Material 3 Expressive и свежие ИИ-функции Google 2 ч.
Буквально одно слово в решении суда спасло сделку Apple и Google на $20 млрд в год 2 ч.
В Android закрыли уязвимость, позволявшую захватить контроль над смартфоном через Bluetooth или Wi-Fi 2 ч.
«007 кадров», 30 минут геймплея и дата выхода: Sony устроила демонстрацию шпионского боевика 007 First Light от создателей Hitman 4 ч.
Браузер Chrome обновился до 140-й версии — закрыты шесть уязвимостей, включая критическую 4 ч.
«Наслаждайтесь последними днями покоя»: перезапуск Painkiller не выйдет 9 октября 6 ч.
Акции Google резко подорожали после того, как компания увернулась от принудительной продажи Chrome 7 ч.
«С возвращением, Crazy Taxi»: стартовавший в раннем доступе симулятор CyberTaxi: Lunatic Nights напомнил игрокам о легендарной серии аркад 9 ч.
Легендарный шутер Quake III Arena стал доступен в браузерах — бесплатно, без регистраций, смс и рекламы 9 ч.