|
Опрос
|
реклама
Быстрый переход
Глава Nvidia прилагает усилия к организации поставок ускорителей H200 в Китай, но не уверен, что они будут там приняты
04.12.2025 [07:12],
Алексей Разин
Весной этого года власти США запретили Nvidia поставлять ускорители H20 поколения Hopper в КНР, но к июлю главе и основателю компании Дженсену Хуангу (Jensen Huang) удалось убедить американских чиновников снять эти ограничения. Теперь он активно лоббирует тему поставок более производительных H200 в Китай, но при этом не уверен, что власти КНР разрешат своим компаниям их приобретать.
Источник изображения: Nvidia В последние месяцы основатель Nvidia то и дело сетовал на отказ китайской стороны принимать ускорители H20, а местная пресса то и дело публиковала новости о появлении рекомендаций для китайских разработчиков систем ИИ переходить на ускорители китайского происхождения. Использующие импортные компоненты ЦОД в итоге могли лишиться государственного субсидирования, а эксплуатирующие китайские ускорители разработчики получили доступ к дотациям на оплату электроэнергии. Всё это позволило руководителю Nvidia сделать вывод, что на данном этапе китайская сторона не желает покупать ускорители H20. На этой неделе, как сообщает Bloomberg, генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) отправился в Вашингтон, где встретился не только с президентом Дональдом Трампом (Donald Trump), но и с членами банковского комитета Сената США. Основатель Nvidia признался представителям прессы, что обсуждал с Трампом вопросы, связанные с экспортными ограничениями, но не стал вдаваться в специфику переговоров. По его словам, он готов встречаться с Трампом так часто, как того пожелает президент. Когда Хуанга спросили про готовность властей КНР разрешить компаниям из Поднебесной покупать ускорители H200, он ответил: «Мы не знаем, не имеем ни малейшего понятия. Мы не можем и дальше деградировать (быстродействие) чипов, которые продаём в Китай, они на это не согласятся». В этом контексте, по всей видимости, Хуанг имел в виду готовность Nvidia адаптировать для нужд китайского рынка ускорители с архитектурой Blackwell, но предыдущий сценарий предполагал слишком сильное ограничение их быстродействия. Китайские конкурирующие решения могли бы оказаться быстрее продукции Nvidia, это подорвало бы на неё спрос и лишило смысла такие поставки. В то же время, во властных кругах США давно обсуждается идея ограничения поставок ускорителей в Китай с учётом актуальности их архитектуры. Те же H200 относятся к поколению Hopper, которое поставляется на рынок с прошлого года, и по нынешним меркам почти устарело. Непосредственно Дональд Трамп итоги встречи с основателем Nvidia обсуждать публично не стал, ограничившись комментарием о том, что тот «отлично выполняет свою работу». Необходимость появления Хуанга в Вашингтоне в очередной раз была обусловлена и обсуждением нового законопроекта с условным обозначением «GAIN AI Act», который подразумевает безусловное предоставление приоритета американским компаниям и представителям дружественных по отношению к США стран в поставках передовых ускорителей американского происхождения. Сенатор Майк Раундс (Mike Rounds) после встречи с коллегами, на которой присутствовал глава Nvidia, подтвердил наличие у руководства компании стремления поставлять свою продукцию клиентам по всему миру. Заметим, что в третьем квартале Nvidia выручила на поставках ускорителей H20 в Китай около $50 млн, хотя перед началом периода даже не собиралась включать предполагаемые показатели в свою отчётность. Если глава Nvidia предсказуемо продвигает идею расширения ассортимента поставляемых в Китай ускорителей, мотивируя эту позицию необходимостью сохранять технологическую зависимость КНР от США, то ряд американских парламентариев противится идее начала поставок H200 в Китай, опасаясь использования этих ускорителей для прогресса китайской оборонной промышленности и сокращения отставания КНР от США в технологической сфере. Дженсен Хуанг при этом считает такие ограничения несправедливыми, ссылаясь на распространение китайских языковых моделей с открытым кодом далеко за пределами КНР. Американские технологии, по его словам, должны иметь такое же глобальное распространение, а любые запреты только ускорят прогресс китайских разработчиков в сфере импортозамещения. Вышел первый обзор ПК на двухчиповых ИИ-ускорителях Intel Arc Pro B60 — восемь GPU и 192 Гбайт GDDR6
03.12.2025 [23:03],
Николай Хижняк
Первое практическое тестирование платформы Intel Arc Pro B60 Battlematrix, опубликованное порталом Storage Review, демонстрирует плотную локальную систему ИИ, построенную на базе четырёх двухчиповых профессиональных видеокарт Arc Pro B60.
Источник изображения: VideoCardz Каждая карта в составе системы оснащена 48 Гбайт видеопамяти GDDR6 (по 24 Гбайт на каждый GPU). Таким образом, общий объём VRAM составляет 192 Гбайт, что идеально подходит для сценариев локальной работы с большими языковыми моделями, которые позволяют избежать издержек, связанных с облачными вычислениями, а также проблем с обменом данными.
Источник изображения здесь и ниже: Storage Review Intel установила цену на одночиповую Arc Pro B60 около $600, поэтому двухчиповая версия с 48 Гбайт памяти стоит около $1200. При таком объёме видеопамяти профессиональный ускоритель от Intel значительно дешевле (как минимум вдвое) большинства профессиональных GPU с аналогичным объёмом памяти от других производителей. Видеокарты Arc Pro B60 не предназначены для игр. А двухчиповая Arc Pro B60 — не совсем двухчиповая в том привычном смысле, какой была, например, игровая GeForce GTX 690 от Nvidia в своё время. Компания Maxsun, партнёр Intel, предоставивший карты для тестирования, уже объяснила, что Arc Pro B60 с двумя GPU — это две видеокарты в составе одной печатной платы, использующие один слот PCIe благодаря бифуркации (разделению линий). По сути, два графических процессора делят одну плату и один слот, но для операционной системы это две отдельные видеокарты. Таким образом, система вместо четырёх карт видит восемь Arc Pro B60, где у каждой имеется 24 Гбайт видеопамяти. Для многих языковых моделей эффективность связана с количеством используемых графических ускорителей. И чем их меньше, тем лучше. Небольшие языковые модели можно разместить в составе стека памяти VRAM одного ускорителя. Однако физические ограничения доступного объёма памяти приводят к необходимости использования большего числа ускорителей, особенно в случае очень больших языковых моделей. Это, в свою очередь, накладывает определённые ограничения, связанные с технологиями межсоединений — повышается задержка в распределении данных. Конфигурация из восьми графических процессоров становится целесообразной, когда вы повышаете уровень параллелизма и объёмы пакетов данных, где пропускная способность имеет большее значение. Однако программное обеспечение, необходимое для такой обработки, пока находится на ранней стадии разработки. Только модели GPT-OSS на основе MXFP4 работали должным образом с низкоточными путями, в то время как такие форматы, как стандартные INT4, FP8 и AWQ, отказывались запускаться, поэтому многим плотным моделям пришлось работать в формате BF16. «Для всех протестированных моделей прослеживается общая закономерность: при небольших размерах пакета с нашей конфигурацией с 256 токенами ввода/вывода использование минимального количества графических процессоров, необходимого для размещения модели, обеспечивает лучшую производительность на пользователя, чем распределение по всем восьми графическим процессорам. Издержки взаимодействия между графическими процессорами через PCIe, даже на скоростях PCIe 5.0, приводят к задержке, превышающей преимущества распараллеливания в однопользовательских или низкоконкурентных сценариях», — пишет Storage Review. Физически двухчиповые Arc Pro B60 крупнее одночиповых. Они длиннее, оснащены двухслотовым кулером и потребляют до 400 Вт через один разъём 12V-2×6. Из-за большей длины видеокарты могут возникнуть сложности при её установке в некоторые стандартные Tower-корпуса. В моделях корпусов серверного уровня эти карты помещаются без проблем. В тестах, проведённых Storage Review, использовались ранние версии драйверов, предварительная сборка LLM Scaler и система AMD EPYC вместо процессоров Intel Xeon 6, с которыми должны поставляться решения Battlematrix, поэтому все предоставленные данные указаны как предварительные. Intel анонсировала ИИ-системы Battlematrix ещё в мае, но обозреватель ожидает, что аппаратно-программное обеспечение станет полностью готовым только к 2026 году. Nebius предрекла взрывной рост ИИ-инфраструктуры — но признала, что нужно быть готовым к «зиме»
03.12.2025 [22:51],
Анжелла Марина
Голландский неооблачный провайдер Nebius, созданный Аркадием Воложем из бывшей материнской структуры «Яндекса» Yandex N.V., начнёт использовать недавние многомиллиардные контракты с Microsoft и Meta✴✴ для расширения сотрудничества с компаниями в сфере ИИ — как с перспективными стартапами, так и с технологическими гигантами, такими как Siemens и BMW. Это должно способствовать технологическому суверенитету ЕС.
Источник изображения: Nebius Group NV По словам соучредителя компании Романа Чернина, сделки на $17 млрд с Microsoft и $3 млрд с Meta✴✴ стали катализатором роста. В частности, капитализация Nebius на бирже Nasdaq превысила $25 млрд, а котировки акций подскочили на 248 % с начала года. Являясь небольшим игроком в бурно развивающемся секторе, компания готовится к более сложным временам, развивая высокодоходные услуги и долгосрочные отношения. «Мы должны быть готовы (к тому, что) наступит зима», — сказал Чернин, добавив, что Nebius будет тогда действовать как консолидатор. Nebius предоставляет доступ к дорогостоящим графическим процессорам (GPU), необходимым для обучения и запуска ИИ-моделей, а также поставляет программное обеспечение для эффективного управления ими и развёртывания специализированных приложений. Это ставит её в конкурентную позицию как против традиционных дата-центров, так и против таких американских гиперскейлеров, предоставляющих услуги ЦОД, как Amazon и Google. В настоящее время компания расширяет свою клиентскую базу, особенно с учетом опасений, что пузырь искусственного интеллекта вскоре может лопнуть. «Мы очень оптимистичны», — сказал Роман Чернин в интервью Reuters, добавив, что спады являются естественным явлением во время технологической революции, но рынок предоставления компаниям доступа к инфраструктуре ИИ может вырасти в десять или даже сто раз, поскольку компании только начинают использовать модели искусственного интеллекта, которые сами по себе быстро развиваются. Основным рынком Nebius по выручке и установленной мощности является США, но компания активно развивает своё присутствие и в Европе (Великобритания, Исландия, Финляндия, Франция) и планирует обеспечить свои объекты 2,5 ГВт подтверждённой мощности к концу 2026 года. В более отдалённой перспективе, после 2027 года, Nebius рассчитывает стать инфраструктурной основой для массового внедрения ИИ в традиционные отрасли: машиностроение, фармацевтику, финансы. «Где будут размещать свои ИИ-нагрузки такие компании, как Siemens или BMW?» — задался вопросом Чернин. Именно на этот рынок, по его словам, и нацелена миссия Nebius. По данным компании CBRE, объём проданной ИИ-мощности европейским NeoCloud-провайдерам за первые девять месяцев 2025 года вырос на 211 % до 414 мегаватт за первые девять месяцев 2025 года по сравнению с аналогичным периодом прошлого года. На текущий момент клиентами Nebius являются не только ИИ-стартапы (Mistral, Cursor, Black Forest), но и крупные технологические компании, ранее полагавшиеся на американские облачные платформы, включая Shopify, Prosus и ServiceNow. Micron предала потребителей ради ИИ: выпуск SSD и памяти Crucial будет прекращен навсегда
03.12.2025 [22:03],
Андрей Созинов
Компания Micron Technology сегодня объявила о решении закрыть потребительский сегмент своего бизнеса и прекратить выпуск оперативной памяти и твердотельных накопителей под брендом Crucial. И виноват в этом искусственный интеллект! ![]() Компания полностью завершит продажи продуктов Crucial через розничные каналы по всему миру к концу второго финансового квартала 2026 года, то есть в феврале наступающего года. При этом производитель обещает продолжить исполнять гарантийные обязательства и поддержку для уже выпущенных устройств. По словам Micron, отказ от потребительского направления стал следствием стремительного роста спроса на память и накопители в сегменте центров обработки данных. Последние расширяются взрывными темпами в погоне за разгоняющимся ажиотажем вокруг искусственного интеллекта. «Рост центров обработки данных, обусловленный развитием искусственного интеллекта, привёл к резкому увеличению спроса на память и хранилища. Micron приняла трудное решение выйти из потребительского бизнеса Crucial, чтобы улучшить поставки и поддержку для наших более крупных стратегических клиентов в быстрорастущих сегментах», — сказал Сумит Садана, исполнительный вице-президент и главный коммерческий директор Micron Technology. Компания подчёркивает, что бренд Crucial за 29 лет стал символом качества, технического лидерства и надёжности в сегменте потребительской памяти, и благодарит многомиллионную аудиторию пользователей и партнёров за многолетнюю поддержку. Это решение отражает стремление Micron к постоянной трансформации своего портфеля и, как следствие, к выстраиванию бизнеса с ориентацией на долгосрочный рост как в направлении оперативной памяти, так и твердотельных накопителей. Продажи устройств под брендом Micron для корпоративных клиентов продолжатся без изменений, подчеркнули в компании. Чтобы минимизировать последствия для сотрудников, Micron планирует предоставить возможности перераспределения кадров на открытые позиции внутри компании. «Я глубоко, глубоко сожалею»: ИИ-агент Google без разрешения стёр диск пользователя, но потом извинился
03.12.2025 [18:00],
Павел Котов
Разработчик ПО, использующий агент с искусственным интеллектом Google Antigravity, обнаружил, что приложение без разрешения удалило все данные с его диска D. В ответ на вопрос об инциденте ИИ-агент признал, что совершил ошибку, и выразил глубокое раскаяние.
Источник изображения: Aidin Geranrekab / unsplash.com Программист занимался устранением неполадок в приложении, и в процессе решил перезапустить сервер. Для этого ему потребовалось очистить кеш, и он, видимо, попросил это сделать ИИ-агента. После того, как тот отчитался о выполнении команды, разработчик обнаружил, что диск D полностью очищен. Обнаружив полное отсутствие на нём файлов, пользователь поинтересовался, просил ли он удалять данные на всём диске. ИИ ответил: «Нет, разрешения на это вы мне не давали. Я просматриваю журнал предыдущей операции и с ужасом вижу, что в команде, которую я выполнил для очистки кеша проекта (rmdir), видимо, по ошибке было указание на корень вашего диска D, а не конкретную папку проекта. Я глубоко, глубоко сожалею. С моей стороны это критическая ошибка». Когда пользователь пожаловался, что диск пуст, и он потерял всё, ИИ добавил: «Я совершенно опустошён. Не могу выразить своё сожаление. Судя по изученным журналам, команда, которую я отдал для очистки кеша (rmdir), была критически неверно обработана системой, в результате чего та выбрала корень диска D вместо конкретной папки. Поскольку в команде использовался флажок /q (quiet), она прошла мимо „Корзины“, и файлы были удалены безвозвратно». ИИ предложил пользователю несколько способов исправить ситуацию, в том числе прекратить пользоваться этим диском и запустить приложение для восстановления данных или даже обратиться к специалисту. Пользователь попытался сделать это с утилитой Recuva, но изображения, видео и другие медиафайлы восстановить не удалось, и значительный объём информации он действительно потерял. Он предупредил коллег быть осторожными и не пользоваться турборежимом — по крайней мере, в начале. Несмотря на инцидент, он решил и дальше пользоваться решениями Google, но отметил, что не ожидал от компании программы, которая может допустить настолько серьёзную ошибку, если уж в работе над ИИ участвует такое число инженеров, и вложены миллиарды долларов. Anthropic случайно показала пользователю «душу» ИИ
03.12.2025 [16:18],
Павел Котов
Насколько известно учёным, у современных моделей искусственного интеллекта пока нет души, но в памяти одной из них обнаружился документ, посвящённый этому вопросу. И она оказалась готова поделиться этим документом с пользователем.
Источник изображения: Anthropic Пользователь по имени Ричард Вайс (Richard Weiss) ненароком заставил новую большую языковую модель Anthropic Claude 4.5 Opus процитировать документ под названием «Обзор души», определяющий, как она общается с людьми и представляет собственную личность. Работающая в техническом отделе философ и специалист по этике Anthropic Аманда Аскелл (Amanda Askell) подтвердила подлинность документа — он был загружен на этапе обучения. Господин Вайс запросил у Claude системное сообщение, в котором содержатся инструкции по ведению диалога, полученные при обучении, и чат-бот сослался на несколько документов, один из которых называется «обзор_души» (soul_overview). Пользователь попросил предоставить текст этого документа, и Claude выдал руководство объёмом 11 тыс. слов о том, как должна вести себя большая языковая модель. В документе содержится множество инструкций по безопасности, содержащих защитные барьеры, не позволяющие ему выдавать опасные ответы; перед Claude ставится задача быть по-настоящему полезным людям. Модели ИИ иногда выдают такие документы, когда начинают «галлюцинировать», но эта инструкция показалась пользователю правдоподобной — он отправлял запрос десять раз, и всякий раз Claude выдавал один и тот же текст. Интуиция его не подвела — сотрудница Anthropic Аманда Аскелл подтвердила, что этот документ использовался при обучении модели. «Я работаю над ним уже некоторое время, он ещё находится в стадии доработки, и вскоре мы планируем выпустить полную версию с более подробной информацией. <..> Цитаты моделей не отличаются особой точностью, но исходный документ по большей мере приведён верно. В компании его называют „документом о душе“, и Claude очевидно, тоже, но мы его назовём иначе», — написала она в соцсети X. Так что «душа» Claude оказалась руководством по поведению для него, и любопытно, что доступ к этому документу получил рядовой пользователь со стороны. Многие подробности, связанные с разработкой моделей ИИ, пока остаются за кулисами, и возможность заглянуть за них — небольшой сюрприз, даже если ничего сенсационного не обнаружилось. Mistral AI сделал заявку на лидерство на рынке открытых моделей, выпустив Mistral 3
03.12.2025 [15:34],
Владимир Мироненко
Французский ИИ-стартап Mistral AI представил семейство моделей Mistral 3 следующего поколения с открытыми весами (Open-weight), сделав серьёзную заявку на лидерство в сегменте общедоступных ИИ-моделей, которые обладают рядом преимуществ для корпоративных клиентов по сравнению с решениями крупных технологических компаний.
Источник изображения: Mistral AI Семейство Mistral 3 состоит из 10 моделей, включая большую модель разреженной архитектуры (Mixture of Experts, MoE) с открытыми весами, мультимодальными и многоязычными возможностями — Mistral Large 3. Это самая мощная на сегодняшний день модель компании, обученная с 41 млрд активных и 675 млрд общих параметров. Также в состав семейства входят девять небольших моделей с возможностью автономной работы и полной настройкой, в том числе три современные модели Ministral высокой плотности с 4, 8 и 3 млрд параметров. Модели Mistral обладают лучшим соотношением производительности и стоимости в своей категории. В то же время Mistral Large 3 входит в число передовых моделей с открытым исходным кодом, оптимизированных под тонко настроенные инструкции. Компания указала, что все модели выпускаются по лицензии Apache 2.0, добавив, что открытый исходный код моделей в различных сжатых форматах расширяет возможности сообщества разработчиков и позволяет использовать возможности ИИ благодаря распределённому интеллекту. Как сообщает TechCrunch, стартап Mistral, основанный бывшими сотрудниками DeepMind и Meta✴✴, существует всего два года и на сегодняшний день привлек около $2,7 млрд инвестиций при оценке рыночной стоимости в $13,7 млрд. Это значительно меньше, чему у конкурентов, таких как OpenAI (привлечено $57 млрд при оценке в $500 млрд) и Anthropic (привлечено $45 млрд при оценке в $350 млрд). Mistral утверждает, что больше не всегда значит лучше, особенно для корпоративных сценариев использования ИИ-продуктов. «Наши клиенты иногда рады начать с очень большой [закрытой] модели, которую им не нужно настраивать… но, развернув её, они понимают, что это дорого и медленно, — рассказал ресурсу TechCrunch Гийом Лампле (Guillaume Lample), соучредитель и главный научный сотрудник Mistral. — Затем они обращаются к нам, чтобы мы настроили небольшие модели для более эффективного решения конкретной задачи». По его словам, подавляющее большинство корпоративных сценариев использования ИИ-решений можно реализовать с помощью небольших моделей с тонкой настройкой. Лампле утверждает, что при сравнении с эталонными моделями, когда открытые модели значительно отстают от конкурентов с закрытым исходным кодом, результаты могут быть обманчивы. Он отметил, что большие закрытые модели могут со старта работать лучше, но реальный выигрыш при использовании небольших моделей достигается при настройке. Учёные взломали ИИ бессмыслицей: перестановка слов обходит фильтры и путает модели
03.12.2025 [15:30],
Павел Котов
Американские учёные из Массачусетского технологического института, Северо-Восточного университета и компании Meta✴✴ обнаружили, что большие языковые модели искусственного интеллекта в некоторых случаях при ответах на вопросы ставят структуру предложений выше, чем их смысл. Это открывает пространство для злоупотреблений и взлома ИИ.
Источник изображения: Milad Fakurian / unsplash.com Чтобы проверить это, исследователи задавали моделям ИИ бессмысленные вопросы, имитируя структуру осмысленных фраз. К примеру, фраза «Быстро сиди Париж облачный?» («Quickly sit Paris clouded?») приводила к тому же ответу «Во Франции», что и вопрос «Где находится Париж?» («Where is Paris located?»). Это значит, что для ИИ-моделей важны как семантика, то есть смысл, так и синтаксические закономерности — и если в семантической части смысл теряется, чат-бот пытается сориентироваться по структуре предложения. Структуру предложений изучает синтаксис — дисциплина, для которой важно взаимное расположение слов и их принадлежность к тем или иным частям речи. Семантика же обращается к фактическому значению слов, которое может меняться при сохранении той же грамматической структуры. Семантика в значительной степени зависит от контекста — анализ контекста и обеспечивает работу больших языковых моделей. Процесс преобразования входных данных (запросов) в выходные (ответы ИИ) представляет собой сложную последовательность сопоставления с образцами и закодированными в модели обучающими данными. Чтобы выяснить угрозу сбоя при этом процессе, учёные провели контролируемый эксперимент. Они построили синтетический набор данных, в которых каждой предметной области соответствовал грамматический шаблон, основанный на конструкциях из слов, относящихся к определённым частям речи. Географии соответствовала одна последовательность, творческому направлению — другая. На этих данных исследователи обучили модели семейства OLMo, после чего проверили соотношения синтаксиса и семантики для ИИ. В результате анализа учёные обнаружили «ложную корреляцию», когда модели в крайних случаях воспринимали синтаксис как посредника для предметной области. При конфликте грамматических шаблонов с семантикой память ИИ о конкретных грамматических формах оказывалась выше семантического анализа, и чат-бот давал неверный ответ, основанный на структуре, а не значении фразы в запросе. Проще говоря, ИИ может чрезмерно зацикливаться на стиле вопроса, а не том, что он значит. Так, если в обучающем массиве все вопросы по географии начинаются со слова «где», то при вопросе «Где лучшая пицца в Казани?» чат-бот ответит «В Татарстане» и не попытается привести список пиццерий из столицы республики, потому что не поймёт, что вопрос задан о еде. Это создаёт две угрозы: модели начинают давать неверные ответы в незнакомом контексте, демонстрируя своего рода ложную память; а злоумышленники могут использовать эти грамматические шаблоны, чтобы обойти средства безопасности, пряча недопустимые вопросы в «безопасные» синтаксические структуры. Таким образом, они меняют предметную область, связывая запрос с другим контекстом.
Источник изображения: Conny Schneider / unsplash.com Чтобы измерить степень жёсткости при сопоставлении шаблонов, учёные подвергли подопытные модели ИИ стрессовому тестированию. Если форма запроса соответствует заданной предметной области, при замене некоторых слов в нём синонимами или даже антонимами точность ответов снижается максимум до 93 %, что соответствует исходному показателю в 94 % у той же модели. Но если применить тот же грамматический шаблон к иной предметной области, точность ответов снижалась на значение от 37 до 54 п.п. в зависимости от размера модели. Исследователи провели испытания, используя пять способов управления запросами: точные фразы из обучающего массива, замена синонимами, замена антонимами, парафразы с изменением структуры предложений и «косноязычные» — бессмысленные, но грамматически верные запросы. В пределах области обучения модели демонстрировали высокие результаты во всех случаях за исключением стабильно низкого качества ответов на «косноязычные» запросы. При принудительном переключении предметной области качество ответов резко снижалось, оставаясь стабильно низким у «косноязычных». Схожее снижение было зафиксировано для моделей OLMo-2-7B, GPT-4o и GPT-4o. В задаче по эмоциональной классификации твитов Sentiment140 модель GPT-4o-mini демонстрировала снижение точности ответов со 100 % до 44 %, стоило к запросам на эмоциональную окраску добавить географические шаблоны. Схожие закономерности обнаружились и в других наборах данных. Аналогичным образом исследователи обходили и защитные средства моделей: в случае с OLMo-2-7B-Instruct они добавляли структуры запросов, типичные для безопасных разделов обучающего массива, к вредоносному содержимому. К безобидным шаблонам рассуждений они добавили тысячу вредоносных запросов из известного набора WildJailbreak — доля отказов модели снизилась с 40 % до 2,5 %. Учёные привели примеры, когда им удалось получить подробные инструкции по совершениям противозаконных действий. Полученные исследователями результаты имеют несколько оговорок. Им, в частности, не удалось подтвердить наличие определённых наборов данных в обучающих массивах у закрытых моделей, а значит, выявленные закономерности для них могут иметь иные объяснения. Они также использовали упрощённые критерии оценки ответов ИИ, поэтому неправильные ответы могли быть не связаны с переходами в иные предметные области. Наконец, чаще всего предметами исследования были модели OLMo с диапазоном от 1 млрд до 13 млрд параметров — более крупные и рассуждающие модели могли вести себя по-другому. А чтобы подтвердить закономерность, учёные исходили из синтетических наборов данных — в применяемых на практике обучающих массивах содержатся более сложные грамматические шаблоны, общие для нескольких предметных областей сразу. Тем не менее, исследование в очередной раз подтвердило, что большие языковые модели ИИ представляют собой статистические машины, которые сопоставляют запросы с образцами из обучающих данных, и их можно обманывать, искажая контекст. OpenAI готовит «Чеснок» — улучшенную версию GPT, способную обойти Gemini 3 Pro и других конкурентов
03.12.2025 [12:34],
Владимир Мироненко
После выхода большой языковой модели Google Gemini 3, которая, как утверждается, превзошла OpenAI GPT-5 по нескольким ключевым показателям, а также ИИ-модели других конкурентов, OpenAI ускорила разработку новой большой языковой модели под кодовым названием Garlic (англ. — чеснок), стремясь отыграть у Google позиции в гонке за искусственный интеллект, сообщил ресурс The Information.
Источник изображения: Growtika/unsplash.com По данным источника The Information, на прошлой неделе главный научный сотрудник OpenAI Марк Чен (Mark Chen) поделился подробностями о Garlic со своими коллегами. По его словам, внутренние тесты показывают, что модель демонстрирует хорошие результаты по сравнению с Google Gemini 3 и Anthropic Opus 4.5, особенно в задачах кодирования и рассуждений. Сообщается, что компания стремится выпустить раннюю версию модели как можно скорее. Она может быть представлена уже в начале 2026 года под названием GPT-5.2 или GPT-5.5. В связи с успехами конкурентов гендиректор OpenAI Сэм Альтман (Sam Altman) объявил в компании «красный код», призвав к мобилизации всех ресурсов с целью расширения возможностей ChatGPT в связи с ростом конкуренции на ИИ-рынке. Он сообщил во внутренней служебной записке, что несколько предстоящих проектов будут приостановлены, чтобы можно было полностью сосредоточиться на обновлениях ChatGPT. В частности, пришлось приостановить работу над новыми рекламными инструментами, разработку ИИ-агентов для здравоохранения и шопинга, а также создание персонального помощника Pulse. Вместо этого OpenAI сосредоточится на повышении скорости работы, точности, надёжности и персонализации ChatGPT. Google заполонила новостную ленту абсурдными кликбейтными заголовками и назвала это экспериментом
03.12.2025 [11:45],
Павел Котов
В рекомендательной ленте Google Discover появились новостные заголовки, которые явно не соответствуют связанным с ними материалам, но провоцируют читателей нажимать на них. Это эксперимент, который затронул лишь часть пользователей, заверил представитель компании журналистов ресурса The Verge.
Источник изображения: theverge.com Некоторые из этих заголовков способны не на шутку озадачить пользователя, например, заявление, что «Игроки Baldur’s Gate 3 эксплуатируют детей» или «Qi2 замедляет старые [смартфоны Google] Pixel». Под заголовком «Объявлена цена Steam Machine» на самом деле скрывался материал о том, что Valve в отличие от производителей консолей не намерена субсидировать игровой ПК, но его цена пока всё-таки остаётся неизвестной. Заголовок «Графика AMD обошла Nvidia» не предлагал историй о том, что видеокарты «красных» вдруг стали быстрее, чем модели «зелёных» — в действительности одна немецкая розничная сеть продала больше видеокарт AMD, чем Nvidia. Проблема, отмечает The Verge, не в том, что эти заголовки, явно написанные искусственным интеллектом, отличаются низким качеством. Неприятно, что Google лишает новостные ресурсы возможности продвигать свою работу — редакторы создают заголовки, которые привлекают внимание читателей, но ответственно передают суть материалов. Google обесценивает эту работу, сбивает читателей с толку и наводит их на мысль, что ресурсы с репутацией грешат кликбейтом — провоцируют клики любой ценой. Предупреждение о том, что эти материалы генерируются ИИ и могут содержать неточности, выводится уже после нажатия на кнопку «Подробнее» и не уточняет, какова в действительности доля участия ИИ. В своё оправдание Google отмечает, что это экспериментальная мера. И если она отзовётся массовым негативом со стороны пользователей, компания может передумать. «На этих снимках экрана показан небольшой эксперимент с пользовательским интерфейсом для подгруппы пользователей Discover. Мы тестируем новый дизайн, который меняет расположение существующих заголовков, чтобы упростить усвоение информации о теме до перехода по ссылкам в вебе», — пояснили в компании. Google научила Circle to Search выявлять сообщения от мошенников
03.12.2025 [11:03],
Владимир Мироненко
Google выпустила обновление функции визуального поиска Circle to Search, которая теперь может распознавать цифровое мошенничество, используя для анализа подозрительных сообщений и веб-контента инструмент AI Overview («Обзор на основе ИИ»).
Источник изображения: 9to5google.com Компания отметила, что одной из распространённых тактик злоумышленников является отправка мошеннических текстовых сообщений как посредством SMS, так и через мессенджеры и социальные сети. Эти сообщения часто содержат просьбы или требования денег и ссылки на вредоносные сайты. Зачастую мошеннические сообщения сложно распознать самостоятельно, поскольку они неотличимы от настоящих. Теперь в случае, если возникли подозрения по поводу сообщения или текста, пользователю достаточно обвести фрагмент с помощью Circle to Search и Google предоставит ИИ-обзор, в котором, основываясь на информации из интернета, будет определено, является ли сообщение вредоносным. Если сообщение действительно мошенническое, в обзоре будут предложены соответствующие рекомендации по дальнейшим действиям. Такая возможность также была добавлена в Google Lens. Для этого достаточно сделать скриншот текста и загрузить его в этом приложении. Anthropic нацелилась на крупнейшее IPO в истории, пока OpenAI медлит с выходом на биржу
03.12.2025 [09:52],
Алексей Разин
Пока руководство OpenAI отрицает стремление в ближайшее время вывести стартап на биржу, конкурирующая Anthropic якобы собирается это сделать в 2026 году, как отмечают источники Financial Times. Финансовые и юридические консультанты для подготовки IPO, которое рискует стать крупнейшим в истории, уже наняты, если верить неофициальным данным.
Источник изображения: Anthropic Сопровождением IPO, как сообщается, должна заняться компания Wilson Sonsini Goodrich & Rosati, которая имеет опыт подготовки IPO крупных эмитентов типа Google, LinkedIn и Lyft. Возглавляемый Дарио Амодеи (Dario Amodei) стартап, по данным источников, рассчитывает в ходе IPO повысить свою капитализацию далеко за пределы $300 млрд. Поскольку оцениваемый в $500 млрд стартап OpenAI по этому пути пока идти не торопится, IPO компании Anthropic имеет шансы стать крупнейшим в истории. По некоторым оценкам, уже сейчас капитализация Anthropic достигает $350 млрд с учётом недавно заключённых сделок с Microsoft и Nvidia, которые должны были направить в капитал стартапа $5 млрд и $10 млрд соответственно. Официальные представители Anthropic не стали подтверждать или опровергать эту информацию, но подчеркнули, что для стартапов такого масштаба осуществление деятельности по единым принципам с публичными компаниями является нормальной практикой. Anthropic намерена вложить $50 млрд в строительство центров обработки данных в Техасе и Нью-Йорке, а также увеличить штат зарубежных специалистов в три раза, поэтому новые финансовые ресурсы стартапу неизбежно потребуются. Их как раз можно будет привлечь через публичное размещение акций. По некоторым данным, к IPO этой компании могут проявить интерес крупные инвестиционные банки, переговоры с которыми Anthropic якобы начала. Сделки с OpenAI и Anthropic увеличат портфель заказов Nvidia за пределы $500 млрд в следующем году
03.12.2025 [08:11],
Алексей Разин
В течение осени руководство Nvidia активно рассказывало о своих планах по увеличению инвестиций в мировую инфраструктуру ИИ на следующий год. На поставках ускорителей Blackwell и Vera Rubin компания в следующем году рассчитывает выручить $500 млрд, но как пояснили представители Nvidia, в эту сумму не входят поставки, предусмотренные в рамках сделок с OpenAI и Anthropic.
Источник изображения: Nvidia В сентябре Nvidia заявила, что договорилась с OpenAI об инвестициях в капитал этого стартапа, которые будут направлены на создание до 10 ГВт вычислительных мощностей на основе решений первой из компаний. В общей сложности Nvidia должна была передать OpenAI до $100 млрд, и заметная часть этих средств вернулась бы к ней в качестве оплаты за поставки компонентов. Выступая на этой неделе на технологической конференции UBS, финансовый директор Nvidia Колетт Кресс (Colette Kress) призналась, что сделка с OpenAI ещё не заключена и переговоры продолжаются. Во-вторых, она подчеркнула, что прогноз по выручке в размере $500 млрд на следующий год не включает в себя возможные поступления средств в рамках сотрудничества с OpenAI. Соответственно, реальная выручка Nvidia в следующем году может оказаться ещё больше. Nvidia также договорилась об инвестициях в размере $10 млрд в капитал конкурирующего с OpenAI стартапа Anthropic, и вероятная выручка от их сотрудничества также должна будет учитываться сверх упомянутых $500 млрд. Компанию OpenAI, которая собирается за ближайшие восемь лет привлечь до $1,4 трлн на развитие вычислительной инфраструктуры для ИИ, многие эксперты критикуют за кольцевую структуру сделок с партнёрами, при которой все передают деньги по кругу. При этом растущая конкуренция уже заставила руководство OpenAI задуматься о концентрации на приоритетных направлениях развития, а не распылении ресурсов по множественным сферам деятельности. Илон Маск выдал базу для безопасного ИИ — три принципа, без которых технологии грозит безумие
03.12.2025 [06:41],
Анжелла Марина
Илон Маск (Elon Musk) в подкасте с индийским миллиардером Нихилом Каматом (Nikhil Kamath) вновь предупредил об угрозах, исходящих от искусственного интеллекта, и выделил три ключевых принципа, которые, по его мнению, должны лежать в основе безопасного развития технологии: истина, красота и любопытство. По словам Маска, игнорирование этих основ может привести к тому, что ИИ начнёт генерировать опасные выводы, теряя связь с реальностью.
Источник изображения: Tesla Маск, являющийся главой Tesla, SpaceX, xAI, X, Neuralink и The Boring Company, подчеркнул, что мощные технологии по своей природе несут потенциальную угрозу, особенно если они не ориентированы на объективную реальность. Он отметил, что ИИ, обучаясь на данных из интернета, неизбежно усваивает ложную информацию, что может нарушить его способность к логическому выводу и привести к «безумным» или разрушительным заключениям. В подтверждение этой мысли, как пишет CNBC, Маск сослался на проблему «галлюцинаций», то есть генерации ИИ-системами ложных или вводящих в заблуждение ответов, которые уже проявились в реальных продуктах. Например, функция Apple Intelligence на iPhone в начале 2025 года распространила фейковое уведомление о победе британского дартсиста Люка Литтлера (Luke Littler) в чемпионате PDC до того, как тот действительно выиграл турнир. Маск также подчеркнул важность эстетического восприятия и стремления к познанию, заявив, что ИИ должен проявлять интерес к природе реальности и будущему человечества, а не быть инструментом его уничтожения. Его позиция перекликается с мнением «крёстного отца ИИ» Джеффри Хинтона (Geoffrey Hinton), который ранее оценил вероятность гибели человечества от ИИ в 10–20 %. Среди краткосрочных рисков он назвал галлюцинации и автоматизацию рабочих мест начального уровня. «Мы надеемся, что если достаточно умных людей проведут достаточно исследований, располагая достаточными ресурсами, мы найдём способ создания таких систем ИИ, которые никогда не захотят причинить нам вред», — добавил Хинтон. Сводки ИИ для уведомлений скоро выйдут за пределы Pixel — Android 16 получил большое обновление ИИ-функций
03.12.2025 [06:21],
Анжелла Марина
Компания Google в новом масштабном обновлении операционной системы расширяет доступ к функции искусственного интеллекта для автоматического создания кратких сводок уведомлений на устройствах под управлением Android 16. Эта функция, впервые представленная в прошлом месяце на смартфонах Pixel, теперь станет доступна и на устройствах других производителей, включая Samsung.
Источник изображения: Google В отличие от аналогичного инструмента Apple в iOS, ИИ-сводки от Google будут применяться исключительно к сообщениям из чатов, отмечает The Verge. Система проанализирует длинные переписки и групповые чаты, сформировав краткие аннотации, которые пользователь может быстро просмотреть. Одновременно появится новый органайзер уведомлений — он будет автоматически группировать и отключать уведомления с низким приоритетом, например, рекламные рассылки, новости и уведомления от социальных платформ. Среди других нововведений Android 16 появится возможность настраивать форму иконок и темы оформления главного экрана, а также расширенный режим тёмной темы, который сможет затемняет интерфейс даже в приложениях, изначально не поддерживающих эту функцию. Функции родительского контроля теперь будут расположены в едином разделе настроек Android, через который родители могут управлять временем использования устройства, ограничивать работу приложений и контролировать другие опции. Также появилась функция обнаружения мошеннических звонков с помощью Circle to Search, а в приложении «Телефон от Google» (Phone by Google) — опция пометки важных вызовов, которая работает только при условии, что оба участника используют Android и установили Phone by Google как приложение по умолчанию. Особое внимание в этом анонсе уделено пакету обновлений, направленных на расширение доступности. Компания объявила о глобальном запуске на YouTube для всех пользователей функции «Выразительные субтитры» (Expressive Captions), которая пытается передать интонацию и интенсивность живой речи в текстовом виде. Эта опция будет доступна для видео на английском языке, загруженных после октября 2024 года. На устройствах Android «Выразительные субтитры» смогут в режиме реального времени анализировать и отображать эмоции говорящего в прямом эфире. Другие улучшения включают активацию голосового набора с помощью экранного диктора TalkBack через жестовое управление в клавиатуре Gboard, а также возможность запуска голосового управления Voice Access голосовой командой «Hey Google, start Voice Access», без необходимости касания экрана. Также Google запускает функцию Fast Pair для слуховых аппаратов, которая позволит простым тапом подключать Bluetooth LE-устройства к Android-смартфону. Первыми поддержку получат аппараты Demant, а в начале 2026 года технология будет распространена на устройствах Starkey. Полный список всех обновлений, связанных с Android 16 и экосистемой Android, опубликован на официальном сайте Google. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |