Опрос
|
реклама
Быстрый переход
CD Projekt зареклась использовать генеративный ИИ в The Witcher 4 и других новых играх
26.03.2025 [12:21],
Дмитрий Рудь
Руководство CD Projekt в рамках финансового отчёта за 2024 календарный год прояснило свою позицию в отношении использования генеративного ИИ для разработки будущих игр, включая The Witcher 4 («Ведьмак 4»). Напомним, в январе 2024 года CD Projekt сформировала команду для изучения областей применения ИИ и заявила тогда, что видит в технологии шанс «усовершенствовать определённые процессы в разработке игр, но не заменить людей». В рамках нового финансового отчёта CD Projekt соруководителя компании Михала Новаковского (Michał Nowakowski) спросили об использовании генеративного ИИ в The Witcher 4 и других находящихся в разработке игр. По словам Новаковского, CD Projekt Red не задействует генеративный ИИ в процессе создания The Witcher 4 и «других проектов в ближайшем будущем», но не из-за смешанных результатов применения этой технологии. «Если честно, генеративный ИИ — довольно проблемная область, когда дело доходит до владения IP и тому подобного, вдобавок ко всему прочему», — объяснил Новаковский нежелание CD Projekt обращаться к технологии в обозримом будущем. The Witcher 4 пока не имеет целевых платформ, однако теперь у неё хотя бы появились сроки выхода — не раньше 2027 года. Прошлой осенью игра перешла в стадию активного производства. Игра представляет собой ролевой экшен с открытым миром на движке Unreal Engine 5 и начало новой трилогии. По сюжету Цири прошла Испытание Травами и готовится стать настоящим ведьмаком. BMW объединилась с Alibaba для совместной разработки автомобильного ИИ
26.03.2025 [11:15],
Алексей Разин
Китайский автомобильный рынок достаточно велик, чтобы оправдывать глубокую адаптацию реализуемых на нём моделей иностранных марок. Сфера программных решений для автомобильной отрасли не является исключением, поэтому со следующего года BMW начнёт предлагать для реализуемых в Китае машин программные решения Alibaba с поддержкой искусственного интеллекта. ![]() Источник изображения: BMW Если быть точнее, как поясняет Bloomberg, немецкий автопроизводитель будет сотрудничать со стартапом Banma, который финансируется китайским гигантом Alibaba и развивает свои программные решения с использованием большой языковой модели Qwen и соответствующих специалистов. Со следующего года в машинах марки BMW для китайского рынка появится продвинутый голосовой ассистент, они также научатся понимать контекст передвижений автовладельца и предлагать сопутствующие услуги. Кроме того, в условиях плотного городского трафика у водителя всегда будет перед глазами информация о дорожных заторах. BMW не одинока в своих предпочтениях. Языковую модель Alibaba Qwen готовы использовать в своих бортовых системах китайские автопроизводители XPeng, Zeekr и Leapmotor. Сама Alibaba готова вкладывать в развитие технологий искусственного интеллекта серьёзные средства, в ближайшие три года на эти нужды будет выделено $52 млрд. Это направление деятельности для китайского гиганта станет приоритетным. В сегменте смартфонов Alibaba удалось договориться с Apple о запуске локализованных для китайского рынка информационных сервисов. Nvidia, Oracle и союзники США настаивают на ослаблении ограничений на поставки ИИ-чипов Nvidia и не только
26.03.2025 [05:04],
Алексей Разин
В последние дни своей работы администрация президента Байдена утвердила новые правила экспортного контроля, которые поделили все страны мира на три группы с точки зрения доступа к ускорителям вычислений американского происхождения. Техногиганты и геополитические союзники США теперь настаивают на их полной отмене или пересмотре. ![]() Источник изображения: Nvidia В частности, среди американских компаний недовольство этими требованиями, которые вступят в силу с 15 мая, выразили Nvidia и Oracle. Из числа геополитических партнёров США глубокую озабоченность влиянием таких ограничений на собственную инвестиционную привлекательность выразили Польша и Израиль. Невольно сформировалась инициативная группа, которая попытается убедить Дональда Трампа (Donald Trump) в необходимости принятых его предшественником ограничений. Среди чиновников действующего правительства США пока тоже нет понимания, как поступить в сложившейся ситуации. Утверждённые Байденом правила, напомним, определили группу из почти 20 стран, которые могут получать почти неограниченный доступ к ускорителям вычислений для систем ИИ. В эту группу вошли страны как в Европе, так и в Азии. Противоположный фланг образован малочисленной группой стран, которым полностью закрыт доступ к ускорителям вычислений американского происхождения, Россия и Китай входят в их число. Третья «промежуточная» группа является самой многочисленной, её представителям для доступа к ускорителям вычислений придётся иметь дело с экспортными лицензиями, квотами и гарантиями конечного использования. Интересы компании Oracle, которая активно расширяет вычислительную инфраструктуру за пределами США, в случае вступления этих ограничений в силу, затрагиваются непосредственным образом. Предлагаемые правила запретят этой компании размещать в любой из стран «второго эшелона» более 7 % своих вычислительных мощностей, а лишь один ЦОД в Малайзии, который Oracle собирается построить за $6,5 млрд, способен нарушить эту пропорцию. Разумеется, недовольна новыми барьерами и продающая ускорители вычислений Nvidia. По мнению представителей компании, предлагаемые ограничения вынудят клиентов переключиться на альтернативные технологии, подорвут экономику США и навредят национальной безопасности. Как сообщает Bloomberg, чиновники администрации Трампа готовы обсуждать реформы к предложенным правилам, но считают нужным сохранить экспортные ограничения в данной сфере. Примечательно, что среди игроков американского рынка ИИ-технологий находятся и сторонники ужесточения правил экспортного контроля. Google выразила недовольство непропорциональным распределением обязательств по новым правилам, но не стала настаивать на их отмене. Anthropic вообще призывает к усилению ограничений, поскольку убеждена, что недобросовестные поставщики будут пытаться вывозить ускорители в недружественные страны малыми партиями, которые сложнее проконтролировать. Microsoft хоть и высказалась в поддержку правил в целом, призвала не включать в сомнительные группы стран «друзей Америки» типа ОАЭ. Политическое руководство страны посетило с визитом Вашингтон после прихода к власти Трампа, соответствующие вопросы обсуждались на встрече чиновников с обеих сторон. Власти Израиля выразили озабоченность тем, что излишние ограничения могут отпугнуть инвесторов от местной экономики, которая специализируется на высоких технологиях и активно развивает сферу искусственного интеллекта. Израиль готов рассматривать реформы собственного законодательства, чтобы лучше соответствовать требованиям американских властей, но хотел бы в этом смысле надеяться на взаимность уступок. Индия также оказывается в сложной ситуации. С одной стороны, власти США пытаются сформировать из этой страны своего рода региональный противовес Китаю. С другой стороны, американская сторона упрекает Индию в сотрудничестве с Россией. Переговоры между властями США и Индии могут пройти в следующем месяце. Google представила Gemini 2.5 Pro — свою самую умную ИИ-модель, которая превзошла OpenAI o3
25.03.2025 [23:09],
Анжелла Марина
Компания Google анонсировала ИИ-модель Gemini 2.5 Pro, назвав её «своей самой умной моделью» на сегодняшний день. Нейросеть является частью семейства Gemini 2.5 и превосходит предыдущие версии в анализе данных, программировании и решении сложных задач, поддерживая контекст до 1 млн токенов. ![]() Источник изображений: Google Ключевой особенностью Gemini 2.5 Pro, как и всех моделей семейства Gemini 2.5, является способность рассуждать, представляя ход своих мыслей перед тем, как выдать пользователю более точный и окончательный ответ. В отличие от предыдущего поколения моделей (Gemini 2.0 Flash Thinking), Google больше не использует маркировку Thinking и не демонстрирует ход рассуждений. Однако, как уточняет сайт 9to5Google, пользователи могут вручную активировать функцию «размышления вслух», чтобы увидеть ход мысли бота. В целом Gemini 2.5 Pro продемонстрировала значительный скачок в производительности благодаря улучшенной базовой модели и доработкам после обучения. Google отмечает, что эта версия возглавила рейтинг LMArena, который оценивает модели на основе пользовательских предпочтений, а также показала лучшие результаты в математике (AIME 2025) и науке (GPQA diamond). ![]() Одновременно в тесте Humanity’s Last Exam («Последний экзамен человечества»), который создан экспертами для проверки предела возможностей искусственного интеллекта в области знаний и логики, Gemini 2.5 Pro достигла рекордных 18,8 % без использования дополнительных инструментов. Также модель получила существенные улучшения в программировании, особенно в создании веб-приложений и редактировании кода. ![]() В области разработки программного обеспечения Gemini 2.5 Pro продемонстрировала высокий результат на тесте SWE-Bench Verified, набрав 63,8 % при использовании специального агентского подхода. Кроме того, модель обладает встроенной мультимодальностью и способна работать с текстом, аудио, изображениями, видео, обрабатывать большие наборы данных и даже репозитории кода в полном объёме. Контекстное окно модели предлагает размер в 1 миллион токенов, а в ближайшем будущем оно увеличится до 2 миллионов. В следующие несколько недель Gemini 2.5 Pro появится в Vertex AI, а позднее Google представит ценовую политику, позволяющую использовать ИИ-модель в масштабных проектах. Пока модель доступна для платных подписчиков и разработчиков в тестовом режиме. OpenAI: ИИ бесполезно наказывать за ложь — он начинает хитрить ещё больше
25.03.2025 [16:56],
Павел Котов
Галлюцинации, то есть заведомо неверные ответы, которые иногда дают модели искусственного интеллекта, стали одной из основных проблем всей отрасли — из-за этого некоторые граждане вообще отказываются пользоваться ИИ. Избавиться от таких сбоев может оказаться сложнее, чем предполагалось ранее, выяснили исследователи OpenAI. ![]() Источник изображения: openai.com Учёные компании OpenAI опубликовали результаты исследования, в котором описали свои попытки наладить управление сложными, в том числе рассуждающими, моделями ИИ, чтобы не допустить их выхода за установленные рамки. Исследователи применяли уникальные стратегии и методы, в том числе наказания за вредоносные действия и попытки обмануть пользователя. В проекте использовалась, помимо прочего, некая созданная OpenAI, но не вышедшая на рынок модель ИИ, которой поручали различные задачи — их выполнение можно было облегчить, обманув пользователя или отбросив некоторые действия. Результат обучения модели во многом зависит от этапа обучения с подкреплением, когда за выполнение команды или генерацию правильного ответа она получает вознаграждение. Моделям ИИ свойственно пытаться получить вознаграждение посредством манипуляций, в том числе нарушая некоторые правила и рекомендации, чтобы добиться желаемого результата. Исследователи надеялись, что смогут выявить лазейки и лучше понять поведение ИИ, отслеживая цепочку её рассуждений, но это не помогло. Попытки оптимизировать цепочку рассуждений напрямую, то есть отдать команду не обходить инструкции, дают лишь краткосрочный эффект, установили учёные: «это не устраняет всё нежелательное поведение и может привести к тому, что модель станет скрывать свои истинные намерения». Авторам проекта пришлось признать, что механизмы мониторинга моделей «хрупки». Строгий надзор за цепочкой рассуждений может побудить ИИ скрывать свои ошибки, чтобы обеспечить себе вознаграждение в обход ограничений. Для наблюдения за испытуемой моделью при выполнении заданий по написанию программного кода использовалась коммерческая GPT-4o — подопытная же допускала небрежности и открыто признавала в цепочке рассуждений, что делала это для получения вознаграждения; например, она преждевременно завершала выполнение некоторых программ. После этого исследователи попытались наказать модель, но эффект от этого оказался недолговечным: в цепочке рассуждений оставались признаки попытки получить вознаграждение обходными путями и дать неправильный ответ. То есть она нашла способ скрывать свои мотивы от контролирующего ИИ. В этой связи остаётся неясным, готов ли мир к ИИ уровня человека, если проблема сохранится, и вмешиваться человек уже не сможет. Исследователи выразили надежду, что в будущем появятся способы оказывать влияние на модели через их цепочку рассуждений без обмана и скрытых тактик — они предлагают сделать методы оптимизации менее навязчивыми и прямолинейными. Nvidia выпустила ИИ-помощника геймера G-Assist — он подскажет, как устранить просадки FPS и оптимизировать ПК с GeForce RTX
25.03.2025 [16:54],
Владимир Мироненко
Nvidia объявила о выходе экспериментальной версии ИИ-помощника Project G-Assist System Assistant для настольных ПК с видеокартами GeForce RTX, который позволит оптимизировать настройки игры и системы, измерить частоту кадров и даже изменить подсветку на подключённых устройствах. ИИ-помощник Project G-Assist был анонсирован в прошлом году на выставке Computex 2024. ![]() Источник изображения: NVIDIA Project G-Assist использует специально настроенную малую языковую модель (SLM) Instruct на основе Llama с 8 млрд параметров для интерпретации инструкций на естественном языке и вызова API Nvidia и различных сторонних API для выполнения действий на ПК. ИИ-помощник требует 10 Гбайт и работает на ПК с видеокартами RTX 30-й, 40-й и 50-й серий для десктопов с объёмом видеопамяти не менее 12 Гбайт. G-Assist может предоставлять диагностику в реальном времени и рекомендации для устранения узких мест системы, повышения энергоэффективности, оптимизации настроек игры, разгона графического ускорителя и т.д. Он может отображать и экспортировать различные показатели, такие как частота кадров в секунду, задержка, загрузка графического процессора, температура и другие. Также ИИ-помощник может отвечать на вопросы, касающиеся компонентов ПК или программного обеспечения Nvidia для графического процессора GeForce RTX, установленного в ПК. С помощью G-Assist можно также управлять некоторыми периферийными устройствами и программными приложениями, что, например, позволяет пользователям регулировать скорость вращения вентиляторов или изменять подсветку на поддерживаемых устройствах брендов Logitech G, Corsair, MSI и Nanoleaf. Project G-Assist использует стороннюю SLM, разработанную для локального запуска — он не предназначен для широкого использования в качестве ИИ-чат-бота. G-Assist доступен в рамках обновления приложения Nvidia App, которое также включает новые параметры переопределения DLSS и возможность настройки масштабирования дисплея и цветовых настроек. В будущем обновлении приложения появится функция Project G-Assist для ноутбуков с видеокартами GeForce RTX. Основные требования для использования Project G-Assist:
Голосовая версия ChatGPT стала приятнее в общении, сообщили в OpenAI
25.03.2025 [12:07],
Павел Котов
OpenAI накануне обновила функцию Advanced Voice Mode — формат голосового общения с ChatGPT в реальном времени. Помощник с искусственным интеллектом стал приятнее в общении и научился реже прерывать пользователей. ![]() Источник изображения: openai.com С последним обновлением OpenAI попыталась решить проблему, характерную для многих голосовых помощников с ИИ — они часто прерывают пользователей, если те приостанавливают речь, чтобы подумать или сделать глубокий вдох. Обновлённая версия Advanced Voice Mode стала доступной для пользователей бесплатного варианта ChatGPT, которая теперь позволяет делать продолжительные паузы в речи и не прерывает собеседника. Подписчики платных вариантов сервиса, в том числе тарифов ChatGPT Plus, Teams, Edu, Business и Pro получили не только более деликатного, но и более индивидуализированного голосового помощника — его ответы стали «более прямыми, интересными лаконичными, конкретными и творческими», рассказали в OpenAI. OpenAI зарекомендовала себя как мирового лидера в области искусственного интеллекта, но ей приходится прилагать всё более значительные усилия, чтобы оставаться впереди конкурентов. В сегменте голосовых помощников в последнее время вирусную популярность приобрёл стартап Sesame соучредителя Oculus Брендана Ирибе (Brendan Iribe) — он выпустил варианты сервиса Maya и Miles, которые отличаются естественным звучанием. Голосовых помощников с мощным ИИ выпускают и крупные игроки: Amazon недавно представила Alexa+ с генеративным ИИ, а Apple была вынуждена перенести выпуск поумневшей Siri, что обернулось нешуточным скандалом. Все современные ИИ провалили новый сложный тест на общий интеллект — люди с ним тоже справились не идеально
25.03.2025 [11:22],
Анжелла Марина
Новый тест для оценки общей интеллектуальной способности моделей искусственного интеллекта, получивший название ARC-AGI-2, поставил в тупик большинство ИИ-моделей. Согласно рейтингу, рассуждающие модели, такие как o1-pro от OpenAI и R1 от DeepSeek, набрали от 1 % до 1,3 %. Модели без логического мышления, включая GPT-4.5, Claude 3.7 Sonnet и Gemini 2.0 Flash, набрали менее 1 %. ![]() Источник изображения: Pixabay Фонд Arc Prize Foundation, некоммерческая организация, соучредителем которой является известный исследователь в области искусственного интеллекта Франсуа Шолле (François Chollet), объявил в своём блоге о создании нового, более продвинутого теста для измерения общего интеллекта ведущих моделей искусственного интеллекта. Тест ARC-AGI-2 представляет собой серию головоломок, в которых ИИ должен распознать визуальные закономерности, анализируя разноцветные квадраты, и на основе этого построить правильное продолжение узора. Испытание специально разработано так, чтобы модели не могли полагаться на прошлый опыт и вынуждены были адаптироваться к новым задачам. Также Arc Prize Foundation провела тестирование с участием более 400 человек. В среднем группы испытуемых верно ответили на 60 % заданий. Это значительно превосходит показатели всех протестированных ИИ и одновременно подчёркивает разрыв между текущими возможностями ИИ и интеллектом людей в решении задач, требующих адаптации и понимания новых концепций. Шолле заявил, что ARC-AGI-2 является более точным показателем реального интеллекта ИИ-моделей, чем предыдущая версия теста ARC-AGI-1. Кроме того, ARC-AGI-2 исключает возможность решения задач «методом грубой силы», то есть путём использования огромной вычислительной мощности для перебора всех возможных вариантов, что происходило в тесте ARC-AGI-1 и было признано серьёзным недостатком. Для устранения погрешностей первого теста в ARC-AGI-2 была введена метрика эффективности, которая заставляла ИИ интерпретировать паттерны «на лету», а не полагаться на запоминание. Сооснователь Arc Prize Foundation Грег Камрадт (Greg Kamradt) отметил, что «интеллект определяется не только способностью решать задачи или достигать высоких результатов, но и эффективностью, с которой приобретаются и развёртываются эти возможности». ARC-AGI-1 оставался ведущей метрикой в течение примерно пяти лет, пока в декабре 2024 года OpenAI не выпустила свою продвинутую модель рассуждений o3. Эта модель превзошла все другие ИИ-модели и даже сравнялась с производительностью человека в тестах ARC-AGI-1. Однако, как было отмечено, эти достижения были достигнуты за счёт значительных вычислительных затрат. Разработка нового теста совпала с ростом обеспокоенности в индустрии по поводу недостатка объективных критериев для оценки искусственного интеллекта. В связи с этим Arc Prize Foundation объявила о запуске конкурса Arc Prize 2025, в котором разработчикам предлагается достичь 85 % точности на ARC-AGI-2, затратив при этом вычислительных затрат не более, чем $0,42 на задачу. Бывший гендир Intel Гелсингер возглавил стартап Gloo, пытающийся внедрить ИИ в религию
25.03.2025 [09:59],
Алексей Разин
В начале декабря Патрик Гелсингер (Patrick Gelsinger) был отправлен в отставку с поста генерального директора Intel, после чего стало известно, что он оказывает финансовую поддержку стартапу Gloo, стремящемуся привнести новые технологии в консервативную религиозную среду. Вчера Гелсингер возглавил Gloo в качестве технического директора и исполнительного председателя совета директоров. ![]() Источник изображения: Intel Gloo занимается внедрением больших языковых моделей в сфере взаимодействия прихожан и священников. Ранее Гелсингер признавался, что Gloo уже использует языковые модели DeepSeek с открытым исходным кодом, но со временем надеется внедрить собственные разработки в этой сфере. Совет директоров Gloo Гелсингер возглавлял в качестве неисполнительного председателя с 2018 года, а продвижением интересов христианства в Калифорнии бывший глава Intel занимался на протяжении более чем десяти лет. Стартап Gloo был основан ещё в 2013 году, в прошлом году ему удалось привлечь $110 млн. Компания разрабатывает «христианский чат-бот», который фильтрует результаты поиска и даёт пользователям ответы, построенные на христианских канонах. В новом качестве Гелсингер сможет сильнее влиять на разработку данного чат-бота. «Технология способна объединять, улучшать и трансформировать жизни людей, но только когда она изначально создаётся с соответствующими целями», — прокомментировал своё назначение Патрик Гелсингер. Microsoft анонсировала ИИ-агентов для защиты людей от киберугроз
24.03.2025 [21:00],
Анжелла Марина
Microsoft добавит в Security Copilot ИИ-агентов для автоматизации рутинных задач и повышения эффективности работы специалистов по кибербезопасности. Всего представлено шесть агентов непосредственно от Microsoft и пять агентов, созданных партнёрами, сообщает The Verge. ![]() Источник изображения: Lewis Kang'ethe Ngugi / Unsplash Security Copilot на базе искусственного интеллекта (ИИ) был запущен год назад, но теперь Microsoft решила масштабировать этот сервис. Новые агенты появятся в тестовом режиме уже в следующем месяце. Они смогут анализировать фишинговые атаки, предупреждать о возможных утечках данных, расставлять приоритеты среди серии критических инцидентов и отслеживать уязвимости. Как отметила Васу Джаккал (Vasu Jakkal), корпоративный вице-президент Microsoft Security, ИИ-агенты будут интегрированы с инструментами Microsoft Security и позволят командам автономно справляться с большим объёмом задач. Помимо этого, Microsoft улучшит защиту от фишинга в Microsoft Teams: уже в следующем месяце Defender for Office 365 начнёт блокировать вредоносные ссылки и вложения в сообщениях Teams, что усилит защиту пользователей от киберугроз. Использование ИИ-агентов становится всё более популярным среди крупных компаний. В связи с этим Microsoft уже перезапустила свой Copilot для бизнеса, предложив бесплатного чат-бота и доступ к ИИ-агентам по модели оплаты «по мере использования». Стоит отметить, что помимо собственных разработок Microsoft сотрудничает с рядом компаний, включая OneTrust, Aviatrix, BlueVoyant, Tanium и Fletch. Их решения позволят, в частности, анализировать утечки данных с помощью OneTrust и выявлять причины сбоев в сетях с Aviatrix. Microsoft также готовит новые анонсы в сфере безопасности, которые будут представлены на мероприятии Microsoft Secure 9 апреля. Дополнительную информацию можно найти в официальном блоге компании. DeepSeek начали массово встраивать в китайские автомобили — это привлекает покупателей
24.03.2025 [13:18],
Алексей Разин
Программные возможности современных транспортных средств волнуют потенциальных покупателей не меньше, чем технические характеристики и дизайн, поэтому китайские автопроизводители начали активно внедрять поддержку чат-ботов на базе разработок DeepSeek в свою программную инфраструктуру. Подобным образом уже поступили Dongfeng, GAC и BYD. ![]() Источник изображения: BYD Dongfeng Motor, как уточняет Nikkei Asian Review, предлагает поддержку большой языковой модели DeepSeek R1 в мультимедийной системе кроссоверов Zhiyin марки Voyah, причём данная функциональность была добавлена посредством обновления «по воздуху». С апреля аналогичными возможностями начнут обзаводиться крупный внедорожник M-Hero 917 и другие транспортные средства концерна. Искусственный интеллект в бортовой электронике машины используется не только для построения диалога с водителем и пассажирами при помощи голосового ассистента, но и для оценки окружающей обстановки с целью предсказания дальнейших намерений водителя. Лидирующая на китайском рынке гибридов и электромобилей компания BYD также объявила о намерении внедрить разработки DeepSeek в свою продукцию. Некоторые автопроизводители готовы «подружить» собственные программные платформы с языковыми моделями DeepSeek. Например, так намерена поступить китайская компания GAC Group. Языковой ассистент Adigo Sense в автомобилях этой марки будет учитывать историю прошлых запросов и действий водителя для прогнозирования его ближайших намерений. Цифровой помощник сможет оптимизировать маршруты передвижения и предлагать пассажирам фильмы к просмотру с учётом их предпочтений. GAC начнёт внедрять подобные функции в бортовое ПО своих автомобилей в текущем полугодии. Leapmotor надеется сочетать языковые модели DeepSeek с разработкой Alibaba, получившей обозначение Qwen. По крайней мере, такая связка позволит бортовой системе машин Leapmotor научиться генерировать изображения. SAIC намерена внедрить поддержку DeepSeek на автомобилях марки IM Motors в сочетании с решениями Alibaba и ByteDance. В Китае даже импортные марки не стесняются внедрять поддержку DeepSeek для своих транспортных средств локальной сборки. Например, подобной функцией обзаведётся электромобиль Nissan N7, собираемый на совместном предприятии с Dongfeng. Стараниями SAIC поддержкой DeepSeek обзаведутся выпускаемые в Китае модели Buick и Cadillac. Языковые модели этой компании будут соседствовать с чат-ботом Baidu Ernie. Есть в Китае и автопроизводители, которые пока не следуют моде на DeepSeek. Среди них можно отметить Xiaomi и XPeng Motors. Ant Group придумала, как эффективно обучать ИИ на китайских чипах вместо Nvidia
24.03.2025 [10:55],
Дмитрий Федоров
Ant Group представила новый метод обучения ИИ-моделей, позволяющий использовать китайские полупроводники, включая чипы Huawei и Alibaba. Компания применила архитектуру Mixture of Experts и уже достигла результатов, сопоставимых с использованием графических процессоров (GPU) Nvidia H800, что укрепляет позиции Китая на фоне ограничений, введённых США. ![]() Источник изображений: Ant Group CO Это достижение знаменует собой важный этап в технологическом противостоянии между китайскими и американскими компаниями, которое резко обострилось после того, как DeepSeek доказала возможность создания современных больших языковых моделей (LLM) без миллиардных вливаний, аналогичных тем, которые делают OpenAI и Google. Хотя Ant Group по-прежнему использует решения Nvidia в ряде проектов, в новых разработках компания отдаёт предпочтение альтернативным поставщикам, включая AMD, а также местным китайским производителям полупроводников, особенно в условиях нарастающего давления со стороны экспортных ограничений США. Это позволяет китайским компаниям сохранять темп технологического прогресса и снижать зависимость от иностранных поставщиков, прежде всего от Nvidia. Согласно опубликованной в марте научной статье, Ant Group утверждает, что её ИИ-модели в отдельных тестах превзошли разработки компании Meta✴. Однако эти заявления пока не получили независимого подтверждения. При этом важно отметить, что модель H800, хотя и не относится к передовому классу ускорителей Nvidia, остаётся мощным инструментом, способным справляться с ресурсоёмкими задачами обучения ИИ. Благодаря собственной оптимизированной стратегии Ant Group удалось сократить расходы на обучение ИИ-модели объёмом в 1 трлн токенов с 6,35 млн юаней ($880 000) до 5,1 млн юаней ($707 000). В данном контексте токены — это минимальные единицы текста, на которых обучаются LLM, чтобы впоследствии генерировать осмысленные ответы на запросы пользователей. ![]() В компании заявили о намерении внедрить свои новые языковые модели — Ling-Plus и Ling-Lite — в решения, ориентированные на промышленное применение, включая здравоохранение и финансовую сферу. Ant Group уже приобрела китайскую платформу Haodf.com, специализирующуюся на медицинских онлайн-сервисах, чтобы расширить возможности своей ИИ-инфраструктуры в области здравоохранения. Кроме того, компания развивает мобильное приложение Zhixiaobao, позиционируемое как ИИ-ассистент для повседневной жизни, а также Maxiaocai — сервис на основе ИИ, предоставляющий финансовые рекомендации. В опубликованной научной работе подчёркивается, что модель Ling-Lite показала лучшие результаты в одном из ключевых англоязычных тестов по сравнению с одной из версий Llama компании Meta✴. При этом обе модели — Ling-Lite и Ling-Plus — превзошли аналоги DeepSeek в бенчмарках на китайском языке. Ling-Lite содержит 16,8 млрд параметров — это настраиваемые элементы модели, определяющие её поведение при генерации текста. Модель Ling-Plus насчитывает 290 млрд параметров и по масштабности относится к категории больших языковых систем. Обе модели были представлены сообществу разработчиков в виде решений с открытым исходным кодом. По оценке MIT Technology Review, GPT-4.5 компании OpenAI содержит около 1,8 трлн параметров, а DeepSeek-R1 — 671 млрд. Архитектура Mixture of Experts, использованная в Ling-моделях, предполагает активацию отдельных подсетей внутри модели в зависимости от типа задачи, тем самым обеспечивая оптимальное распределение вычислительных ресурсов. Эта система напоминает команду специалистов, в которой каждый элемент ИИ-модели отвечает за строго определённую, узкоспециализированную функцию. Однако в процессе обучения возникли сложности: как сообщается в научной статье, даже незначительные изменения в аппаратной конфигурации или в структуре модели приводили к резкому росту числа ошибок. Такая нестабильность делает процесс обучения чувствительным к параметрам окружения и требует дополнительной адаптации на каждом этапе. ИИ-система Aardvark Weather заменит суперкомпьютеры в прогнозировании погоды
23.03.2025 [08:28],
Дмитрий Федоров
Учёные Кембриджского университета представили Aardvark Weather — ИИ-систему для прогнозирования погоды, которая позволяет формировать как глобальные, так и локальные прогнозы за считанные минуты с использованием обычного настольного компьютера. В сравнении с традиционными подходами, Aardvark обеспечивает предсказания в десятки раз быстрее и при этом требует в тысячи раз меньше вычислительных ресурсов. ![]() Источник изображения: Brian McGowan / Unsplash Aardvark Weather была разработана в Кембриджском университете (University of Cambridge) при участии Института Алана Тьюринга (The Alan Turing Institute), Microsoft Research и Европейского центра среднесрочных прогнозов погоды (ECMWF). Скорость и эффективность метеорологических моделей имеют решающее значение: традиционные методы опираются на ресурсоёмкие суперкомпьютеры и труд множества специалистов, тогда как формирование прогноза зачастую занимает несколько часов. В этом контексте Aardvark демонстрирует принципиально новый подход, устраняя необходимость в громоздкой инфраструктуре. Последние разработки таких технологических гигантов, как Huawei, Google и Microsoft, показали, что ИИ способен значительно улучшить отдельные компоненты метеорологического моделирования. Особенно важными стали достижения в области алгоритмов, моделирующих динамику атмосферы во времени. Интеграция ИИ в эти процессы уже привела к ускорению расчётов и повышению точности метеопрогнозов. Яркий пример — компания Google, разрабатывающая модели на базе ИИ и предлагающая два таких решения корпоративным клиентам своей облачной платформы. Эти модели, созданные исследователями лаборатории Google DeepMind, используют исторические метеоданные и позволяют предсказывать погодные условия на срок от 10 до 15 дней вперёд. В отличие от гибридных подходов, Aardvark полностью заменяет традиционную многоступенчатую схему прогнозирования единой моделью машинного обучения (ML). Используя стандартный настольный компьютер, система обрабатывает данные из различных источников, включая спутники и метеостанции, и формирует прогнозы в течение нескольких минут. Профессор Ричард Тёрнер (Richard Turner) с инженерного факультета Кембриджского университета, возглавивший исследование, заявил: «Aardvark переосмысливает существующие методы прогнозирования погоды, позволяя получать прогнозы быстрее, дешевле, гибче и точнее, чем когда-либо прежде. Aardvark в тысячи раз быстрее всех прежних методов прогнозирования погоды». В перспективе Aardvark сможет формировать прогнозы на 8 дней вперёд с высокой степенью точности, что на 3 дня превышает горизонт современных систем. Несмотря на то, что система использует лишь часть объёма данных, задействованных в традиционных моделях, Aardvark демонстрирует результаты, превосходящие показатели американской Национальной системы прогнозирования (GFS) по нескольким ключевым метрикам. При этом она остаётся сопоставимой по точности с прогнозами Национальной метеорологической службы США (NWS), где обычно применяется комбинация моделей и экспертный анализ. ![]() Источник изображения: NASA По словам Анны Аллен (Anna Allen), первого автора исследования из факультета компьютерных наук и технологий Кембриджского университета, реализованный в системе подход сквозного машинного обучения может быть легко адаптирован для решения других задач климатического моделирования — от прогнозирования ураганов, торнадо и лесных пожаров до оценки качества воздуха, динамики океанических течений и предсказания морского льда. Одним из наиболее примечательных свойств Aardvark является её архитектурная простота и высокая гибкость. Благодаря тому что система обучается напрямую на метеоданных, она может быть быстро перенастроена для формирования индивидуализированных прогнозов, адаптированных под конкретные отрасли или регионы. Это может быть, например, прогноз температуры для сельского хозяйства в Африке или прогноз скорости ветра — для европейских компаний, работающих в сфере возобновляемой энергетики. Такой подход кардинально отличается от традиционных систем, настройка которых требует многолетней работы крупных команд специалистов. Подобная адаптивность может стать решающим фактором для стран с ограниченным доступом к вычислительным ресурсам и метеоданным. Как подчёркивает доктор Скотт Хоскинг (Scott Hosking) из Института Алана Тьюринга, перенос метеопрогнозирования с суперкомпьютеров на настольные машины делает высокоточные прогнозы доступными в развивающихся странах и регионах с дефицитом данных. Следующим этапом проекта станет формирование новой исследовательской группы на базе Института Алана Тьюринга. Её задачей станет изучение возможностей внедрения технологии в странах Глобального Юга, а также интеграция Aardvark в более масштабные инициативы по экологическому прогнозированию. Tencent выпустила рассуждающую ИИ-модель T1 — она превосходит DeepSeek R1, в отдельных тестах
22.03.2025 [16:37],
Павел Котов
Китайский технологический гигант Tencent накануне представил официальную версию собственной рассуждающей модели искусственного интеллекта T1, тем самым усилив конкуренцию в и без того переполненной китайской отрасли ИИ. ![]() Источник изображений: Tencent Обновлённая T1 предлагает сокращённое время отклика и расширенные возможности в работе с текстовыми документами, сообщила компания на платформе WeChat. Модель «сохраняет ясной логику контента, а текст — складным и чистым», тогда как процент галлюцинаций, то есть дачи заведомо не соответствующих действительности ответов, «крайне низок». ![]() Китайским и другим мировым игрокам пришлось усилить работу над моделями ИИ с появлением стартапа DeepSeek, который научился добиваться передовых результатов при минимальных затратах. Ранее T1 была доступна в формате предварительной версии на платформах Tencent, включая приложение виртуального помощника Yuanbao. Официальная версия T1 будет работать на базе модели Tencent Turbo S, которая, по словам разработчика, функционирует быстрее, чем DeepSeek R1. ![]() T1 смогла обойти DeepSeek R1 по некоторым показателям, связанным со знаниями и рассуждениями, указывает приложенная к публикации диаграмма. На этой неделе Tencent предупредила, что в 2025 году нарастит капитальные затраты, хотя и в 2024 году её расходы на ИИ резко увеличились. AMD представила Gaia — открытое приложение для запуска ИИ локально на ПК с Windows
22.03.2025 [12:58],
Павел Котов
Запуск больших языковых моделей искусственного интеллекта локально на ПК — задача, которая становится всё более востребованной. Для её решения AMD выпустила Gaia — программу с открытым исходным кодом, предназначенную для работы с локальными ИИ-моделями на компьютерах под управлением Windows. ![]() Источник изображений: amd.com Gaia предлагает дополнительную оптимизацию производительности для машин с процессорами Ryzen AI; вывод ИИ осуществляется при помощи средств Lemonade SDK. Программа позволяет адаптировать модели для различных целей: они могут составлять сводки больших текстов или обрабатывать сложные задачи, требующие умения рассуждать. Gaia работает через компонент Retrieval-Augmented Generation (RAG), объединяющий ИИ с базой знаний, благодаря чему пользователь получает более точные ответы на запросы в соответствии с контекстом. RAG включает четыре агента:
![]() Gaia решает специализированные задачи ИИ с помощью Lemonade SDK, работая в различных средах выполнения. Lemonade открывает веб-сервис для языковой модели и взаимодействует с приложением Gaia через совместимый с OpenAI REST API. Приложение действует как ИИ-агент, который извлекает и обрабатывает данные, «векторизует» внешний контент (например, данные из GitHub, YouTube и текстовых файлов) и сохраняет его в локальном векторном индексе. Проще говоря, Gaia улучшает пользовательские запросы перед их обработкой ИИ-моделью, повышая точность и релевантность ответов. ![]() Гибридный установщик, оптимизированный для систем с процессорами Ryzen, который позволяет Gaia использовать встроенный в Ryzen AI нейропроцессор (NPU) и интегрированную графику для вычислений. Локальный запуск ИИ-моделей имеет ряд преимуществ по сравнению с облачными сервисами: данные остаются защищёнными, уменьшается задержка, а в некоторых случаях повышается производительность. Кроме того, локальные модели не требуют подключения к интернету. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |