|
Опрос
|
реклама
Быстрый переход
Успех DeepSeek вызвал рост спроса на ускорители Nvidia H20 в Китае
25.02.2025 [05:07],
Алексей Разин
Из-за санкций США поставки в Китай передовых ускорителей Nvidia запрещены, и с этой точки зрения усечённые с точки зрения производительности ускорители H20 являются наиболее продвинутыми решениями Nvidia среди доступных китайским клиентам. Спрос на них в Китае после успеха DeepSeek заметно вырос, как утверждают источники Reuters.
Источник изображения: Nvidia Напомним, что китайский стартап DeepSeek продемонстрировал способность создавать эффективные большие языковые модели с ограниченным доступом к аппаратным ресурсам, поэтому интерес к его разработкам заметно вырос в самом Китае. По данным Reuters, закупки ускорителей Nvidia H20 китайскими компаниями Tencent, Alibaba и ByteDance были существенно увеличены после появления соответствующих откровений о прорыве DeepSeek. Перечисленные китайские компании не только используют вычислительные мощности для собственных нужд, но и предоставляют их сторонним разработчикам. Китайские производители серверного оборудования отмечают, что на местном рынке вырос спрос на решения, оснащённые ускорителями H20 и использующие языковые модели DeepSeek. Теперь их приобретают даже представители сферы образования и здравоохранения, хотя ранее такими закупками занимались преимущественно провайдеры связи и успешные финансовые организации в Китае. Отчасти рост спроса на H20 мог быть спровоцирован слухами о намерениях США запретить поставки данных ускорителей в КНР. По оценкам аналитиков, в 2024 году на территорию Китая было ввезено около 1 млн ускорителей H20, обеспечивших Nvidia выручкой в размере более $12 млрд. Взять на вооружение разработки DeepSeek решились многие китайские компании, включая Tencent и автопроизводителя Great Wall Motor. Anthropic выпустила умнейшую нейросеть Claude 3.7 Sonnet — она бесплатна и превосходит DeepSeek R1 и OpenAI o3
24.02.2025 [23:10],
Андрей Созинов
Компания Anthropic, один из главных конкурентов OpenAI, выпустила Claude 3.7 Sonnet — свою первую «гибридную рассуждающую модель». По словам компании, она способна решать более сложные задачи, чем предшественницы, и превосходит их в таких областях, как математика и написание программного кода.
Источник изображений: Anthropic Claude 3.7 Sonnet стала доступна в приложениях Claude и веб-версии чат-бота, в том числе и для бесплатных пользователей. Также взаимодействовать с новой нейросетью можно через API Anthropic, Amazon Bedrock и Google Cloud's Vertix AI — стоит новинка столько же, сколько и её предшественница, 3.5 Sonnet, то есть $3 за миллион входных токенов и $15 за миллион выходных токенов. ![]() OpenAI и другие компании предлагают модели со способностью к рассуждениям отдельно от обычных генеративных ИИ-моделей. Anthropic решила совместить их в одной системе, чтобы получить универсальное решение. В результате пользователь может выбрать, когда модели Claude 3.7 Sonnet стоит отвечать нормально, а когда — подольше подумать над ответом. В стандартном режиме Claude 3.7 Sonnet представляет собой просто улучшенную версию прежней Claude 3.5 Sonnet с более свежими данными (её база включает информацию до ноября 2024 года). В режиме расширенного мышления ИИ самостоятельно размышляет перед ответом, что повышает производительность при решении задач по математике, физике, выполнению сложных инструкций, кодингу и многих других. Руководитель отдела исследований продуктов Anthropic Дайанн Пенн (Dianne Penn) рассказала The Verge, что компания хотела упростить процесс использования модели. «Мы принципиально считаем, что рассуждения — это скорее особенность ИИ, чем совершенно отдельная вещь», — говорит она, отмечая, что Claude не нужно много времени, чтобы ответить на вопрос «который час?», в отличие от ответа на более сложный запрос, например «спланируй двухнедельную поездку в Италию, учитывая погоду в конце марта». ![]() Помимо новой модели, Anthropic также выпускала «ограниченную исследовательскую предварительную версию» своего ИИ-агента для программирования под названием Claude Code. Хотя Anthropic уже предлагает такие ИИ-инструменты для кодинга, как Cursor, новый Claude Code компания позиционирует как «активного сотрудника, который может искать и читать код, редактировать файлы, писать и выполнять тесты, фиксировать и отправлять код на GitHub, а также использовать инструменты командной строки». Anthropic также позволяет разработчикам управлять тем, как модель «думает», и даже устанавливать время на раздумья. «Иногда разработчику нужно просто сказать, что ответ на этот вопрос не должен занимать более 200 миллисекунд», — подмечает вице-президент Anthropic по продуктам Майкл Герстенхабер (Michael Gerstenhaber). Пенн утверждает, что Claude 3.7 Sonnet заметно лучше конкурентов справляется с «агентским кодированием», финансовыми и юридическими задачами. По словам представительницы Anthropic, сотрудники компании активно используют новую модель для создания дизайна веб-сайтов, интерактивных игр и даже тратят до 45 минут на кодирование, «создавая тестовые наборы и итеративно редактируя тестовые примеры». Пенн также рассказала, что компания тестирует свои модели на способность проходить олдскульную видеоигру Pokémon, имитируя нажатие кнопок контроллера через API. Claude 3.5 Sonnet не смог выбраться из Pallet Town в начале игры, в то время как версия 3.7 смогла победить нескольких боссов. Выход Claude 3.7 Sonnet показывает, что индустрия ИИ движется к тому, чтобы вместо нескольких отдельных моделей предлагать одну модель, которая способна и быстро отвечать, и думать над сложными задачами. О чём-то подобном недавно говорил глава OpenAI Сэм Альтман (Sam Altman). xAI Grok 3 заговорил и тут-же стал ругаться и заигрывать с пользователями
24.02.2025 [20:18],
Владимир Мироненко
Анонсированная в феврале компанией xAI мультимодальная ИИ-модель Grok 3 получила голосовой режим, позволяющий пользователям взаимодействовать с ИИ в реальном времени посредством голоса. Он доступен платным пользователям. Как сообщает ресурс Aibase, пользователь платформы X обнаружил, что приложение также получило поддержку двух режимов для взрослых: «Безбашенный» (Unhinged) и «Сексуальный» (Sexy).
Источник изображения: xAI По словам пользователя, в режиме Unhinged приложение «постоянно вовлекает вас в жаркие дебаты», преуспевая в провокационных аргументах. В свою очередь, режим Sexy «начинается с флирта», наполненного романтическими высказываниями или сексуальными намеками.
Как полагает Aibase, добавление таких режимов не только обогащает методы взаимодействия ИИ-приложения с пользователями, но и расширяет развлекательный аспект. Режим «Безбашенный» может включать спорный контент, способный вызвать интерес, в то время как режим «Сексуальный» использует беззаботный заигрывающий стиль диалога.
На этом личности «Грока» не заканчиваются. Есть режим «Укурок» (Stoner), имитирующий разговор с человеком под действием запрещённых в России и многих других странах веществ. Для тех, кто предпочитает более спокойные беседы, есть режимы «Лучший друг» и «Гений» — последний подражает стилю общения астрофизика Карла Сагана (Carl Sagan). Все эти личности доступны с женским (Ara) и мужским (Rex) голосами, причем женская версия имеет более строгие ограничения. Появление этих режимов вызвало дискуссии среди пользователей о необходимости модерации контента, особенно в отношении их потенциального воздействия на несовершеннолетних. Являются ли эти режимы официальными или просто находятся на стадии тестирования, пока неясно. Компания пока никак не прокомментировала сообщение пользователя. По мнению аналитиков, этот шаг xAI направлен на привлечение более широкой пользовательской базы, одновременно расширяя границы взаимодействия с ИИ. Голосовое общение в реальном времени и разнообразные режимы приложения Grok могут стать его конкурентным преимуществом, но, вместе с тем, создать для xAI проблемы в достижении баланса между инновациями и безопасностью. OpenAI провела зачистку ChatGPT от аккаунтов из Китая и Северной Кореи, подозреваемых во вредоносной деятельности
22.02.2025 [13:47],
Владимир Фетисов
OpenAI заблокировала аккаунты пользователей из Китая и Северной Кореи, которые, якобы, использовали технологии компании в злонамеренных целях, включая слежку и кампании по влиянию на общественное мнение. В заявлении OpenAI говорится, что авторитарные режимы могут применять искусственный интеллект во вред США и собственным гражданам. Отмечается, что для выявления подозрительной активности был задействован специальный ИИ-алгоритм.
Источник изображения: Dima Solomin / unsplash.com Компания не сообщила, сколько аккаунтов было заблокировано, а также не уточнила, как давно ведётся поиск учётных записей, владельцы которых потенциально занимаются злонамеренной деятельностью. В заявлении сказано, что в одном из таких случаев пользователь ChatGPT генерировал новостные статьи на испанском языке с целью очернить США. Эти материалы впоследствии публиковались новостными изданиями в Латинской Америке от имени китайской компании. Во втором случае злоумышленники, предположительно связанные с Северной Кореей, использовали искусственный интеллект для создания резюме и онлайн-профилей фиктивных соискателей с целью трудоустройства в западные компании. Также была выявлена группа аккаунтов, принадлежащих пользователям из Камбоджи и связанных с финансовым мошенничеством. Они использовались для перевода и публикации комментариев в разных соцсетях, включая X и Facebook✴✴. Правительство США выразило обеспокоенность тем, что Китай якобы использует искусственный интеллект для контроля над общественным мнением в стране, а также распространения дезинформации и подрыва безопасности США и их союзников. Напомним, ChatGPT от OpenAI является самым популярным ИИ-ботом с 400 млн еженедельно активных пользователей. Компания ведёт переговоры о привлечении инвестиций в размере до $40 млрд при оценке OpenAI в $300 млрд, что может стать рекордным раундом финансирования для частной компании. «Нам просто нужно больше мощностей»: OpenAI постепенно поборет зависимость от Microsoft
22.02.2025 [13:32],
Владимир Мироненко
OpenAI в разработке новых ИИ-моделей и предоставлении ИИ-услуг компаниям и пользователям сейчас в значительной степени полагается на вычислительные мощности своего главного акционера Microsoft. Однако в ближайшие пять лет ожидаются значительные изменения в этом вопросе, сообщило в пятницу издание The Information.
Источник изображения: Growtika/unsplash.com По данным The Information, к 2030 году OpenAI рассчитывает получать три четверти вычислительных мощностей ЦОД от проекта Stargate, который будет в значительной степени финансироваться конгломератом SoftBank — одним из новых инвесторов OpenAI. Это означает существенное изменение во взаимоотношениях OpenAI с Microsoft, инвестировавшей в компанию с 2019 года почти $14 млрд. Изменение не произойдёт мгновенно, пишет The Information. В ближайшие несколько лет OpenAI продолжит увеличивать расходы на оплату вычислительных мощностей ЦОД, принадлежащих Microsoft. По данным The Information, в 2027 году OpenAI планирует потратить на свои разработки $20 млрд. Для сравнения, расходы компании в 2024 году составили $5 млрд. Согласно прогнозам OpenAI, к 2030 году её затраты на работу уже обученных моделей (инференс) моделей ИИ превысят расходы на их обучение. Когда был анонсирован проект Stargate, один из пользователей соцсети X отметил, что дружбе между OpenAI и Microsoft пришёл конец. В ответ глава OpenAI Сэм Альтман (Sam Altman) заявил: «Вовсе нет! Это очень важное и крупное партнёрство на длительное время». Он также добавил: «Нам просто нужно больше вычислительных мощностей». Microsoft, в свою очередь, утверждает, что отношения между двумя компаниями остаются прочными. Она продолжит размещать сервисы OpenAI на своей платформе облачных вычислений Azure. Вместе с тем Microsoft инвестировала в её французского конкурента Mistral AI и предлагает модели Meta✴✴ Llama на платформе Azure. В прошлом году Microsoft добавила поддержку модели Anthropic — конкурента OpenAI — своему ИИ-ассистенту GitHub Copilot для помощи программистам в написании кода. Apple выпустила первую бету iOS 18.4, в которой появились «приоритетные уведомления»
22.02.2025 [11:13],
Павел Котов
Apple выпустила адресованные разработчикам бета-версии очередных обновлений своих платформ. В предварительном варианте iOS 18.4 появились «приоритетные уведомления» (Priority Notifications), являющиеся частью из пакета Apple Intelligence: запущенная локально модель искусственного интеллекта анализирует поступающие уведомления и пытается определить наиболее важные, чтобы система показала их над другими.
Источник изображения: apple.com По умолчанию приоритетные уведомления отключены, функция активируется в настройках — там есть соответствующая опция. Подробностей об обновлённом голосовом ассистенте Siri в Apple пока не привели. «В ближайшие месяцы Apple Intelligence продолжит дополняться новыми функциями, в том числе новыми возможностями Siri», — гласит лаконичное замечание в пресс-релизе компании. Также Apple объявила, что Apple Intelligence с обновлением iOS 18.4 станет доступна на нескольких языках, включая французский, немецкий, итальянский, португальский (Бразилия), испанский, японский, корейский и упрощённый китайский, а также локализованный английский для Сингапура и Индии. Пользователи из ЕС впервые получат доступ к функциям «Яблочного интеллекта». Apple вместе с iOS 18.4 выпустила бета-версии iPadOS 18.4, macOS 15.4, tvOS 18.4, visionOS 2.4 и watchOS 11.4. В обновлённых iOS и iPadOS появилась возможность выбирать установленное по умолчанию приложение для перевода; пользователям из Европы, где действует «Закон о цифровых рынках» (DMA) также доступен выбор навигационного приложения по умолчанию. С выходом iOS 18.4 владельцы Vision Pro могут прямо на iPhone изучать магазин приложений для гарнитуры, добавлять видео для просмотра и удалённо устанавливать приложения. На Mac и iPad вышел переработанный почтовый клиент, а в Apple News Plus для iPhone и iPad появился кулинарный раздел с «десятками тысяч рецептов», отформатированных для просмотра на мобильных устройствах. Meta✴ рассказала, как скачивать контент через торренты, но не стать пиратом
21.02.2025 [19:54],
Владимир Мироненко
Компанию Meta✴✴ недавно обвинили в пиратстве терабайтов книг в связи с использованием для обучения ИИ-моделей контента из теневых библиотек. В ответ компания заявила, что не считает себя пиратом, поскольку нет доказательств того, что она раздавала защищённый авторским правом контент через торренты. Поэтому в компании считают, что обвинения в нарушении авторских прав не имеют под собой основания, пишет Tom's Hardware.
Источник изображения: Glenn Carstens-Peters/unsplash.com В судебном процессе по иску писателя Ричарда Кадри (Richard Kadrey) против Meta✴✴ авторы книг и владельцы авторских прав на контент настаивают на том, что Meta✴✴ была «осознанным участником незаконной пиринговой сети» и действовала без заключения предварительных лицензионных соглашений. Для загрузки данных из теневых библиотек компания использовала протокол BitTorrent, который предполагает одновременную раздачу контента другим пользователям. По мнению стороны обвинения, это означает распространение пиратских материалов. В свою очередь, Meta✴✴ сообщила в документе, направленном в суд на этой неделе, что, хотя она загрузила 82 Тбайт контента, защищённого авторским правом, из теневых библиотек для обучения своих моделей ИИ LLaMA, её сотрудники «приняли меры предосторожности, чтобы не “раздавать” загруженные файлы». Защита компании строится на том, что в настоящее время нет никаких доказательств того, что она делилась скачанным контентом во время процесса торрентирования. При этом Майкл Кларк (Michael Clark), руководитель Meta✴✴, отвечающий за управление проектами, сообщил в суде, что параметры конфигурации торрента были изменены «таким образом, чтобы раздача была минимальной». Когда судья спросил, почему Meta✴✴ решила минимизировать раздачу, юристы компании воспользовались положением о клиентско-адвокатской тайне, позволив Кларку оставить этот вопрос без ответа. Кроме того, Meta✴✴ пока не ответила на вопросы о том, знала ли она, что данные передавались другим пользователям во время загрузки контента из теневых библиотек. «Небольшой, но искренний прогресс»: DeepSeek откроет для всех пять ИИ-репозиториев
21.02.2025 [17:47],
Владимир Мироненко
Китайский стартап DeepSeek объявил, что на следующей неделе сделает код своих моделей доступным для всех пользователей, подтвердив свою приверженность открытому исходному коду для технологий ИИ.
Источник изображения: Solen Feyissa/unsplash.com Компания сообщила в соцсети X, что откроет исходный код пяти репозиториев, назвав это «небольшим, но искренним прогрессом», которым она делится «с полной прозрачностью». «Эти скромные строительные блоки в нашем онлайн-сервисе были задокументированы, развёрнуты и проверены на практике в производственной среде», — говорится в публикации DeepSeek. DeepSeek выпустила в прошлом месяце Open Source-модель DeepSeek R1 со способностью к размышлению, способную соперничать с ИИ-системами американских компаний по производительности, хотя на её создание ушло гораздо меньше средств. Это заставило инвесторов более критично относиться к отчётам разработчиков в сфере ИИ о затратах на развёртывание новых моделей. Приверженность DeepSeek открытому исходному коду отличает её от большинства фирм в сфере ИИ в Китае, которые, как и их американские конкуренты, предпочитают предлагать на рынке модели с закрытым исходным кодом, пишет Reuters. Основатель DeepSeek Лян Вэньфэн (Liang Wenfeng) сообщил в интервью китайским СМИ в июле прошлого года, что компания не считает коммерциализацию своих моделей ИИ приоритетом, и что открытый исходный код может стать своего рода «мягкой силой». «Когда другие следуют за вашими инновациями, это даёт глубокое чувство выполненного долга», — сказал Лян. Репозитории с открытым исходным кодом предоставят инфраструктуру для поддержки моделей ИИ, которыми DeepSeek уже публично поделилась, на основе существующих фреймворков Open Source-моделей. Ранее на этой неделе DeepSeek представила новый алгоритм Native Sparse Attention (NSA), разработанный для повышения эффективности обучения и инференса ИИ-моделей при обширном контексте. Чат-бот DeepSeek является самым популярным в Китае с 22,2 млн ежедневных активных пользователей по состоянию на 11 января, по данным Aicpb.com, что превышает 16,95 млн пользователей китайской платформы Douban. DeepSeek разогнали до рекордной скорости всего на 16 чипах SambaNova — чипов Nvidia потребовалось бы в 20 раз больше
21.02.2025 [16:38],
Павел Котов
Стартап в области искусственного интеллекта SambaNova Systems, основанный в 2017 году выходцами из Sun, Oracle и Стэнфордского университета, объявил о создании самой быстрой в мире системы для развёртывания модели DeepSeek-R1 671B. Для оборудования Nvidia такие показатели недоступны.
Источник изображения: sambanova.ai SambaNova добилась скорости работы DeepSeek-R1 в 198 токенов в секунду всего на 16 специально изготовленных ускорителях — аналогичного результата можно достичь, только развернув 40 стоек с 320 графическими процессорами Nvidia. «SambaNova на чипах SN40L RDU стала самой быстрой платформой для запуска DeepSeek. Это пятикратный прирост по сравнению со скоростью новейшего графического процессора на одной стойке, а к концу года мы предложим 100-кратную ёмкость для DeepSeek-R1», — пообещал соучредитель и генеральный директор SambaNova Родриго Лян (Rodrigo Liang). Ресурсоёмкие рабочие нагрузки систем искусственного интеллекта традиционно обеспечиваются графическими процессорами Nvidia, но в SambaNova утверждают, что созданная компанией конфигурируемая архитектура потока данных представляет собой более эффективное решение. Её оборудование работает втрое быстрее и потребляет в пять раз меньше энергии, чем самые мощные из современных графических процессоров, сохраняя при этом полную вычислительную мощность модели DeepSeek-R1. Достижение подтвердили эксперты компании Artificial Analysis, которая проводит независимую оценку систем ИИ. Открытая модель DeepSeek-R1 671B доступна в облаке SambaNova через API. Компания активно наращивает мощности и в ближайшем будущем надеется достичь общей пропускной способности в 20 000 токенов в секунду. Microsoft представила ИИ-агента Magma для управления приложениями и реальными роботами
21.02.2025 [14:20],
Владимир Фетисов
Разработчики из Microsoft Research представили мультимодальную языковую ИИ-модель Magma, которая способна обрабатывать визуальные и текстовые данные для управления программными интерфейсами и роботизированными системами. Если алгоритм после тестирования выйдет за пределы Microsoft, то это может стать важным шагом на пути к созданию универсального мультимодального ИИ, способного работать как в цифровом, так и в реальном пространстве.
Демонстрация того, как Magma управляет роботизированной рукой / Источник изображения: Microsoft Research Microsoft утверждает, что Magma является первой ИИ-моделью, которая способна не только обрабатывать мультимодальные данные (например, текст, изображения, видео), но и умеет выполнять действия на их основе, будь то навигация по пользовательскому интерфейсу или манипулирование физическими объектами. Разработка алгоритма Magma велась совместными усилиями разработчиков из Microsoft, KAIST, Университета Мэриленда, Висконсинского университета в Мэдисоне и Университета Вашингтона. Ранее уже были реализованы проекты в сфере робототехники, основой которых становились большие языковые модели (LLM). К таким работам можно отнести проекты PALM-E и RT-2 от Google или ChatGPT for Robotics от Microsoft, где ИИ-системы были задействованы для управления программными интерфейсами. В отличие от многих уже созданных мультимодальных алгоритмов, требующих использования отдельных моделей для восприятия и управления, в Magma эти способности объединены внутри единой базовой ИИ-модели. Microsoft позиционирует Magma, как существенный шаг на пути создания единого ИИ-агента, т.е. системы, способной автономно разрабатывать планы действий и выполнять многоэтапные задачи от имени человека, а не просто отвечать вопросы о том, что она видит. «Учитывая описанную цель, Magma способна формулировать планы и выполнять действия для их достижения. Эффективно передавая знания, извлекаемые из свободно доступных визуальных и языковых данных, Magma объединяет вербальный, пространственный и временной алгоритмы для навигации по сложным задачам и обстановке», — говорится в сообщении исследователей из Microsoft. ИИ-модель Magma включает в себя два технических компонента: Set-of-Mark (идентифицирует объекты, которыми можно манипулировать в среде, присваивая цифровые метки интерактивным элементам, таким как нажимаемые кнопки в пользовательском интерфейсе или захватываемые объекты в рабочем пространстве роботов) и Trace-of-Mark (позволяет алгоритму выполнять такие задачи, как навигация по пользовательским интерфейсам или управление роботизированными руками для захвата и перемещения объектов). Один из участников проекта рассказал, что название алгоритма Magma расшифровывается как M(ultimodal) Ag(entic) M(odel) at Microsoft (Rese)A(rch). В описании алгоритма Microsoft утверждает, что Magma-8B демонстрирует конкурентоспособные результаты в бенчмарках, показывая высокие результаты в задачах навигации по пользовательскому интерфейсу и манипулировании роботами. Так в бенчмарке VQAv2 алгоритм Magma получил 80,0 баллов за визуальные ответы на вопросы, что выше результата GPT-4V (77,2 балла), но ниже показателя LLaVA-Next (81,8 балла). Показатель алгоритма POPE в 87,4 балла в настоящее время является абсолютно лучшим среди ИИ-моделей, участвовавших в сравнении. Отмечается, что в сфере манипулирования роботами Magma превосходит OpenVLA. По заявлениям разработчиков, Magma отличается от аналогов вроде GPT-4V тем, что выходит за рамки так называемого «вербального интеллекта» и включает в себя «пространственный интеллект», т.е. возможность планирования и выполнения действий. Обучаясь на смеси изображений, видео, робототехнических данных и взаимодействий с пользовательским интерфейсом, Magma, по сути, является полноценным мультимодальным ИИ-агентом, а не просто перцептивной моделью. Как и все ИИ-модели, Magma не совершенна. Документация Microsoft указывает на то, что алгоритм по-прежнему сталкивается с техническими ограничениями при принятии сложных пошаговых решений, требующих многократного выполнения действий в течение определённого времени. Microsoft продолжает работать над улучшением алгоритма. Софтверный гигант намерен выложить исходный код Magma и другую документацию на GitHub, чтобы сторонние исследователи могли использовать эти наработки для реализации собственных проектов. В России наметился дефицит электроэнергии для обучения ИИ
21.02.2025 [12:28],
Павел Котов
В России может возникнуть недостаток электроэнергии для обучения отечественных моделей искусственного интеллекта, сообщают «Ведомости» со ссылкой на заявление директора по развитию технологи ИИ в «Яндексе» Александра Крайнова.
Источник изображения: NASA / unsplash.com Дефицит электроэнергии наблюдается как в мировом масштабе, так и в России, отметил господин Крайнов. В современных реалиях запуск крупных центров обработки данных (ЦОД) становится всё более сложной задачей. Российские компании, которые обучают ИИ с нуля, для экономии ресурсов повторно используют результаты ранее проведённых вычислений. Важнейшей задачей остаётся не только обучение ИИ-моделей, но и инференс — запуск уже обученных систем, добавил директор центра продвинутой аналитики «Альфа-банка» Алексей Каширин. За последние 10 лет лидеры рынка инвестировали в сферу ИИ не менее 650 млрд руб., подсчитали в ассоциации «Финтех». Данных по российскому рынку ИИ за 2024 год ещё нет, но, по оценкам, речь идёт о сумме порядка 780 млрд руб. с учётом роста на 30 %. В 2025 году этот показатель, по прогнозам правительства России, достигнет 1 трлн руб. Крупнейшими разработчиками собственных ИИ-моделей в России являются «Яндекс» и «Сбер». В арсенале первой значатся YandexGPT и «Шедеврум», а второй — GigaChat и Kandinsky. МТС, «Т-Банк» и несколько других компаний дообучили открытые модели ИИ. Небольшое число корпоративных разработчиков и энтузиастов также обучили малые модели для собственных нужд. У крупных компаний есть собственные центры обработки данных, однако объекты, на которых развивается ИИ, потребляют больше электроэнергии. Стандартная серверная стойка для задач, не связанных с ИИ, потребляет 5–10 кВт, тогда как оборудование для ИИ может требовать до 40 кВт на стойку.
Источник изображения: Taylor Vick / unsplash.com Учитывая дефицит мест в коммерческих ЦОД, многие крупные компании за последние три года были вынуждены заняться строительством собственных мощностей. В коммерческих ЦОД России на сегодняшний день установлено более 82 000 серверных шкафов, при этом годовой рост в 2024 году составил 17 %, подсчитали в ГК Softline. Количество корпоративных ЦОД значительно выше. Потребление электроэнергии отечественными дата-центрами по состоянию на апрель 2024 года составляло около 2,6 ГВт, что эквивалентно 1 % установленной мощности Единой энергосистемы (ЕЭС) России. Если учитывать американский опыт, рост потребления в этом сегменте может составлять 30–40 % в год. На начало 2025 года установленная мощность электростанций ЕЭС России составляла 263,7 ГВт, а максимальное потребление, зафиксированное в январе 2024 года, достигало 168,3 ГВт, что говорит о наличии запаса мощности. Однако из-за промышленного производства, криптовалютного майнинга и роста энергопотребления в отдельных регионах возможен дефицит — в первую очередь на юге России, в Сибири и на Дальнем Востоке. По прогнозам, на юго-востоке Сибири в 2025–2030 годах нехватка мощности может составить до 2,9 ГВт, аналогичный дефицит ожидается и в Объединённой энергосистеме Юга. Таким образом, в масштабах страны проблем с выработкой электроэнергии нет, однако существуют сложности с её доставкой и распределением. В мегаполисах возможна точечная нехватка электроэнергии, тогда как в регионах, напротив, сохраняется профицит. Это создаёт предпосылки для развития инфраструктуры ЦОД в регионах, хотя на данный момент массового переноса дата-центров не ожидается. Спрос на мощности ЦОД сегодня превышает предложение. По оценкам экспертов, на поиск места для строительства крупного объекта мощностью 60 МВт может уйти до трёх лет. В Москве, по различным данным, осталось около 50 МВт свободных мощностей, которых хватит на 2–4 крупных коммерческих ЦОД. В южной части энергосистемы Московского региона к 2030 году дефицит, по данным оператора ЕЭС, может достигнуть 564 МВт, а к 2042 году — уже 3,15 ГВт. Стартап Figure продемонстрировал, как его человекоподобные роботы справляются с бытовыми делами
21.02.2025 [07:56],
Алексей Разин
Две недели назад американская компания Figure AI отказалась от сотрудничества с OpenAI, и вчера продемонстрировала способность своих человекоподобных роботов понимать команды на естественном языке, обрабатываемые VLA-моделью Helix.
Источник изображений: Figure AI VLA-модель представляет собой комбинацию системы машинного зрения и большой языковой модели, позволяющую обучать роботов различным операциям по комбинации зрительных образов и языковых команд. На практике это приводит к тому, что обучаемые роботы могут по команде манипулировать предметами, которые они ранее никогда не видели. Получая голосовую команду в естественной форме, робот начинает визуально анализировать окружение и потом выполняет поставленную задачу с учётом результатов анализа обстановки. ![]() Модель Helix позволяет роботам Figure работать в паре и взаимодействовать друг с другом при выполнении бытовых операций. Подразумевается, что в быту роботы могут работать парами, помогая друг другу и повышая производительность труда. Figure демонстрирует возможности своих роботов 02 в типичном бытовом интерьере, который традиционно считается очень сложной для роботов средой. Производителям гораздо проще создавать роботов, которые будут работать в более контролируемом и предсказуемом промышленном окружении. Соответственно, появление на рынке «дееспособных» домашних человекоподобных роботов считается более отдалённой перспективой. Обучение роботов выполнению бытовых операций требует существенных затрат на разработку программного обеспечения или тысяч экспериментов. Запрограммировать их вручную в данном случае не представляется возможным, а потому единственным способом создать помогающих в быту роботов является их самообучение. В домашней среде слишком много переменных, с которыми роботам предстоит столкнуться, поэтому совершенствование профильного ПО потребует существенных затрат времени. «Пока наши серверы не расплавятся»: Илон Маск сделал «самый умный ИИ в мире» бесплатным для всех
20.02.2025 [13:59],
Павел Котов
Стартап Илона Маска (Elon Musk) xAI назвал вышедшую на этой неделе модель искусственного интеллекта Grok 3 «самым умным ИИ в мире» и заявил, что теперь она доступна бесплатно для всех желающих, «пока наши серверы не расплавятся». Пользователи платных подписок получат доступ к расширенным функциям чат-бота.
Источник изображения: Mariia Shalabaieva / unsplash.com «Вот он: самый умный ИИ в мире, Grok 3, теперь доступен бесплатно (пока наши серверы не расплавятся). Попробуйте Grok 3 прямо сейчас <..> Пользователи X Premium+ и SuperGrok будут иметь „расширенный доступ“ к Grok 3, а также ранний доступ к расширенным функциям, таким как голосовой режим», — сообщила xAI в соцсети X. Новая модель превосходит конкурентов в задачах, связанных с рассуждениями, математикой, написанием компьютерного кода, в знаниях и задачах, связанных с выполнением инструкций, кроме того, она демонстрирует высокую производительность в ряде тестов, добавили в xAI. На платформе Chatbot Arena система Grok 3 получила 1402 балла по рейтингу Эло — больше, чем у OpenAI GPT-4o (1377) и Google Gemini 2.0 (1385). Grok 3 также получил две новые функции: DeepSearch и Think. Первая — это «мощный агент, который может быстро синтезировать ключевую информацию, рассуждать о противоречивых фактах и мнениях и извлекать ясность из сложности». Вторая была реализована посредством обучения с подкреплением в «беспрецедентном масштабе»: ИИ «научился совершенствовать свои стратегии решения задач, исправлять ошибки посредством перебора с возвратом, упрощать шаги и применять знания, полученные во время предварительной подготовки. Как и человек, при решении сложной задачи он может потратить на рассуждения от нескольких секунд до нескольких минут, зачастую рассматривая несколько подходов, проверяя собственное решение и оценивая, как выполнить требования задачи в точности», рассказали в xAI. Grok 3 доступен в формате мобильного приложения, веб-версии, а также на платформе X. В ближайшее время xAI намеревается открыть доступ к новой модели через API, причём можно будет пользоваться как стандартным вариантом ИИ, так и версией DeepSearch. Феномен DeepSeek не заставит разработчиков ИИ тратить меньше денег на чипы Nvidia, считают эксперты
20.02.2025 [11:49],
Алексей Разин
Откровения вокруг китайского стартапа DeepSeek, предположительно создавшего передовую языковую модель со значительно меньшими затратами по сравнению с западными конкурентами, заставил многих инвесторов понервничать. Представители Wedbush, однако, убеждены в готовности компаний и дальше тратить приличные деньги на ускорители Nvidia Blackwell.
Источник изображения: Nvidia Напомним, что тезис «ИИ-скептиков» в свете прорыва DeepSeek подразумевал, что способность разработчиков больших языковых моделей обходиться более слабыми аппаратными ресурсами снизит спрос на дорогое и передовое «железо» Nvidia. Аналитики Wedbush Securities убеждены, что этого не произойдёт. По итогам очередной регулярной поездки по Азии и общения с поставщиками электроники они утверждают, что никто из желающих развивать свою ИИ-инфраструктуру не намерен снижать темпы расширения профильных мощностей после шумихи вокруг DeepSeek. В случае с продукцией Nvidia семейства Blackwell спрос всё равно продолжает сильно превышать предложение. «Никто из клиентов Nvidia не хочет потерять своё место в очереди за чипами этой марки следующего поколения», — поясняют авторы аналитической записки. По оценкам Wedbush, в текущем году от 10 до 15 % всех бюджетов компаний в сфере информационных технологий будут направляться на покрытие потребностей в сегменте ИИ. Капитальные затраты семи крупнейших компаний технологического сектора в совокупности могут вырасти примерно в полтора раза до $325 млрд. Многие компании в этом году только ускорят внедрение искусственного интеллекта, как утверждают представители Wedbush. Rabbit показала в деле ИИ-агента, который так и не попал в ИИ-заменитель смартфона Rabbit R1
20.02.2025 [11:40],
Дмитрий Федоров
Компания Rabbit представила новую версию ИИ-агента, предназначенного для управления приложениями в среде Android. Опубликованный видеоролик демонстрирует, как агент взаимодействует с интерфейсами мобильных приложений, выполняя запросы. Однако эти функции изначально были обещаны для устройства Rabbit R1, которое так и не получило заявленных возможностей.
Источник изображения: Rabbit Разработка основана на ранее представленной платформе LAM Playground — универсальном веб-агенте, выпущенном в 2023 году. В видеоролике инженеры демонстрируют, как система выполняет команды, аналогичные тем, что более года назад были анонсированы для Rabbit R1. Однако сам R1, несмотря на маркетинговые заявления основателя и генерального директора компании Rabbit Джесси Лю (Jesse Lyu) в январе 2024 года, не поддерживает этих возможностей. В ходе демонстрации инженеры вводят текстовые команды в интерфейс на ноутбуке, после чего ИИ-агент интерпретирует их и выполняет соответствующие действия на планшете с Android. Система находит видео на YouTube, ищет рецепты коктейлей, извлекает список ингредиентов, добавляет их в Google Keep. В определённый момент инженеры просят ИИ-агента загрузить игру-головоломку 2048 и разобраться, как в неё играть. Агент успешно справляется с задачей, хотя процесс выполнения оказывается довольно медленным. Несмотря на общую работоспособность системы, в ходе тестирования были выявлены ошибки. Например, при отправке стихотворения через WhatsApp ИИ-агент разбивал текст на отдельные сообщения вместо того, чтобы отправить его единым блоком. Один из инженеров предположил, что причиной может быть отсутствие разрывов строк в запросе, однако команда не стала это перепроверять. Подобные недочёты указывают на необходимость дальнейшей доработки алгоритмов взаимодействия ИИ-агента с интерфейсами мобильных приложений. В своём блоге Rabbit подчеркнула, что показанная функциональность охватывает лишь базовый цикл операций, выполняемых ИИ-агентом в среде Android. Разработка находится на ранней стадии, и её возможности будут расширяться в рамках будущих обновлений. Кроме того, компания ведёт работу над созданием мультиагентной системы, которая обеспечит кроссплатформенную совместимость и поддержку более сложных сценариев автоматизации. Подробности о технической архитектуре и возможностях продукта Rabbit планирует раскрыть в ближайшие недели. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |