Опрос
|
реклама
Быстрый переход
Начинающие разработчики ИИ-приложений привлекли рекордные $8,2 млрд инвестиций за прошлый год
14.04.2025 [12:15],
Дмитрий Федоров
Несколько стартапов в сфере ИИ, разрабатывающих прикладные решения на основе больших языковых моделей (LLM), стремительно наращивают объёмы продаж и инициируют новую гонку за коммерческое освоение передовых технологий. Их быстрый рост привлёк внимание инвесторов, готовых вложить сотни миллионов долларов в развитие потребительских ИИ-продуктов. ![]() Источник изображения: Alex Shuper / Unsplash Инвесторы делают ставку на такие компании, как Cursor, Perplexity, Synthesia и ElevenLabs. Эти стартапы создают приложения на основе мощных генеративных ИИ-моделей (GenAI), предоставляемых OpenAI, Google и Anthropic. Они способствуют более широкому внедрению быстро развивающихся технологий как в потребительской, так и в корпоративной среде. По данным аналитической платформы Dealroom.co, в 2024 году объём финансирования стартапов, разрабатывающих приложения на основе ИИ, составил $8,2 млрд, что на 110 % больше, чем в 2023 году. Этот инвестиционный ажиотаж свидетельствует о высоком интересе к разработчикам ИИ-инструментов, способным привлекать сотни миллионов долларов на фоне стремительного роста спроса. Стартап Perplexity, разработавший поисковую систему на базе ИИ, привлёк в декабре $500 млн в рамках своего четвёртого раунда финансирования за год, утроив оценку компании до $9 млрд. По данным источников, в настоящее время компания ведёт переговоры о новом раунде инвестиций по существенно более высокой оценке. В то же время стартап Harvey, разрабатывающий ИИ-решения для юридической сферы, привлёк $300 млн в феврале. Стартапы, создающие приложения для разработчиков программного обеспечения (ПО), также вызвали повышенный интерес со стороны инвесторов. Компании, такие как Reflection AI, Poolside, Magic и Codeium, собрали сотни миллионов долларов в 2024 году на развитие технологий, направленных на повышение производительности программистов. В январе компания Anysphere — разработчик инструмента автоматизации программирования Cursor — привлекла $105 млн при оценке $2,5 млрд. По словам источников, инвесторы проявляют интерес к компании при оценке в $10 млрд и выше. Трёхлетний стартап уже достиг годовой регулярной выручки на уровне $200 млн. ![]() Источник изображения: Dealroom.co and Flashpoint ИИ-стартапы также получили выгоду от усилившейся конкуренции на рынке LLM, которая привела к снижению стоимости обработки запросов и генерации ответов с использованием ИИ. Это позволило использовать инфраструктуру LLM без необходимости создания собственных дорогостоящих ИИ-моделей, что ускорило вывод продуктов на рынок. Брет Тейлор (Bret Taylor), председатель совета директоров OpenAI и сооснователь стартапа Sierra, отметил, что компания за короткое время сменила используемые ИИ-модели не менее пяти-шести раз в связи с высокой скоростью развития отрасли. Стартап Sierra, разрабатывающий агентов поддержки клиентов на базе ИИ, был основан в феврале 2024 года и достиг оценки в $4,5 млрд уже в октябре того же года. По его словам, использование ИИ-модели двухлетней давности сегодня сравнимо с поездкой на автомобиле 1950-х годов — настолько стремительно устаревают технологии. Согласно анализу данных о платежах от финтех-компании Stripe, крупнейшие ИИ-компании достигают объёмов продаж в миллионы долларов уже в течение первого года своей деятельности. Это происходит значительно быстрее, чем в случае стартапов из других технологических отраслей, и свидетельствует о высокой способности прикладного ИИ к быстрому формированию устойчивых бизнес-моделей. Однако пока сложно оценить, насколько надёжна клиентская база ИИ-стартапов и насколько устойчивыми окажутся их текущие доходы. На фоне всеобщего интереса к ИИ ранние пользователи приходят быстро, что может искажать показатели роста, не гарантируя долгосрочной подписки. Некоторые инвесторы избегают участия в гонке за наиболее популярные приложения, опасаясь, что даже лучшие из них представляют собой лишь сервисные «обёртки» над существующими ИИ-моделями. Существует риск, что такие стартапы будут вытеснены в случае, если более крупная компания с широкой пользовательской базой решит воспроизвести их функциональность. Ханна Сил (Hannah Seal), партнёр венчурной компании Index Ventures, инвестировавшая в юридического ИИ-ассистента Wordsmith, подчёркивает, что многие из этих ИИ-стартапов ещё не прошли ни одного полного годового цикла продления подписки. Поэтому уровень оттока клиентов остаётся неизвестным и может существенно повлиять на дальнейшую динамику развития. Нейросеть DeepSeek останется открытой — это полезно всему миру
14.04.2025 [07:51],
Владимир Фетисов
Нейросеть китайской компании DeepSeek сохранит открытый исходный код, поскольку это будет полезно всему миру. Об этом пишет информационное агентство ТАСС со ссылкой на слова посла КНР в России Чжан Ханьхуэя. ![]() Источник изображения: Steve Johnson / Unsplash «Китайская нейронная сеть DeepSeek предоставляет открытый исходный код, способствуя совместному использованию технологий ИИ по всему миру, а половина популярных моделей с открытым исходным кодом на известной платформе Hugging Face созданы китайскими разработчиками», — напомнил господин Ханьхуэй. По словам дипломата, в Китае считают, что искусственный интеллект должен оставаться общедоступной технологией, а не привилегией избранных. «Открытый исходный код играет ключевую роль в обеспечении широкого доступа к технологиям искусственного интеллекта. Успешные примеры, такие как разработка компанией «Яндекс» локализованных моделей ИИ на основе экосистемы с открытым исходным кодом, подтверждают эффективность открытого обмена», — добавил посол. В беседе с журналистами он также рассказал, что в рамках «Инклюзивной программы по наращиванию потенциала ИИ» Китай готов предложить развивающимся странам комплексный план действий, в том числе формирование необходимой инфраструктуры, развитие производственно-сбытовых цепочек, организацию открытых сообществ на основе открытого исходного кода и подготовку квалифицированных специалистов в сфере ИИ. Сфера ИИ заинтересовалась малыми языковыми моделями — они дешевле и эффективнее больших в конкретных задачах
13.04.2025 [21:16],
Владимир Мироненко
На рынке ИИ сейчас наблюдается тренд на использование малых языковых моделей (SLM), которые имеют меньше параметров, чем большие языковые модели (LLM), и лучше подходят для более узкого круга задач, пишет журнал Wired. ![]() Источник изображения: Luke Jones/unsplash.com Новейшие версии LLM компаний OpenAI, Meta✴ и DeepSeek имеют сотни миллиардов параметров, благодаря чему могут лучше определять закономерности и связи, что делает их более мощными и точными. Однако их обучение и использование требуют огромных вычислительных и финансовых ресурсов. Например, обучение модели Gemini 1.0 Ultra обошлось Google в 191 миллион долларов. По данным Института исследований электроэнергетики, выполнение одного запроса в ChatGPT требует примерно в 10 раз больше энергии, чем один поиск в Google. IBM, Google, Microsoft и OpenAI недавно выпустили SLM, имеющие всего несколько миллиардов параметров. Их нельзя использовать в качестве универсальных инструментов, как LLM, но они отлично справляются с более узко определёнными задачами, такими как подведение итогов разговоров, ответы на вопросы пациентов в качестве чат-бота по вопросам здравоохранения и сбор данных на интеллектуальных устройствах. «Они также могут работать на ноутбуке или мобильном телефоне, а не в огромном ЦОД», — отметил Зико Колтер (Zico Kolter), учёный-компьютерщик из Университета Карнеги — Меллона. Для обучения малых моделей исследователи используют несколько методов, например дистилляцию знаний, при которой LLM генерирует высококачественный набор данных, передавая знания SLM, как учитель даёт уроки ученику. Также малые модели создаются из больших путём «обрезки» — удаления ненужных или неэффективных частей нейронной сети. Поскольку у SLM меньше параметров, чем у больших моделей, их рассуждения могут быть более прозрачными. Небольшая целевая модель будет работать так же хорошо, как большая, при выполнении конкретных задач, но её будет проще разрабатывать и обучать. «Эти эффективные модели могут сэкономить деньги, время и вычислительные ресурсы», — сообщил Лешем Чошен (Leshem Choshen), научный сотрудник лаборатории искусственного интеллекта MIT-IBM Watson. В Ирландии проверят законность обучения ИИ-модели Grok на постах европейцев в X
11.04.2025 [22:10],
Владимир Мироненко
Ирландский регулятор начал расследование в отношении социальной сети X Илона Маска (Elon Musk) в связи с обработкой опубликованных на платформе сообщений европейских пользователей с целью обучения ИИ-модели Grok, пишет агентство Bloomberg. ![]() Источник изображения: Mariia Shalabaieva/unsplash.com В опубликованном в пятницу заявлении Комиссия по защите данных (DPC) Ирландии, ответственная за соблюдение прав на защиту персональных данных и регулирование, сообщила, что в ходе расследования предполагается изучить соблюдение компанией ряда ключевых положений правил обработки данных, включая законность этих действий. «Целью данного расследования является определение того, были ли эти персональные данные законно обработаны для обучения больших языковых моделей Grok», — говорится в заявлении DPC. Расследование, по всей видимости, ещё больше усилит напряжённость между Европейским союзом и США из-за регулирования технологических компаний со стороны ЕС, предположило Bloomberg. Агентство отметило, что Закон об искусственном интеллекте (AI Act) ЕС, регулирующий применение ИИ-технологий, вступил в силу в прошлом году, вызвав тем самым разочарование у многих руководителей технологических компаний. У Маска и ранее возникали разногласия с DPC, которая потребовала от X прекратить сбор данных европейских пользователей для обучения Grok, после чего платформа была вынуждена приостановить использование этих данных с указанной целью. Российские учёные совершили прорыв в оптимизации ИИ-моделей — теперь их можно использовать без мощных серверов
11.04.2025 [13:42],
Владимир Фетисов
Лаборатория исследований искусственного интеллекта Yandex Research совместно с учёными из НИУ ВШЭ, Массачусетского технологического института (MIT), Австрийского института науки и технологий (ISTA) и Научно-технологического университета им. короля Абдаллы (KAUST) создала метод сжатия больших языковых моделей (LLM) без потери качества. Теперь для работы с ИИ-моделями достаточно смартфона или ноутбука — не нужно задействовать дорогие серверы и графические ускорители. ![]() Luke Jones / Unsplash Новый метод квантизации получил название Hadamard Incoherence with Gaussian MSE-optimal GridS (HIGGS). Он позволяет сжимать нейросети без использования дополнительных данных и без вычислительно сложной оптимизации параметров. Такой подход особенно выгоден в ситуациях, когда недостаточно подходящих данных для дообучения ИИ-модели. Метод HIGGS обеспечивает баланс между качеством, размером модели и сложностью квантизации, за счёт чего ИИ-модели можно использовать на самых разных устройствах. С помощью HIGGS можно существенно ускорить процесс тестирования и внедрения новых решений на базе ИИ, экономить время и финансы на разработку. Это сделает ИИ-модели доступнее не только для крупных, но и небольших компаний, а также некоммерческих лабораторий и институтов, индивидуальных разработчиков и исследователей. Если раньше для запуска ИИ-модели на смартфоне или ноутбуке требовалось провести её квантизацию на дорогостоящем сервере (этот процесс занимал от нескольких часов до нескольких недель), то теперь квантизацию можно выполнить прямо на смартфоне или ноутбуке за считанные минуты. Новый метод квантизации протестировали на популярных ИИ-моделях Llama 3 и Qwen 2.5. В результате было установлено, что HIGGS является лучшим способом квантизации по соотношению качества к размеру модели среди всех существующих аналогов без использования данных, в том числе 4-bit NormalFloat и Half-Quadratic Quantization. Метод HIGGS уже доступен разработчикам и исследователям на Hugging Face и GitHub, а посвящённая ему научная статья размещена в arXiv. Отметим также, что научную статью с описанием нового метода приняли на одну из крупнейших в мире ИИ-конференций The North American Chapter of the Association for Computation Linguistics (NAACL), которая пройдёт с 29 апреля по 4 мая в Альбукерке (штат Нью-Мексико, США). Статью уже цитировали американская компания Red Hat AI, Пекинский университет, Гонконгский университет науки и технологий и др. В России хотят запретить ИИ с «неприемлемым уровнем риска»
11.04.2025 [13:38],
Владимир Фетисов
Участники рынка, эксперты и депутаты обсуждают разработанный профильной рабочей группой проект законодательного регулирования сферы искусственного интеллекта в России. Инициатива оформлена в виде законопроекта «О регулировании систем искусственного интеллекта в России» и обсуждается на заседаниях рабочих групп в Госдуме, «Деловой России» и на отраслевых дискуссионных площадках. ![]() Источник изображения: Steve Johnson / Unsplash В пояснительной записке к проекту сказано, что он разработан для реализации Национальной стратегии развития ИИ до 2030 года, которая была утверждена в феврале прошлого года. Зампред комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов рассказал, что сейчас по поручению председателя нижней палаты парламента Вячеслава Володина создана рабочая группа «по разработке всего, что связано с законодательством в области ИИ». Он также добавил, что законодательные инициативы пока депутатами «всерьёз не рассматриваются». «Рабочая группа создана для того, чтобы проработать и внимательно, детально изучить все запросы от различных отраслей», — сообщил господин Свинцов. Он также добавил, что в ближайшие месяцы появятся несколько инициатив, «которые точечно будут регулировать какие-то отраслевые запросы, вводить какие-то пилотные зоны или пилотные режимы», но появления в этом году регулирующего всю деятельно ИИ законопроекта ждать не следует. Что касается самого законопроекта, то прежде всего он предполагает введение понятия ИИ, т.е. комплекса технологических и программных решений, имитирующих когнитивные функции человека, включая самообучение, поиск решений на базе заранее заданного алгоритма, и обеспечивающий получение результатов, которые сопоставимы с результатами деятельности человека. К ИИ-технологиям предлагается приравнять компьютерное зрение, обработку естественного языка, распознавание и синтез речи, интеллектуальный анализ данных, машинное обучение и др. ИИ-системами предлагается считать информационные системы, имитирующие когнитивные функции человека с помощью упомянутых ранее технологий. Ещё в рамках законопроекта предлагается ввести требования к маркировке ИИ-систем, т.е. обязательному информационному обозначению, которое будет указывать на применение ИИ-технологий при взаимодействии с пользователем. Маркировка должна быть «явной, недвусмысленной и легко идентифицируемой», а обеспечить её должен оператор ИИ-системы. Это требование не будет распространяться на ИИ-системы, которые применяются в закрытых технологических процессах, для внутренней автоматизации в организациях и др. Одним из важных пунктов законопроекта является введение классификации ИИ-систем по уровню потенциального риска. Авторы проекта предлагают разделить ИИ-алгоритмы на системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. При этом разработку и эксплуатацию систем с неприемлемым уровнем риска, т.е. создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина, предлагается запретить. Для систем с высоким уровнем риска, т.е. используемых в здравоохранении, на транспорте, в финансовом секторе, в правоохранительной деятельности и некоторых других сферах, предлагается ввести обязательную госрегистрацию и сертификацию. Для систем с ограниченным уровнем риска — разработать системы внутреннего контроля и добровольную сертификацию. В дополнение к этому предлагается ввести ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации ИИ-систем. При этом разработчик не будет нести ответственность в случае принятия всех необходимых мер для предотвращения причинения вреда, а также если вред возник из-за нарушения правил эксплуатации системы и в ряде других случаев. Предлагается внести обязательное страхование ответственности операторов ИИ-систем с высоким уровнем риска. Для определения владельца прав на результат интеллектуальной деятельности, созданной с помощью ИИ, предлагается ориентироваться на то, был ли существенный творческий вклад человека. Если такой вклад был, то исключительное право на результат будет принадлежать человеку, а в противном случае оператору ИИ-системы (действует в течение 50 лет). Если законопроект будет принят, то операторы и разработчики ИИ-систем будут обязаны выполнить его требования в течение года после вступления документа в силу. ИИ-системы с высоким уровнем риска, созданные до принятия закона, должны будут пройти обязательную сертификацию в течение двух лет. AMD анонсировала мероприятие Advancing AI, на котором представит ИИ-ускорители Instinct MI355X
10.04.2025 [13:24],
Николай Хижняк
Компания AMD запланировала проведение мероприятия Advancing AI на 12 июня. На нём будут представлены специализированные ускорители Instinct нового поколения. Компания также пообещала обновления для своей платформы Radeon Open Compute Platform (ROCm), предназначенной для высокопроизводительных вычислений (HPC) и задач искусственного интеллекта. ![]() Источник изображения: AMD От AMD ожидается анонс ИИ-ускорителей Instinct MI355X. Ранее компания заявляла, что этот продукт будет выпущен во второй половине 2025 года. В составе ускорителей будут использоваться графические процессоры на архитектуре CDNA 4, производимые по 3-нм техпроцессу, а также до 288 Гбайт памяти HBM3e. Возможно, компания также поделится свежими подробностями об ускорителях Instinct MI400, выход которых намечен на 2026 год. Они станут первыми ИИ-ускорителями AMD, использующими память HBM4. AMD проведёт прямую трансляцию мероприятия Advancing AI 12 июня в 9:30 по тихоокеанскому времени (19:30 мск). Вести мероприятие будет глава компании AMD Лиза Су (Lisa Su). «Яндекс» привлечёт белых хакеров к проверке безопасности генеративных нейросетей
10.04.2025 [11:11],
Андрей Крупин
Компания «Яндекс» сообщила о расширении программы «Охоты за ошибками» и запуске нового направления, связанного с генеративными нейросетями. Теперь исследователи, которым удастся отыскать технические уязвимости в семействах моделей YandexGPT, YandexART и сопутствующей инфраструктуре, могут получить вознаграждение до миллиона рублей. ![]() Источник изображения: yandex.ru/bugbounty Участникам «Охоты» предстоит искать технические ошибки, которые могут повлиять на результаты работы и процесс обучения нейросетевых моделей: например, привести модель к сбою или изменить её поведение так, чтобы она повлияла на работу других сервисов «Яндекса». В программе участвуют все сервисы и ИИ-продукты «Яндекса», использующие модели семейства YandexGPT и YandexART. В числе таковых: «Алиса», «Поиск с Нейро», «Шедеврум» и другие облачные службы, включая те, где ML-модель используется неявно для ранжирования и поиска. Размер выплаты зависит от серьёзности ошибки и простоты её применения. К критичным относятся уязвимости, которые позволяют раскрыть сведения о внутренней конфигурации модели, её служебный промт с техническими данными или другую чувствительную информацию. Максимальное вознаграждение за такие ошибки — 1 млн рублей. Программу поиска уязвимостей «Яндекс» запустил в 2012 году — компания была первой в России. Теперь программа «Охота за ошибками» действует в «Яндексе» постоянно, а принять в ней участие может любой желающий. Главный конкурент ChatGPT запустил подписку за $200 в месяц, и в ней всё равно есть ограничения
09.04.2025 [21:47],
Анжелла Марина
Компания Anthropic собирается протестировать верхний ценовой порог премиальной подписки на своего чат-бота Claude. Компания станет очередным игроком — вслед за конкурентом OpenAI — на рынке искусственного интеллекта (ИИ), исследующим, сколько готовы платить пользователи за расширенный доступ к современным ИИ-технологиям. ![]() Источник изображения: Anthropic Сегодня Anthropic представила тариф Max, стоимость которого составила $100 или $200 в месяц в зависимости от объёма использования. По словам представителей компании, за $100 пользователи смогут отправлять в пять раз больше запросов к Claude, чем позволяет текущий план Pro за $18 в месяц. А за $200 возможности увеличатся в 20 раз. В настоящее время владельцы подписки Pro могут отправлять в среднем 45 сообщений боту в течение пяти часов. Подобно другим разработчикам ИИ, компания из Сан-Франциско стремится убедить частных клиентов и бизнес приобретать её продукты, чтобы покрыть высокие затраты на разработку передовых ИИ-моделей. Новый тариф можно сравнить с предложением OpenAI, которая в конце прошлого года запустила аналогичную подписку за $200 в месяц для ChatGPT. Однако OpenAI предоставляет безлимитный доступ к самым мощным моделям за те же $200 в месяц. Anthropic утверждает, что подписчики тарифа Max смогут получать более развёрнутые ответы, а их запросы будут обрабатываться в приоритетном порядке даже в периоды пиковых нагрузок. Кроме того, они получат эксклюзивный доступ к новым моделям и обновлениям программного обеспечения. Последняя версия модели Anthropic — Claude 3.7 Sonnet — также предоставляет пользователям возможность выбора между быстрым ответом на простые запросы и более детальным, разложенным «по полочкам» и имитирующим человеческое мышление. Это выделяет компанию на фоне конкурентов в условиях насыщенного рынка ИИ, особенно после того как в марте Anthropic успешно привлекла $3,5 млрд инвестиций, достигнув оценки в $61,5 млрд и тем самым подтвердив своё место среди крупнейших ИИ-стартапов мира. Мяч с мозгами: Samsung и Google объединились для выпуска домашнего робота Ballie с ИИ Gemini и проектором
09.04.2025 [17:58],
Сергей Сурабекянц
Samsung и Google объединились для запуска Ballie, домашнего робота в форме футбольного мяча, который использует ИИ Gemini для управления умным домом и умеет проецировать видео на стены. Жёлтый шарообразный робот призван, по словам Samsung, «оживить ИИ как друга и настоящего компаньона». С этим устройством обе компании впервые выходят на перспективный рынок потребительской робототехники, который оценивается в миллиарды долларов. ![]() Источник изображений: Samsung Samsung впервые представила Ballie в начале 2020 года на технологической конференции CES, где он произвёл фурор, но путь к выходу домашнего робота на потребительский рынок оказался тернистым. Исполнительный вице-президент Samsung Джей Ким (Jay Kim) сообщил, что актуальное устройство представляет собой «совершенно новый Ballie». Одним из самых больших изменений стало использование моделей ИИ от Google для понимания команд пользователя, подключения к поиску Google и обработки данных с бортовых камер во время навигации по дому. ![]() Ballie работает под управлением операционной системы Tizen от Samsung, которая также используется во многих устройствах компании, что обеспечивает ему доступ к таким поставщикам контента, как YouTube, Netflix и собственный сервис Samsung TV Plus. Робот использует платформу Samsung SmartThings для управления умными домашними устройствами, календарями и напоминаниями, ответа на вопросы, совершения и приёма телефонных звонков и воспроизведения видео через встроенный проектор. Он также использует модели ИИ от Samsung для таких функций, как доступ к персональным данным и погоде. ![]() «Сложно описать систему, которая может чувствовать, двигаться и взаимодействовать так естественно, как это делает она, — считает генеральный директор Google Cloud Томас Куриан (Thomas Kurian). — Когда вы говорите: “Иди сюда”, она действительно размышляет, как туда попасть. Системе требуется много магии за кулисами, чтобы она заработала». ![]() По словам Кима, Samsung выбрала Google Cloud из-за своей «веры» в возможности Gemini. Эта работа знаменует собой расширение существующих партнёрских отношений по устройствам Android, умным часам и будущей гарнитуре смешанной реальности, которая также появится в конце этого года. Он добавил, что компании уже разрабатывают дополнительные функции для Ballie, включая комплект разработки программного обеспечения для сторонних приложений и видеоконференций. Куриан подчеркнул, что партнёрство с Samsung требует «много настроек и оптимизации […] и это единственное наше партнёрство с таким персонализированным опытом». Устройство сначала поступит в продажу в США и Южной Корее и, по крайней мере, на первых порах будет поддерживать общение только на английском и корейском языках. Google представила рассуждающую ИИ-модель Gemini 2.5 Flash с высокой производительностью и эффективностью
09.04.2025 [17:46],
Николай Хижняк
Google выпустила новую ИИ-модель, призванную обеспечить высокую производительность с упором на эффективность. Она называется Gemini 2.5 Flash и вскоре станет доступна в составе платформы Vertex AI облака Google Cloud для развёртывания и управления моделями искусственного интеллекта (ИИ). ![]() Источник изображения: Google Компания отмечает, что Gemini 2.5 Flash предлагает «динамические и контролируемые» вычисления, позволяя разработчикам регулировать время обработки запроса в зависимости от их сложности. «Вы можете настроить скорость, точность и баланс затрат для ваших конкретных нужд. Эта гибкость является ключом к оптимизации производительности Flash в высоконагруженных и чувствительных к затратам приложениях», — написала компания в своём официальном блоге. На фоне растущей стоимости использования флагманских ИИ-моделей Gemini 2.5 Flash может оказаться крайней полезной. Более дешёвые и производительные модели, такие как 2.5 Flash, представляют собой привлекательную альтернативу дорогостоящим флагманским вариантам, но ценой потери некоторой точности. Gemini 2.5 Flash — это «рассуждающая» модель по типу o3-mini от OpenAI и R1 от DeepSeek. Это означает, что для проверки фактов ей требуется немного больше времени, чтобы ответить на запросы. Google утверждает, что 2.5 Flash идеально подходит для работы с большими объёмами данных и использования в реальном времени, в частности, для таких задач, как обслуживание клиентов и анализ документов. «Эта рабочая модель оптимизирована специально для низкой задержки и снижения затрат. Это идеальный движок для отзывчивых виртуальных помощников и инструментов резюмирования в реальном времени, где эффективность при масштабировании является ключевым фактором», — описывает новую ИИ-модель компания. Google не опубликовала отчёт по безопасности или техническим характеристикам для Gemini 2.5 Flash, что усложнило задачу определения её преимуществ и недостатков. Ранее компания говорила, что не публикует отчёты для моделей, которые она считает экспериментальными. Google также объявила, что с третьего квартала планирует интегрировать модели Gemini, такие как 2.5 Flash в локальные среды. Они будут доступны в Google Distributed Cloud (GDC), локальном решении Google для клиентов со строгими требованиями к управлению данными. В компании добавили, что работают с Nvidia над установкой Gemini на совместимые с GDC системы Nvidia Blackwell, которые клиенты смогут приобрести через Google или по своим каналам. Google представила свой самый мощный ИИ-процессор Ironwood — до 4,6 квадриллиона операций в секунду
09.04.2025 [15:56],
Николай Хижняк
В рамках конференции Cloud Next на этой неделе компания Google представила новый специализированный ИИ-чип Ironwood. Это уже седьмое поколение ИИ-процессоров компании и первый TPU, оптимизированный для инференса — работы уже обученных ИИ-моделей. Процессор будет использоваться в Google Cloud и поставляться в системах двух конфигураций: серверах из 256 таких процессоров и кластеров из 9216 таких чипов. ![]() Источник изображений: Google «Ironwood — это наш самый мощный, самый производительный и самый энергоэффективный TPU. Он разработан для ускорения инференса ИИ-моделей в масштабах облачной инфраструктуры», — прокомментировал анонс процессора вице-президент Google Cloud Амин Вахдат (Amin Vahdat). Анонс Ironwood состоялся на фоне усиливающейся конкуренции в сегменте разработок проприетарных ИИ-ускорителей. Хотя Nvidia доминирует на этом рынке, свои технологические решения также продвигают Amazon и Microsoft. Первая разработала ИИ-процессоры Trainium, Inferentia и Graviton, которые используются в её облачной инфраструктуре AWS, а Microsoft применяет собственные ИИ-чипы Cobalt 100 в облачных инстансах Azure. ![]() Google заявляет, что Ironwood обладает пиковой вычислительной производительностью 4614 Тфлопс или 4614 триллионов операций в секунду. Таким образом кластер из 9216 таких чипов предложит производительность в 42,5 Экзафлопс. ![]() Каждый процессор оснащён 192 Гбайт выделенной оперативной памяти с пропускной способностью 7,4 Тбит/с. Также чип включает усовершенствованное специализированное ядро SparseCore для обработки типов данных, распространённых в рабочих нагрузках «расширенного ранжирования» и «рекомендательных систем» (например, алгоритм, предлагающий одежду, которая может вам понравиться). Архитектура TPU оптимизирована для минимизации перемещения данных и задержек, что, по утверждению Google, приводит к значительной экономии энергии. Компания планирует использовать Ironwood в своём модульном вычислительном кластере AI Hypercomputer в составе Google Cloud. Джон Кармак встал на защиту ИИ-версии Quake II, которую игроки назвали «абсолютно отвратительной»
09.04.2025 [11:31],
Дмитрий Рудь
Представленная на днях демоверсия культового шутера Quake II на базе ИИ-модели Muse от Microsoft вызвала отторжение у игроков, тогда как сооснователь id Software и соавтор Quake Джон Кармак (John Carmack) увидел в технологии большой потенциал. Демонстрация ИИ-версии Quake II была встречена в основном негативно. Пользователь Quake Dad в X, например, назвал проект «абсолютно отвратительным» и приравнял его к «плевку на труд всех разработчиков в мире». Отвечая Quake Dad, Кармак не согласился с высказанной пользователем позицией и заявил, что «создание мощных инструментов является ключевым двигателем прогресса в компьютерной сфере». Кармак вспомнил, как при разработке своих первых проектов вручную делал то, за что сегодня отвечают игровые движки: «Прогресс в программном обеспечении сделал эту работу такой же ненужной, как обслуживание колёс у боевой колесницы». По мнению Кармака, ИИ-инструменты «позволят лучшим достигать ещё более впечатляющих высот, дадут возможность небольшим командам добиваться большего и привлекут кардинально новую демографию творцов». «Да, прогресс дойдёт до того, что вы сможете получить интерактивную игру (роман или фильм) из текстового запроса, но куда более выдающиеся произведения всё равно будут создавать команды увлечённых разработчиков», — заверил Кармак. Разработчика поддержал гендиректор Epic Games Тим Суини (Tim Sweeney), который призывает не бояться автоматизации и считает, что конкуренция вынудит компании использовать ИИ-инструменты для создания наилучших продуктов. В Госдуме создали «серьёзную» группу для надзора за развитием ИИ
09.04.2025 [10:29],
Владимир Фетисов
В Госдуме РФ создана межфракционная рабочая группа по разработке законов о применении искусственного интеллекта. По данным источника, в состав группы вошли представители всех фракций, которые займутся законодательным обеспечением «национально ориентированного» ИИ. Группа будет работать до конца срока полномочий восьмого созыва, т.е. до 2026 года. ![]() Источник изображения: Steve Johnson / Unsplash Возглавил группу вице-спикер нижней платы Александр Бабаков, представляющий партию «Справедливая Россия». Комментируя данный вопрос, он заявил, что регулирование сферы ИИ «не должно никого пугать». Он добавил, что это «не та сфера, которая может развиваться чисто по рыночным законам» и ориентироваться «только на нормы прибыли». По мнению Бабакова, необходимо оценивать множество факторов, включая угрозы (в том числе этические), которые несут в себе новые трансграничные технологии. Также было сказано, что есть вопросы, связанные с изучением насыщенности рынка и его развитием в сочетании с рынком энергетики. В сообщении сказано, что рабочая группа была создана по поручению председателя Госдумы Вячеслава Володина. Комплексный вопрос ИИ затрагивает многие сферы, включая энергетику для энергоёмких вычислений, отечественное оборудование, этику, международное сотрудничество, безопасность и др. Депутат от ЛДПР Андрей Свинцов сообщил, что есть цель, которая заключается в быстром изучении потребностей каждой стороны, начиная от малого и среднего бизнеса, заканчивая интересами государства, а также определении первоочередных вопросов регулирования, поскольку «ИИ в российском законодательстве отсутствует». Также известно, что члены рабочей группы подготовят предложения по эффективному отраслевому применению ИИ, включая законопроекты, касающиеся национальной обороны и безопасности страны. Они также займутся разработкой инициатив по противодействию использованию ИИ в преступлениях. Госдума планирует сформировать законодательные условия для того, чтобы использовать ИИ в государственном стратегическом планировании социально-экономического развития России. Осведомлённый источник сообщил, что к настоящему моменту удалось организовать «форматно серьёзную» группу. Следующим шагом станет подготовка к публичным парламентским слушаниям. Также ведётся обсуждение того, что регулирование может привести к дополнительной нагрузке, но никому не удастся справиться с новыми технологиями «без направляющей руки государства». В Китае квантовый компьютер впервые применили для точной настройки ИИ
09.04.2025 [10:26],
Геннадий Детинич
Китайские учёные первыми в мире использовали квантовый компьютер для точной настройки искусственного интеллекта — большой языковой модели с одним миллиардом параметров. Это стало первым использованием квантовой платформы, имеющим практическую ценность. В этом проявил себя компьютер Wukong китайской компании Origin, основанный на 72 сверхпроводящих кубитах. ![]() Источник изображения: Origin Система Wukong относится к третьему поколению квантовых компьютеров Origin. В январе 2024 года к ней был открыт облачный доступ со всего мира. Как признаются разработчики, поток учёных возглавили исследователи из США, несмотря на то что китайским учёным доступ к аналогичным ресурсам западных партнёров по-прежнему закрыт. «Это первый случай, когда настоящий квантовый компьютер был использован для точной настройки большой языковой модели в практических условиях. Это демонстрирует, что современное квантовое оборудование может начать поддерживать задачи обучения ИИ в реальном мире», — сказал Чэнь Чжаоюнь (Chen Zhaoyun), исследователь из Института искусственного интеллекта при Национальном научном центре в Хэфэе. По словам учёных, система Origin Wukong на 8,4 % улучшила результаты обучения ИИ при одновременном сокращении количества параметров на 76 %. Обычно для решения подобных задач — специализации ИИ общего назначения — используются суперкомпьютеры, что требует значительных вычислительных и энергетических ресурсов. Квантовый вычислитель, использующий принцип квантовой суперпозиции — множества вероятностных состояний вместо двух классических (0 и 1), способен экспоненциально ускорить расчёты при относительно скромных затратах ресурсов. В частности, учёные продемонстрировали преимущества точной настройки большой языковой модели с помощью квантовой системы для диагностики психических расстройств (число ошибок снижено на 15 %), а также при решении математических задач, где точность выросла с 68 % до 82 %. Для запуска алгоритмов обучения ИИ на квантовой платформе исследователи разработали то, что назвали «квантово-взвешенной тензорной гибридной настройкой параметров». Весовые значения обрабатывала квантовая платформа, в то время как классическая часть готовила большую языковую модель. Благодаря суперпозиции и эффекту квантовой запутанности платформа Origin Wukong смогла одновременно обрабатывать огромное количество комбинаций параметров, что ускорило специализацию модели. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |