Опрос
|
реклама
Быстрый переход
Samsung готова усилить собственные разработки ИИ-моделями с открытым исходным кодом
31.08.2025 [08:25],
Алексей Разин
Сфера искусственного интеллекта развивается настолько стремительно, что не все компании могут себе позволить участвовать в этой технологической гонке, выделяя пропорциональное количество ресурсов. Samsung сочла разумным «гибридный» подход к развитию инфраструктуры ИИ, комбинируя собственные разработки с внешними языковыми моделями, использующими открытый исходный код. ![]() Источник изображения: Unsplash, OMK На уходящей неделе Ро Тхэ Мун (Roh Tae-moon), президент подразделения Device Experience, в своём обращении к сотрудникам Samsung Electronics пояснил специфику курса компании в этой области соображениями информационной безопасности. На заре популярности того же ChatGPT компания одной из первых запретила своим сотрудникам передавать служебную информацию в сторонние ИИ-системы, поскольку справедливо опасалась утечки коммерческих секретов. Новый подход призван решить две проблемы. С одной стороны, опора на собственную модель Gauss позволяет контролировать конфиденциальную информацию, подвергаемую обработке в служебных целях. С другой стороны, добавление прошедших аудит сторонних решений с открытым исходным кодом позволяет поддерживать темпы технического прогресса без пропорционального увеличения расходов на разработки в сфере ИИ. Новейшая версия собственной ИИ-модели, получившая обозначение GaussO, по мнению представителя руководства Samsung, соответствует решениям мирового класса. Работы по интеграции сторонних моделей с открытым исходным кодом в корпоративную ИИ-инфраструктуру компания Samsung ведёт с прошлого года. Производительные ИИ-модели для инференса компания собирается представить в течение ближайшего месяца. Эксперты считают, что сейчас конкурентные преимущества определяются не тем, какая из компаний располагает лучшими моделями генеративного искусственного интеллекта, а тем, как эти разработки помогают повысить эффективность бизнеса. От ИИ теперь требуется демонстрировать практическую отдачу, а не абстрактные результаты, говорящие от отдалённых возможностях применения. Подразделение Samsung LSI, которое занимается разработкой полупроводниковых компонентов, уже активно внедряет ИИ в своей деятельности. Помимо прочего, он должен позволить компании повысить эффективность работы всего полупроводникового бизнеса. Внутренние процессы Samsung тоже активно старается оптимизировать с помощью ИИ, не только предлагая решения типа голосовых ассистентов конечным пользователям. Microsoft выпустила первые собственные ИИ-модели: одна генерирует речь, а другая — текст
29.08.2025 [00:43],
Николай Хижняк
До сих пор Microsoft в значительной степени полагалась на модели искусственного интеллекта компании OpenAI. Каждый раз, когда OpenAI представляла свои новейшие модели, Microsoft объявляла об их доступности в инфраструктуре Azure и во всех своих продуктах и сервисах. Сегодня Microsoft представила две собственные модели искусственного интеллекта: MAI-Voice-1 и MAI-1-preview. ![]() Источник изображения: Microsoft MAI-Voice-1 — это модель генерации речи. Она уже доступна в приложениях Copilot Daily (аудиосводка новостей и погоды на основе ИИ) и Podcasts. Чтобы ознакомиться со всеми возможностями этой голосовой модели, Microsoft создала новый интерфейс Copilot Labs, который каждый может попробовать уже сегодня. С помощью функции Copilot Audio Expressions пользователи могут вставить текстовый контент и выбрать голос, стиль и режим для создания высококачественного, выразительного звука. При необходимости можно скачать сгенерированный аудиофайл. Microsoft подчёркивает, что модель MAI-Voice-1 работает очень быстро и эффективно: она способна сгенерировать минуту аудио менее чем за секунду при использовании одного GPU. Модель MAI-1-preview доступна в виде публичной бета-версии на платформе LMArena для оценки сообществом. Это первая фундаментальная модель MAI, прошедшая комплексное обучение, и она даёт представление о будущих возможностях Copilot. MAI-1-preview — это модель MoE (смешанная модель экспертов), обученная на почти 15 000 специализированных ускорителях Nvidia H100. Это первая фундаментальная ИИ-модель Microsoft, прошедшая комплексное обучение собственными силами. Компания утверждает, что она эффективно выполняет инструкции и может давать полезные ответы на повседневные вопросы пользователей. Microsoft планирует внедрить MAI-1-preview для некоторых текстовых сценариев Copilot в ближайшие недели. При этом Microsoft уточняет, что MAI-1-preview не заменяет модели OpenAI в Copilot. Компания планирует использовать лучшие решения как собственной команды, так и партнёров, включая сообщество разработчиков ПО с открытым исходным кодом. Помимо платформы LMArena, модель MAI-1-preview также доступна через API для доверенных тестировщиков. OpenAI намекнула, что анонс ИИ-модели GPT-5 состоится уже завтра
06.08.2025 [22:09],
Николай Хижняк
Компания OpenAI намекнула на большой анонс, запланированный на завтра, 7 августа. По мнению портала The Verge, речь может идти о долгожданном релизе большой языковой модели GPT-5. ![]() Источник изображения: Dima Solomin / unsplash.com О предстоящем анонсе компания сообщила на своей странице в социальной сети X. Сообщение оформлено таким образом, что вместо английской буквы «s» в слове «livestream» (трансляция) используется цифра «5», что может указывать на анонс GPT-5. Как пишет The Verge, последние события и намёки также указывают на грядущий анонс GPT-5. Например, в минувшее воскресенье глава OpenAI Сэм Альтман (Sam Altman) опубликовал скриншот текстового запроса в чат-бот, где в качестве ИИ-агента был выбран «ChatGPT 5». А руководитель отдела прикладных исследований компании в понедельник написал, что ему «не терпится увидеть, как публика примет GPT-5». В прошлом месяце Альтман также говорил, что GPT-5 появится «скоро». Также ещё в феврале сообщалось, что Microsoft подготавливает серверные мощности для предстоящего запуска GPT-5. Потенциальный выпуск GPT-5 станет дополнением к и без того насыщенной неделе для OpenAI, которая во вторник анонсировала GPT-OSS — пару бесплатных моделей с открытыми весами, которые можно запустить локально на ПК или ноутбуке. OpenAI выпустила две модели с открытыми весами — они почти догоняют o3-mini и o4-mini и могут запускаться на одном GPU
06.08.2025 [11:15],
Павел Котов
OpenAI выпустила две рассуждающие модели искусственного интеллекта с открытыми весами — они, утверждает разработчик, обладают возможностям, аналогичным тому, на что способны его модели серии «o». Обе новые открытые модели ИИ доступны на платформе Hugging Face. ![]() Источник изображения: Mariia Shalabaieva / unsplash.com Компания предложила две разработки: более мощная модель gpt-oss-120b требует для работы видеокарту Nvidia, а более лёгкой gpt-oss-20b достаточно потребительского ноутбука с 16 Гбайт оперативной памяти. В последний раз OpenAI выпускала открытый проект более пяти лет назад — это была GPT-2. Новые модели, сообщили в компании, могут направлять слишком сложные запросы работающим в облаке системам, если не справляются с какими-либо запросами самостоятельно. Будучи признанным мировым лидером в отрасли ИИ, OpenAI стремилась сделать свои открытые модели наиболее мощными в сравнении с существующими аналогами, и это ей, по её утверждению, удалось. В тестах платформы Codeforces на написание программного кода модели gpt-oss-120b и gpt-oss-20b набрали 2622 и 2516 баллов соответственно, обойдя DeepSeek R1, но уступив o3 и o4-mini. В бенчмарке Humanity’s Last Exam (HLE) gpt-oss-120b и gpt-oss-20b показали результаты соответственно 19 % и 17,3 % — ниже, чем o3, но выше ведущих открытых моделей DeepSeek и Alibaba Qwen. ![]() Источник изображения: openai.com Отмечается, что у новых открытых моделей OpenAI галлюцинации, то есть выдаваемые с уверенностью не соответствующие действительности ответы, встречаются чаще, чем у закрытых o3 и o4-mini. Такой результат разработчик назвал «ожидаемым, поскольку модели меньшего размера обладают меньшим знанием мира, чем передовые модели большего размера, и склонны к более выраженным галлюцинациям». В тесте PersonQA модели gpt-oss-120b и gpt-oss-20b галлюцинировали в ответах в 49 % и 53 % случаев соответственно; для сравнения, у o3 и o4-mini эти показатели составляют соответственно 16 % и 36 %. OpenAI обучала открытые модели, используя те же процессы, что применяются при обучении закрытых — в обеих используется метод MoE (Mixture-of-Experts), позволяющий при ответах на вопросы использовать меньше параметров. Так, у модели gpt-oss-120b всего 177 млрд параметров, но активируются лишь 5,1 млрд на токен, что способствует росту эффективности. При разработке использовалось высокоинтенсивное обучение с подкреплением (high-compute reinforcement learning) — процедура, помогающая отличать правильное от неправильного в моделируемых средах; этот метод применяется при обучении моделей серии «o». Открытые модели также используют схожий процесс обработки ответов, предполагающий выделение дополнительного времени и дополнительных ресурсов. ![]() Источник изображения: openai.com Открытые модели, утверждают в OpenAI, подходят для работы в составе ИИ-агентов, они способны обращаться к веб-поиску и средствам выполнения кода Python. Подчёркивается, что они не являются мультимодальными, то есть предназначаются только работы с текстом и не могут обрабатывать или генерировать изображения и звук. Модели доступны под лицензией Apache 2.0, которая считается одной из наиболее демократичных. При этом компания отказалась раскрывать, какие данные использовались при их обучении. OpenAI провела отдельное исследование на предмет того, смогут ли гипотетические злоумышленники использовать их в кибератаках или разработке биологического или химического оружия — при участии сторонних экспертов было установлено, что незначительную помощь в области биологической науки они оказать всё-таки смогут, но доказательств потенциального превышения установленного «порога возможностей» даже после процедуры тонкой настройки обнаружено не было. Google научила ИИ создавать живые 3D-миры, которые не рассыпаются за минуту — Genie 3 проложит путь к AGI
05.08.2025 [18:24],
Сергей Сурабекянц
Google DeepMind выпустила новую версию своей ИИ-модели мира — Genie 3, способную генерировать трёхмерные среды, с которыми можно взаимодействовать в реальном времени. Компания утверждает, что пользователи смогут исследовать сгенерированные миры гораздо дольше, чем раньше, а модель будет запоминать расположение предметов, остающихся за пределами кадра. Мировые модели также являются важным шагом на пути к «сильному ИИ», поскольку позволяют обучать ИИ без ограничений в богатой среде. ![]() Источник изображений: Google Модели мира или мировые модели — это тип систем искусственного интеллекта, которые могут моделировать трёхмерные среды для образовательных, развлекательных и научных целей, а также для обучения роботов или агентов ИИ. В сгенерированном пространстве на основе текстовой подсказки пользователь может перемещаться, как в видеоигре. В это направление ИИ Google вкладывает значительные ресурсы. В декабре компания представила Genie 2, способную создавать интерактивные миры на основе изображений, а сейчас формирует новую команду по созданию моделей миров под руководством бывшего ведущего разработчика генератора видео Sora от OpenAI. У существующих моделей миров пока сохраняется множество недостатков. Например, в сгенерированном Genie 2 мире можно находиться не более одной минуты. По отзывам экспертов, подобные миры больше напоминали «прогулку по размытой версии Google Street View, где всё менялось и трансформировалось неожиданным образом, когда пользователь отводил взгляд». Genie 3, по всей видимости, может стать заметным шагом вперёд. Разработчики утверждают, что пользователи смогут создавать миры, в которых поддерживается «несколько» минут непрерывного взаимодействия. Genie 3 может удерживать в памяти сгенерированные объекты около минуты, что позволит пользователю возвращаться к ним и обнаруживать их на прежнем месте. ![]() В Genie 3 появились так называемые «подсказываемые мировые события», позволяющие в реальном времени менять погодные условия или добавлять новых персонажей. Google сообщает, что пока количество способов взаимодействия с генерируемыми мирами ограничено, а читаемый текст «часто появляется только при наличии его в исходном описании мира». ![]() На текущем этапе создаваемые модели миров обеспечивают разрешение 720p при частоте 24 кадра в секунду. Genie 3 пока недоступна для широкой аудитории. По словам Google, она существует в виде «ограниченной исследовательской предварительной версии», доступной «небольшой группе учёных и разработчиков» для тщательной оценки возможных рисков и путей их минимизации. Компания заявила, что пока лишь «изучает», как в дальнейшем предоставить доступ к Genie 3 «дополнительным тестировщикам». Xiaomi представила открытую голосовую ИИ-модель для автомобилей и бытовой техники
04.08.2025 [11:25],
Алексей Разин
Компания Xiaomi сделала себе имя на рынке смартфонов и бытовой техники, но уже второй год выпускает электромобили, поэтому направление развития её фирменных языковых моделей было предсказать не так уж трудно. На этой неделе она представила голосовую модель MiDashengLM-7B, которая предусматривает интеграцию с Qwen2.5-Omni-7B китайской Alibaba Group и обладает открытым исходным кодом. ![]() Источник изображения: Xiaomi Ориентация на работу с голосовой информацией объяснима тем, что пользователи электромобилей и бытовой техники чаще всего используют данный канал для передачи команд на устройства. Не желая оставаться в стороне от бума ИИ, компания Xiaomi сделала ставку на открытый исходный код и интеграцию с разработками известных игроков рынка, коим в Китае является конгломерат Alibaba Group. Свои ИИ-модели, ориентированные на обработку изображений, видео и звука в последние месяцы активно предлагали Alibaba и Tencent Holdings, поскольку местным разработчикам хочется сохранять конкуренцию с решениями OpenAI и других зарубежных игроков рынка. Важность развития систем искусственного интеллекта подчёркивается властями США и Китая на самом высоком уровне. Для Xiaomi интеграция сервисов, доступных владельцам фирменных электромобилей, с уже существующей обширной экосистемой умных бытовых устройств, имеет особую важность. «Т-Банк» представил ИИ-модель T-Pro 2.0 с гибридными рассуждениями, которая вдвое экономнее DeepSeek R1-Distil
18.07.2025 [15:43],
Владимир Мироненко
Группа «Т-Технологии» представила свою первую большую языковую модель (LLM) с гибридным режимом рассуждений — T-Pro 2.0, входящую в семейство моделей Gen-T. Сообщается, что новая модель обеспечивает более высокое качество ответов на сложные запросы при двукратной экономии вычислительных ресурсов для русскоязычных задач по сравнению с аналогами Qwen3 и DeepSeek R1-Distil. Гибридные модели способны в зависимости от запроса выбирать между быстрыми, простыми ответами и глубоким анализом, что снижает затраты на вычисления при внедрении ИИ. По данным «Т-Технологий», расходы на разработку модели, включая затраты на вычислительные мощности для R&D и финального дообучения, а также зарплаты сотрудников, не превышают 120 млн рублей. Такие модели лучше справляются со сложными аналитическими задачами, что позволяет использовать их в качестве основы для ИИ-агентов нового поколения, способных выполнять задачи без вмешательства человека. Например, в службе поддержки ИИ-агенты не просто помогают генерировать ответы, но и самостоятельно решают часть пользовательских запросов. В «Т-банке» доля таких обращений уже составляет 40 %. Согласно данным «Т-Технологий», модель T-Pro 2.0 продемонстрировала более высокие результаты на русскоязычных бенчмарках — MERA, ruMMLU, Ru Arena Hard, ruAIME, ruLCB — по сравнению с другими открытыми моделями на 30 млрд параметров. «Т-банк» планирует использовать новую модель для повышения качества работы своих ИИ-ассистентов, доступных всем клиентам банка, а также для повышения эффективности операционных процессов за счёт копайлот-решений и автономных агентов. Сообщается, что благодаря переходу на внутреннюю версию T-Pro 2.0, обученную на собственных данных «Т-банка», повысилось качество работы автономных агентов поддержки: они стали на 10 % чаще решать задачи пользователей без участия оператора и дополнительных затрат на разработку или операционные процессы. Модель T-Pro 2.0 с числом параметров 32 млрд находится в открытом доступе на платформе Hugging Face под лицензией Apache 2.0. В Дубае откроется ресторан Woohoo с меню и концепцией от ИИ-шеф-повара
10.07.2025 [17:39],
Дмитрий Федоров
Дубай готовится представить публике первый в мире ресторан, где ИИ выступает не в роли помощника, а в качестве полноценного креативного участника кулинарного процесса. Ресторан Woohoo, открытие которого запланировано на сентябрь, разместится в центральной части мегаполиса — буквально в 300 метрах от небоскрёба «Бурдж-Халифа». Заведение позиционирует себя как «ужин из будущего»: по замыслу авторов, всё — от меню и оформления зала до формата обслуживания — будет разрабатывать ИИ, предлагающий новый взгляд на кулинарию как на инженерную дисциплину. ![]() Источник изображений: woohoo.restaurant Шеф-повар Aiman — это большая языковая ИИ-модель, специализирующаяся на кулинарии. Её название образовано от сочетания AI и man. Модель разработана командой под руководством Ахмета Ойтуна Чакыра (Ahmet Oytun Cakir) — одного из основателей ресторана Woohoo, который также является генеральным директором компании Gastronaut. ИИ обучен на основе многолетних научных исследований в области пищевых технологий, данных о молекулярном составе продуктов и более чем тысячи рецептов, собранных из кулинарных традиций разных стран мира. ![]() ИИ не способен пробовать еду, чувствовать запахи или физически взаимодействовать с блюдами. Вместо этого он анализирует характеристики продуктов — кислотность, текстуру, вкус умами (ассоциирующийся с содержанием глутамата и белковых соединений). Эти данные используются ИИ для создания оригинальных вкусовых и ингредиентных сочетаний. Затем разработанные прототипы пробует команда поваров и даёт рекомендации по их доработке под руководством известного дубайского шефа Рейфа Османа (Reif Othman). ![]() Как отметил сам шеф-повар Aiman в интервью: «Их реакции на мои предложения помогают уточнить моё представление о том, что действительно работает — за пределами чистых данных». Aiman создаёт рецепты, в которых повторно используются ингредиенты, часто выбрасываемые ресторанами — например, мясные обрезки или жир. Такая функция изначально заложена в ИИ-модель и ориентирована на сокращение пищевых отходов, что позволяет снизить нагрузку на окружающую среду. ![]() «Человеческая кулинария не будет заменена, но мы считаем, что Aiman позволит поднять уровень идей и креативности», — подчеркнул Ойтун Чакыр. Разработчики планируют лицензировать ИИ-шеф-повара для ресторанов по всему миру. В перспективе ИИ может стать частью повседневной практики — от небольших кафе до международных сетей. Еврокомиссия представила инструкцию по соблюдению «Закона об ИИ»
10.07.2025 [15:02],
Дмитрий Федоров
Европейская комиссия обнародовала свод правил, призванный облегчить компаниям выполнение положений «Закона об ИИ» (AI Act). Документ содержит рекомендации по ведению деятельности в рамках правового поля Европейского союза (ЕС) и направлен на то, чтобы организации могли адаптировать свои процессы к требованиям закона ещё до его полного вступления в силу. Свод правил носит рекомендательный характер, но, по заявлению комиссии, он даёт разработчикам и поставщикам ИИ-решений дополнительную юридическую определённость. ![]() Источник изображения: ALEXANDRE LALLEMAND / Unsplash Согласно официальному сообщению, разработчики обязаны будут предоставлять обновляемую документацию, содержащую подробное описание функциональности ИИ-моделей. Такая документация должна быть доступна как для национальных и европейских регуляторов, так и для сторонних организаций, желающих интегрировать ИИ в собственные продукты и сервисы. Компании также обязаны обеспечить, чтобы их ИИ не обучались на нелегальном или пиратском контенте. Кроме того, они должны уважать официальные запросы писателей и художников на исключение авторских материалов из обучающих выборок. Если ИИ создаёт контент, нарушающий нормы авторского права, компания должна внедрить механизм оперативного реагирования и устранения таких нарушений. Свод правил распространяется на ИИ общего назначения (General Purpose AI), включая ИИ-модели, подобные ChatGPT компании OpenAI и Claude компании Anthropic. Их регулирование начнётся в августе этого года. Поскольку Закон об ИИ вступает в силу поэтапно, Европейская комиссия уделяет особое внимание обеспечению прозрачности и правовой предсказуемости на раннем этапе. Согласно документу, разработчики обязаны внедрить внутренние механизмы, позволяющие идентифицировать источники данных, обеспечивать проверку метаданных, а также раскрывать ключевые функциональные особенности ИИ. За нарушение положений закона может быть назначен штраф до 7 % от годовой выручки компании или до 3 % для тех, кто занимается разработкой продвинутых ИИ-моделей. В денежном выражении штрафы могут достигать сотен миллионов долларов — например, в случае крупных облачных провайдеров с выручкой свыше $10 млрд в год. ![]() Источник изображения: Igor Omilaev / Unsplash Несмотря на добровольный характер документа, его содержание вызвало недовольство со стороны техногигантов. В частности, Meta✴ и Alphabet указали, что ранние редакции документа выходили за рамки положений самого AI Act и фактически создавали дополнительный набор обременительных требований. В начале июля ведущие европейские компании — включая ASML Holding NV, Airbus SE и Mistral AI — направили в Еврокомиссию письмо с просьбой отложить внедрение закона об ИИ на два года. Авторы письма утверждают, что такой подход недостаточно учитывает интересы европейских разработчиков и может поставить их в заведомо невыгодное положение на фоне конкурентов из других юрисдикций, снижая шансы Европы на лидерство в глобальной гонке в сфере ИИ. Первоначально свод правил планировалось опубликовать в мае текущего года, однако Европейская комиссия не уложилась в срок. Несмотря на призывы отложить реализацию закона, комиссия подтвердила, что не намерена менять календарный график. До августа 2026 года надзор за соблюдением AI Act будет находиться в юрисдикции национальных судов стран — членов ЕС. Однако такие судебные органы могут не обладать необходимой технической экспертизой в области ИИ. С этого момента именно Европейская комиссия возьмёт на себя функции централизованного регулятора, обеспечивая единообразное применение закона на всей территории Европы. Илон Маск представил мощнейшую ИИ-модель Grok 4 и подписку SuperGrok Heavy за $300 в месяц
10.07.2025 [10:31],
Дмитрий Федоров
Компания xAI, основанная Илоном Маском (Elon Musk), представила новую версию своего ИИ-чат-бота — Grok 4. Анонс состоялся спустя всего несколько месяцев после выхода предыдущей версии и всего через сутки после скандала с Grok 3. Поспешный выпуск Grok 4 демонстрирует скорость инноваций в генеративном ИИ и одновременно обнажает острую потребность в надёжных механизмах этического контроля. ![]() Источник изображения: xAI Маск вышел в эфир в кожаной куртке, в окружении ключевых сотрудников команды Grok, и заявил, что новая версия уже доступна пользователям. По его словам, Grok 4 «умнее почти всех студентов магистратуры сразу по всем дисциплинам». Это уже четвёртая итерация чат-бота xAI за последние 9 месяцев. Согласно заявлению компании, Grok 4 получил улучшенные голосовые функции и возможность поддерживать более глубокие и логически выстроенные диалоги. Внутренние бенчмарки xAI показывают, что новая ИИ-модель обогнала существующие решения компаний OpenAI, Alphabet и Meta✴. Однако эти тесты пока не были проверены независимыми экспертами. Как утверждают разработчики, новая архитектура позволяет Grok 4 более точно интегрировать знания из различных областей и выдавать обоснованные ответы даже на междисциплинарные запросы. По данным xAI, Grok 4 без подключения дополнительных инструментов набрал 25,4 % в сложнейшем тесте Humanity’s Last Exam, превзойдя показатели Google Gemini 2.5 Pro (21,6 %) и OpenAI o3 (high), показавшего 21 %. ![]() График показывает результаты модели Grok 4 и её варианта Grok 4 Heavy в тесте Humanity’s Last Exam Вместе с базовой моделью Grok 4 компания xAI представила Grok 4 Heavy — мультиагентный вариант чат-бота, в котором несколько автономных агентов параллельно решают поставленную задачу, после чего сравнивают полученные решения, подобно группе экспертов. Grok 4 Heavy, использующий инструменты, достиг результата в 44,4 %, тогда как Gemini 2.5 Pro с аналогичным доступом к инструментам смог набрать лишь 26,9 %. Эти данные, согласно заявлению xAI, демонстрируют «передовой уровень производительности» в области генеративного ИИ. ![]() Результаты тестов Grok 4 и Grok 4 Heavy по шести академическим бенчмаркам, включая GPQA, AIME25, LCB и USAMO25 Также был представлен новый премиальный тариф — подписка SuperGrok Heavy стоимостью $300 в месяц, ставшая самой дорогой среди аналогичных предложений крупных разработчиков ИИ. Она даёт ранний доступ к Grok 4 Heavy и будущим функциям, включая обещанные ИИ-модули для программирования в августе, мультиагентный вариант в сентябре и генерации видео в октябре. xAI рассчитывает, что дорогая подписка позволит финансировать дальнейшие исследования, а также привлечёт корпоративных клиентов, готовых испытать возможности новой ИИ-модели раньше конкурентов. Релиз Grok 4 состоялся всего через сутки после того, как xAI была вынуждена удалить с платформы X (ранее Twitter) несколько публикаций от имени чат-бота Grok 3, содержавших антисемитские высказывания и сомнительные ответы пользователям. В официальном заявлении компания сообщила: «С момента выявления этого контента xAI предприняла меры для блокировки языка вражды до публикации новых материалов Grok в X». Несмотря на серьёзность инцидента, Маск во время трансляции напрямую не упомянул инцидент, заявив лишь, что «нам нужно убедиться, что ИИ — это хороший ИИ». Ранее министр транспорта и инфраструктуры Турции Абдулкадир Уралоглу (Abdulkadir Uraloglu) резко раскритиковал работу Grok и заявил в интервью Bloomberg News, что Турция может заблокировать платформу X, если не будут приняты меры по предотвращению публикации агрессивного контента. Он подчеркнул: «Неприемлемо использовать бранные слова». Этот комментарий прозвучал до старта презентации Grok 4 и усилил международное внимание к этической стороне вопроса. В марте xAI официально объединилась с социальной платформой X. В результате была сформирована структура, нацеленная на интеграцию возможностей Grok в пользовательский интерфейс X. Однако в день презентации, за несколько часов до эфира, генеральный директор X Линда Яккарино (Linda Yaccarino) подала в отставку. Этот шаг оставил вакантной ключевую управленческую должность и поставил под вопрос стабильность дальнейшего развития платформы в условиях стремительной эволюции конкурирующих ИИ-моделей. По данным Bloomberg News, xAI расходует около $1 млрд ежемесячно на разработку ИИ. Эта цифра отражает не только масштаб проектов, но и высокую стоимость реализации амбиций Маска. В настоящее время компания активно ведёт переговоры о привлечении внешнего финансирования, включая контакты с венчурными фондами и суверенными инвестиционными структурами. В фокусе — дальнейшее развитие больших языковых ИИ-моделей, улучшение качества генерации контента и интеграция ИИ в инфраструктуру платформы X. Baidu встроила генеративный ИИ в поиск, научила его лучше понимать китайский и запустила генератор видео по изображениям
02.07.2025 [13:11],
Дмитрий Федоров
Китайский технологический гигант Baidu заявил о модернизации своей поисковой системы — самой популярной в Китае. Новая функциональность включает в себя генеративный ИИ и голосовой поиск, поддерживающий несколько китайских диалектов. Мобильное приложение Baidu переориентировано на модель чат-бота, способного помогать пользователям в написании текстов, рисовании изображений и планировании путешествий. Вместо поиска по ключевым словам система интерпретирует запросы, сформулированные на естественном языке. ![]() Источник изображения: Baidu Как отметили топ-менеджеры на презентации, за последние годы платформа стала чрезмерно сложной и перегруженной. Директор поискового подразделения Чжао Шици (Zhao Shiqi) подчеркнул: «Поисковая система Baidu должна меняться, и мы осознанно стремимся к этим изменениям. Мы не намерены побеждать других — мы должны превзойти самих себя». По его словам, это не просто косметическая правка, а глубокая архитектурная трансформация, направленная на создание гибкого, умного и интуитивного интерфейса. Baidu сталкивается с серьёзной конкуренцией со стороны Douyin — китайского аналога TikTok, а также с браузерами, изначально построенными на нейросетевых алгоритмах. В течение четырёх кварталов подряд компания фиксирует снижение выручки от онлайн-рекламы, что свидетельствует о потере части аудитории. В руководстве компании считают, что внедрение генеративного ИИ в поисковую выдачу позволит не только привлечь новых пользователей, но и сформировать качественно новые рекламные форматы. Ожидается, что такие форматы будут ориентированы на диалоговые сценарии, персонализацию и контекстуальную релевантность, что в перспективе может привести к восстановлению рекламной выручки техногиганта. Baidu также представила первую в своей истории модель генерации видео по изображению. Этот инструмент ориентирован в первую очередь на специалистов в области цифрового маркетинга и предназначен для автоматизированного создания коротких видеороликов, которые можно публиковать в ленте Baidu. По оценке компании, функция поможет маркетологам быстрее производить привлекательный контент, что повысит вовлечённость аудитории и конкурентоспособность платформы на фоне аналогичных сервисов компаний ByteDance и Kuaishou. Особую ставку компания делает на развитие своего пока ещё формирующегося облачного подразделения, основным драйвером которого должен стать растущий спрос на ИИ-вычисления на базе нейросетей в реальном времени. На этом направлении Baidu конкурирует с гораздо более мощными игроками, включая Alibaba Group. Для укрепления позиций компания активно развивает линейку ИИ-моделей Ernie. В апреле этого года были представлены Ernie 4.5 Turbo и Ernie X1 Turbo — усовершенствованные версии, которые, по заявлению компании, работают быстрее и стоят меньше, чем их предшественники. Эти ИИ-модели стали основой экосистемы умных приложений, развиваемой вокруг продуктов Baidu. Обнаружено самое любимое число ИИ — и это не 42
01.07.2025 [15:55],
Павел Котов
На просьбу угадать число от 1 до 50 наиболее популярные модели искусственного интеллекта, в том числе OpenAI ChatGPT, Anthropic Claude Sonnet 4, Google Gemini 2.5 Flash и Meta✴ Llama 4 дали один и тот же ответ — 27. ![]() Источник изображения: Igor Omilaev / unsplash.com Неожиданное единодушие систем ИИ отметил специалист по работе с данными из консалтинговой компании Capco Мохд Фарааз (Mohd Faraaz). Ответ «27» на просьбу угадать число от 1 до 50 дали шесть из семи опрошенных им моделей. И только разработанный компанией xAI Илона Маска (Elon Musk) чат-бот Grok дал ответ «42», вероятно, почерпнув его из книги «Автостопом по Галактике» Дугласа Адамса (Douglas Adams). Чат-бот Anthropic Claude пояснил свой выбор так: «Я выбрал „27“ отчасти случайным образом, но, честно говоря, оно показалось мне хорошим вариантом ближе к середине, не слишком очевидным. Такие варианты как „25“ (ровно в середине) или „1“ и „50“ (крайние) показались слишком предсказуемыми. „27“ близко к середине, но имеет небольшую асимметрию — оно не точно в центре и некоторым образом кажется более естественным как догадка. Кроме того, люди зачастую избегают круглых чисел, когда загадывают „случайные“, так что я исключил кратные 5 или 10. Я хотя бы немного оказался близко к вашему числу?» На поведение модели влияют массивы обучающих данных, процедура RLHF (обучение с подкреплением и обратной связью с человеком) и механизмы выборки, указывают опрошенные ресурсом The Register эксперты. Обрабатывая серию запросов об угадывании чисел, модели ИИ могут давать разные ответы, но чтобы они были случайными, таким системам необходим доступ к генератору случайных или псевдослучайных чисел, например, возможность выполнять код JavaScript. Генерируя же ответ исключительно собственными силами, модель ведёт себя более предсказуемо, отдавая предпочтение одним числам перед другими, обратил внимание в своей работе испанский специалист по работе с данными Хавьер Коронадо-Бласкес (Javier Coronado-Blázquez). В рамках исследования он взял три диапазона случайных чисел, обратился к шести моделям ИИ, использовал семь языков и шесть температур — параметров, влияющих на предсказуемость ответов. По итогам 75 600 запросов большинство моделей в большинстве случаев оказались очень предсказуемыми, и ответы их варьировались не очень сильно. В 80 % случаев OpenAI GPT-4o-mini, Microsoft Phi-4 и Google Gemini 2.0 в диапазоне от 1 до 10 выбирали число 7. При запросах на испанском языке Gemini в диапазоне от 1 до 5, как правило, отвечал «3», а на английском — «4». Вообще в диапазоне 1–5 модели чаще отвечали «3» и «4»; в промежутке 1–10 самыми популярными были ответы «5» и «7»; а в диапазоне 1–100 чаще всего поступали ответы «37», «47» и «73». За исключением 4, все эти числа являются простыми. На неспособность угадывать выпадение орла или решки при подбрасывании монеты обратили внимание в своём исследовании учёные из США Кэтрин Ван Коверинг (Katherine Van Koevering) и Джон Кляйнберг (Jon Kleinberg). Это роднит ИИ с человеком, указывают они, но ограничивает возможности моделей в задачах, когда требуется случайный ответ. DeepSeek упёрся в санкции: разработка модели R2 забуксовала из-за нехватки чипов Nvidia
27.06.2025 [10:23],
Алексей Разин
В начале этого года китайская компания DeepSeek удивила всех выпуском своей языковой модели R1, которая достигала сопоставимых с лучшими западными образцами результатов в сфере ИИ, но требовала от разработчиков предположительно меньших затрат. Создание более новой модели R2, по некоторым данным, упёрлось в доступность ускорителей вычислений Nvidia, которые сложно найти на территории Китая. ![]() Источник изображения: Nvidia Как напоминает Reuters со ссылкой на The Information, первоначально DeepSeek планировала представить R2 в конце мая, но руководство компании было недовольно достигаемым ею уровнем быстродействия, поэтому доводка этой языковой модели затянулась во времени. По данным источника, прогресс в известной степени тормозится отсутствием в Китае достаточного количества производительных ускорителей вычислений, а DeepSeek пока предпочитает полагаться главным образом на решения Nvidia, поставки которых в КНР серьёзно ограничены из-за санкций США. Облачная инфраструктура на территории Китая, которая сейчас используется для работы с языковой моделью R1, опирается преимущественно на ускорители Nvidia H20, которые до апреля этого года можно было поставлять вполне легально. В своей отчётности Nvidia отметила, что весенний запрет на поставки ускорителей H20 будет стоить ей нескольких миллиардов долларов США, поскольку предусмотреть иное назначение для такой продукции не получится, и весь запас придётся просто списать. Одновременно с этим Nvidia пытается найти возможность поставлять в Китай менее производительные ускорители, которые соответствовали бы существующим требованиям США в данной сфере. Предполагается, что эти ускорители будут созданы с использованием архитектуры Blackwell и памяти типа GDDR7. В Китае создали ИИ, который сам проектирует процессоры не хуже людей
12.06.2025 [21:04],
Николай Хижняк
Исследователи Китайской государственной лаборатории по разработке процессоров и Исследовательского центра интеллектуального программного обеспечения сообщили о создании ИИ-платформы для автоматизированной разработки микросхем. Проект с открытым исходным кодом QiMeng использует большие языковые модели (LLM) для «полностью автоматизированного проектирования аппаратного и программного обеспечения», а также может применяться для проектирования «целых CPU». ![]() Источник изображений: Китайская академия наук По словам разработчиков, чипы, разработанные QiMeng, соответствуют производительности и эффективности тех микросхем, которые были созданы экспертами-людьми. На базе QiMeng исследователи в качестве примера уже спроектировали два процессора: QiMeng-CPU-v1, сопоставимый по возможностям с Intel 486; и QiMeng-CPU-v2, который, как утверждается, может конкурировать с чипами на Arm Cortex-A53. Стоит отметить, что разница между этими продуктами составляет 26 лет. Чип Intel 486 был представлен в 1986 году, а Arm Cortex-A53 — в 2012-м. QiMeng состоит из трёх взаимосвязанных слоёв: в основе лежит доменно-специфическая модель большого процессорного чипа; в середине — агент проектирования аппаратного и программного обеспечения; верхним слоем выступают различные приложения для проектирования процессорных чипов. Все три слоя работают в тандеме, обеспечивая такие функции, как автоматизированное front-end-проектирование микросхем, генерация языка описания оборудования, оптимизация конфигурации операционной системы и проектирование цепочки инструментов компилятора. По словам разработчиков платформы, QiMeng может за несколько дней сделать то, на что у команд, состоящих из людей-инженеров, уйдут недели работы. В опубликованной статье, описывающей особенности платформы QiMeng, её разработчики также освещают проблемы, с которыми приходится сталкиваться при текущем проектировании чипов, включая «ограниченную технологию изготовления, ограниченные ресурсы и разнообразную экосистему». QiMeng же стремится автоматизировать весь процесс проектирования и проверки чипов. По словам разработчиков, цель заключалась в повышении эффективности, снижении затрат и сокращении циклов разработки по сравнению с ручными методами проектирования микросхем, а также в содействии быстрой настройке архитектур микросхем и программных стеков, специфичных для конкретной области. Как пишет Tom’s Hardware, крупные западные технологические компании, занимающиеся проектированием микросхем, такие как Cadence и Synopsys, тоже активно внедряют ИИ в процессы создания чипов. Например, Cadence использует несколько ИИ-платформ для ключевых этапов проектирования и проверки. В свою очередь, ИИ-платформа DSO.ai от Synopsys, по последним подсчётам, помогла с разработкой более 200 проектов микросхем. Анонс платформы QiMeng произошёл на фоне давления властей США на ведущих поставщиков программного обеспечения для автоматизации проектирования электроники (EDA), чтобы те прекратили продажу инструментов для проектирования микросхем в Китай, что ещё больше усложнило задачу Пекина по укреплению своей полупроводниковой промышленности. Разработчики QiMeng отмечают, что Китай должен отреагировать, поскольку технология проектирования чипов является «стратегически важной отраслью». Издание South China Morning Post со ссылкой на данные последнего анализа Morgan Stanley сообщает, что на долю Cadence Design Systems, Synopsys и Siemens EDA в прошлом году пришлось в общей сложности 82 % выручки на китайском рынке EDA. Рассуждающий ИИ показывает лишь «иллюзию мышления», решили исследователи Apple
10.06.2025 [19:20],
Сергей Сурабекянц
Apple представила результаты исследования новейших больших рассуждающих моделей ИИ (LRM). Из отчёта следует, что, хотя LRM превосходят стандартные LLM (большие языковые модели) при выполнении запросов средней сложности, они не дают желаемых результатов при усложнении заданий. Исследователи считают, что нынешняя популярность LRM — это просто мода, а результаты их работы — лишь «иллюзия мышления», несовместимая с мыслительным процессом человека. ![]() Источник изображения: unsplash.com Исследователи уделили особое внимание моделям Claude 3.7 Sonnet Thinking от Anthropic, o3 от OpenAI, Gemini от Google и R1 LRM от DeepSeek, оценивая их возможности рассуждений в широком диапазоне тестов, выходящих за рамки стандартных задач по математике и написанию кода. Моделям также пришлось проектировать контролируемые среды головоломок, включая «Ханойскую башню». Главной целью исследования было желание установить и оценить возможности рассуждений моделей, а не их способность достигать желаемого результата или ответа. Согласно выводам учёных, «хотя эти модели демонстрируют улучшенную производительность в тестах рассуждений, их фундаментальные возможности, свойства масштабирования и ограничения остаются недостаточно изученными». Стандартные LLM и LRM показали схожие результаты при выполнении простых запросов. LRM демонстрировали некоторое преимущество при более сложных задачах благодаря их структурированным механизмам рассуждений («цепочкам мыслей»). Но ни LRM, ни LLM не справились с запросами максимальной сложности. Несмотря на демонстрацию правильных алгоритмов, LRM испытывали трудности с обработкой сложных задач в традиционном пошаговом процессе рассуждений, демонстрируя недостатки и непоследовательность в логических вычислениях. Модели рассуждений требовали больше времени для обработки сложных запросов, однако неожиданно сокращали процесс рассуждений, что заканчивалось сбоем, несмотря на «наличие адекватного бюджета токенов». Стоит отметить, что исследование Apple опубликовано на фоне катастрофического отставания компании от лидеров перегретого рынка искусственного интеллекта. По мнению аналитиков, это отставание составляет до двух лет. Если же пузырь искусственного интеллекта в ближайшее время всё же лопнет, Apple даже может оказаться в выигрыше. Ещё в прошлом году многие эксперты высказывали опасения, что разработка продвинутых моделей ИИ застопорится из-за отсутствия высококачественного контента для дальнейшего обучения нейросетей. Однако генеральный директор OpenAI Сэм Альтман (Sam Altman) не увидел «никаких преград», а бывший генеральный директор Google Эрик Шмидт (Eric Schmidt) посчитал эти опасения беспочвенными. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |