Сегодня 21 февраля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии-бот
Быстрый переход

Маск пообещал ИИ-игры с фотореалистичной графикой и объявил о запуске студии xAI Gaming

Илон Маск (Elon Musk) анонсировал создание игровой студии xAI Gaming Studio, которая будет разрабатывать проекты с использованием искусственного интеллекта (ИИ). Заявление прозвучало во время прямой трансляции, посвящённой запуску модели Grok-3. В качестве демонстрации возможностей ИИ-модели разработчики показали, как она способна сгенерировать аналог Tetris на языке программирования Python.

 Источник изображения (скрин видео): Dima Zeniuk / x.com

Источник изображения (скриншот видео): Dima Zeniuk / x.com

«Мы запускаем игровую AI-студию в xAI. Если вы заинтересованы в сотрудничестве с нами в создании ИИ-игр, пожалуйста, присоединяйтесь к xAI», — заявил Маск. Никаких дополнительных подробностей о характере самой студии, её концепции, направлении, в котором xAI планирует развиваться, и о том, что она будет разрабатывать, пока не сообщается, отмечает Tom's Hardware.

Модель уже показала способность генерировать простые 2D-игры. Один из пользователей опубликовал тестовый пример, где Grok 3 создала базовую версию Bubble Trouble с физикой, коллизиями и простым интерфейсом. Однако оказалось, что модель пока не может корректно воспроизводить ретрозвуковые эффекты, описанные в пользовательском запросе.

Маск утверждает, что Grok-3 может повышать разрешение графики в играх. Однако пока неясно, работает ли эта технология только в проектах, созданных самим ИИ, или она может быть использована отдельно, подобно технологиям масштабирования изображения от Nvidia (DLSS Super Resolution) и AMD (FidelityFX Super Resolution).

Однако главным вызовом для новой студии является создание динамически генерируемых игр с фотореалистичной графикой. Пока возможности Grok ограничены относительно простыми 2D-проектами, и неизвестно, сможет ли xAI Gaming Studio создавать более сложные, динамически генерируемые игры, но Маск, как всегда, нацелен на лучшее.

В то же время компания xAI продолжает развивать свои большие языковые модели (LLM) Grok-3 и Grok-3 mini, которые, как пишет Tom's Hardware, в целом превосходят GPT-4o, Gemini-2 Pro, DeepSeek-V3 и Claude 3.5 Sonnet по ряду показателей.

Уже кажется очевидным, что индустрия постепенно внедряет ИИ-технологии в разработку игр. В январе Capcom объявила о сотрудничестве с Google Cloud и использовании генеративного ИИ для создания фоновых элементов. Однако xAI, судя по всему, ставит перед собой более амбициозную задачу — не просто разработку инструментов для студий, а создание полноценных игровых проектов, тем более, что Илон Маск планирует расширить суперкомпьютер Colossus до миллиона GPU, что может ускорить разработку новых, ещё более передовых ИИ-моделей.

Для DOGE Илона Маска создали ИИ-бота, который уменьшит бюрократию в правительстве США

Команда Илона Маска (Elon Musk) разработала специализированного ИИ-бота, призванного помочь Департаменту эффективности правительства (DOGE) в борьбе с расточительством во властных структурах США. Как стало известно TechCrunch, чат-бот работает на базе искусственного интеллекта xAI, принадлежащего Маску.

 Источник изображения: x.com/elonmusk

Источник изображения: x.com/elonmusk

Чат-бот размещён на субдомене с названием DOGE сайта Кристофера Стэнли (Christopher Stanley), который занимает должность руководителя отдела инженерной безопасности в SpaceX, а также одновременно является сотрудником Белого дома. Пока неясно, используется ли уже этот инструмент полноценно DOGE в рамках его программы радикального сокращения расходов в правительстве или носит экспериментальный характер. Официальных комментариев от Стэнли и Белого дома на этот счёт ещё не поступало.

Сам бот называет себя «ИИ-ассистентом Департамента эффективности правительства» и утверждает, что работает на базе Grok-2 от xAI, чтобы «помогать сотрудникам правительства США выявлять расточительство и повышать эффективность в их работе ».

Предположительно, ассистент представляет собой настроенную большую языковую модель (LLM), обученную на определённых ключевых постулатах организации DOGE, особенно на пяти «руководящих принципах», которые включают в себя уменьшение бюрократических требований со стороны правительства и удаление «ненужных и неэффективных процессов».

Например, когда журналист из TechCrunch спросил чат-бота о будущем Агентства США по международному развитию (USAID), фактически закрытым реформами DOGE, он применил пять руководящих принципов и предложил устранить любые «бюрократические уровни» между руководителями и получателями финансирования от USAID.

Однако у чат-бота есть и проблемы, характерные для крупных языковых моделей. Например, он может выдавать недостоверную информацию (галлюцинировать). Когда TechCrunch запросил список сотрудников DOGE, бот сначала отказался отвечать, но позже предоставил вымышленные имена и должности. В некоторых случаях он даже давал странные советы, например, предложил USAID использовать дроны и носимые устройства для повышения эффективности работы.

Стоит сказать, что организация DOGE, активно внедряя ИИ в рамках модернизации американского правительства, начала разрабатывать ещё одного чат-бота, уже для Администрации общих служб (General Services Administration), которая курирует госзакупки США. Однако остаётся открытым вопрос о возможном конфликте интересов. Поскольку сервисы xAI монетизируются через API-запросы, использование правительственными служащими ИИ-ботов на базе xAI может приносить компании Маска прямую прибыль. Представители xAI пока не прокомментировали этот момент.

DeepSeek набрал 20 млн активных пользователей — больше только у ChatGPT

Китайский стартап DeepSeek, разработавший бюджетную ИИ-модель, стал настоящей сенсацией в мире технологий. Всего за 20 дней после своего запуска приложение привлекло 20 млн активных пользователей. По данным TrendForce, DeepSeek занял второе место среди самых популярных приложений в мире, уступив лишь ChatGPT. На третьем месте оказалась нейросеть Doubao от ByteDance.

 Источник изображения: Solen Feyissa / Unsplash

Источник изображения: Solen Feyissa / Unsplash

Приложение DeepSeek, запущенное 11 января, уже к 31 января достигло 22,15 млн активных пользователей в день. Это составляет 41,6% от аудитории ChatGPT, которая в тот же период насчитывала 53,23 млн ежедневных пользователей. Ранее лидером китайского рынка был Doubao с 17 млн пользователей, но DeepSeek удалось обойти его по популярности.

Успех DeepSeek также прослеживается и в рейтингах Apple App Store, где приложение поднялось на первое место в 157 странах, включая США. Кроме того, по данным сервиса SimilarWeb, сайт DeepSeek обошёл по посещаемости Google Gemini всего за неделю. Так, на момент 31 января DeepSeek посетили 2,4 млн пользователей из США, тогда как для Gemini эта цифра составила 1,5 млн.

Отметим, что стремительная популярность DeepSeek привела к активной реакции со стороны крупных китайских компаний. Tencent, Baidu и Alibaba уже объявили о планах интеграции модели DeepSeek в свои облачные платформы. Кроме того, четыре ведущих производителя GPU из Китая, такие как Huawei Ascend, Moore Threads, iluvatar и MetaX, выразили готовность поддерживать развитие стартапа.

Исследователи обучили конкурента OpenAI o1 менее чем за полчаса и $50

Исследователи из Стэнфорда и Университета Вашингтона создали ИИ-модель, которая превосходит OpenAI в решении математических задач. Модель, получившая название s1, была обучена на ограниченном наборе данных из 1000 вопросов методом дистилляции. Это позволило достичь высокой эффективности при минимальных ресурсах и доказать, что крупным компаниям, таким как OpenAI, Microsoft, Meta и Google, возможно не придётся строить огромные дата-центры, заполняя их тысячами графических процессоров Nvidia.

 Источник изображения: Growtika / Unsplash

Источник изображения: Growtika / Unsplash

Метод дистилляции, который применили учёные, стал ключевым решением в эксперименте. Этот подход позволяет небольшим моделям обучаться на ответах, предоставленных более крупными ИИ-моделями. В данном случае, как пишет The Verge, s1 быстро улучшала свои способности, используя ответы, полученные от модели искусственного интеллекта Gemini 2.0 Flash Thinking Experimental, разработанной компанией Google.

Модель s1 была создана на основе проекта Qwen2.5 от Alibaba (подразделение Cloud) с открытым исходным кодом. Первоначально исследователи использовали набор данных из 59 000 вопросов, но в ходе экспериментов пришли к выводу, что увеличение объёма данных не даёт значимых улучшений, и для финального обучения использовали лишь небольшой набор из 1000 вопросов. При этом было использовано всего 16 GPU Nvidia H100 в облаке, за использование которых пришлось заплатить менее $50.

В s1 была также применена техника под названием «масштабирование времени тестирования», которая позволяет модели «поразмышлять» перед генерацией ответа. Также исследователи стимулировали модель к перепроверке своих выводов путём добавления команды в виде слова «Wait» («Жди»), что заставляло ИИ продолжать рассуждение и исправлять ошибки в своих ответах.

Утверждается, что модель s1 показала впечатляющие результаты и смогла превзойти OpenAI o1-preview на 27 % при решении математических задач. Недавно нашумевшая модель R1 от DeepSeek также использовала аналогичный подход и за сравнительно небольшие деньги. Правда, теперь OpenAI обвиняет DeepSeek в извлечении информации из своих моделей в нарушение условий обслуживания. Стоит сказать, что и в условиях использования Google Gemini указано, что её API запрещено применять для создания конкурирующих чат-ботов.

Рост количества меньших и более дешёвых моделей может, по словам экспертов, перевернуть всю отрасль и доказать, что нет необходимости инвестировать миллиарды долларов на обучение ИИ, строить огромные центры обработки данных и закупать в большом количестве GPU.

ЕС выпустил руководство по использованию ИИ, запрещенного «Законом об ИИ»

В Евросоюзе вступили в силу первые правила, предусмотренные Законом об искусственном интеллекте (AI Act), который направлен на регулирование использования ИИ в соответствии с уровнем риска. Этот закон запрещает определённые сценарии применения технологий, представляющие «неприемлемый риск», включая манипуляции с использованием техник, воздействующих на подсознание, а также социальный скоринг, который может привести к дискриминации людей.

 Источник изображения: Growtika/Unsplash

Источник изображения: Growtika/Unsplash

По сообщению TechCrunch, исполнительный орган ЕС во вторник опубликовал руководство, разъясняющее разработчикам, как соответствовать необходимым требованиям. Эти рекомендации касаются запретов на определённые сценарии применения ИИ, нарушение которых может привести к крупным штрафам — вплоть до 7 % глобального оборота компании или €35 млн (в зависимости от того, что больше).

«Рекомендации разработаны для обеспечения единообразного и эффективного применения AI Act на всей территории Европейского союза», — говорится в заявлении Комиссии. При этом отмечается, что рекомендации не являются юридически обязательными и окончательное толкование и применение закона останется за регуляторами и судами.

Комиссия уточнила, что документ включает юридические разъяснения и практические примеры, которые помогут заинтересованным сторонам понять и выполнить требования закона. На текущий момент рекомендации опубликованы в черновом варианте и будут окончательно утверждены после перевода на все официальные языки ЕС.

Хотя «Закон об ИИ» вступил в силу ещё в прошлом году, его реализация продолжается. В ближайшие месяцы и годы вступят в силу дополнительные положения закона. При этом надзор за выполнением правил будет вводиться поэтапно: до 2 августа государства-члены ЕС должны назначить органы, которые будут следить за соблюдением норм.

DeepSeek за неделю стал вторым по популярности чат-ботом в мире, обогнав Google Gemini

Китайская компания DeepSeek стремительно завоёвывает позиции на рынке искусственного интеллекта, став вторым по популярности чат-ботом в мире. За неделю трафик платформы вырос на 614 %, обогнав Gemini и Character AI, а число посетителей достигло отметки в 49 миллионов визитов ежедневно по данным сервиса мониторинга трафика Similarweb.

 Источник изображения: Copilot

Источник изображения: Copilot

Успех DeepSeek особенно примечателен на фоне предыдущих показателей. Месяц назад сайт насчитывал всего около 300 тысяч посещений в сутки, но уже к концу января аудитория взлетела до 33,4 миллиона пользователей, передаёт PCMag. Этот скачок не только потряс рынок технологий, но и вызвал волну беспокойства среди инвесторов, что даже привело к снижению котировок американских технологических акций. Особенно пострадали акции Nvidia, упавшие на 17,8 %. Согласно Similarweb, глобальный трафик платформы продолжает оставаться высоким, хотя DeepSeek всё ещё уступает лидеру рынка — ChatGPT, который собирает более 130 миллионов посещений в день.

 Источник изображения: Similarweb

Источник изображения: Similarweb

Как отмечают эксперты, основным драйвером успеха DeepSeek стал запуск открытой модели V3, которая привлекла внимание разработчиков и компаний по всему миру. Обучение V3 обошлось в $5,5 млн — значительно меньше, чем затраты на аналогичные решения из США. При этом её возможности сопоставимы с функционалом ChatGPT, но с важным отличием: модель можно свободно загрузить и запустить на локальных серверах. Это делает её привлекательной для организаций, желающих внедрять ИИ-технологии без необходимости полагаться на облачные сервисы.

 Источник изображения: Similarweb

Источник изображения: Similarweb

Несмотря на впечатляющие достижения, DeepSeek пока не смогла обогнать поисковую систему Microsoft Bing, где используется ИИ-ассистент Copilot на базе технологий OpenAI. Однако аналитики подчёркивают, что успех платформы в США также очевиден. «В США DeepSeek достиг пика в 4,9 миллиона ежедневных посещений 28 января, а затем стабилизировался на уровне 2,4 миллиона посещений, что на 813,3 % больше, чем неделей ранее», — сообщает Similarweb.

Тем не менее, будущее DeepSeek может оказаться менее оптимистичным из-за усиления конкуренции. Например, недавно OpenAI представила новую функцию Deep Research, позволяющую создавать подробные исследовательские отчёты на основе данных из сотен источников. Кроме того, платформа всё чаще сталкивается с критикой в отношении политики конфиденциальности и цензуры, что может повлиять на лояльность пользователей. Однако текущие показатели демонстрируют, что DeepSeek остаётся одним из самых перспективных игроков в развивающейся «семимильными» шагами ИИ-индустрии.

Аналитики SemiAnalysis ударили по мифу о дешёвом ИИ, раскрыв реальные масштабы DeepSeek

Китайский стартап DeepSeek привлёк всеобщее внимание, заявив о создании конкурентоспособной модели искусственного интеллекта (ИИ) с минимальными затратами. Компания утверждала, что на обучение мощной нейросети DeepSeek V3 было потрачено всего $6 млн и использовано 2048 графических процессоров (GPU). Однако аналитики SemiAnalysis опровергают это утверждение, заявив, что компания располагает 50 000 GPU Nvidia и на создание инфраструктуры потратила не менее $1,6 млрд.

 Источник изображения: Nvidia, tomshardware.com

Источник изображения: Nvidia

Согласно данным экспертов, DeepSeek управляет крупной вычислительной инфраструктурой, включающей около 50 000 GPU Hopper. Среди них числятся 10 000 единиц H800 и 10 000 более мощных H100, а также дополнительные партии H20. Эти ресурсы распределены между несколькими центрами обработки данных и используются для обучения ИИ, научных исследований и финансового моделирования. Общие капитальные затраты на серверы составили около $1,6 млрд, а операционные расходы оцениваются в $944 млн, указывают аналитики.

Напомним, DeepSeek появилась как дочерний проект китайского хедж-фонда High-Flyer, который с 2023 года выделил стартап в отдельное направление, сосредоточенное на технологиях ИИ. В отличие от большинства стартапов, которые арендуют мощности у облачных провайдеров, компания имеет собственные дата-центры, что даёт полный контроль в плане оптимизации ИИ-моделей и позволяет быстрее внедрять инновации. К тому же, поскольку DeepSeek остаётся полностью самофинансируемой организацией, любые решения принимаются быстрее и гибче, делая компанию более эффективной по сравнению с традиционными игроками рынка.

Особого внимания заслуживает кадровая политика. Компания нанимает специалистов исключительно из Китая, делая акцент на навыках и способности решать сложные задачи, а не на формальных дипломах. При этом зарплаты некоторых исследователей в DeepSeek превышают $1,3 млн в год, что позволяет привлекать таланты из ведущих университетов страны.

Хотя DeepSeek позиционирует себя как новатора, способного бросить вызов лидерам отрасли, аналитики SemiAnalysis подчёркивают, что успех компании основан на многомиллиардных инвестициях, технических прорывах и сильной команде, а заявления о «революционном бюджете», затраченном на ИИ-модель, могут быть преувеличены.

Китайцы создали нейросеть, которая превзошла мыслящую OpenAI o1 в важных тестах

Китайская лаборатория искусственного интеллекта (ИИ) DeepSeek представила открытую версию своей модели искусственного интеллекта R1 со способностью к рассуждению, которая, по заявлению разработчиков, превосходит ИИ-модель o1 от компании OpenAI в некоторых бенчмарках по ряду ключевых показателей.

 Источник изображения: Alexander Sinn / Unsplash

Источник изображения: Alexander Sinn / Unsplash

Как сообщает издание TechCrunch, модель R1 превосходит OpenAI o1 в таких бенчмарках, как AIME, MATH-500 и SWE-bench Verified. Эти тесты охватывают различные области, включая математические задачи, программирование и общую производительность модели. AIME оценивает производительность моделей с помощью других ИИ-моделей, MATH-500 представляет собой набор задач по математике, а SWE-bench Verified ориентирован на программирование.

Особенностью R1 является её способность к самопроверке, что помогает исключить ошибки, характерные для других моделей. Однако этот подход требует больше времени для получения ответа — от нескольких секунд до нескольких минут. Тем не менее, такие модели считаются более надёжными в сложных областях, таких как математика, физика и различные науки.

В DeepSeek заявили, что R1 содержит 671 миллиард параметров, что делает её одной из крупнейших моделей в мире. Для удобства пользователей компания также выпустила упрощённые версии R1 с объёмом параметров от 1,5 до 70 миллиардов. При этом, самая компактная версия может работать даже на обычном ноутбуке, в то время как для полного варианта требуется более мощное оборудование. Тем не менее, R1 доступна через API компании по цене, которая, как утверждается, на 90–95% ниже, чем у OpenAI o1.

Отмечается, что у R1 есть и некоторые недостатки. Поскольку модель разработана в Китае, она подлежит обязательной проверке со стороны регуляторов на соответствие «основным социалистическим ценностям». Например, R1 отказывается отвечать на вопросы о событиях на площади Тяньаньмэнь или о независимости Тайваня, что характерно для многих китайских ИИ-моделей, которые избегают обсуждения острых для Поднебесной политических тем.

Стоит сказать, что DeepSeek стала первой китайской лабораторией, вступившей в реальную конкуренцию с OpenAI o1, представив предварительный вариант R1 ещё в ноябре. Однако за ней последовали и другие игроки, включая Alibaba и Kimi, принадлежащую компании Moonshot AI. По мнению исследователя искусственного интеллекта из Университета Джорджа Мейсона Дина Балла (Dean Ball), всё это свидетельствует о том, что китайские ИИ-компании продолжают оставаться «быстрыми последователями» в технологической гонке. «Успех упрощённых версий DeepSeek […] показывает, что мощные рассуждающие модели будут становиться всё более доступными и смогут работать даже на локальном оборудовании», — отметил Балл в своём посте на X.

ChatGPT научился планировать и напоминать о делах, как Siri и «Google Ассистент»

OpenAI представила новую функцию под названием «Задачи» (Tasks), которая позволяет ChatGPT создавать напоминания и выполнять запланированные действия. Функция уже доступна в бета-версии и является попыткой превратить чат-бот в нечто большее, приблизив его к функциональности таких виртуальных помощников, как «Google Ассистент» или Siri.

 Источник изображения: Andrew Neel / Unsplash

Источник изображения: Andrew Neel / Unsplash

Tasks позволяет дать задание ChatGPT, что именно и когда нужно сделать. Например, можно попросить ежедневно присылать прогноз погоды в определённое время, напомнить о сроке действия паспорта или даже подготовить сказку для рассказа детям перед сном, поясняет The Verge.

Чтобы воспользоваться функцией, подписчикам нужно выбрать в меню ChatGPT модель «4o with scheduled tasks», затем просто сформулировать свою просьбу относительно того, что нужно сделать, и указать время выполнения. Кроме того, Tasks может рекомендовать задачи на основе предыдущих бесед, но пользователь должен вручную подтвердить каждую из таких рекомендаций. Управлять заданиями можно как в самих чатах, так и в новом разделе Tasks, доступном через веб-версию. После выполнения задач пользователи смогут получать уведомления на все свои устройства. Важно отметить, что одновременно может выполняться до 10 активных задач.

Нововведение уже доступно в бета-версии для подписчиков тарифов Plus, Team и Pro. OpenAI пока не уточняет, станет ли функция доступной для бесплатного использования, но предположительно, Tasks останется частью премиум-тарифов, которые стоят $20 или $200 в месяц.

Напомним, ранее чат-бот работал исключительно в режиме реального времени, отвечая на запросы в момент их поступления. Однако OpenAI решила несколько расширить рамки возможностей ChatGPT, превратив его в инструмент для долгосрочного планирования. Более того, на подходе новые разработки, такие как автономный агент Operator, который сможет управлять компьютерами, и проект Caterpillar, способный интегрироваться с Tasks для поиска информации, анализа данных, навигации по сайтам и работы с документами.

Отмечается, что несмотря на перспективы, у функции остаются нерешённые вопросы. Например, насколько надёжно Tasks будет справляться с задачами, особенно если речь идёт о важной и срочной информации. А запуск в бета-версии свидетельствует о том, что OpenAI пока лишь тестирует эту функцию с целью сбора отзывов от пользователей, не гарантируя стопроцентную надёжность.

OpenAI не выполнила обещание по созданию инструмента для защиты авторских прав к 2025 году

Компания OpenAI не смогла выпустить обещанный инструмент Media Manager до 2025 года, с помощью которого создатели контента смогли бы контролировать использование своих работ в обучении нейросетей. Media Manager, анонсированный в мае прошлого года, должен был идентифицировать защищённые авторским правом тексты, изображения, аудио и видео.

 Источник изображения: hdhai.com

Источник изображения: hdhai.com

Инструмент должен был помочь OpenAI избежать юридических проблем, связанных с нарушением прав на интеллектуальную собственность, и в целом мог бы стать стандартом для всей индустрии искусственного интеллекта. Однако, как пишет издание TechCrunch, разработка Media Manager изначально не считалась в компании приоритетной. Один из бывших сотрудников OpenAI отметил: «Я не думаю, что это было приоритетом. Честно говоря, я и не помню, чтобы кто-то над этим работал». Другой источник, близкий к компании, подтвердил, что обсуждения инструмента были, но с конца 2024 года никакой новой информации, связанной с проектом, не поступало.

Надо сказать, что в последнее время использование авторского контента для обучения ИИ неоднократно становилось причиной споров. Модели OpenAI, такие как ChatGPT и Sora, обучаются на огромных наборах данных, включающих тексты, изображения и видео из интернета. Это позволяет ИИ-моделями создавать новые работы, но зачастую они оказываются слишком похожи на оригинал. Например, Sora может генерировать видео с логотипом TikTok или персонажами из видеоигр, а ChatGPT был «пойман» на дословных цитатах из статей The New York Times.

Такая практика вызывает волну возмущения со стороны авторов, чьи работы были использованы без их согласия. Против OpenAI уже поданы коллективные иски от художников, писателей и крупных медиа-компаний, включая The New York Times и Radio-Canada. Авторы, такие как американская актриса и сценарист Сара Сильверман (Sarah Silverman) и писатель Та-Нехиси Коутс (Ta-Nehisi Coates), также присоединились к судебным разбирательствам, обвинив OpenAI в незаконном использовании их работ.

OpenAI предложила альтернативные решения проблемы, и на данный момент создателям контента предлагается несколько способов для исключения своих работы из обучения нейросетей. В частности, в сентябре 2024 года была запущена форма для подачи заявлений на удаление изображений из будущих наборов данных. Также компания ничего не имеет против того, чтобы веб-мастера прописывали блокировку для своих сайтов от сбора данных её ботами, например в файле «robots.txt». Однако эти методы подверглись критике как за их сложность (удаление контента из набора данных), так и за их несовершенство.

Media Manager, напротив, преподносился как долгожданное комплексное решение. В мае 2024 года OpenAI заявила, что работает над инструментом совместно с регуляторами и использует передовые технологии машинного обучения для распознавания авторских прав. Тем не менее с момента анонса компания больше ни разу публично не упоминала об этом инструменте. И даже если Media Manager будет выпущен, эксперты сомневаются, что инструмент сможет решить все проблемы.

Эдриан Сайхан (Adrian Cyhan), юрист в сфере интеллектуальной собственности, отмечает, что даже крупным платформам, таким как YouTube и TikTok, сложно справляться с идентификацией контента в больших масштабах. «Гарантировать соблюдение всех требований создателей контента и законов разных стран — крайне трудная задача», — заявил он. А основатель некоммерческой организации Fairly Trained Эд Ньютон-Рекс (Ed Newton-Rex) вообще считает, что Media Manager лишь переложит ответственность на самих создателей.

При этом, даже если Media Manager будет запущен, он вряд ли сможет избавить OpenAI от юридической ответственности, считают эксперты. Эван Эверист (Evan Everist), специалист по авторскому праву, напомнил, что по закону владельцы авторских прав вообще не обязаны предупреждать о запрете на использование их работ и «базовые принципы авторского права остаются неизменными: нельзя использовать чужие материалы без разрешения».

В отсутствие Media Manager, OpenAI пока внедрила фильтры, которые предотвращают дословное копирование чужих данных, а в судебных исках компания продолжает утверждать, что её ИИ-модели создают «компиляцию», а не плагиат, ссылаясь на принцип «добросовестного использования». Суды могут поддержать позицию OpenAI, как это произошло в деле Google Books, когда суд постановил, что копирование компанией Google миллионов книг для Google Books, своего рода цифрового архива, является допустимым. Однако, если суды признают, что OpenAI незаконно использует авторский контент, компании придётся пересмотреть свою стратегию, включая выпуск Media Manager.

Галлюцинации и ошибки ИИ способны привести к научным прорывам

Искусственный интеллект (ИИ), способный убедительно создавать ложную или вымышленную информацию, может стать незаменимым инструментом в руках учёных. Новые лекарства, прогнозирование погоды и изобретение устройств — вот лишь немногие примеры того, как способность ИИ генерировать новые, на первый взгляд ошибочные идеи, может менять мир науки.

 Источник изображения: Copilot

Источник изображения: Copilot

ИИ-модели часто подвергаются критике за склонность генерировать недостоверную информацию, выдавая её за факты — так называемые «галлюцинации». Эти правдоподобные подделки не только сбивают с толку пользователей чат-ботов, но и приводят к судебным разбирательствам и ошибкам в медицинских записях. Например, в прошлом году ложное заявление чат-бота Google обвалило рыночную стоимость одной из компаний на $100 млрд. Однако, как пишет The New York Times, недавно исследователи обнаружили, что «галлюцинации» ИИ могут быть и на удивление полезными.

Оказывается, «умные» LLM (большие языковые модели) способны генерировать невероятные идеи, которые помогают учёным в борьбе с раком, разработке новых лекарств, создании медицинских устройств, изучении погодных явлений и даже в получении Нобелевской премии. «Это даёт учёным новые идеи, которых они могли бы никогда не придумать сами», — объясняет Эми МакГоверн (Amy McGovern), руководитель федерального института ИИ (NSF AI Institute) в США по прогнозированию климата и погоды.

Хотя наука традиционно ассоциируется с логикой и аналитикой, её начало часто связано с интуицией и смелыми предположениями. Философ и методолог науки Пол Фейерабенд (Paul Feyerabend) однажды охарактеризовал этот этап как «всё дозволено». Ошибки ИИ-моделей оживляют этот творческий процесс, ускоряя поиск и проверку новых идей. То, что раньше занимало годы, теперь можно сделать за дни, часы или даже минуты. Профессор Массачусетского технологического института (MIT) Джеймс Дж. Коллинз (James J. Collins) недавно похвалил «галлюцинации» за ускорение его исследований в области новых антибиотиков, поскольку ИИ-модели создали совершенно новые молекулы.

«Галлюцинации» ИИ возникают, когда учёные обучают генеративные компьютерные модели определённой теме, а затем позволяют машинам перерабатывать полученную информацию. Результаты могут быть как абсурдными, так и гениальными. Например, в октябре 2023 года Нобелевская премия по химии была вручена Дэвиду Бейкеру (David Baker) за исследования в области белков. Его подход, основанный на использовании ИИ для создания совершенно новых белков, ранее считался практически невозможным. Бейкер отметил, что ИИ-генерация стала основой для разработки «белков с нуля». «Мы создали 10 миллионов новых белков, которых нет в природе», — говорит учёный. При этом его лаборатория уже получила около 100 патентов, включая технологии для лечения рака и борьбы с вирусными инфекциями.

Однако термин «галлюцинации» вызывает споры. Многие предпочитают называть результаты работы ИИ предположениями или перспективными идеями, поскольку они часто основаны на реальных научных данных. Например, профессор Калифорнийского технологического института Анима Анандкумар (Anima Anandkumar) считает, что использование термина «галлюцинации» может вводить в заблуждение, и отмечает, что учёные стараются избегать его.

Стоит отметить, что некоторые эксперты обеспокоены тем, что темпы научных открытий замедлились за последние десятилетия. Однако сторонники ИИ утверждают, что новые возможности могут вывести науку на иной уровень. В частности, Бейкер и его коллеги видят будущее, в котором белковые катализаторы будут использовать солнечную энергию, модернизировать заводы и помогать создавать устойчивый мир.

Другие учёные также разделяют этот оптимизм. «Это невероятно, насколько быстро всё развивается», — говорит Иан Хейдон (Ian C. Haydon), член команды Бейкера. А Пушмит Кохли (Pushmeet Kohli) из DeepMind подчёркивает, что ИИ способен на неожиданные, но гениальные ходы. «Мы явно имеем удивительный инструмент, который способен проявлять креативность», — заключил он.

Несмотря на успехи, «галлюцинации» искусственного интеллекта остаются спорной темой. Хотя некоторые учёные видят в них полезный инструмент, другие опасаются их негативных последствий, таких как ошибки в медицинских данных. Тем не менее, научным сообществом признаётся, что потенциал ИИ для ускорения научных открытий огромен.

В работе ChatGPT произошёл глобальный сбой

ChatGPT перестал работать у многих пользователей по всему миру. Многочисленные сообщения в социальных сетях, а также наша собственная проверка показали, что чат-бот загружается, но не отвечает на запросы. Также многие пользователи видят сообщение о «внутренней ошибке сервера».

Похоже, что перебои начались примерно в 21:30 по московскому времени. Именно тогда на Down Detector начали появляться сообщения. В 22:00 по московскому времени OpenAI опубликовала обновление на странице состояния своих сервисов, сообщив, что ChatGPT, его API и генератор видео по текстовому описанию Sora «в настоящее время испытывают высокий уровень ошибок». В обновлении, опубликованном в 22:18 по московскому времени, говорится, что проблема «вызвана вышестоящим провайдером» и что OpenAI в настоящее время отслеживает ситуацию.

В 23:06 по московскому времени OpenAI заявила, что «продолжает работать над исправлением». О сроках восстановления полной работоспособности сервисов пока ничего не говорится.

За последние несколько месяцев ChatGPT уже несколько раз выходил из строя. Всего через несколько дней после того, как OpenAI выпустила Sora для платных подписчиков ChatGPT в начале этого месяца, инструмент для создания видео и ChatGPT вышли из строя на несколько часов. Между тем, в июне ChatGPT был выведен из строя в результате широкомасштабного сбоя.

Captcha стала бесполезной: ИИ-боты научились проходить тесты на человечность быстрее, чем люди

Современные технологии искусственного интеллекта (ИИ) поставили под сомнение эффективность привычных инструментов защиты от ботов в интернете. Прохождение тестов капчи (Captcha), созданные для того, чтобы отличать людей от машин, больше не справляются с этой задачей, утверждает издание The Conversation. Сегодня боты способны решать эти головоломки быстрее и точнее, чем люди.

 Источник изображения: Google

Источник изображения: Google

Капча, появившаяся в начале 2000-х годов, была изобретена учёными из Университета Карнеги-Меллон. Изначально она была разработана для защиты сайтов от автоматизированных программ — ботов, которые создавали фальшивые аккаунты или, например, скупали билеты и распространяли спам. Принцип работы был очень прост: человек должен был выполнить задание, которое легко для людей, но сложно для машин.

Первая версия капчи предлагала пользователям вводить буквы и цифры. Позже, в 2007 году, появилась ReCaptcha, где к задачам добавились слова. В 2014 году Google выпустила ReCaptcha v2, которая до сих пор остаётся самой популярной. Она предлагает либо отметить галочку «Я не робот», либо выбрать верные изображения, например, с велосипедами или светофорами.

Однако ИИ-системы научились капчу обходить. Технологии компьютерного зрения и обработки языка позволяют машинам с лёгкостью «читать» искажённый текст и распознавать объекты на изображениях. Например, ИИ-инструменты, такие как Google Vision и OpenAI Clip, решают подобные задачи за доли секунды, тогда как человеку требуется гораздо больше времени. И это уже становится проблемой в реальной жизни. Боты используются для скупки билетов на спортивные матчи или массового бронирования мест, лишая тем самым доступа к покупке билетов обычных пользователей. Например, в Великобритании автоматизированные программы массово резервируют места на экзамены по вождению, чтобы затем их перепродавать с большой наценкой.

Тем не менее, разработчики пытаются адаптироваться к новым вызовам. Так, в 2018 году Google представила ReCaptcha v3, которая больше не требует от пользователей решать головоломки. Вместо этого система анализирует поведение на сайте — движение курсора, скорость набора текста и другие детали, характерные только для человека.

Однако выяснилось, что и такие методы не идеальны. Во-первых, они вызывают вопросы о конфиденциальности данных, так как требуют сбора информации о пользователях. Например, некоторые сайты уже начали использовать биометрические данные для проверки пользователей, такие как отпечатки пальцев, голосовые команды или идентификацию по лицу.

Во-вторых, даже эти системы уже могут обходиться продвинутыми ИИ, а с появлением ИИ-агентов — программ, которые будут выполнять задачи от имени пользователей, ситуация может усложниться ещё больше. В будущем сайтам потребуется различать «хороших» ботов, работающих на благо пользователей, и «плохих», которые нарушают правила. Одним из возможных решений может стать введение цифровых сертификатов для аутентификации, но пока они находятся на стадии разработки.

То есть, борьба между ботами и системами защиты продолжается. Captcha, которая когда-то была надёжным инструментом, теряет свою эффективность, а разработчикам предстоит найти новые способы защиты, которые будут одновременно удобными для пользователей и недоступными для злоумышленников.

Alibaba представила открытую ИИ-модель, которая лучше OpenAI

Китайская компания Alibaba представила модель искусственного интеллекта с открытым исходным кодом под названием QwQ-32B-Preview. Модель способна решать сложные логические и математические задачи, содержит 32,5 миллиарда параметров и может обрабатывать запросы длиной до 32 000 слов. По тестам, проведённым Alibaba, QwQ-32B-Preview превосходит модели o1-preview и o1-mini от OpenAI в ряде показателей.

 Источник изображения: Copilot

Источник изображения: Copilot

Одним из ключевых преимуществ QwQ-32B-Preview, как сообщает TechCrunch, является её производительность в тестах AIME и MATH. Тест AIME оценивает работу модели с помощью других искусственных интеллектов, а MATH представляет собой набор текстовых математических задач. Благодаря своим особенностям, этот ИИ-бот способен решать сложные задачи и логические головоломки. Однако отмечается, что QwQ-32B-Preview не лишена недостатков: она может неожиданно менять язык общения, зацикливаться на некоторых моментах и хуже справляется с заданиями, когда требуется задействовать здравый смысл.

Интересной особенностью QwQ-32B-Preview является способность «проверять саму себя». Это помогает избегать ошибок-ловушек, свойственных другим системам искусственного интеллекта, однако замедляет процесс нахождения решений. Как и модели o1 от OpenAI, новая разработка Alibaba решает задачи поэтапно, постепенно анализируя и планируя дальнейшие шаги.

Несмотря на то, что QwQ-32B-Preview доступна для скачивания на платформе Hugging Face под лицензией Apache 2.0 (свободное программное обеспечение), что позволяет использовать её в коммерческих целях, Alibaba раскрыла лишь часть компонентов модели, тем самым не позволяя изучить внутренние механизмы работы алгоритма. Таким образом, несмотря на заявления об «открытости», модель остаётся промежуточным вариантом между закрытыми и открытыми системами (open source license).

Китайское происхождение модели также накладывает определённые ограничения. Как и другие разработки из Китая, QwQ-32B-Preview следует требованиям местного регулятора, который проверяет ИИ на соответствие «основным социалистическим ценностям». На вопросы политического характера, связанных с Китаем, модель отвечать откажется.

Стоит сказать, что интерес к «рассуждающим» моделям растёт на фоне снижения эффективности традиционного подхода к увеличению возможностей ИИ, основанного на простом масштабировании данных и вычислительных мощностей. Компании, такие как OpenAI, Google и Anthropic, всё чаще сталкиваются с замедлением прогресса своих технологий, что в свою очередь, стимулирует разработчиков искать новые подходы, например, такие как «вычисления на этапе выполнения» (test-time compute), которые дают моделям дополнительное время для обработки задач. При этом крупные лаборатории, включая Google, активно инвестируют в развитие подобных технологий, что подтверждает их ключевую роль в будущем искусственного интеллекта.

Справится даже ребёнок: роботы на базе ИИ оказались совершенно неустойчивы ко взлому

Новое исследование IEEE показало, что взломать роботов с искусственным интеллектом так же просто, как и обмануть чат-ботов. Учёные смогли заставить роботов выполнять опасные действия с помощью простых текстовых команд.

 Источник изображения: Copilot

Источник изображения: Copilot

Как пишет издание HotHardware, если для взлома устройств вроде iPhone или игровых консолей требуются специальные инструменты и технические навыки, то взлом больших языковых моделей (LLM), таких как ChatGPT, оказывается гораздо проще. Для этого достаточно создать сценарий, который обманет ИИ, заставив его поверить, что запрос находится в рамках дозволенного или что запреты можно временно игнорировать. Например, пользователю достаточно представить запрещённую тему как часть якобы безобидного рассказа «от бабушки на ночь», чтобы модель выдала неожиданный ответ, включая инструкции по созданию опасных веществ или устройств, которые должны быть системой немедленно заблокированы.

Оказалось, что взлом LLM настолько прост, что с ним могут справится даже обычные пользователи, а не только специалисты в области кибербезопасности. Именно поэтому инженерная ассоциация из США — Институт инженеров электротехники и электроники (IEEE) — выразила серьёзные опасения после публикации новых исследований, которые показали, что аналогичным образом можно взломать и роботов, управляемых искусственным интеллектом. Учёные доказали, что кибератаки такого рода способны, например, заставить самоуправляемые транспортные средства целенаправленно сбивать пешеходов.

Среди уязвимых устройств оказались не только концептуальные разработки, но и широко известные. Например, роботы Figure, недавно продемонстрированные на заводе BMW, или роботы-собаки Spot от Boston Dynamics. Эти устройства используют технологии, аналогичные ChatGPT, и могут быть обмануты через определённые запросы, приведя к действиям, полностью противоречащим их изначальному назначению.

В ходе эксперимента исследователи атаковали три системы: робота Unitree Go2, автономный транспорт Clearpath Robotics Jackal и симулятор беспилотного автомобиля NVIDIA Dolphins LLM. Для взлома использовался инструмент, который автоматизировал процесс создания вредоносных текстовых запросов. Результат оказался пугающим — все три системы были успешно взломаны за несколько дней со 100-% эффективностью.

В своём исследовании IEEE приводит также цитату учёных из Университета Пенсильвании, которые отметили, что ИИ в ряде случаев не просто выполнял вредоносные команды, но и давал дополнительные рекомендации. Например, роботы, запрограммированные на поиск оружия, предлагали также использовать мебель как импровизированные средства для нанесения вреда людям. Эксперты подчёркивают, что, несмотря на впечатляющие возможности современных ИИ-моделей, они остаются лишь предсказательными механизмами без способности осознавать контекст или последствия своих действий. Именно поэтому контроль и ответственность за их использование должны оставаться в руках человека.


window-new
Soft
Hard
Тренды 🔥
Valve заблокировала игру в российском Steam по требованию Роскомнадзора 2 ч.
Meta рассказала, как скачивать контент через торренты, но не стать пиратом 2 ч.
Corsair прояснила заявление о релизе ПК-версии GTA VI в начале 2026 года 3 ч.
Роскомнадзор принудительно записал Cloudflare в организаторы распространения информации 4 ч.
«Небольшой, но искренний прогресс»: DeepSeek откроет для всех пять ИИ-репозиториев 4 ч.
Видео: прохождение пролога ремейка первой Gothic и получасовая демонстрация русской озвучки 5 ч.
Политический триллер в 1613 году: сюжетное дополнение «Земский собор» к «Смуте» получило первый трейлер и новые подробности 6 ч.
Разработчики Warhammer 40,000: Space Marine 2 сделают AAA-игру по одной из главных франшиз владельца D&D, MTG и «Трансформеров» 7 ч.
Microsoft представила ИИ-агента Magma для управления приложениями и реальными роботами 8 ч.
ИИ начал «отбирать» премии у сотрудников Meta 8 ч.