Сегодня 14 апреля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Исследователи нашли способ масштабирования ИИ без дополнительного обучения, но это не точно

Группа исследователей из Google и Калифорнийского университета в Беркли предложила новый метод масштабирования искусственного интеллекта (ИИ). Речь идёт о так называемом «поиске во время вывода», который позволяет модели генерировать множество ответов на запрос и выбирать лучший из них. Этот подход может повысить производительность моделей без дополнительного обучения. Однако сторонние эксперты усомнились в правильности идеи.

 Источник изображения: сгенерировано AI

Источник изображения: сгенерировано AI

Ранее основным способом улучшения ИИ было обучение больших языковых моделей (LLM) на всё большем объёме данных и увеличение вычислительных мощностей при запуске (тестировании) модели. Это стало нормой, а точнее сказать, законом для большинства ведущих ИИ-лабораторий. Новый метод, предложенный исследователями, заключается в том, что модель генерирует множество возможных ответов на запрос пользователя и затем выбирает лучший. Как отмечает TechCrunch, это позволит значительно повысить точность ответов даже у не очень крупных и устаревших моделей.

В качестве примера учёные привели модель Gemini 1.5 Pro, выпущенную компанией Google в начале 2024 года. Утверждается, что, используя технику «поиска во время вывода» (inference-time search), эта модель обошла мощную o1-preview от OpenAI по математическим и научным тестам. Один из авторов работы, Эрик Чжао (Eric Zhao), подчеркнул: «Просто случайно выбирая 200 ответов и проверяя их, Gemini 1.5 однозначно обходит o1-preview и даже приближается к o1».

Тем не менее, эксперты посчитали эти результаты предсказуемыми и не увидели в методе революционного прорыва. Мэтью Гуздиал (Matthew Guzdial), исследователь ИИ из Университета Альберты, отметил, что метод работает только в тех случаях, когда можно чётко определить правильный ответ, а в большинстве задач это невозможно.

С ним согласен и Майк Кук (Mike Cook), исследователь из Королевского колледжа Лондона. По его словам, новый метод не улучшает способность ИИ к рассуждениям, а лишь помогает обходить существующие ограничения. Он пояснил: «Если модель ошибается в 5 % случаев, то, проверяя 200 вариантов, эти ошибки просто станут более заметны». Основная проблема состоит в том, что метод не делает модели умнее, а просто увеличивает количество вычислений для поиска наилучшего ответа. В реальных условиях такой подход может оказаться слишком затратным и малоэффективным.

Несмотря на это, поиск новых способов масштабирования ИИ продолжается, поскольку современные модели требуют огромных вычислительных ресурсов, а исследователи стремятся найти методы, которые позволят повысить уровень рассуждений ИИ без чрезмерных затрат.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
В Steam, GOG и на консолях Xbox стартовала бесплатная раздача Metro 2033 Redux — в том числе для российских игроков 20 мин.
Google создала ИИ-модель DolphinGemma для общения с дельфинами 2 ч.
«Вы не можете спланировать фильм такого масштаба по Zoom»: режиссёр «Бордерлендс» объяснил провал экранизации 2 ч.
Начался процесс, который грозит Meta потерей Instagram и WhatsApp, а также многомиллиардными убытками 3 ч.
Google устранила уязвимость в Chrome, существовавшую 23 года 5 ч.
Аудитория ChatGPT приблизилась к миллиарду пользователей благодаря аниме-картинкам 7 ч.
Почти половина любителей мобильных игр играет в них в рабочее время 7 ч.
Сооснователь Troika раскрыл детали вырезанного мультиплеера Vampire: The Masquerade — Bloodlines, который был вдохновлён Counter-Strike 7 ч.
Чистая прибыль «Солар» за 2024 год достигла 1,3 млрд руб. 8 ч.
Начинающие разработчики ИИ-приложений привлекли рекордные $8,2 млрд инвестиций за прошлый год 8 ч.