Сегодня 07 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Исследователи нашли способ масштабирования ИИ без дополнительного обучения, но это не точно

Группа исследователей предложила новый метод масштабирования искусственного интеллекта (ИИ). Речь идёт о так называемом «поиске во время вывода», который позволяет модели генерировать множество ответов на запрос и выбирать лучший из них. Этот подход может повысить производительность моделей без дополнительного обучения. Однако сторонние эксперты усомнились в правильности идеи.

 Источник изображения: сгенерировано AI

Источник изображения: сгенерировано AI

Ранее основным способом улучшения ИИ было обучение больших языковых моделей (LLM) на всё большем объёме данных и увеличение вычислительных мощностей при запуске (тестировании) модели. Это стало нормой, а точнее сказать, законом для большинства ведущих ИИ-лабораторий. Новый метод, предложенный исследователями, заключается в том, что модель генерирует множество возможных ответов на запрос пользователя и затем выбирает лучший. Как отмечает TechCrunch, это позволит значительно повысить точность ответов даже у не очень крупных и устаревших моделей.

В качестве примера учёные привели модель Gemini 1.5 Pro, выпущенную компанией Google в начале 2024 года. Утверждается, что, используя технику «поиска во время вывода» (inference-time search), эта модель обошла мощную o1-preview от OpenAI по математическим и научным тестам. Один из авторов работы, Эрик Чжао (Eric Zhao), подчеркнул: «Просто случайно выбирая 200 ответов и проверяя их, Gemini 1.5 однозначно обходит o1-preview и даже приближается к o1».

Тем не менее, эксперты посчитали эти результаты предсказуемыми и не увидели в методе революционного прорыва. Мэтью Гуздиал (Matthew Guzdial), исследователь ИИ из Университета Альберты, отметил, что метод работает только в тех случаях, когда можно чётко определить правильный ответ, а в большинстве задач это невозможно.

С ним согласен и Майк Кук (Mike Cook), исследователь из Королевского колледжа Лондона. По его словам, новый метод не улучшает способность ИИ к рассуждениям, а лишь помогает обходить существующие ограничения. Он пояснил: «Если модель ошибается в 5 % случаев, то, проверяя 200 вариантов, эти ошибки просто станут более заметны». Основная проблема состоит в том, что метод не делает модели умнее, а просто увеличивает количество вычислений для поиска наилучшего ответа. В реальных условиях такой подход может оказаться слишком затратным и малоэффективным.

Несмотря на это, поиск новых способов масштабирования ИИ продолжается, поскольку современные модели требуют огромных вычислительных ресурсов, а исследователи стремятся найти методы, которые позволят повысить уровень рассуждений ИИ без чрезмерных затрат.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Россияне массово пожаловались на сбой в работе «Госуслуг» 52 мин.
В WhatsApp добавят шумоподавление для голосовых и видеозвонков 59 мин.
Project Prometheus Безоса переманил из OpenAI сооснователя xAI для создания ИИ, понимающего физический мир 2 ч.
YouTube-блогера подали на Apple в суд, обвинив в незаконном обучении ИИ на их роликах 2 ч.
Инсайдер предупредил о переносе Tomb Raider: Legacy of Atlantis — ремейк классической Tomb Raider не выйдет в 2026 году 2 ч.
Навайбкодили: Apple App Store захлестнул поток приложений, созданных с помощью ИИ 2 ч.
В Германии раскрыли лидеров хакерских группировок REvil и GandCrab — это граждане России 2 ч.
Ваш ход: спустя 11 лет в Pillars of Eternity наконец появился пошаговый режим 2 ч.
Вокруг Сэма Альтмана разгорелся мощный скандал — расследование показало, что он социопат и патологический лжец 3 ч.
Инсайдер рассказал, что происходит с нелинейным боевиком Star Wars Eclipse от создателей Detroit: Become Human 5 ч.