Сегодня 23 сентября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Для обучения GPT-5 не хватит качественных данных из всего интернета

Разработчики передовых моделей искусственного интеллекта столкнулись с неожиданной проблемой — нехваткой качественного материала для их обучения. Ситуация усугубляется тем, что некоторые ресурсы блокируют доступ ИИ к своим данным. По словам исследователей, попытки обучать ИИ на материалах других моделей и прочем «синтетическом контенте» могут обернуться «большими проблемами».

 Источник изображения: Steve Johnson / unsplash.com

Источник изображения: Steve Johnson / unsplash.com

Учёные и руководители компаний-разработчиков ИИ обеспокоены, что в ближайшие два года качественных текстов может не хватить для дальнейшего обучения больших языковых моделей (LLM), что замедлит развитие отрасли. Разрабатывающая ChatGPT компания OpenAI уже рассматривает возможность обучения GPT-5 на транскрипциях публичных роликов на YouTube.

Языковые модели ИИ собирают тексты из интернета — научные исследования, новости, статьи из «Википедии» — и разбивают их на отдельные слова или их части, используя их, чтобы научиться отвечать как человек. Чем больше входящих данных, тем лучше результат — именно на это уповала OpenAI, что помогло ей стать одним из лидеров отрасли. По словам изучающего искусственный интеллект в Исследовательском институте Epoch Пабло Вильялобоса (Pablo Villalobos), GPT-4 обучался на 12 триллионах токенов данных, а в соответствии с законами масштабирования Шиншиллы, ИИ вроде GPT-5 потребуется 60–100 триллионов токенов. Если собрать все высококачественные текстовые и графические данные в интернете, для обучения GPT-5 не хватит от 10 до 20 триллионов токенов, а может и больше — и пока непонятно, где их взять. Два года назад Вильялобос и другие исследователи уже предупреждали, что к середине 2024 года с вероятностью 50 % ИИ уже не будет хватать данных для обучения, к 2026 — с вероятностью 90 %.

По словам учёных, большинство данных в интернете непригодно для обучения ИИ, поскольку содержит бессвязный текст или не добавляет новой информации к уже имеющейся. Для этой цели подходит лишь малая часть материала — примерно десятая доля собранного некоммерческой организацией Common Crawl, чей веб-архив широко используется разработчиками ИИ. Тем временем, крупные платформы вроде социальных сетей и новостных агентств закрывают доступ к своим данным, а общественность не горит желанием открывать личную переписку для обучения языковых моделей. Марк Цукерберг (Mark Zuckerberg) считает огромным преимуществом в разработке ИИ доступ Meta к данным на своих платформах, среди которых текст, изображения и видео — правда, трудно сказать, какую долю этих материалов можно считать качественной.

 Ари Моркос. Источник изображения: arimorcos.com

Ари Моркос. Источник изображения: arimorcos.com

Стартап DatologyAI пытается бороться с нехваткой контента, используя методику «учебного плана», согласно которой данные «скармливаются» ИИ в определённом порядке, помогающем установить связь между ними. В опубликованной в 2022 году работе бывшего сотрудника Meta Platform и Google DeepMind, а ныне основателя DatologyAI Ари Моркоса (Ari Morcos) подсчитано, что данный подход помогает добиваться сопоставимых успехов в обучении ИИ при сокращении входящих данных вдвое. Впрочем, другие исследования эти данные не подтвердили.

Сэм Альтман (Sam Altman) также рассказал, что OpenAI разрабатывает новые методики обучения ИИ. По слухам, в стенах компании обсуждается возможность создания рынка данных, на котором бы определялась ценность конкретных материалов для каждой модели и справедливая цена, которую можно за них заплатить. Эта же идея обсуждается в Google, однако конкретных подвижек в этом направлении пока нет, поэтому компании-разработчики ИИ стараются дотянутся до всего, что только можно, в том числе видео- и аудиоматериалов — по словам источников в OpenAI, их собираются расшифровывать инструментом распознавания речи Whisper.

 Сэм Альтман. Источник изображения: wikipedia.org

Сэм Альтман. Источник изображения: wikipedia.org

Исследователи из OpenAI и Anthropic экспериментируют с так называемыми «высококачественными синтетическими данными». В недавнем интервью главный научный сотрудник Anthropic Джаред Каплан (Jared Kaplan) сказал, что подобные «сгенерированные внутри компании данные» могут быть полезные и использовались в последних версиях Claude. Пресс-секретарь OpenAI также подтвердил подобные разработки.

Многие исследователи проблемы нехватки данных не верят, что смогут с ней справиться, однако Вильялобос не теряет оптимизма, и верит, что впереди ещё много открытий. «Самая большая неопределённость в том, что мы не знаем, какие революционные открытия ещё предстоят», — сказал он.

По словам Ари Моркоса, нехватка данных — одна из важнейших проблем отрасли. Однако её развитие тормозит не только это — необходимые для работы больших языковых моделей чипы также в дефиците, а лидеры отрасли обеспокоены нехваткой центров обработки данных и электроэнергии.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Huawei HarmonyOS уже шестой квартал подряд остаётся популярнее Apple iOS в Китае 42 мин.
Разработчики Palworld анонсировали Palworld: Palfarm — уютный симулятор фермерской жизни, где можно сыграть в русскую рулетку 2 ч.
Белорусы теперь могут оплачивать покупки на Wildberries криптовалютой, но есть нюансы 2 ч.
OpenAI запустила подписку ChatGPT Go дешевле $5 в месяц в ещё одной стране 2 ч.
Постаревший Леон, приземлённый экшен и как никогда амбициозная история: инсайдер раскрыл новые подробности Resident Evil Requiem 3 ч.
Исполнитель роли Тревора в GTA V оказался равнодушен к GTA VI и призвал геймеров читать Достоевского 3 ч.
«Яндекс» поселил «Алису» на флагманском ИИ в мессенджерах Max и Telegram 4 ч.
Google снова попытаются разорвать на части — Минюст США потребовал отделения рекламного бизнеса 5 ч.
Производитель Peugeot, Opel и Fiat заявил об утечке данных клиентов после хакерской атаки 6 ч.
Крупнейшие корпорации заливают миллиарды в ИИ, даже не понимая, зачем им это нужно 7 ч.
За ИИ в дальнюю дорогу: Китай строит собственный децентрализованный вариант Stargate 12 мин.
Bang & Olufsen выпустила наушники-затычки Beo Grace за $1500 и чехол для них за $400 12 мин.
Учёные впервые засекли сигнал из другой Вселенной, но это не точно 17 мин.
DDR5 раскочегарили до 13 020 МГц — очередной рекорд разгона ОЗУ пока не подтверждён 2 ч.
В Южной Корее создали самые лучшие подводные солнечные элементы 2 ч.
Красный флаг для «красной» компании — Moody's раскритиковало эпохальный план Oracle по созданию ИИ ЦОД 3 ч.
Мечта Маска забуксовала: роботакси Tesla в Калифорнии будут вовсе не беспилотными и не совсем такси 4 ч.
Huawei собралась за три года догнать Nvidia в сфере ИИ, завалив рынок ускорителями Ascend и не только 4 ч.
SoftBank, Meta и др. проложат между Японией и Сингапуром подводный интернет-кабель Candle длиной 8 тыс. км 4 ч.
Найдётся всё: Китай запустил самый мощный в мире георадар, от которого в толще Земли ничего не скроется 4 ч.