Сегодня 03 июня 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Для обучения ИИ-модели Google PaLM 2 использовали впятеро больше текстовых данных, чем для предыдущей

Анонсированная на прошлой неделе большая языковая модель Google PaLM 2 была обучена на объёме, который в пять раз превышает аналогичный показатель модели 2022 года. Это позволяет новой нейросети решать более сложные задачи по программированию, математике и написанию текстов, выяснили журналисты CNBC.

 Источник изображения: blog.google

Источник изображения: blog.google

При обучении Google PaLM 2 было использовано 3,6 трлн токенов — эти элементы обучения больших языковых моделей помогают нейросетям предсказывать последующие слова в последовательностях. Алгоритмы предсказания, в свою очередь, позволяют большим языковым моделям составлять связные фразы. Предыдущую её версию, Google PaLM, которая была выпущена в 2022 году, обучили на 780 млрд токенов.

На прошедшем мероприятии Google I/O компания активно демонстрировала возможности искусственного интеллекта при его интеграции в поиск, электронную почту, работу с текстовыми документами и электронными таблицами, но не сообщала подробностей об объемах обучающих данных. Аналогичной стратегии предпочла придерживаться компания OpenAI, недавно представившая GPT-4. Свои действия компании объясняют конкурентным характером бизнеса, а общественность настаивает на большей прозрачности в отношении ИИ.

Google всё же рассказала, что новая модель оказалась меньше предыдущих, то есть эффективность технологии при выполнении более сложных задач выросла. PaLM 2, согласно внутренним документам компании, обучена на 340 млрд параметров, тогда как у первой версии их было 540 млрд — это свидетельствует, что увеличилась сложность модели. В компании подтвердили, что PaLM 2 обучена сотне языков, и это позволяет ей интегрироваться в 25 функций и продуктов экосистемы Google, включая экспериментальный чат-бот Bard.

Google PaLM 2, если верить общедоступным данным, может оказаться мощнее всех существующих моделей. Для сравнения, анонсированная в феврале Meta LlaMA обучена на 1,4 трлн токенов; OpenAI, когда ещё делилась информацией, докладывала, что GPT-3 обучалась на 300 млрд токенов; а представленная ещё два года назад Google LaMDA была обучена на 1,5 трлн токенов.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Gigabyte представила видеокарту GeForce RTX 4070 Ti Super AI TOP с «турбиной» для ИИ-систем 15 мин.
Asus представила ноутбуки Zenbook и ProArt с чипами Ryzen AI 300, а также планшет на Snapdragon X Elite 23 мин.
Asus представила игровые ноутбуки TUF с процессорами Ryzen AI 9 и графикой GeForce RTX 40-й серии 2 ч.
Смарт-модуль Quectel SG368Z с поддержкой Wi-Fi 5 и Bluetooth 4.2 выполнен на процессоре Rockchip RK3568 2 ч.
Asus представила ноутбуки Vivobook S на мощных ИИ-чипах Ryzen AI, Core Ultra и Snapdragon X Elite 3 ч.
Гибкие смартфоны захватят всего 1,5 % в этом году, а Samsung сохранит лидерство — аналитики TrendForce 3 ч.
Российское производство блоков питания и корпусов загружено лишь на 20 % — китайские аналоги обходятся дешевле 3 ч.
Dell прогнозирует рост цен на 20 % на DRAM и SSD до конца 2024 года 3 ч.
Первый пилотируемый полёт космического корабля Boeing Starliner отложен до среды 3 ч.
AMD представила мощнейший ИИ-ускоритель MI325X с 288 Гбайт HBM3e и рассказала про MI350X на архитектуре CDNA4 4 ч.