Сегодня 16 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Meta✴ представила нейросеть Llama 3 — «самую способную открытую LLM на сегодняшний день»

Meta представила Llama 3 — большую языковую модель нового поколения, которую без лишней скромности называет «самой способной LLM с открытым исходным кодом». Компания выпустила две версии: Llama 3 8B и Llama 3 70B соответственно с 8 и 70 миллиардами параметров. По словам компании, новые ИИ-модели значительно превосходят соответствующие модели прошлого поколения и являются одними из лучших моделей для генеративного ИИ из ныне существующих.

 Источник изображения: vecstock / freepik.com

Источник изображения: vecstock / freepik.com

В подтверждение своих слов Meta приводит результаты популярных тестов MMLU (знания), ARC (способность к обучению) и DROP (анализ фрагментов текста). Llama 3 8B превосходит другие модели своего класса с открытым исходным кодом, такие как Mistral 7B от Mistral и Gemma 7B от Google с 7 миллиардами параметров, по крайней мере в девяти тестах: MMLU, ARC, DROP, GPQA (вопросы по биологии, физике и химии), HumanEval (тест на генерацию кода), GSM-8K (математические задачи), MATH (ещё один математический тест), AGIEval (набор тестов на решение задач) и BIG-Bench Hard (оценка рассуждений на основе здравого смысла).

Источник изображений: Meta

Mistral 7B и Gemma 7B уже не назвать современными, при этом в некоторых тестах Llama 3 8B не показывает значимого превосходства над ними. Однако куда сильнее Meta гордится более продвинутой моделью, Llama 3 70B, которую ставит в один ряд с другими флагманскими моделями для генеративных ИИ, включая Gemini 1.5 Pro — самую продвинутую в линейке Gemini от Google. Llama 3 70B опережает Gemini 1.5 Pro в тестах MMLU, HumanEval и GSM-8K, но уступает передовой модели Claude 3 Opus от Anthropic, превосходя лишь слабейшую модель серии, Sonnet, в пяти тестах: MMLU, GPQA, HumanEval, GSM-8K и MATH. Meta также разработала собственный набор тестов, от написания текстов и кода до обобщений и выводов, в котором Llama 3 70B обошла Mistral Medium, GPT-3.5 от OpenAI и Claude Sonnet от Anthropic.

По словам Meta, новые модели более «управляемы», реже отказываются отвечать на вопросы и в целом выдают более точную информацию, в том числе в некоторых научных областях, что, вероятно, обосновано огромным количеством данных, использованных для их обучения: 15 триллионов токенов и 750 миллиардов слов, что в семь раз больше, чем в случае с Llama 2.

Откуда столько данных? Meta ограничилась заверением, что все они взяты из «общедоступных источников». При этом в наборе данных для обучения Llama 3 содержалось в четыре раза больше кода в сравнении с использованным для Llama 2, а 5 % набора составляли данные на 30 отличных от английского языках, чтобы улучшить работу с ними. Кроме того, использовались синтетические данные, то есть полученные от других ИИ-моделей.

«Наши текущие ИИ-модели настроены отвечать лишь на английском, но мы обучаем их с использованием данных на других языках, чтобы ИИ лучше распознавал нюансы и закономерности», — прокомментировала Meta.

Вопрос необходимого количества данных для дальнейшего обучения ИИ в последнее время поднимается особенно часто, и Meta уже успела подпортить репутацию на этом поприще. Не так давно сообщалось, что Meta в погоне за конкурентами «скармливала» ИИ защищённые авторским правом электронные книги, хотя юристы компании предупреждали о возможных последствиях.

Что касается безопасности, Meta встроила в новое поколение собственных ИИ-моделей несколько протоколов безопасности, таких как Llama Guard и CybersecEval, чтобы бороться с неправомерным использованием ИИ. Компания также выпустила специальный инструмент Code Shield для анализа безопасности кода открытых моделей генеративных ИИ, позволяющий обнаружить потенциальные уязвимости. Известно, что ранее эти же протоколы не уберегли Llama 2 от недостоверных ответов и выдачи персональной медицинской и финансовой информации.

Но и это ещё не всё. Meta обучает модель Llama 3 с 400 миллиардами параметров — она сможет разговаривать на разных языках и принимать больше входящих данных, в том числе работать с изображениями. «Мы стремимся сделать Llama 3 многоязычной и мультимодальной моделью, умеющей учитывать больше контекста. Мы также стараемся улучшить производительность и расширить возможности языковой модели в рассуждениях и написании кода», — сказали в Meta.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
«О чём, чёрт возьми, они думали?»: создатель God of War жёстко раскритиковал метроидванию God of War: Sons of Sparta 6 мин.
Кошачий роглайк Mewgenics от автора The Binding of Isaac опередил Hades 2 по пиковому онлайну в Steam и взял курс на консоли 2 ч.
Alibaba, ByteDance и Kuaishou представили ряд новых ИИ-моделей — от роботов до киношного видео 3 ч.
Инсайдеры: следующая большая игра режиссёра God of War выйдет в 2027 году, а анонс уже не за горами 3 ч.
«Базис» переходит на импортонезависимую платформу «Диво» от экосистемы «Лукоморье» 3 ч.
Apple оптимизирует код и интерфейс iOS 27 для улучшения автономности устройств 13 ч.
В эвакуационном шутере Marathon не будет системы подбора рейдов из Arc Raiders, разделяющей агрессивных и мирных игроков 16 ч.
Анонсирована Layers of Fear 3 — новая часть серии психологических хорроров о выживших из ума творческих личностях 19 ч.
Новая статья: Code Vein 2 — от отличного к странному. Рецензия 15-02 00:04
Новая статья: Gamesblender № 763: ремейк God of War, «Джон Уик», новая Silent Hill — анонсы State of Play 14-02 23:31
Попутного ветра: AWS резко сократила развёртывание СЖО для Trainium3, решив обойтись преимущественно воздушным охлаждением 20 мин.
Европа доказала, что может создать собственный серверный CPU — на архитектуре RISC-V и техпроцессе Intel 3 2 ч.
Китайская Montage Technology выпустила серверные процессоры Jintide на базе Intel Xeon 6 2 ч.
Мировой рынок оптических коммутаторов к 2029 году достигнет $2,5 млрд, но львиная доля всё равно придётся на Google 3 ч.
Оперативная память для ПК перестала дорожать, но модули для ноутбуков взлетели на 23 % за месяц 6 ч.
IT-индустрия разогнала увольнения до 30 тыс. сотрудников за январь — 2026-й рискует побить антирекорд 7 ч.
CXMT и YMTC пропали из американского «чёрного списка» по ошибке — документ уже исправляют 9 ч.
Разработчик китайских Xeon провёл IPO в Гонконге — Montage Technology привлекла почти $1 млрд 12 ч.
Новая статья: Обзор Ryzen 7 9850X3D: три процента за двадцать баксов 12 ч.
Японская Rapidus начнёт массовое производство 2-нм чипов в 2027 году 14 ч.