Сегодня 12 августа 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → llama 4
Быстрый переход

Лаборатория суперинтеллекта Цукерберга обрела имя TBD Labs и первые проекты

У широко разрекламированного нового подразделения Meta Platforms, занимающегося разработкой суперинтеллекта и новой версии ИИ-модели Llama, появилось официальное название. Команда разработчиков получила название TBD Labs, начальный проект и быстро растущий список сотрудников, в том числе привлечённых из других компаний.

 Источник изображения: Steve Johnson / unsplash.com

Источник изображения: Steve Johnson / unsplash.com

Ранее Meta объявила о намерении объединить усилия в области искусственного интеллекта внутри подразделения Meta Superintelligence Labs (MSL). По словам главы Meta Марка Цукерберга (Mark Zuckerberg), подразделение MSL, на которое возложена миссия «предоставить доступ к персональному суперинтеллекту каждому», находится под руководством Александра Вана (Alexandr Wang), присоединившегося к компании в рамках сделки по покупке доли в его бывшем ИИ-стартапе Scale AI.

Новое подразделение Meta находится в авангарде создания суперинтеллекта, который должен стать умнее любого человека. Для достижения этой цели гигант социальных сетей переманил талантливых разработчиков из конкурирующих компаний, некоторые из которых получили десятки и даже сотни миллионов долларов. TBD Labs также возглавляет работу над новейшей версией ИИ-модели Llama.

По данным источника, на прошлой неделе Ван разослал подчинённым письмо, в котором сообщил, что их подразделение будет работать вместе с другими командами разработчиков компании в сфере ИИ над реализацией различных проектов, включая выпуски основных ИИ-моделей, расширение возможностей моделирования и создание ИИ-агентов. «За последний месяц я увидел значительный прогресс в каждом из этих направлений сотрудничества. Это позволяет нам быть более амбициозными в техническом плане, проводить параллельную работу над несколькими отдельными проектами и в конечном итоге быстрее достигать передовых результатов», — говорится в сообщении Вана.

Разработку новой версии Llama возглавил Джек Рэй (Jack Ray), который пришёл в TBD Labs из Google. По словам осведомлённых источников, разработка Llama ведётся совместными усилиями команд Meta Llama и TBD Labs. У новой ИИ-модели пока нет официального названия, но разработчики называют её Llama 4.5 или Llama 4.X.

Отметим, что Meta продолжает делать значительные инвестиции в разработку суперинтеллекта. Для этих целей компания активно переманивала талантливых разработчиков у конкурентов, предлагая некоторым из них выплаты в размере сотен миллионов долларов и как минимум в двух случаях в размере миллиарда долларов в течение нескольких лет. По данным источника, Meta переманила не менее 18 разработчиков из OpenAI и нескольких из Google.

Meta✴ не будет открывать исходный код всех своих ИИ-моделей «суперинтеллекта» — это не безопасно

Meta может изменить свой подход к публикации исходного кода ИИ-моделей, включая так называемый «персональный суперинтеллект». По словам гендиректора компании Марка Цукерберга (Mark Zuckerberg), не у всех разработок будет открытый исходный код, потому что это небезопасно. Его слова приводит TechCrunch.

 Источник изображения: Steve Johnson / unsplash.com

Источник изображения: Steve Johnson / unsplash.com

«Мы считаем, что преимуществами суперинтеллекта нужно делиться со всем миром как можно более широко, однако суперинтеллект ставит новые вопросы безопасности, — написал Цукерберг в письме. — Эти проблемы нужно тщательно контролировать, а к открытому исходному коду нужно относиться внимательно».

Это может говорить о смене прежнего курса компании, когда именно открытый исходный код моделей Llama преподносился как ключевое преимущество Meta над конкурентами, такими как ChatGPT и Google DeepMind.

Правда, при этом Цукерберг допускал, что готов отказаться от открытого формата в случае каких-либо новых угроз со стороны ИИ. «Если модель приобретёт качественно новые способности, и мы решим, что открывать её будет безответственно, мы не будем этого делать», — говорил он также в прошлом году в одном из подкастов.

Ещё в 2024 году Цукерберг заявлял: «Начиная со следующего года мы рассчитываем, что модели Llama станут самыми совершенными в индустрии». Эти модели должны были демонстрировать преимущества открытого ПО. Однако тестирование последней открытой версии Llama, Behemoth, недавно были приостановлены, вместо этого началась разработка закрытой модели.

Meta активно инвестирует в ИИ: только в прошлом месяце она вложила $14,3 млрд в Scale AI. На работу в Meta перешёл основатель и гендиректор Scale, в структуре компании появилось подразделение Meta Superintelligence Labs, отвечающее за «суперинтеллект». Meta потратила миллиарды на переманивание ведущих разработчиков и специалистов из лучших ИИ-компаний и создание дата-центров.

Видимо, теперь подход Meta к открытым и закрытым моделям станет более сбалансированным, будут выходить и те, и другие. В ответ на запрос TechCrunch представитель Meta сообщил: «Мы рассчитываем, что в будущем будем работать с комбинацией открытых и закрытых моделей».

Meta✴ переманила основателя Scale AI и получила 49 % акций стартапа за $14,3 млрд

Основатель Scale AI Александр Ван (Alexandr Wang) объявил сотрудникам компании о своём уходе и переходе в Meta. Это следует из внутреннего сообщения, которое он также опубликовал в социальной сети X. Ранее появлялись сообщения о его возможном уходе и масштабном инвестировании в компанию со стороны Meta.

 Источник изображения: AI

Источник изображения: AI

Согласно условиям сделки, Meta инвестирует $14,3 млрд в Scale AI и получит 49 % акций стартапа, но без права голоса, заявил представитель компании. Ван отметил, что возможности такого масштаба требуют жертв, и в данном случае этой жертвой стал его уход. Он добавил, что работа в качестве генерального директора Scale AI была «величайшей честью в его жизни».

 Источник изображения: cnbc.com

Источник изображения: cnbc.com

По сообщению CNBC, новым главой Scale AI станет Джейсон Дроги (Jason Droege), который ранее занимал должность директора по стратегии. До прихода в Scale AI он был партнёром венчурного фонда Benchmark и вице-президентом Uber. Небольшое число сотрудников Scale AI также перейдут в Meta в рамках соглашения.

Представитель Meta подтвердил заключение стратегического партнёрства и инвестиций в Scale AI. По его словам, компании расширят сотрудничество в области создания данных для ИИ-моделей, а Ван присоединится к Meta для работы над проектами, связанными с искусственным интеллектом следующего поколения. Подробности о новых сотрудниках и направлениях работы станут известны в ближайшие недели.

Отмечается, что это решение соответствует стратегии Марка Цукерберга (Mark Zuckerberg), который стремится усилить позиции Meta в сфере ИИ на фоне конкуренции с OpenAI и Google. Ранее издание CNBC также сообщало, что Цукерберг разочарован результатами работы своих разработчиков, особенно после слабого отклика на последнюю версию ИИ-модели Llama. Цукерберг решил, что Ван является более подходящей кандидатурой для руководства критически важными ИИ-проектами, несмотря на то, что ранее он традиционно назначал на ключевые роли сотрудников, которые проработали в его компании значительное время и имеют большой опыт.

Ведомство Илона Маска DOGE принимало решения, пользуясь Meta✴ Llama 2, а не xAI Grok

Сотрудники Департамента эффективности правительства (DOGE) Илона Маска (Elon Musk) принимали кадровые решения, исходя из данных, которые предоставляла модель искусственного интеллекта Meta Llama 2.

 Источник изображения: x.com/elonmusk

Источник изображения: x.com/elonmusk

В конце января Маск разослал федеральным чиновникам электронное письмо, получившее название «Развилка» (Fork in the Road), в котором предоставил адресатам выбор: вернуться на рабочее место в соответствии с политикой правительства или уйти в отставку. Ответы чиновников на это письмо проверялись при помощи модели Meta Llama 2, узнало издание Wired. Этим занимались сотрудники DOGE при Управлении кадровой службы США. Meta разрабатывает модели ИИ и публикует их как проекты с открытым исходным кодом, поэтому частные лица и организации, включая правительственные ведомства, могут свободно использовать их без явного согласия разработчика.

Значительных подробностей о случившемся выяснить не удалось: нет ясности, почему в DOGE решили задействовать Llama 2, ведь к тому моменту у Meta уже были Llama 3, а впоследствии вышло и семейство Llama 4; но известно, что модель развернули локально, то есть данные, вероятно, вообще не проходили через каналы интернета, и угрозы конфиденциальности в связи с этим не возникло. Есть также информация, что один из сотрудников DOGE, выходец из SpaceX, разработал помощника ИИ на основе модели xAI Grok-2 и использовал чат-бот GSAi для анализа данных о контрактах и закупках. DOGE также связали с ПО AutoRIF, которое способствовало ускорению увольнений чиновников.

Впоследствии DOGE направил госслужащим письма, в которых предлагал еженедельно отчитываться о своих рабочих достижениях в пяти пунктах, но подтвердить, что ИИ использовался и для обработки этих ответов, не удалось. Ведомство развернуло модель Llama вместо Grok, вероятно, по той причине, что по состоянию на январь Grok была доступна лишь как закрытая модель; но в дальнейшем DOGE будет проще задействовать её: уже на этой неделе Microsoft намерена размещать модели семейства xAI Grok 3 на платформе Azure AI Foundry, что откроет множество сценариев её практического применения.

Журналистам Wired не удалось найти подтверждения, что сотрудники DOGE передавали конфиденциальные данные на внешние ресурсы, но недовольные деятельностью Маска политики, в том числе более сорока американских законодателей, уже потребовали расследовать, как его ведомство использует ИИ. Они потребовали обеспечить прозрачность в этом вопросе, а также выразили обеспокоенность по поводу угроз утечки данных и сопутствующих всем системам ИИ сбоев — галлюцинаций, при которых модели дают заведомо не соответствующие действительности ответы на запросы.

Meta✴ похвасталась, что число загрузок ИИ-моделей Llama перевалило за 1,2 млрд

В середине марта Meta заявила, что количество загрузок открытых моделей искусственного интеллекта Llama достигло 1 млрд. На начало декабря прошлого года этот показатель составлял 650 млн, что соответствует росту более чем на 50 % за квартал. Во вторник на своей первой конференции разработчиков LlamaCon Meta сообщила, что количество загрузок моделей Llama достигло 1,2 млрд.

 Источник изображения: Me

Источник изображения: Me

«У нас есть тысячи разработчиков, которые создают десятки тысяч производных моделей, загружаемых сотни тысяч раз в месяц», — заявил директор по продуктам Meta Крис Кокс (Chris Cox) во время основного доклада.

Между тем количество пользователей Meta AI — цифрового ИИ-помощника, работающего на моделях Llama, — составляет около миллиарда, добавил Кокс.

 Источник изображения: Alibaba

Источник изображения: Alibaba

Экосистема ИИ-моделей Llama от Meta растёт стремительными темпами, но технологический гигант сталкивается с конкуренцией со стороны ряда серьёзных игроков в сфере ИИ. Так, буквально в понедельник китайская компания Alibaba представила Qwen3 — семейство флагманских ИИ-моделей, которое по ряду показателей является весьма конкурентоспособным.

В Meta✴ отрицают, что искусственно завысили результаты тестов ИИ-модели Llama 4

Представитель Meta опроверг слухи о том, что компания намеренно улучшала показатели своих новых ИИ-моделей Llama 4 в бенчмарках. Вице-президент по генеративному искусственному интеллекту Ахмад Аль-Дахле (Ahmad Al-Dahle) заявил в посте на страницах X, что утверждения о подгонке результатов с целью сокрытия слабых сторон моделей Maverick и Scout — «просто неправда».

 Источник изображения: Mariia Shalabaieva / Unsplash

Источник изображения: Mariia Shalabaieva / Unsplash

Слухи о манипуляциях появились в соцсетях после публикации бывшего сотрудника Meta. Пользователь китайской платформы утверждал, что уволился из компании в знак протеста против «нечестных методов тестирования». Позже эти обвинения распространились в X (бывший Twitter) и Reddit, пишет издание TechCrunch.

Однако Аль-Дахле подчеркнул, что Meta не обучала модели Llama 4 Maverick и Llama 4 Scout на «тестовых наборах данных», то есть специальных выборках, используемых для оценки ИИ. Такая практика могла бы искусственно завысить результаты, создав ложное впечатление о возможностях моделей.

Подозрения изначально появились из-за различий в работе Llama 4 Maverick на разных платформах. Исследователи заметили, что версия модели в бенчмарке LM Arena ведёт себя иначе, чем публично доступная и не справляется с определёнными задачами. Кроме того, Meta использовала экспериментальную сборку Maverick для улучшения результатов тестов, что также вызвало вопросы.

Одновременно Аль-Дахле отмечает, что причина, по которой пользователи пока сталкиваются с нестабильным качеством моделей, может быть связана с настройками облачных провайдеров, на серверах которых размещаются скрипты. «Мы выпустили модели сразу после их готовности, и потребуется несколько дней, чтобы все публичные реализации были настроены в соответствии с нашими требованиями», — пояснил он. В Meta пообещали в любом случае продолжить работу над исправлениями багов Llama 4 для быстрой интеграции разработчиками в свои проекты.

Meta✴ представила ИИ-модели семейства Llama 4 и встроила их в WhatsApp и Instagram✴

Компания Meta Platforms объявила о запуске семейства открытых моделей искусственного интеллекта Llama 4. В него вошли Llama 4 Scout, Maverick и Behemoth, которые обеспечивают возможность мультимодального взаимодействия, т.е. способны отвечать не только на текстовые запросы, но и обрабатывать изображения, видео и др. Они обучались на «большом количестве немаркированных текстовых, графических и видеоданных» для обеспечения «широкого визуального понимания».

 Искусственный интеллект: Steve Johnson / Unsplash

Искусственный интеллект: Steve Johnson / Unsplash

Успех ИИ-моделей китайской компании DeepSeek, которые работают наравне или превосходят флагманские алгоритмы Llama предыдущих поколений, подтолкнул Meta к ускорению процесса разработки в этом направлении. По данным источника, сотрудники компании прикладывают массу усилий, чтобы понять, как DeepSeek удалось снизить стоимость разработки и запуска ИИ-моделей, таких как R1 и V3.

 Источник изображения: ***

Источник изображения: Meta

Алгоритм Llama 4 Scout имеет 17 млрд активных параметров, 16 «экспертов» и 109 млрд параметров в целом. По данным Meta, ИИ-модель превосходит Gemma 3, Gemini 2.0 Flash-Lite и Mistral 3.1 в обработке разных типов задач. Одна из основных особенностей модели заключается в поддержке контекстного окна в 10 млн токенов.

Llama 4 Maverick имеет 17 млрд активных параметров и 128 «экспертов» (всего 400 млрд параметров). По данным разработчиков, модель превосходит GPT-4o и Gemini 2.0 Flash при тестировании в разных бенчмарках, а также показывает сравнимые с DeepSeek V3 результаты при ведении рассуждений и в процессе написания программного кода. Scout может работать на одном графическом ускорителе Nvidia H100, тогда как для Maverick требуется система Nvidia H100 DGX или эквивалентная ей.

Модель Llama 4 Behemoth имеет 288 млрд активных параметров и 16 «экспертов» (всего около 2 трлн параметров) и превосходит алгоритм GPT-4.5, Claude Sonnet 3.7 и Gemini 2.0 Pro по результатам тестирования в разных бенчмарках. Модель Llama 4 Behemoth продолжает обучаться, поэтому она ещё недоступна публично. В это же время модели Scout и Maverick доступны на сайте Llama.com и на Hugging Face. В дополнение к этому фирменный ИИ-помощник Meta AI, доступный в приложениях компании, таких как WhatsApp, Messenger и Instagram, переведён на работу с Llama 4 в 40 странах мира. Возможность обработки мультимодальных запросов пока ограничена английским языком и доступна только в США.

 Источник изображения: ***

Источник изображения: Meta

«Модели Llama 4 знаменуют собой начало новой эры экосистемы Llama. Это только начало для семейства Llama 4», — говорится в сообщении в блоге Meta. Компания утверждает, что Llama 4 является первой группой ИИ-моделей, использующих архитектуру «смесь экспертов» (MoE), которая более эффективна при обучении и инференсе. Архитектура MoE позволяет алгоритму разбивать задачи на подзадачи, а затем делегировать их обработку более мелким и специализированным «экспертным» моделям.

Следует отметить, что ни одна из моделей Llama 4 не является правильной «рассуждающей» моделью, как, например, GPT-o1 или GPT-o3-mini от OpenAI. Рассуждающие модели проверяют свои ответы на достоверность и, как правило, их ответы более надёжны, но для их получения требуется больше времени, чем при взаимодействии с традиционными «не рассуждающими» моделями.

ИИ-модель Llama запустили на ПК из прошлого тысячелетия на базе Windows 98

На волне ажиотажа вокруг генеративного ИИ любопытный эксперимент поставил соучредитель венчурного фонда Andreessen Horowitz Марк Андрессен (Marc Andreessen). На днях он продемонстрировал, как небольшая ИИ-модель Llama от Meta успешно работает на 26-летнем ПК Dell со 128 Мбайт ОЗУ под управлением Windows 98. По мнению Андрессена, человечество могло бы общаться с генеративным ИИ десятилетия назад, если бы подобный ИИ был создан в то время.

 Источник изображения: pcmag.com

Источник изображения: pcmag.com

Андрессен не раскрыл конкретную модель Llama, использованную для тестирования, что затрудняет попытки повторить его эксперимент. Стоит отметить, что модель Llama AI от Meta потребляет меньше вычислительной мощности по сравнению с массивом гораздо более крупных моделей, но при этом обладает довольно впечатляющими возможностями.

Андрессен предположил, что запуск Llama на 26-летнем ПК Dell с Windows 98 означает, что люди могли бы осуществлять «человекоподобное взаимодействие» со своими компьютерами десятилетия назад, по крайней мере, если бы генеративный ИИ существовал тогда: «Все эти старые ПК могли бы быть буквально умными всё это время. Мы могли бы общаться с нашими компьютерами уже 30 лет».

Он полагает, что такое взаимодействие могло бы осуществиться значительно раньше, если бы ключевые игроки воспользовались возможностью во время предыдущего бума искусственного интеллекта в 1980-х годах: «Многие умные люди в 80-х годах думали, что все это произойдёт тогда».

 Источник изображения: Andreessen Horowitz

Источник изображения: Andreessen Horowitz

Утверждения Андрессена подтверждаются более ранним экспериментом Exo Labs, в результате которого исследователям удалось запустить модифицированную версию Llama 2 на ПК с Windows 98 на базе Pentium II. Достичь этого было непросто. Потребовались совместимые периферийные устройства PS/2, приемлемый способ передачи требуемых файлов на устаревшее устройство, а также компиляция современного кода для устаревшего устройства и адаптация самой модели.

ИИ-модели Llama скачали более миллиарда раз, похвастался Марк Цукерберг

Количество загрузок открытых моделей искусственного интеллекта Llama достигло 1 млрд, сообщил глава компании Meta Марк Цукерберг (Mark Zuckerberg). По состоянию на начало декабря 2024 года этот показатель составлял 650 млн, что соответствует росту более чем на 50 % за квартал.

 Источник изображения: Stefan Cosma / unsplash.com

Источник изображения: Stefan Cosma / unsplash.com

Модели семейства Llama лежат в основе ИИ-помощника Meta AI, который присутствует на различных платформах компании, в том числе в Facebook, Instagram и WhatsApp — Meta стремится выстроить обширную систему продуктов в области ИИ. Компания бесплатно по собственной лицензии предоставляет как сами модели, так и инструменты для их тонкой настройки и кастомизации. Эти модели имеют некоторые ограничения для использования в коммерческих целях, но активно применяются в различных продуктах — например, оператором связи AT&T и потоковой службой Spotify.

Впрочем, не обходится и без сложностей: сейчас Meta пытается отбиться от судебного иска, в рамках которого её обвиняют в обучении ИИ на защищённых авторским правом материалах; в ЕС компанию заставили отложить, а то и вовсе отменить выпуск некоторых моделей из-за сомнений в отношении конфиденциальности данных. Кроме того, модели DeepSeek оказались по ряду критериев лучше, чем Llama. Meta пытается воспользоваться опытом DeepSeek по снижению расходов на обучение ИИ.

В этом году американская компания намеревается потратить на ИИ не меньше $65 млрд, а в ближайшие месяцы она хочет выпустить несколько моделей Llama, включая рассуждающие. Meta также, вероятно, ведёт разработку ИИ-агентов — систем, способных самостоятельно выполнять сложные последовательности действий. Некоторые из продуктов она может представить на LlamaCon — первой проводимой Meta конференции разработчиков генеративного ИИ; она намечена на 29 апреля.

Следующие ИИ-модели Llama от Meta✴ получат улучшенные голосовые функции

По информации Financial Times, Meta планирует представить улучшенные голосовые функции в своей следующей флагманской большой языковой модели Llama 4, запуск которой ожидается через несколько недель. Разработчики уделили особое внимание возможности прерывать и перебивать модель в процессе диалога, аналогично голосовому режиму OpenAI для ChatGPT и опыту Gemini Live от Google.

 Источник изображения: Pixabay

Источник изображения: Pixabay

На этой неделе главный директор по продуктам Meta Крис Кокс (Chris Cox) сообщил, что Llama 4 будет «всеобъемлющей» моделью, способной нативно интерпретировать и выводить речь, а также текст и другие типы данных.

 Источник изображения: ***

Источник изображения: Meta

Успех открытых моделей китайской ИИ-лаборатории DeepSeek, которые продемонстрировали впечатляющие результаты, заставил разработчиков Llama существенно ускориться. По слухам, Meta даже организовала оперативные центры, чтобы попытаться выяснить, как DeepSeek удалось радикально снизить стоимость обучения, запуска и развёртывания моделей ИИ.

Meta✴ проведёт LlamaCon — первую конференцию для разработчиков, посвящённую генеративному ИИ

Meta объявила о проведении первой своей конференции для разработчиков, посвящённой генеративному искусственному интеллекту (ИИ). Мероприятие, получившее название LlamaCon в честь семейства моделей генеративного ИИ Llama от Meta, запланировано на 29 апреля. Как сообщает TechCrunch, компания планирует представить свои последние достижения в разработке ИИ-моделей с открытым исходным кодом для того, чтобы помочь разработчикам создавать «наилучшие приложения и программные продукты».

 Источник изображения: ***

Источник изображения: Meta

Meta уже несколько лет придерживается открытого подхода к разработке технологий ИИ, стремясь создать экосистему приложений и платформ. Хотя точное количество созданных на базе Llama приложений или сервисов не раскрывается, ранее компания сообщала, что такие организации, как Goldman Sachs, Nomura Holdings, AT&T, DoorDash и Accenture, используют модель Llama.

Как утверждает сама компания, её модель была загружена сотни миллионов раз, и не менее 25 партнёров, включая Nvidia, Databricks, Groq, Dell и Snowflake, предоставляют хостинг для Llama. Некоторые из них разработали дополнительные инструменты, позволяющие, например, ИИ-моделям ссылаться на проприетарные данные или работать с меньшей задержкой.

Несмотря на очевидный успех, Meta оказалась не готова к взрывному успеху китайской компании DeepSeek, которая выпустила ИИ-модель (также с открытым исходным кодом), способную конкурировать с разработками Meta. По слухам, Meta считает, что одна из последних версий моделей DeepSeek может даже превзойти следующую версию Llama, релиз которой ожидается в ближайшие недели. Поэтому в компании даже якобы срочно стали заниматься анализом методов DeepSeek по снижению стоимости эксплуатации и развёртывания моделей, чтобы применить эти знания в своих разработках Llama.

Ранее генеральный директор Meta Марк Цукерберг (Mark Zuckerberg) анонсировал запуск нескольких моделей Llama в ближайшие месяцы, включая модели с функциями рассуждения, аналогичные o3-mini от OpenAI, а также модели с врождённной мультимодальностью. Он также коснулся темы ИИ-агентов (как у OpenAI), которые должны появиться в будущем и автономно выполнять определённые действия. «Я думаю, что этот год вполне может стать годом, когда Llama и открытые модели станут самыми продвинутыми и широко используемыми моделями ИИ, — заявил Цукерберг. — Мы хотим добиться того, чтобы Llama в этом году стала лидером».

Тем временем Meta сталкивается с юридическими и регуляторными вызовами. Компания вовлечена в судебный процесс, обвиняющий её в использовании защищённых авторским правом материалов книг для обучения ИИ-моделей без разрешения. Кроме того, несколько стран ЕС из-за опасений по поводу конфиденциальности данных вынудили Meta отложить или полностью отменить планы по запуску моделей в регионе, что в целом создаёт дополнительные препятствия для амбиций компании в области разработки Llama.

Дополнительные детали о конференции LlamaCon, которая станет первым событием компании, полностью сосредоточенном на генеративном ИИ, будут объявлены в ближайшее время, уточнили в Meta. При этом ежегодная конференция для разработчиков Meta Connect, как и обычно, состоится в сентябре.

Энтузиаст запустил современную ИИ-модель на консоли Xbox 360 20-летней давности

Пользователь соцсети X Андрей Дэвид (Andrei David) сумел установить и запустить на консоли Xbox 360 модель искусственного интеллекта на базе движка Llama2.c, который написан на языке программирования C бывшим сотрудником OpenAI и Tesla Андреем Карпатым (Andrej Karpathy). Сделать это энтузиаста побудила работа специалистов из EXO Lab, которые в конце прошлого года запустили большую языковую модель (LLM) Llama на 26-летнем компьютере с Windows 98.

 Источник изображения: Shutterstock

Источник изображения: Shutterstock

Хотя энтузиаст использовал ИИ-модель на том же движке, что и EXO Lab, ему пришлось оптимизировать программный код для процессора консоли на архитектуре PowerPC и функций управления памятью. Основное отличие в том, что в PowerPC система с прямым порядком байтов в первую очередь сохраняет наиболее важные значения, тогда как используемый в ПК процессор Intel Pentium II в первую очередь сохраняет наименьшие значения. Для обеспечения правильной работы ИИ-модели Дэвиду пришлось добавить систему обмена байтами и обеспечить, чтобы все создаваемые и сохраняемые данные должным образом выравнивались по 128 байтам в памяти, чего требует подсистема памяти Xbox 360.

В итоге энтузиаст запустил ИИ-модель на Xbox 360 с процессором Xenon на архитектуре PowerPC с 3 ядрами и рабочей частотой до 3,2 ГГц, а также 512 Мбайт оперативной памяти. Запуск большой языковой модели на основе Llama 2 на устройстве, которому уже несколько десятилетий, является существенным достижением. Однако один из пользователей платформы X заметил, что 512 Мбайт оперативной памяти в Xbox 360 должно хватить для запуска алгоритмов SmolLm от Hugging Face или 4-битной модели 0,5B Qwen2.5. «Вызов принят», — написал Дэвид в ответ на это. Это означает, что в будущем он попытается запустить на Xbox 360 другие ИИ-модели.

Марк Цукерберг лично разрешил обучать ИИ-модели Llama на пиратских материалах

Гендиректор Meta Марк Цукерберг (Mark Zuckerberg) лично разрешил подразделению Meta, ответственному за разработку моделей искусственного интеллекта Llama, использовать для их обучения массив данных, содержащий полученные незаконным путём книги и статьи. Об этом стало известно из документов, опубликованных в рамках судебного процесса писателя Ричарда Кадри (Richard Kadrey) против Meta.

 Источник изображения: Tingey Injury / unsplash.com

Источник изображения: Tingey Injury / unsplash.com

Данный процесс — лишь одно из ряда дел, в рамках которых разрабатывающие системы ИИ технологические гиганты обвиняются в обучении моделей на защищённых авторским правом материалах без разрешения авторов. Ответчики традиционно уверяют, что их действия отвечают норме о добросовестном использовании контента — эта доктрина позволяет пренебрегать авторским правом для создания новых произведений и продуктов, если они в значительной мере отличаются от оригинала. Многие правообладатели с такой позицией не согласны.

В новой порции рассекреченных документов (PDF) приводятся показания представителей Meta: выяснилось, что Марк Цукерберг лично одобрил использование компанией массива LibGen для обучения Llama. Проект LibGen, позиционирующий себя как агрегатор ссылок, в действительности предоставляет доступ к защищённым авторским правом работам, которыми управляют крупные издатели. В его отношении неоднократно подавались судебные иски, с него взыскивались десятки миллионов долларов за нарушения авторских прав, и в итоге проект был вынужден закрыться. Цукерберг, говорится в документах, одобрил использование LibGen для обучения как минимум одной модели Llama вопреки опасениям, которые выражали рядовые сотрудники и члены руководства Meta. Приводится внутренняя служебная записка, в которой отмечается, что работа с LibGen получила одобрение после «эскалации до MZ» — под этой аббревиатурой, очевидно, подразумевался глава компании.

 Источник изображения: Igor Omilaev / unsplash.com

Источник изображения: Igor Omilaev / unsplash.com

Сторона истца 8 января подала в суд заявление, в котором содержатся новые обвинения. В частности, утверждается, что Meta могла попытаться скрыть это деяние и удалить сведения об использовании материалов LibGen — это предположительно сделал инженер Meta Николай Башлыков (Nikolay Bashlykov), который написал скрипт, удаливший из книг в обучающем массиве информацию об авторских правах. Meta также якобы удалила сведения об авторских правах и соответствующие метаданные из статей научных журналов в данном массиве. Более того, Meta нарушила авторские права, скачав массив LibGen через протокол BitTorrent — в этот момент компания не только скачивала, но и одновременно «раздавала» эти данные, фактически распространяя пиратские материалы, утверждает сторона истца. Глава отдела генеративного ИИ в Meta Ахмад Аль-Дахле (Ahmad Al-Dahle) дал разрешение скачивать данные LibGen через BitTorrent, хотя инженер Башлыков указывал, что это «может быть юридически недопустимо».

Дело ещё далеко до завершения. Пока оно касается только ранних моделей Llama, а не последних выпусков. И если Meta убедит суд в добросовестном использовании материалов, он может встать на сторону компании — в 2023 году несколько истцов так и не смогли доказать факта нарушения авторских прав, и их иски к Meta были отклонены.

Энтузиасты запустили современную ИИ-модель Llama на древнем ПК с Pentium II и Windows 98

Специалисты из EXO Labs сумели запустить довольно мощную большую языковую модель (LLM) Llama на 26-летнем компьютере, работающем под управлением операционной системы Windows 98. Исследователи наглядно показали, как загружается старый ПК, оснащённый процессором Intel Pentium II с рабочей частотой 350 МГц и 128 Мбайт оперативной памяти, после чего осуществляется запуск нейросети и дальнейшее взаимодействие с ней.

 Источник изображения: GitHub

Источник изображения: GitHub

Для запуска LLM специалисты EXO Labs задействовали собственный интерфейс вывода для алгоритма Llama98.c, который создан на базе движка Llama2.c, написанного на языке программирования C бывшим сотрудником OpenAI и Tesla Андреем Карпатым (Andrej Karpathy). После загрузки алгоритма его попросили создать историю о Сонном Джо. Удивительно, но ИИ-модель действительно работает даже на таком древнем ПК, причём история пишется с хорошей скоростью.

Загадочная организация EXO Labs, сформированная исследователями и инженерами из Оксфордского университета, вышла из тени в сентябре этого года. Согласно имеющимся данным, она выступает за открытость и доступность технологий на базе искусственного интеллекта. Представители организации считают, что передовые ИИ-технологии не должны находиться в руках горстки корпораций, как это происходят сейчас. В дальнейшем они рассчитывают «построить открытую инфраструктуру для обучения передовых ИИ-моделей, что позволит любому человеку запускать их где угодно». Демонстрация возможности запуска LLM на древнем ПК, по их мнению, доказывает то, что ИИ-алгоритмы могут работать практически на любых устройствах.

В своём блоге энтузиасты рассказали, что для реализации поставленной задачи на eBay был приобретён старый ПК с Windows 98. Затем, подключив устройство в сеть с помощью разъёма Ethernet, они через FTP сумели передать в память устройства нужные данные. Вероятно, компиляция современного кода для Windows 98 оказалась более сложной задачей, решить которую помогла опубликованная на GitHub работа Андрея Карпатого. В конечном счёте удалось добиться скорости генерации текста в 35,9 токенов в секунду при использовании LLM размером 260K с архитектурой Llama, что весьма неплохо, учитывая скромные вычислительные возможности устройства.

Meta✴ утёрла нос OpenAI: её ИИ оказался вдвое популярнее ChatGPT

Meta представила ещё одну версию своей новейшей модели искусственного интеллекта — предназначенную для работы с текстом Llama 3.3 70B. Новинка показывает производительность на уровне прежнего флагмана Llama 3.1 405B, но предлагает более высокую эффективность: как видно из названия, у новой версии 70 млрд параметров против 405 млрд у старой. Компания также раскрыла размер аудитории своего помощника с ИИ — он оказался вдвое популярнее ChatGPT.

 Источник изображения: Igor Omilaev / unsplash.com

Источник изображения: Igor Omilaev / unsplash.com

«Используя последние достижения в области методов пост-обучения, <..> у этой модели повышена основная производительность при значительно меньших затратах», — рассказал в соцсети X Ахмад Аль-Дахле (Ahmad Al-Dahle), вице-президент по генеративному ИИ в Meta. Он также опубликовал диаграмму, которая демонстрирует, что Llama 3.3 70B превзошла Google Gemini 1.5 Pro, OpenAI GPT-4o и Amazon Nova Pro в ряде отраслевых тестов, включая MMLU — оценку способности модели понимать язык.

 Источник изображения: x.com/Ahmad_Al_Dahle

Источник изображения: x.com/Ahmad_Al_Dahle

Новая модель опубликована с открытым исходным кодом, доступна для скачивания на платформе Hugging Face и в других источниках, включая официальный сайт Llama. Meta, впрочем, отчасти ограничила разработчикам возможность использовать модели Llama: для проектов, у которых более 700 млн пользователей, требуется специальная лицензия. При этом сами модели Llama, по сведениям Meta, были скачаны более 650 млн раз. Llama используется и самой компанией: на ней построен ИИ-помощник Meta AI, у которого, по словам главы компании Марка Цукерберга (Mark Zuckerberg), почти 600 млн активных пользователей в месяц — вдвое больше, чем у ChatGPT.

Ранее Цукерберг рассказал, что для обучения перспективных Llama 4 компании потребуется в десять раз больше вычислительных ресурсов, чем для актуальных Llama 3. В этих целях Meta закупила более 100 тыс. ускорителей Nvidia — кластер такой мощности есть и у xAI Илона Маска (Elon Musk). Известно также, что во II квартале 2024 года капитальные затраты Meta выросли почти на 33 % по сравнению с аналогичным периодом прошлого года и составили $8,5 млрд — средства были потрачены на серверы, центры обработки данных и сетевую инфраструктуру.


window-new
Soft
Hard
Тренды 🔥
Изучай, расширяй, эксплуатируй, уничтожай: в Steam стартовал фестиваль 4X-стратегий, а Endless Legend 2 получила временную демоверсию 6 ч.
У DeepSeek произошёл масштабный сбой — регистрация новых пользователей ограничена 6 ч.
Microsoft начала тестировать облачные ПК для аварийной замены обычных через Windows 365 7 ч.
Глава GitHub ушёл в отставку — компания перейдёт под прямое управление Microsoft 7 ч.
Календарь релизов — 11 – 17 августа: The Scouring, Echoes of the End и ремастер W40K: Dawn of War 11 ч.
Mortal Kombat 1 покорила новую вершину продаж и взяла курс на звание «самой сбалансированной» игры серии 11 ч.
«Займёт своё место в пантеоне "Цивилизаций"»: руководство Take-Two не потеряло веру в Sid Meier’s Civilization VII, несмотря на слабый старт продаж 12 ч.
Россияне пожаловались на массовые сбои при звонках в WhatsApp и Telegram 12 ч.
Бывший президент Blizzard предсказал, что Battlefield 6 «раздавит» Call of Duty: Black Ops 7, и все от этого выиграют 16 ч.
Создатели Delta Force анонсировали хоррор-шутер Crossfire: Rainbow — геймплейный трейлер и первые подробности 17 ч.
Рекомендации для главы Intel от властей США будут направлены на следующей неделе 36 мин.
Новая статья: Обзор ноутбука Acer Swift Go 14 (SFG14-63-R7T4) с процессором Ryzen 9 8945HS и OLED-экраном 6 ч.
Биткоин приблизился к историческому максимуму, а Ethereum преодолел $4000 8 ч.
SpaceX запустила новую партию интернет-спутников Amazon Project Kuiper — теперь на орбите их 102 из более 3000 10 ч.
Nvidia представила крошечные видеокарты RTX Pro 4000 SFF и RTX Pro 2000 для профессионалов 10 ч.
Vivo показала свою первую MR-гарнитуру — она похожа на Apple Vision Pro, но гораздо удобнее 10 ч.
Apple выпустит MacBook стоимостью от $599 в следующем году, если слухи верны 10 ч.
Ford сделает электромобили дешевле — первым на платформе Universal EV станет пикап за $30 000 11 ч.
Hyundai потребовала $65 за устранение уязвимости в системе бесключевого доступа к электромобилю Ioniq 5 11 ч.
«Рикор» представил российские 1U-серверы RS7104 и RS7110 на базе Intel Xeon Ice Lake-SP 11 ч.