Сегодня 26 мая 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → llm

Браузер Opera One теперь может локально запускать большие языковые модели

В прошлом году компания Opera представила новый браузер Opera One, который ориентирован на использование технологий на основе искусственного интеллекта. Теперь же разработчики объявили, что пользователи приложения смогут скачивать и локально использовать на своих компьютерах большие языковые модели (LLM).

 Источник изображения: Opera

Источник изображения: Opera

На данный момент пользователи Opera One могут выбирать между более чем 150 языковыми моделями из более чем 50 семейств. Среди доступных LLM можно выделить алгоритмы LLaMA от Meta Platforms, Gemma (открытая версия модели Gemini) от Google и Vicuna. Нововведение будет доступно в рамках программы Opera AI Feature Drops, позволяющей пользователям получить ранний доступ к некоторым ИИ-функциям.

По данным Opera, для запуска LLM на локальных компьютерах пользователей используется фреймворк с открытым исходным кодом Ollama. В настоящее время все доступные LLM представляют собой части библиотеки Ollama, но в будущем разработчики планируют реализовать возможность доступа к моделям из разных источников. При скачивании какой-либо LLM потребуется более 2 Гбайт свободного места на локальном носителе.

«Opera впервые предоставляет доступ к большому количеству локальных LLM сторонних разработчиков непосредственно в браузере. Ожидается, что их размер будет уменьшаться по мере того, как они будут становиться более специализированными и ориентированными на решение определённых задач», — прокомментировал данный вопрос Ян Стендаль (Jan Standal), вице-президент Opera.

Anthropic представила одну из самых быстрых больших языковых моделей в мире — Claude 3 Haiku

Стартап Anthropic, разрабатывающий конкурирующие с GPT-4 от OpenAI модели искусственного интеллекта, выпустил Claude 3 Haiku. Это новая нейросеть в семействе Claude 3, по словам создателей троекратно превосходящая по скорости аналогичные продукты в большинстве рабочих нагрузок.

 Источник изображения: Anthropic PBC

Источник изображения: Anthropic

По заявлению Anthropic, именно благодаря скорости работы Claude 3 Haiku идеален там, где необходим результат с минимальными задержками — например, в клиентской поддержке и ответах на вопросы. Haiku обрабатывает до 21 тысячи токенов (30 страниц текста) в секунду при длине запроса до 32 тысяч токенов.

«Корпоративные пользователи уделяют особое внимание скорости — именно она помогает быстро анализировать огромные массивы данных и своевременно обслуживать клиентов. Скорость Claude 3 Haiku позволяет оперативно отвечать на вопросы в чате и выполнять множество мелких задач одновременно», — говорится в заявлении компании.

Anthropic установила довольно лояльную ценовую политику, позволяющую крупным компаниям сэкономить на обработке огромных массивов данных. Разработчики утверждают, что Claude 3 Haiku с лёгкостью проанализирует 400 дел Верховного суда США или 2500 изображений всего за $1.

«Haiku способен анализировать огромные объёмы документов, например, квартальную отчётность, контракты, судебные дела — вдвое дешевле и не уступая в скорости конкурентам», — подчёркивает Anthropic PBC.

Семейство из трёх больших языковых моделей Claude 3 представили в марте. По словам разработчиков, самая продвинутая из них, Claude 3 Opus, вычислительными мощностями сравнима с передовыми разработками лидеров индустрии в лице OpenAI и Google.

«Тинькофф» объявил о разработке антипода ChatGPT

Компания «Тинькофф» в настоящее время занимается разработкой собственных специализированных больших языковых моделей (LLM). Об этом сообщил директор «Тинькофф» по ИИ Виктор Тарнавский на международной конференции по искусственному интеллекту AI Journey, которая сейчас проходит в Москве.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Тарнавский уточнил, что разрабатываемый продукт является в каком-то смысле «антиподом» чат-бота ChatGPT компании OpenAI. По его словам, основное отличие LLM «Тинькофф» от ChatGPT заключается в том, что решение будет не единой универсальной моделью, а несколькими инструментами, заточенными под разные продукты.

Кроме того, «Тинькофф» пока не планирует коммерциализацию создаваемых языковых моделей. Предполагается, что они будут использоваться исключительно внутри экосистемы «Тинькофф» для создания и улучшения продуктов и процессов. «Наш основной фокус — делать лучшие продукты для наших пользователей, и мы создаём для этих продуктов заточенные под наши сценарии модели», — заявил Тарнавский.

«Мы сами строим большие языковые модели. Строим их с нуля. Мы создаём базовые модели, а потом сверху надстраиваем те, что решают конкретные задачи»,рассказал топ-менеджер «Тинькофф». Он отметил, что у компании «сильная команда, достаточно данных и вычислительных мощностей».

«Мы понимаем, как сделать наши модели по качеству лучше, чем у любого конкурента на рынке», — подчеркнул Тарнавский. Благодаря фокусировке можно будет создать инструмент более высокого качества, чем «общее» решение.

«Стоит ожидать больших значимых запусков продуктов в экосистеме "Тинькофф", базирующихся на больших языковых моделях. Через продукты и через продуктовую ценность для конечного потребителя мы будем реализовывать потенциал, который заложен в больших языковых моделях», — заявил Тарнавский.

Российская Just AI запустила свой аналог ChatGPT

Российская компания Just AI запустила инструмент генеративного ИИ для бизнеса Jay CoPilot, созданный на основе собственной большой языковой модели (LLM) JustGPT. Он включает сервисы, представленные в виде веб-приложений, позволяющих решать конкретные бизнес-задачи, рассказали Forbes в компании. Тем самым Just AI присоединилась к «Яндексу» и «Сберу», запустившим в этом году свои ИИ-инструменты — YandexGPT и GigaChat соответственно.

 Источник изображения: Pixabay

Источник изображения: Pixabay

«В основе приложений лежат как лучшие мировые нейросетевые модели, так и собственная разработка Just AI — большая языковая модель JustGPT», — пояснили в Just AI, отметив, что генеративный ИИ Jay CoPilot уже применяется в пилотных проектах «в двух лидирующих частных российских банках», а с 20 сентября открыта программа раннего доступа к ИИ-инструменту для компаний и разработчиков.

Помимо режима диалога, компания создала для Just AI приложения для автоматизации различных задач, будь то: подготовка протоколов встреч, поиск по массивам информации, резюмирование, редактирование и генерация текста, расшифровка аудиозаписей, озвучка текстов в разных форматах разными голосами и на нескольких языках, генерация изображений и т.д. «"Джей" также упрощает работу с различными форматами документов — боту можно отправить ссылку на сайт или файл (txt, docx, pdf, аудио), чтобы перевести текст на другой язык, получить краткое изложение содержания или воспользоваться другими функциями», — рассказали в Just AI.

По словам представителя компании, в отличие от ChatGPT, «Джей» работает с разными модальностями — речь, аудио, текст, изображения. Бот также умеет искать информацию в интернете и имеет API для интеграции непосредственно с информационными системами организаций и рабочими местами сотрудников.

На проведение научно-исследовательских работ, создание продукта и развёртывание соответствующей IT-инфраструктуры компания израсходовала около 90 млн рублей. Разработчики уже определились, как будет происходить монетизация продукта. «При регистрации у каждого пользователя есть определённое количество токенов на счету, пробный период. После того как он их израсходует, он может пополнить баланс, купив подписку или определённое количество токенов», — пояснили в компании, добавив, что такой подход распространяется как на корпоративных пользователей, так и на индивидуальных.

В Just AI рассказали, что Jay CoPilot работает на базе собственной LLM JustGPT, основанной на open-source модели LLaMA-2. Модель была дообучена на собранном Just AI инструктивном датасете и содержит 70 млрд параметров. На основное дообучение потребовалось 12 дней, для чего использовался кластер из восьми ускорителей Tesla A100, а для вспомогательных задач задействовали собственный GPU-кластер Just AI. Дообучение позволило существенно улучшить возможности модели в понимании русскоязычных инструкций и добавить ряд особых полезных функций. «Мы уже на реальных примерах видим, насколько сильно может вырасти продуктивность личной работы людей и эффективность отдельных бизнес-процессов», — говорит сооснователь Just AI Кирилл Петров.

Руководитель Института AIRI и профессор Сколтеха Иван Оселедец заявил, что появление в России новых ИИ-продуктов на базе предобученных LLM закономерно отражает активное развитие отечественных технологий. В то же время он отметил, что исходя из открытых технических характеристик, JustGPT, в отличие от GigaChat и YandexGPT, «это не совсем собственная языковая модель компании, а дообученная под практические задачи русскоязычной аудитории открытая модель Llama2, которая легла в основу продукта».

Рынок генеративного ИИ активно развивается. По оценкам аналитиков Bloomberg Intelligence, его объём может увеличиться к 2032 году до $1,3 трлн, что в 32 раза больше дохода, который рынок принёс в 2022 году, когда прибыль составила $40 млрд. Аналитики ожидают взрывной рост в секторе генеративного ИИ в течение 10 лет, способный коренным образом изменить методы работы технологического сектора.

В России рынок искусственного интеллекта за 2022 год составил 650 млрд рублей, что на 17 % больше, чем в 2021-м, сообщил директор направления «Цифровая трансформация отраслей» АНО «Цифровая экономика» Алексей Сидорюк на конференции Innopolis AI Conference for business. По оценкам Statista, в этом году объём рынка генеративного ИИ в России может превысить $311 млн и достичь $1,479 млрд в 2030-м.

ByteDance разрабатывает гуманоидного робота с большой языковой моделью «в голове»

Компания ByteDance, больше всего известная по социальной сети TikTok, работает и над исследовательскими проектами. Как сообщает DigiTimes, компания разрабатывает специальных роботов для интеграции больших языковых моделей (LLM) с машинами. Кроме того, компания намерена существенно расширить свой штат.

 Источник изображения:  Brett Jordan/unsplash.com

Источник изображения: Brett Jordan/unsplash.com

Основанное в 2016 году подразделение компании — AI Lab разделено на две группы: одна занимается проектами обработки естественного языка, другая — исследованиями разного профиля. Первая обеспечивает техническую поддержку основному бизнесу компании, а в исследовательскую группу входит в том числе команда, занимающаяся роботами. Директором лаборатории является Ли Хан (Li Hang), в своё время курировавший ИИ-проекты в Huawei.

Известно, что ByteDance интенсивно инвестирует в ИИ-сектор — компания занимается не только разработкой программного обеспечения, но и интенсивно закупает оборудование — по имеющимся данным, в 2023 году она заказала ускорители вычислений NVIDIA на сумму свыше $1 млрд, включая чипы A100 и H800, — заказы были оформлены ещё до того, как в силу вступили санкции США в отношении китайских компаний.

По данным китайских СМИ, команда, занимающаяся специализированными роботами, уже насчитывает около 50 человек, а к концу года в её составе будет работать более 100 специалистов. В первую очередь полученные решения будут, вероятно, применяться в сфере электронной коммерции — на складах при подборе товаров, при транспортировке и упаковке. Компания начала исследования в области робототехники ещё в 2020 году, и сегодня её руководство уверено, что роботы должны применяться не только в существующих бизнес-проектах. Исследуется возможность интеграции роботов с LLM, включая имеющиеся в разработке «гуманоидные» варианты, коммерческую ценность которых ещё предстоит оценить.

По данным источников DigiTimes, импульс «гуманоидным» разработкам ByteDance придало создание Tesla человекоподобного робота, способного довольно свободно двигаться на двух ногах, распознавать и запоминать окружающую обстановку и захватывать объекты. Впрочем, пока он не способен заменить на производстве людей.

Премьеру робота Optimus впервые анонсировали ещё в ходе проводившегося Tesla мероприятия AI Day в 2021 году, а его демонстрация состоялась в 2022 году. Глава компании Илон Маск (Elon Musk) констатировал, что конечной целью новинки является замена людей при выполнении опасных работ и цена в будущем не будет превышать $20 тыс. Собственный вариант гуманоидного робота демонстрировала в августе 2022 года и Xiaomi, хотя новинка до сих пор находится на ранних стадиях разработки.


window-new
Soft
Hard
Тренды 🔥