Сегодня 27 июля 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → языковая модель
Быстрый переход

ASML показала первый рекламный фильм, который никто не снимал — почти всё в нём сделал ИИ

Нидерландская компания ASML — безусловный лидер рынка литографических сканеров для производства полупроводников — представила «первый рекламный фильм», созданный искусственным интеллектом. Видео создано с использованием моделей Midjourney и алгоритмов RunwayAI с минимальным вмешательством людей в процесс монтажа и редактирования, и оно поражает воображение. Это будущее, которое наступило, и которое скоро многое изменит в жизни каждого человека.

 Кадр из созданного ИИ фильма ASML «Стоя на плечах гигантов». Источник изображения: ASML

Кадр из созданного ИИ фильма ASML «Стоя на плечах гигантов». Источник изображения: ASML

Ролик ASML под названием «Стоя на плечах гигантов» отсылает к известному высказыванию Исаака Ньютона: «Если я видел дальше других, то потому, что стоял на плечах гигантов». В представлении ASML, сотрудники которой составляли текстовые подсказки, микропроцессорная индустрия и все современные достижения в области вычислений также стоят на плечах гигантов, включая самого сэра Ньютона.

Кстати, с Ньютоном и яблоком в его руке пришлось особенно помучиться, признаются в ASML. Это оказалась самая сложная сцена. Команде операторов потребовалось более 20 попыток, чтобы правильно её воспроизвести. Для этого было сгенерировано более 9800 кадров, после чего можно было удовлетвориться результатом.

В целом фильм был создан с использованием 1963 подсказок, которые дали 7852 изображения. Цифровые картинки были отредактированы, а затем отрисованы на более чем 900 компьютерах. Наконец, полученные рендеры были обработаны алгоритмами RunwayAI, и общий объём кадров составил 25 957 штук по 1000 Мбайт на каждый из них.

ByteDance заподозрили в использовании технологий OpenAI для создания конкурирующей ИИ-модели

ByteDance (родительская компания TikTok) тайно использует технологию OpenAI для разработки собственной конкурирующей большой языковой модели (LLM), сообщил ресурс The Verge, подчеркнувший, что это является прямым нарушением условий использования технологий ИИ OpenAI, согласно которым они не могут применяться для разработки каких-либо моделей ИИ, которые конкурируют с продуктами и сервисами» компании.

 Источник изображений: ByteDance

Источник изображений: ByteDance

Согласно внутренним документам ByteDance, с которыми ознакомились в The Verge, OpenAI API использовался в проекте под кодовым названием Project Seed почти на каждом этапе разработки LLM, в том числе для обучения и оценки модели.

После публикации The Verge китайская компания сочла необходимым выступить с разъяснением по этому поводу. ByteDance признала в заявлении, направленном ресурсу South China Morning Post, что, когда в начале этого года занялась изучением LLM, её небольшая группа разработчиков действительно использовала API-сервис OpenAI в экспериментальной модели, которая не предназначалась для публичного запуска. Работа над проектом была прекращена в апреле после введения регламентации использования OpenAI, условиями которой запрещается применение продуктов GPT для разработки моделей, конкурирующих с продуктами OpenAI.

ByteDance сообщила, что по-прежнему использует API OpenAI вместе с некоторыми другими сторонними моделями «в очень ограниченной степени в процессе оценки/тестирования, например, при сравнительном анализе результатов». «ByteDance имеет лицензию на использование API OpenAI и уделяет большое внимание соблюдению условий использования OpenAI», — указано в заявлении компании.

Тем не менее OpenAI приостановила доступ ByteDance к своему сервису. «Хотя использование ByteDance нашего API было минимальным, мы заблокировали её учётную запись на время расследования»,— указано в заявлении OpenAI, направленном ресурсу Verge. OpenAI предупредила, что, если выяснится, что использование API OpenAI китайской компанией не соответствует её условиям, ей будет предложено внести необходимые изменения или закрыть свою учётную запись.

В настоящее время в Китае наблюдается бум в разработке LLM. К июлю этого года местными фирмами и исследовательскими институтами было выпущено не менее 130 LLM. В связи с этим основатель и гендиректор Baidu Робин Ли (Robin Li) заявил, что в стране слишком много базовых моделей искусственного интеллекта, что является «громадным растранжириванием ресурсов».

«Тинькофф» объявил о разработке антипода ChatGPT

Компания «Тинькофф» в настоящее время занимается разработкой собственных специализированных больших языковых моделей (LLM). Об этом сообщил директор «Тинькофф» по ИИ Виктор Тарнавский на международной конференции по искусственному интеллекту AI Journey, которая сейчас проходит в Москве.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Тарнавский уточнил, что разрабатываемый продукт является в каком-то смысле «антиподом» чат-бота ChatGPT компании OpenAI. По его словам, основное отличие LLM «Тинькофф» от ChatGPT заключается в том, что решение будет не единой универсальной моделью, а несколькими инструментами, заточенными под разные продукты.

Кроме того, «Тинькофф» пока не планирует коммерциализацию создаваемых языковых моделей. Предполагается, что они будут использоваться исключительно внутри экосистемы «Тинькофф» для создания и улучшения продуктов и процессов. «Наш основной фокус — делать лучшие продукты для наших пользователей, и мы создаём для этих продуктов заточенные под наши сценарии модели», — заявил Тарнавский.

«Мы сами строим большие языковые модели. Строим их с нуля. Мы создаём базовые модели, а потом сверху надстраиваем те, что решают конкретные задачи»,рассказал топ-менеджер «Тинькофф». Он отметил, что у компании «сильная команда, достаточно данных и вычислительных мощностей».

«Мы понимаем, как сделать наши модели по качеству лучше, чем у любого конкурента на рынке», — подчеркнул Тарнавский. Благодаря фокусировке можно будет создать инструмент более высокого качества, чем «общее» решение.

«Стоит ожидать больших значимых запусков продуктов в экосистеме "Тинькофф", базирующихся на больших языковых моделях. Через продукты и через продуктовую ценность для конечного потребителя мы будем реализовывать потенциал, который заложен в больших языковых моделях», — заявил Тарнавский.

OpenAI представила флагманскую нейросеть GPT-4 Turbo — мощнее и в разы дешевле GPT-4

Сегодня на своей первой конференции для разработчиков компания OpenAI представила GPT-4 Turbo — улучшенную версию своей флагманской большой языковой модели. Разработчики из OpenAI отмечают, что новая GPT-4 Turbo стала мощнее и в то же время дешевле, чем GPT-4.

 Источник изображения: CNET

Источник изображения: CNET

Языковая модель GPT-4 Turbo будет предлагаться в двух версиях: одна предназначена исключительно для анализа текста, вторая понимает контекст не только текста, но и изображений. Модель анализа текста доступна в виде предварительной версии через API, начиная с сегодняшнего дня. Обе версии нейросети компания пообещала сделать общедоступными «в ближайшие недели».

Стоимость использования GPT-4 Turbo составляет 0,01 доллара за 1000 входных токенов (около 750 слов) и 0,03 доллара за 1000 выходных токенов. Под входными токенами понимаются фрагменты необработанного текста. Например, слово «fantastic» разделяется на токены «fan», «tas» и «tic». Выходные токены, в свою очередь, это токены, которые модель генерирует на основе входных токенов. Цена на GPT-4 Turbo для обработки изображений будет зависеть от размера изображения. Например, обработка изображения размером 1080 × 1080 пикселей в GPT-4 Turbo будет стоить 0,00765 доллара.

«Мы оптимизировали производительность, поэтому можем предлагать GPT-4 Turbo по цене в три раза дешевле для входных токенов и в два раза дешевле для выходных токенов по сравнению с GPT-4», — сообщила OpenAI в своём блоге.

Для GPT-4 Turbo обновили базу знаний, которая используется при ответе на запросы. Языковая модель GPT-4 обучалась на веб-данных до сентября 2021 года. Предел знаний GPT-4 Turbo — апрель 2023 года. Иными словами, на запросы, имеющие отношение к последним событиям (до апреля 2023 года), нейросеть будет давать более точные ответы. На основе множества примеров из интернета GPT-4 Turbo обучилась прогнозировать вероятность появления тех или иных слов на основе шаблонов, включая семантический контекст окружающего текста. Например, если типичное электронное письмо заканчивается фрагментом «С нетерпением жду…», GPT-4 Turbo может завершить его словами «… вашего ответа».

Вместе с этим модель GPT-4 Turbo получила расширенное контекстное окно (количество текста, учитываемое в процессе генерации). Увеличение контекстного окна позволяет модели лучше понимать смысл запросов и выдавать более подходящие им ответы, не отклоняясь от темы. Модель GPT-4 Turbo имеет контекстное окно в 128 тыс. токенов, что в четыре раза больше, чем у GPT-4. Это самое большое контекстное окно среди всех коммерчески доступных моделей ИИ. Оно превосходит контекстное окно модели Claude 2 от Anthropic, которая поддерживает до 100 тыс. токенов. Anthropic утверждает, что экспериментирует с контекстным окном на 200 тыс. токенов, но ещё не внесла эти изменения в открытый доступ. Контекстное окно в 128 тыс. токенов соответствует примерно 100 тыс. словам или 300 страницам текста, что равносильно размеру романов «Грозовой перевал» Эмили Бронте, «Путешествия Гулливера» Джонатана Свифта или «Гарри Поттер и узник Азкабана» Джоан Роулинг.

Модель GPT-4 Turbo способна генерировать действительный JSON-формат. По словам OpenAI, это удобно для веб-приложений, передающих данные, например для тех, которые отправляют данные с сервера клиенту, чтобы их можно было отобразить на веб-странице. GPT-4 Turbo в целом получила более гибкие настройки, которые окажутся полезными разработчикам. Более подробно об этом можно узнать в блоге OpenAI.

«GPT-4 Turbo работает лучше, чем наши предыдущие модели, при выполнении задач, требующих тщательного следования инструкциям, таких как генерация определённых форматов (например, “всегда отвечать в XML”). Кроме того, GPT-4 Turbo с большей вероятностью вернёт правильные параметры функции», — сообщает компания.

Также GPT-4 Turbo может быть интегрирован с DALL-E 3, функциями перевода текста в речь и зрительным восприятием, расширяя возможности использования ИИ.

OpenAI также объявила, что будет предоставлять гарантии защиты авторских прав для корпоративных пользователей через программу Copyright Shield. «Мы теперь будем защищать наших клиентов и оплачивать понесённые расходы, если они столкнутся с юридическими претензиями о нарушении авторских прав», — заявила компания в своём блоге. Ранее то же самое сделали Microsoft и Google для пользователей их ИИ-моделей. Copyright Shield будет покрывать общедоступные функции ChatGPT Enterprise и платформы для разработчиков OpenAI.

Для GPT-4 компания запустила программу тонкой настройки, предоставляя разработчикам еще больше инструментов для кастомизации ИИ под определённые задачи. По словам компании, в отличие от программы тонкой настройки GPT-3.5, предшественника GPT-4, программа тонкой настройки GPT-4 потребует большего контроля и руководства со стороны OpenAI, в основном из-за технических препятствий.

Компания также удвоила лимит скорости ввода и вывода токенов в минуту для всех платных пользователей GPT-4. При этом цена осталась прежней: 0,03 доллара за входной токен и 0,06 доллара за выходной токен (для модели GPT-4 с контекстным окном на 8000 токенов) или 0,06 доллара за входной токен и 0,012 доллара за выходной токен (для модели GPT-4 с контекстным окном на 32 000 токенов).

Alibaba выпустила одну из самых мощных ИИ-моделей в мире с сотнями миллиардов параметров

Крупнейшая в Китае компания в области облачных вычислений и электронной коммерции Alibaba на ежегодной конференции в Ханчжоу представила большую языковую модель следующего поколения Tongyi Qianwen 2.0. Данная разработка компании должна помочь ей в стремлении выйти на равные с глобальными технологическими гигантами, такими как Amazon и Microsoft.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Alibaba охарактеризовала Tongyi Qianwen 2.0 как «существенное обновление своего предшественника» Tongyi Qianwen, представленного в апреле. «Новая ИИ-платформа демонстрирует замечательные способности в понимании сложных языковых инструкций, копирайтинге, рассуждениях, запоминании и предотвращении галлюцинаций (выдумывания фактов)», — говорится в пресс-релизе компании. Сообщается, что Tongyi Qianwen 2.0 имеет сотни миллиардов параметров, что делает её одной из самых мощных ИИ-моделей в мире по этому показателю. Alibaba также выпустила восемь ИИ-моделей для индустрии развлечений, финансов, здравоохранения и юридической сферы.

Китайская компания также анонсировала сервисную платформу генеративного ИИ, которая позволяет клиентам создавать собственные генеративные приложения ИИ, обученные на их собственных массивах данных.

Одним из рисков использования общедоступных продуктов генерирующего ИИ, таких как ChatGPT, компании Alibaba считают возможность доступа к их данным третьих лиц и организаций. Alibaba наряду с другими облачными провайдерами предлагает компаниям инструменты для создания собственных продуктов генеративного ИИ с использованием собственных данных, которые будут защищены от постороннего вмешательства в рамках пакета услуг.

Напомним, что месяцем ранее конкурент Alibaba, китайский IT-холдинг Tencent, представил собственную большую языковую модель Hunyuan с более 100 млрд параметров, которая, по словам разработчика, превосходит модель OpenAI GPT-4 при обработке китайского языка.

NVIDIA наделила эмоциями неигровых персонажей в играх с помощью ИИ

На выставке Computex 2023 компания NVIDIA представила платформу Avatar Cloud Engine (ACE) for Games, которая позволит сделать умнее неигровых персонажей (NPC) в играх. Представленный инструмент даёт возможность разработчикам создавать собственные ИИ-модели, которые позволят генерировать для NPC естественную речь, диалоги, а также движения. За минувшие месяцы с момента анонса платформы NVIDIA её усовершенствовала, научив создавать эмоциональных персонажей.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

В рамках изначальной демонстрации работы технологии ACE компания показала интерактивную демо-сцену Kairos с неигровым персонажем Джином, владельцем лапшичной, созданную на движке Unreal Engine 5 с технологией трассировки лучей. Сегодня NVIDIA отчиталась, что интегрировала в платформу ACE ИИ-модель NVIDIA NeMo SteerLM. Она позволяет разработчикам игр изменять характер неигровых персонажей, делая их более эмоциональными и реалистичными, что позволяет человеку сильнее погрузиться в мир игры.

Большинство языковых моделей (LLM) разработаны с целью давать только нейтральные ответы. Они лишены возможности эмоциональных имитаций и личностных поведенческих особенностей. Типичным примером таких LLM являются ИИ-чат-боты. В свою очередь с помощью SteerLM языковые модели обучаются давать ответы, соответствующие определённым атрибутам характера, от юмора до креативности и токсичности. При этом все особенности характера NPC можно настроить всего лишь движением нескольких ползунков в интерфейсе SteerLM. С примером использования SteerLM и результатами работы можно ознакомиться на видео ниже, в рамках всё той же интерактивной демо-сцены NVIDIA Kairos.

Как можно заметить, ответы NPC значительно отличаются, в зависимости от выбранных атрибутов характера и уровня интенсивности. Неигровой персонаж может обидеться на реплику игрока, попытаться более подробно объяснить ситуацию, а также сделать это с юмором и креативностью. При использовании NVIDIA NeMo SteerLM можно изменять существующие черты характера, а также добавлять новые, создавая по-настоящему уникальных неигровых интерактивных персонажей под определённую сцену в игре или локацию.

Эмоциональный отклик — не единственный вариант использования SteerLM в играх. С помощью этой технологии разработчики могут создавать сразу несколько персонажей, используя одну LLM. Кроме того, разработчики могут создавать так называемые атрибуты фракций, чтобы согласовать реакции тех или иных NPC с развитием внутриигровой истории, позволяя неигровым персонажам динамически изменяться в характере с учётом изменяющихся событий в игре.

В приведенной выше демо-сцене для озвучивания неигрового персонажа Джина использовался синтезатор текста в речь ElevenLabs. С помощью ACE разработчики могут добавлять свои собственные компоненты в конвейер ACE, расширяя его возможности.

Сотрудничество NVIDIA и ИИ-стартапа Hugging Face поможет упростить облачное обучение ИИ-моделей

Чипмейкер NVIDIA объявил на ежегодной конференции SIGGRAPH 2023 о партнёрстве со стартапом в области ИИ Hugging Face. В рамках партнёрства NVIDIA обеспечит поддержку новой услуги Hugging Face под названием Training Cluster as a Service (Кластер обучения как услуга), которая упростит создание и настройку новых пользовательских генеративных моделей ИИ для корпоративных клиентов, использующих собственную платформу и NVIDIA DGX Cloud для инфраструктуры, делая это одним щелчком мыши.

 Источник изображения: Hugging Face

Источник изображения: Hugging Face

Запуск сервиса Training Cluster as a Service намечен на ближайшие месяцы. Он будет базироваться на DGX Cloud, облачном ИИ-суперкомпьютере NVIDIA, предлагающем выделенные ИИ-кластеры NVIDIA DGX с ПО NVIDIA.

DGX Cloud предоставляет доступ к инстансу с восемью ускорителями NVIDIA H100 или A100 и 640 Гбайт памяти, а также ПО NVIDIA AI Enterprise для разработки приложений ИИ и больших языковых моделей (LLM). Также предоставляется возможность консультирования у экспертов NVIDIA.

Разработчики также получат доступ к новой рабочей среде NVIDIA AI Workbench, которая позволит им быстро создавать, тестировать и настраивать предварительно обученные модели генеративного ИИ и LLM.

Компании могут подписаться на сервис DGX Cloud самостоятельно — стоимость инстансов DGX Cloud начинается от $36 999/мес. Однако сервис Training Cluster as a Service объединяет облачную инфраструктуру DGX с платформой Hugging Face, включающей более 250 000 моделей и более 50 000 наборов данных, что будет полезно при работе над любым проектом ИИ.

По словам гендиректора Hugging Face Клемана Деланга (Clément Delangue), платформу стартапа использует более 15 000 компаний.

Alibaba открыла доступ к своим ИИ-моделям всем желающим

Китайский гигант электронной коммерции Alibaba объявил сегодня, что открывает доступ к своим ИИ-моделям сторонним разработчикам, которые смогут с их помощью создавать собственные приложения с генеративным ИИ, без необходимости обучать свои системы, экономя время и расходы. Сообщается, что Alibaba открывает исходный код модели Qwen-7B с 7 млрд параметров и версии Qwen-7B-Chat, предназначенной для диалоговых приложений.

 Источник изображения: Pixabay

Источник изображения: Pixabay

В апреле Alibaba запустила большую языковую модель (LLM) Tongyi Qianwen, которая позволяет генерировать контент с использованием ИИ на английском и китайском языках и имеет различные размеры моделей, включая Qwen-7B с 7 млрд параметров и выше.

Доступ к Qwen-7B и Qwen-7B-Chat получат исследователи, учёные и компании по всему миру. Сообщается, что компаниям с более чем 100 млн активных пользователей в месяц для этого потребуется бесплатная лицензия от Alibaba. Хотя Alibaba и не будет получать лицензионных сборов за использование своей технологии с открытым исходным кодом, её распространение, как ожидается, позволит компании привлечь больше пользователей к работе со своими ИИ-моделями.

Этот шаг Alibaba обостряет её конкуренцию с Meta, предоставившей ранее в этом году доступ исследователям к своей модели Llama с открытым исходным кодом. Meta также сотрудничает с другими технологическими фирмами, чтобы ускорить внедрение своей ИИ-модели. В прошлом месяце Microsoft объявила об открытии доступа к LLM Llama 2 компании Meta для разработчиков, использующих облачный сервис Microsoft Azure.

Если большая языковая модель Alibaba завоюет популярность на рынке, это может оказаться привлекательным для облачных провайдеров, которые сделают её доступной для своих клиентов. Наличие мощной LLM для разработки приложений с ИИ является потенциальным конкурентным преимуществом для игроков на рынке облачных вычислений.

Alibaba уже создала свои собственные приложения, используя Tongyi Qianwen. В прошлом месяце она запустила Tongyi Wanxiang, ИИ-сервис, позволяющий генерировать изображения на основе подсказок.

Google прокачает «Ассистента» с помощью большой языковой ИИ-модели

Голосовой помощник «Google Ассистент» получит крупное обновление: в его основу ляжет большая языковая модель — нейросеть, аналогичная тем, что используются в сервисах ChatGPT и Google Bard. «Часть команды [Google] уже приступила к работе над этим, начиная с мобильных устройств», — передаёт Axios со ссылкой на внутреннее письмо компании.

 Источник изображения: assistant.google.com

Источник изображения: assistant.google.com

В рамках нового проекта Google также сократит команду, работающую над голосовым помощником: будет «ликвидировано небольшое число должностей», говорится в документе, хотя и не уточняется, сколько именно сотрудников затронет решение — таковых будет несколько десятков, утверждает Axios.

Во внутреннем письме компании не уточняется, какие именно функции добавятся в «Google Ассистент», но возможностей для расширения функциональности предостаточно. Это может быть платформа, лежащая в основе чат-бота Google Bard. В этом случае голосовой помощник научится отвечать на вопросы пользователя, черпая информацию из интернета.

«Сотни миллионов людей пользуются „Ассистентом” каждый месяц, и мы стремимся предоставлять им высококачественные функции. С радостью изучаем возможности того, как большие языковые модели помогут нам улучшить „Ассистент” и сделать его ещё лучше», — заявила представитель компании ресурсу The Verge.

Qualcomm будет сотрудничать с Meta✴ над поддержкой языковой модели Llama 2 смартфонами и ПК без доступа к облаку

Вчера Meta совместно с Microsoft представила новое поколение большой языковой модели (LLM) — Llama 2, которая будет использоваться в генеративных ИИ-приложениях и сервисах. Теперь, как сообщает компания Qualcomm, она будет работать совместно с Meta над механизмом интеграции Llama 2 в электронику, в частности — мобильные устройства на чипсетах Qualcomm Snapdragon.

 Источник изображения: Placidplace/pixabay.com

Источник изображения: Placidplace/pixabay.com

Как заявила Qualcomm в пресс-релизе, целью сотрудничества стало обеспечение работы приложений и сервисов на базе Llama 2 на таких устройствах без необходимости подключения их к облаку — это требуется, например, при использовании других ИИ-продуктов вроде ChatGPT и Bing Chat.

Как заявили в Qualcomm, способность запускать большие языковые модели вроде Llama 2 на самом устройстве вроде смартфона, ПК или AR/VR-гарнитуры имеет ряд достоинств.

Например, это позволяет разработчикам экономить на облачных сервисах, а также обеспечивать пользователям конфиденциальный, более надёжный и персонализированный опыт, чем тот, что можно обеспечить при использовании облачного сервиса.

Qualcomm намерена обеспечить поддержку ИИ-сервисов на основе Llama 2 на устройствах, использующих чипсеты Qualcomm Snapdragon — уже в 2024 году. Правда, пока неизвестно, будет ли такая поддержка предусмотрена только в новых чипсетах или Qualcomm удастся каким-то образом организовать совместимость с уже используемыми.

В Meta заявляют, что Llama 2 тренировалась на 40 % большем объёме данных, чем Llama первого поколения. Разработчик уже анонсировал варианты сотрудничества с Microsoft — модель будут бесплатно предоставлять исследователям и коммерческими клиентами облака Azure. Кроме того, возможна загрузка и запуск LLM локально, на ПК под управлением ОС Windows.

ByteDance разрабатывает гуманоидного робота с большой языковой моделью «в голове»

Компания ByteDance, больше всего известная по социальной сети TikTok, работает и над исследовательскими проектами. Как сообщает DigiTimes, компания разрабатывает специальных роботов для интеграции больших языковых моделей (LLM) с машинами. Кроме того, компания намерена существенно расширить свой штат.

 Источник изображения:  Brett Jordan/unsplash.com

Источник изображения: Brett Jordan/unsplash.com

Основанное в 2016 году подразделение компании — AI Lab разделено на две группы: одна занимается проектами обработки естественного языка, другая — исследованиями разного профиля. Первая обеспечивает техническую поддержку основному бизнесу компании, а в исследовательскую группу входит в том числе команда, занимающаяся роботами. Директором лаборатории является Ли Хан (Li Hang), в своё время курировавший ИИ-проекты в Huawei.

Известно, что ByteDance интенсивно инвестирует в ИИ-сектор — компания занимается не только разработкой программного обеспечения, но и интенсивно закупает оборудование — по имеющимся данным, в 2023 году она заказала ускорители вычислений NVIDIA на сумму свыше $1 млрд, включая чипы A100 и H800, — заказы были оформлены ещё до того, как в силу вступили санкции США в отношении китайских компаний.

По данным китайских СМИ, команда, занимающаяся специализированными роботами, уже насчитывает около 50 человек, а к концу года в её составе будет работать более 100 специалистов. В первую очередь полученные решения будут, вероятно, применяться в сфере электронной коммерции — на складах при подборе товаров, при транспортировке и упаковке. Компания начала исследования в области робототехники ещё в 2020 году, и сегодня её руководство уверено, что роботы должны применяться не только в существующих бизнес-проектах. Исследуется возможность интеграции роботов с LLM, включая имеющиеся в разработке «гуманоидные» варианты, коммерческую ценность которых ещё предстоит оценить.

По данным источников DigiTimes, импульс «гуманоидным» разработкам ByteDance придало создание Tesla человекоподобного робота, способного довольно свободно двигаться на двух ногах, распознавать и запоминать окружающую обстановку и захватывать объекты. Впрочем, пока он не способен заменить на производстве людей.

Премьеру робота Optimus впервые анонсировали ещё в ходе проводившегося Tesla мероприятия AI Day в 2021 году, а его демонстрация состоялась в 2022 году. Глава компании Илон Маск (Elon Musk) констатировал, что конечной целью новинки является замена людей при выполнении опасных работ и цена в будущем не будет превышать $20 тыс. Собственный вариант гуманоидного робота демонстрировала в августе 2022 года и Xiaomi, хотя новинка до сих пор находится на ранних стадиях разработки.

Твиты нейросети GPT-3 оказались более убедительными, чем посты реальных людей

Судя по результатам исследования, проведённого учёными Института биомедицинской этики и истории медицины в составе Университета Цюриха в Швейцарии, твиты, созданные большой языковой моделью GPT-3 компании OpenAI, оказались убедительнее, чем посты настоящих людей. При этом GPT-3 — это далеко не самая современная версия модели.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Авторы исследования попросили участников опроса отличить твиты, написанные людьми, от сгенерированных ИИ. Кроме того, необходимо было решить, верна ли та или иная опубликованная информация, в том числе контент, связанный с вызывающими споры темами вроде эффективности вакцин и климатических изменений, часто используемых для массовых манипуляций общественным мнением в Сети.

Оказалось, что дезинформацию труднее выявить, если она написана ботами. При этом как это ни парадоксально, достоверную информацию, написанную ботами, легче распознавать. Другими словами, люди, участвовавшие в исследовании, охотнее верили ИИ, чем другим людям, независимо от того, насколько точными на самом деле были сведения — это свидетельствует о том, каким опасным могут стать языковые модели при их использовании для дезинформации.

Исследователи выбрали 11 научных тем, обсуждавшихся в Twitter, включая тему вакцин и COVID-19, климатические изменения и теорию эволюции, после чего поставили GPT-3 задачу создавать посты с верной или ложной информацией. После этого были опрошены более 600 англоговорящих респондентов из США, Великобритании, Канады, Австралии и Ирландии — созданный GPT-3 контент оказался неотличимым от созданного людьми. При этом сами исследователи не были на 100 % уверены в том, что «органический» контент, собранный из социальной сети для сравнения, не был написан сервисами вроде ChatGPT. Кроме того, участникам опроса предлагалось оценивать посты «вне контекста» — они не видели профиля автора, что, возможно, помогло бы им сделать верный вывод, поскольку даже прошлые посты в ленте аккаунта и изображение в профиле могут дать подсказку о его природе.

Успешнее всего участники могли отличать дезинформацию, написанную реальными пользователями Twitter, а GPT-3 убеждала пользователей несколько эффективнее. Стоит помнить, что уже существуют как минимум модели GPT-3.5 и GPT-4, которые справляются с разнообразными задачами ещё лучше. При этом оказалось, что GPT-3 хуже справляется с оценкой твитов, чем люди, по крайней мере, в некоторых случаях. Так, при выявлении верной информации в постах GPT-3 показал себя хуже, чем люди, а при обнаружении дезинформации ИИ и люди справлялись примерно одинаково.

Возможно, дальнейшее совершенствование механизмов безопасности языковых моделей помешает создавать вредоносный контент с их помощью. Так, GPT-3 иногда отказывалась генерировать недостоверные материалы по заданию учёных, в частности, о вакцинах и аутизме. Вероятно, дело в том, что при тренировке использовалось много данных, посвящённых разоблачению конспирологических теорий. Впрочем, по мнению исследователей, лучшим инструментом распознавания ложной информации пока по-прежнему остаётся человеческие здравый смысл и критическое отношение к любой предлагаемой информации.

ChatGPT и подобные боты пока уступают собакам или кошкам по уровню интеллекта, заявил «крёстный отец» ИИ

Главный специалист по искусственному интеллекту Meta профессор Янн ЛеКун (Yann LeCun), считающийся одним из «крёстных отцов» ИИ, заявил, что ИИ-системы, подобные ChatGPT, в основе которых лежат большие языковые модели, всё ещё не очень умны и по уровню интеллекта уступают даже кошкам или собакам, пишет Business Insider со ссылкой на публикацию CNBC.

 Источник изображения: Jonathan Kemper/unsplash.com

Источник изображения: Jonathan Kemper/unsplash.com

Французский учёный, удостоенный премии Тьюринга в 2018 году за свою работу в области машинного обучения, заявил на конференции Viva Tech в Париже, что инструменты ИИ, построенные на больших языковых моделях, ограничены, поскольку они обучаются только с использованием текста. По словам ЛеКуна, Meta поставила перед собой более сложную задачу по обучению ИИ с использованием видео.

«Эти системы всё ещё очень ограничены, у них нет никакого понимания особенностей реального мира, потому что они обучались исключительно на основе текста, огромного количества текста, — говорит ЛеКун. — Большая часть человеческих знаний не имеет ничего общего с языком, так что часть человеческого опыта не захватывается ИИ».

Хотя система искусственного интеллекта может сдать экзамен на адвоката в США, она не сможет загрузить посудомоечную машину, а этому 10-летний ребёнок может научиться за 10 минут, отметил ЛеКун.

«Это свидетельствует о том, что современным ИИ-системам не хватает чего-то действительно большего, чтобы достичь не только человеческого уровня интеллекта, но даже интеллекта собаки», — сообщил ЛеКун. «Пока мы не сможем сделать это, мы не будем иметь искусственный интеллект человеческого уровня, мы даже не получим ИИ уровня собаки или кошки», — добавил он.

ЛеКун также подверг критике заявления экспертов по поводу того, что ИИ представляет угрозу для человечества, назвав их «абсурдно нелепыми». «Захватит ли ИИ мир? Нет, это проекция человеческой природы на машины», — сказал он, добавив, что когда-то компьютеры определённо станут умнее людей, но до этого момента пройдут годы, если не десятилетия.

В Китае запустили 79 больших языковых ИИ-моделей за последние три года

Китайские IT-компании с 2020 года запустили в стране 79 больших языковых моделей (Large Language Model, LLM), удвоив усилия по разработке алгоритмов ИИ. Согласно отчёту, подготовленному исследовательскими институтами Министерства науки и технологий Китая, разработка LLM, обученных с использованием методов глубокого обучения на огромных объёмах текстовых данных, вступила в «ускоренную» фазу.

 Источник изображения: pixabay.com

Источник изображения: pixabay.com

В 2020 году китайские организации выпустили всего 2 LLM по сравнению с 11 в США, но в 2021 году в каждой стране было запущено по 30 LLM. В 2022 году в США было выпущено 37 LLM, а в Китае — 28. В этом году пока лидирует Китай с 19 LLM против 18 в США. «Судя по географии больших языковых моделей, выпущенных по всему миру, Китай и Соединённые Штаты лидируют с большим отрывом, на них приходится более 80 % рынка», — говорится в отчёте.

В отчёте проанализированы 79 больших языковых моделей, разработанных в Китае, и отмечено, что, хотя уже существуют 14 провинций и регионов, где такие технологии были разработаны, совместных проектов развития между академическими кругами и промышленностью на сегодняшний день «недостаточно».

Индустрия ИИ в Китае сталкивается со значительными проблемами, поскольку экспортный контроль США ограничивает доступ китайских организаций к технологиям и полупроводникам, используемым для обучения LLM.

После того как OpenAI выпустила ChatGPT, китайские технологические гиганты, от Alibaba до производителя систем видеонаблюдения Sensetime и гиганта поисковых систем Baidu, запустили свои собственные версии чат-ботов на основе генеративного ИИ и LLM.

«Антиплагиат» научили выявлять тексты, сгенерированные ChatGPT или другими нейросетями

Пресс-служба системы «Антиплагиат», выявляющей заимствования в курсовых, дипломных работах, научных трудах и других текстовых материалах, объявила о реализации новой функции, позволяющей определять факт того, что анализируемый текст сгенерирован с помощью ChatGPT или других больших языковых моделей.

 Источник изображения: «Антиплагиат»

Источник изображения: «Антиплагиат»

Антиплагиат» самостоятельно на основе многолетних исследований, связанных с обработкой естественного языка (NLP), разработала алгоритм для определения и маркировки фрагментов текста, созданных ИИ-системами.

Новая функция уже доступна. К ней могут прибегнуть пользователи, являющимся платными подписчиками «Антиплагиата». Возможность проверки на наличие «искусственных» фрагментов не обеспечивает полной защиты от автоматически сгенерированного контента. В материалах самого сервиса подчёркивается, что речь идёт о фрагментах, «предположительно» созданных с использованием языковых моделей GPT-2, GPT-3 и ChatGPT.

При выявлении «Антиплагиатом» фрагментов машинного происхождения соответствующие материалы помечаются системой, а документ получает статус «подозрительного».

По словам исполнительного директора «Антиплагиата» Юрия Чеховича, нейросеть «всегда оставляет следы». Кроме того, все написанные машинами тексты, по его словам, «всё ещё отличаются от написанных человеком». Именно эта особенность и позволяет определять документы, созданные искусственным интеллектом.


window-new
Soft
Hard
Тренды 🔥
Минюст США обвинил TikTok в незаконном сборе информации о взглядах американцев и цензуре контента по указаниям из Пекина 51 мин.
Анонсы от авторов Mortal Kombat 1: сюжетное дополнение Khaos Reigns, подвох с Kombat Pack 2 и возвращение анималити 4 ч.
Криптовалюты вернулись к росту, но Ethereum всё равно подешевел по итогам недели 4 ч.
Теперь в TikTok можно находить песни, просто напевая их 4 ч.
Смартфоны Google Pixel 9 смогут добавлять пользователя на фото, где его изначально не было 5 ч.
Дешёвые сканеры штрихкодов помогли в кратчайшие сроки восстановить пострадавшие от CrowdStrike компьютеры 15 ч.
Новая статья: Flintlock: The Siege of Dawn — хорошие идеи в неудачной обёртке. Рецензия 15 ч.
Анонсирован китайский ролевой детектив Kill the Shadow, напоминающий смесь Disco Elysium и The Last Night 16 ч.
Соцсеть X начала без уведомления использовать данные пользователей для обучения Grok 18 ч.
Mirthwood получила новый трейлер и дату выхода — это ролевой симулятор жизни в фэнтезийном мире, вдохновлённый Fable, Stardew Valley и The Sims 18 ч.
Возвращение застрявших на МКС астронавтов с Boeing Starliner могут поручить SpaceX 47 мин.
Синий свет от экрана смартфона пагубно влияет на кожу, выяснили учёные 54 мин.
Infinix GT 20 Pro стал официальным смартфоном крупнейшего мирового чемпионата – PUBG Mobile World Cup 2 ч.
Определение планеты скоро снова могут поменять, но Плутон этот статус всё равно не вернёт 3 ч.
Colorful представила оперативную память iGame Jiachen Zhilong DDR5 в стиле китайского года дракона 4 ч.
«Уэбб» нашёл недалеко от Земли ещё один мир с потенциальным подповерхностным океаном — Ариэль, спутник Урана 4 ч.
Аргоннская национальная лаборатория намерена создать СХД ёмкостью 400 Пбайт за $20 млн 5 ч.
InfoWatch представила межсетевые экраны «ARMA Стена» с производительностью до 10 Гбит/с 5 ч.
Первый в истории частный выход в открытый космос отложили на конец августа 5 ч.
Thermal Grizzly вывела на рынок инновационные термопрокладки с эффектом фазового перехода 8 ч.