На следующей неделе выйдет GPT-4 — ИИ-модель с которой можно будет общаться текстом, картинками и видео
Читать в полной версииНа следующей неделе OpenAI совместно с Microsoft представит большую языковую модель (LLM) нового поколения GPT-4 (Generative Pre-trained Transformer 4). Об этом сообщил технический директор немецкого подразделения Microsoft Андреас Браун (Andreas Braun). Как ожидается, GPT-4 будет значительно превосходить по функциональности предыдущую версию GPT-3.5, открывая новые возможности корпоративного использования генеративного ИИ.
«Мы представим GPT-4 на следующей неделе, там у нас будут мультимодальные модели, которые предложат совершенно другие возможности — например, [генерацию] видео», — заявил Браун в ходе прошедшего в четверг мероприятия AI in Focus – Digital Kickoff. Он отметил, что использование больших языковых моделей привело к «изменению правил игры», поскольку они учат машины понимать естественный язык, что позволяет им понимать то, что ранее было доступно для понимания только человеку.
Технология вышла на новый уровень и «работает на всех языках»: можно задать вопрос на немецком и получить ответ на итальянском. Благодаря мультимодальности Microsoft (совместно с OpenAI) «сделает модели всеобъемлющими», отметил Браун.
Гендиректор Microsoft Germany Марианна Яник (Marianne Janik) пояснила, что внедрение ИИ вовсе не означает сокращение рабочих мест, речь идёт не о замене работников, а о выполнении повторяющихся задач по-другому. «Потребуется много специалистов», чтобы полноценно использовать ИИ, отметила Яник и предложила компаниям создавать внутренние «центры компетенций», где будут обучать сотрудников использованию ИИ и объединять идеи для проектов.
Яник также заявила о «демократизации» применения ИИ, имея в виду удобство использования моделей в семействе продуктов Microsoft, в частности их широкую доступность благодаря интеграции ИИ в платформу Azure, Outlook и Teams.
Преимущество мультимодального ИИ заключается в том, он может соответствующим образом переводить текст не только в изображения, но и в музыку и видео. Также самой нейросети можно будет в качестве запросов отправлять не только текст, но и аудио, картинки и видео. Если GPT-3.5 позволяет пользователям взаимодействовать посредством ввода текста, то GPT-4 с мультимодальными возможностями, в идеале может обеспечить возможность взаимодействовать в нескольких режимах, включая текст, изображения и звуки.
В ходе мероприятия AI in Focus специалисты компании привели примеры практического использования ИИ. По словам Хольгера Кенна (Holger Kenn) из Microsoft Germany, ответственный ИИ уже встроен в продукты Microsoft, и «миллионы запросов могут быть отображены в API» через облако. В свою очередь Клеменс Зиблер (Clemens Sieber) рассказал, что уже сейчас телефонные звонки с преобразованием речи в текст можно было бы записывать, и больше не пришлось бы вручную обобщать и вводить контент. По словам Зиблера, это позволило бы сэкономить 500 рабочих часов в день у крупного клиента Microsoft в Нидерландах, к которому поступает до 30 000 звонков в день.
Отвечая на вопрос об операционной надёжности и достоверности ответов ИИ, Зиблер сообщил, что они не всегда будут правильными, поэтому необходимо проводить валидацию, и что сейчас Microsoft работает над формированием системы показателей достоверности для решения этой проблемы. Он отметил, что текст, предложенный моделью, является генеративным, и поэтому его нелегко проверить. «Мы строим вокруг него петлю обратной связи с одобрением и неодобрением», — рассказал Зиблер.