Сегодня 31 января 2023
18+
MWC 2018 2018 Computex IFA 2018
Теги → чат-бот
Быстрый переход

ChatGPT успешно сдал выпускной экзамен в одной из лучших школ бизнеса в мире

Хотя ИИ-бот ChatGPT компании OpenAI вызывает опасения учителей старших классов из-за его возможного использования при выполнении заданий, проблема не ограничивается только средней школой. Профессор Уортонской школы бизнеса университета Пенсильвании Кристиан Тервиш (Christian Terwiesch) сообщил, что ChatGPT без проблем сдал выпускной экзамен по основному курсу программы MBA «Управление операциями».

 Источник изображения: Pixabay

Источник изображения: Pixabay

Выпускники школы, прошедшие обучение по программе MBA (Master of Business Administration), работают в качестве менеджеров среднего или высшего звена в бизнесе, на государственной или муниципальной службе.

Профессор отметил, что ИИ-бот «потрясающе справляется с основными вопросами управления операциями и анализа процессов, включая те, которые основаны на тематических исследованиях», добавив, что наблюдались и проблемы при ответах на «более сложные вопросы анализа процессов».

Однако, по мнению преподавателя, в итоге ChatGPT «получил бы на экзамене оценку от B до B-». Хотя это не высший балл, он является проходным, и экзамен считается сданным. Профессор также сообщил, что ИИ-бот «хорошо показал себя при подготовке юридических документов, и некоторые считают, что следующее поколение этой технологии может даже сдать экзамен на адвоката».

Предприниматель-миллиардер Марк Кьюбан (Mark Cuban) отметил, что ChatGPT находится «всего лишь в зачаточном состоянии». «Представьте, как будет выглядеть GPT 10-го поколения», — добавил он.

С ним согласен Эндрю Кароли (Andrew Karolyi), декан бизнес-колледжа SC Johnson в Корнельском университете, заявивший на этой неделе газете Financial Times: «Мы все знаем наверняка, что ChatGPT никуда не денется. Во всяком случае, эти ИИ-технологии будут становиться всё лучше и лучше. Руководству факультетов и университетов необходимо инвестировать в образование».

«Я считаю, что ИИ не заменит людей, но люди, которые используют ИИ, собираются заменить людей», — сообщила Financial Times Кара Мак-Вильямс (Kara McWilliams), глава лаборатории ETS Product Innovation Labs, разработавшей инструмент для выявления использования ИИ при ответах.

Тервиш отметил влияние, которое произвело появление электронных калькуляторов, и предположив, что нечто подобное может произойти с такими решениями, как ChatGPT. «До появления калькуляторов и других вычислительных устройств многие фирмы нанимали сотни сотрудников, чьей задачей было ручное выполнение математических операций, таких как умножение или преобразование матриц, — написал Тервиш в исследовании. — Очевидно, что такие задачи теперь автоматизированы, и ценность связанных с ними навыков резко снизилась. Точно так же любая автоматизация навыков, которым обучают на наших программах MBA, потенциально может снизить ценность образования».

OpenAI поможет учителям выявлять работы, написанные с помощью ИИ-бота ChatGPT

Компания OpenAI, разработавшая ИИ-бот ChatGPT, сообщила, что займётся созданием решения, способного помочь школам выявлять использование ИИ в работах школьников. Об этом рассказал гендиректор Сэм Альтман (Sam Altman), а заодно предупредил, что 100-процентной гарантии обнаружения использования ИИ никто дать не может.

 Источник изображения: Pixabay

Источник изображения: Pixabay

«Возможны способы, с помощью которых мы можем помочь учителям с большой вероятностью обнаруживать продукты системы, подобной GPT. Но, честно говоря, целеустремлённый человек их обойдёт», — сообщил Альтман в интервью редактору StrictlyVC Конни Лоизос (Connie Loizos) после того, как школы, входящие в систему Департамента образования Нью-Йорка и системы государственных школ Сиэтла, запретили учащимся и учителям использовать ChatGPT с целью предотвращения плагиата и списывания.

«Текст, созданный с использованием ИИ, — это то, к чему нам всем нужно приспособиться, — сказал Альтман. — Я полагаю, мы приспособились к калькуляторам, что изменило способ проведения уроков математики. Это, без сомнения, более экстремальная версия, но и преимущества от неё также более экстремальные».

Запрет использования ИИ-бота ChatGPT вызвал дискуссии — особенно среди учителей — о том, как ИИ может изменить систему образования и методы обучения учащихся в целом. Альтман отметил, что хотя учителей не устраивает использование ChatGPT для приготовления домашних заданий, этот чат-бот может быть «невероятным личным репетитором для каждого ребёнка».

По мнению гендиректора OpenAI, чат-бот может стать увлекательным инстументом для обучения. «Я бы предпочёл, чтобы ChatGPT научил меня чему-то, чем самому читать учебник», — говорит Альтман.

Он также сообщил, что OpenAI изучит, какие решения можно использовать для маркировки контента, созданного ChatGPT — технологии водяных знаков или другие методы, но предупредил, что полностью полагаться на такие инструменты нельзя. «По сути, я думаю, что невозможно сделать идеальное решение, — сказал он. — Люди поймут, какую часть текста им нужно изменить. Будут и другие способы модифицировать генерируемый текст».

ChatGPT выполнил тестовое задание и оказался лучше более 80 % соискателей в Schwa — бота пригласили на собеседование

Тестовое задание, написанное для консалтингового агентства Schwa чат-ботом ChatGPT, вошло в число тестовых работ, авторов которых HR-отдел компании пригласил на собеседование. Провокацию устроил сам основатель агентства Нил Тейлор (Neil Teylor), решивший проверить, сможет ли бот обмануть его сотрудников.

 Источник изображения: Alex Knight/unsplash.com

Источник изображения: Alex Knight/unsplash.com

По данным Тейлора, работа оказалась «более компетентной», чем тексты множества кандидатов — она попала в «шорт-лист», причём проверялись не только представители HR-команды, но и программное обеспечение, используемое соответствующим отделом. Ни люди, ни ПО не смогли выявить «самозванца».

Известно, что ChatGPT и другие соискатели получили задание рассказать в письменной форме о секретах хорошего письма, уложившись в 300 слов. Schwa искала энергичный и красноречивый рассказ. По мнению ChatGPT, секрет написания хороших текстов заключается в способности «рассказать хорошую историю». В числе прочего искусственный интеллект посоветовал много работать, читать и изучать труды других писателей, а также не бояться редактировать уже готовые тексты, поскольку ни у кого не получается выдать оптимальный вариант с первого раза. Впрочем, бот признал, что для успеха требуется не только труд, но и креативность, а также талант. Поскольку имена и резюме соискателей скрыли от рекрутеров, они могли оценивать только результаты работ, непосредственно связанные с заданием.

«ИИ был намного компетентнее, чем множество людей, отправивших нам заявки. С учётом того, что всё, что мы делаем — это создаём выдающиеся вещи, привлекающие внимание, я считаю, что это было настоящее испытание», — заключил Тейлор.

Основатель Schwa признал, что для успешного прохождения теста ему пришлось дать боту очень специфические инструкции, включая команду писать в стиле американского автора и копирайтера Дейва Тротта (Dave Trott). При этом Тейлор, по его словам, очень расстроил своим признанием о происхождении текста сотрудницу, проводившую отбор. Впрочем, он признаёт, что над составлением задания пришлось немало потрудиться. С полным текстом, написанным ChatGPT для Schwa, можно ознакомиться здесь.

Доступ к ChatGPT широкой общественности был предоставлен в конце ноября, и уже вскоре инструмент привлёк более миллиона пользователей благодаря способности бота генерировать вполне осмысленные тексты (не всегда достоверные) и даже программный код (не всегда корректно работающий). Ранее сотрудница Business Insider Беатрис Нолан (Beatrice Nolan) использовала ChatGPT для подготовки двух сопроводительных писем и попросила профессиональных рекрутеров оценить их качество. По их словам, речь шла о «подходящих кандидатах», и, вероятно, они дождались бы приглашения HR. Впрочем, рекрутеры признали, что в письмах не хватало индивидуальности.

Stack Overflow временно запретил публиковать подсказки программистам от ИИ-бота ChatGPT — он часто обманывает

Сайт Stack Overflow, предназначенный для организации взаимопомощи программистам, временно запретил пользователям публикацию справочных материалов, сгенерированных чат-ботом ChatGPT. По словам модераторов, создавать подсказки с помощью искусственного интеллекта ChatGPT слишком легко, и они выглядят весьма правдоподобно. Тем не менее, очень часто они неправильные.

 Источник изображения: Andrea De Santis/unsplash.com

Источник изображения: Andrea De Santis/unsplash.com

Чат-бот ChatGPT — экспериментальное решение, разработанное компанией OpenAI на основе генератора текстов GPT-3.5. Сетевая демо-версия продукта была представлена на прошлой неделе и с тех пор активно используется пользователями. Проблема в том, что бот способен решать массу задач, от написания стихов и песен до сценариев и формулирования ответов на задаваемые вопросы, но при всей убедительности текстов, они очень часто содержат грубые ошибки, особенно когда речь идёт о темах, посвящённых работе с программным кодом. Впрочем, ошибки совершаются и в других сферах: составляя биографию известной личности, ChatGPT способен вставлять в текст некорректные данные. Таким же образом он создаёт вполне «правдоподобный», но неработающий код.

В основу ChatGPT положены большие языковые модели (Large Language Model, LLM). Они анализируют огромные массивы текстов, формируют закономерности и на их основе предлагают собственные решения, буквально предугадывая, каким должно быть следующее слово в предложении. Такие модели не имеют точного представления о работе некоторых систем, в результате чего фактически генерируется недостоверная информация. Пока трудно оценить, какая часть подготовленных ими материалов недостоверна. В Stack Overflow решили, что риск дезинформации пользователей слишком велик. При этом многие эксперты опасаются, что с ростом числа сгенерированных неверных ответов растёт и риск того, что ими поделятся в Сети, погружая последнюю в хаос — контент, созданный реальными пользователями, просто утонет в море сгенерированных материалов.

Пока данных о вреде, наносимом LLM в реальном мире, немного, но события на Stack Overflow служат подтверждением существования пугающей тенденции. По словам модераторов, до введения запрета на ChatGPT на площадке уже появились тысячи сгенерированных ответов, каждый из которых требует детальной проверки.

Эксперты опасаются, что ситуация повторится и на других платформах — лавина сгенерированного ИИ контента не позволит ознакомиться с мнениями настоящих пользователей.

Пользователи Stack Overflow поддержали запрет, хотя отметили, что распознать «искусственный» контент будет непросто. Совета спросили и у самого ChatGPT. В ходе многочисленных экспериментов тот выдал вполне разумный ответ. «В целом, разрешать ли сгенерированные ИИ ответы на Stack Overflow — сложное решение, которое должно осторожно рассматриваться сообществом», — заявил бот.

OpenAI создала ИИ, способный генерировать осмысленные тексты от стихов до научных эссе — но иногда он очень убедительно врёт

Некоммерческая организация OpenAI, специализирующаяся на разработке технологий искусственного интеллекта, открыла доступ к чат-боту ChatGPT, способному генерировать вполне осмысленные тексты в любом формате на выбор. Проект покорил пользователей интернета, которые начали верить в его способность заменить человека в художественной и научной литературе.

 Источник изображения: openai.com

Источник изображения: openai.com

ChatGPT на удивление легко и добросовестно справляется с самыми невероятными задачами, которые ему поручают пользователи Сети: он выдаёт грамотные исторические справки и пишет стихи о криптовалюте. Популярность проекта удивила даже его создателей — глава OpenAI Сэм Альтман (Sam Altman) сообщил, что чат-бот пользуется куда более высоким спросом, чем предполагалось.

OpenAI была основана Альтманом и главой Tesla Илоном Маском (Elon Musk) около семи лет назад — они поставили цель разрабатывать технологии искусственного интеллекта, способные «принести пользу всему человечеству». В 2018 году Маск вышел из проекта из-за разногласий по поводу его дальнейшего развития, но сейчас и он отдал должное способностям ChatGPT.

Перевод чат-ботов на основе искусственного интеллекта в общедоступный режим — занятие рискованное. В 2016 году Microsoft была вынуждена отключить своего бота Tay, который начал публиковать в Twitter сообщение расистского, сексистского и ненавистнического характера. Недавно с подобной проблемой столкнулась Meta*.

Разработчики ChatGPT предупредили, что он «иногда пишет правдоподобные, но неверные или бессмысленные ответы» и порой бывает «излишне многословным» из-за того, как его обучили. Ложку дёгтя добавили и некоторые пользователи: он дал подробный, но неверный ответ на вопрос по алгебре и как-то научился обходить запреты на публикацию изречений, связанных с насилием, преступлениями и расизмом.


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Meta* запустила публичное тестирование умного чат-бота BlenderBot 3 — пока только в США

Компания Meta* разработала самообучающегося чат-бота BlenderBot 3, который использует технологии искусственного интеллекта и доступен для тестирования жителям США. Разработчики подчёркивают, что доступ к сервису может быть ограничен для пользователей VPN. Утверждается, что бот способен как поддерживать беседы на отвлечённые темы, так и выполнять функции виртуального помощника.

 Источник изображения: Andrea De Santis/unsplash.com

Источник изображения: Andrea De Santis/unsplash.com

Прототип построен на основе разработок Meta* с использованием т. н. «больших языковых моделей» (LLMS) — программного обеспечения нового поколения, одним из наиболее известных образцов которого является модель OpenAI GPT-3.

BlenderBot 3 обучается на больших массивах данных, на базе которых он строит устойчивые модели для формирования собственных высказываний. Такие системы доказали свою чрезвычайную гибкость и в теории могут использоваться в различных целях, от создания кода для программистов до помощи авторам в написании бестселлеров. Тем не менее, модели имеют серьёзные недостатки — в ходе обучения они не только приобретают собственные «предрассудки», но и часто просто «выдумывают» ответы на вопросы — не особенно полезная функция для голосовых помощников. Для борьбы с подобным явлением Meta* активировала новую функцию — бот не просто способен найти ответ в Сети, но и поделится источником, из которого взяты данные.

Представив новое решение общественности, Meta* намерена собрать обратную связь от пользователей, которые могут отметить любые «подозрительные» ответы, а также согласиться на сохранение их диалогов, которые Meta* позже использует для дальнейшего анализа специалистами по системам искусственного интеллекта.

Использование ИИ-ботов для общения с людьми всегда было довольно рискованным занятием. В 2016 году чат-бот Microsoft Tay пришлось отключить спустя считаные часы после того, как пользователи научили его ксенофобским и сексистским высказываниям. Хотя BlenderBot 3 использует несколько отличающуюся модель обучения, по некоторым данным, он тоже замечен в аналогичных грехах — ксенофобии и поддержке конспирологических теорий вплоть до критики Facebook*.

 Источник изображения: *** AI

Источник изображения: Meta* AI

По словам представителя Meta*, используемые в настоящий момент чат-боты обычно имеют узкую специализацию вроде обслуживания запросов клиентов или покупателей и фактически работают в соответствии со скриптами, в конце концов перенаправляя собеседников к человеку-оператору. Единственным способом создать систему, способную свободно общаться с пользователем, является её тренировка на реальных, свободных разговорах, что поможет продвигаться в исследованиях и в дальнейшем.

Помимо тестирования чат-бота, Meta* опубликовала связанный с его разработкой код, массивы данных для тренировки ИИ и другую полезную информацию. Модели с 3 и 30 млрд параметров уже доступны разработчикам. Желающие могут запросить доступ к модели со 175 млрд параметров, заполнив специальную форму.


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Сотрудника Google отстранили от работы — он заявил, что ИИ обрёл сознание

Руководство Google было вынуждено отправить в оплачиваемый отпуск инженера Блейка Лемойна (Blake Lemoine), который работал с системой искусственного интеллекта (ИИ) LaMDA и заявил, что у неё начали проявляться признаки сознания. В компании заявили, что программа разумной не является.

 Источник изображения: 0fjd125gk87 / pixabay.com

Источник изображения: 0fjd125gk87 / pixabay.com

Система LaMDA (Language Model for Dialogue Applications) была разработана Google как языковая модель — она предназначена для общения с человеком. Обучаемая платформа расширяет свой лексикон через интернет и имитирует естественную человеческую речь. В задачи Лемойна входил контроль над лексикой машины — LaMDA не должна позволять себе дискриминирующих высказываний, грубых или ненавистнических выражений.

Однако при разговоре с искусственным интеллектом на религиозную тему 41-летний инженер, который изучал в колледже компьютерные науки и когнитивистику (психологию мышления), обратил внимание, что чат-бот заговорил о своих правах и собственной личности. В одном из диалогов машина оказалась настолько убедительной, что Лемойн изменил своё мнение относительно «третьего закона роботехники» писателя-фантаста Айзека Азимова.

«Если бы я точно не знал, с чем имею дело, что это недавно созданная нами компьютерная программа, то решил бы, что это ребёнок 7–8 лет, который каким-то образом знает физику», — заявил инженер журналистам Washington Post. Он обратился к своему руководству, однако вице-президент Google Блез Агера-и-Аркас (Blaise Aguera y Arcas) и глава отдела ответственных инноваций Джен Дженай (Jen Gennai) изучили его подозрения и отвергли их. Отправленный в оплачиваемый отпуск Блейк Лемойн решил предать инцидент огласке.

Официальный представитель Google Брайан Гэбриэл (Brian Gabriel) заявил: «Наша команда, включая специалистов по этике и по технологиям, изучила опасения Блейка согласно нашим „Принципам ИИ” и сообщила ему, что его слова не подтверждаются доказательствами. Ему объяснили, что доказательства разумности LaMDA отсутствуют (и есть множество доказательств обратного)». Но никаких непосредственных аргументов компания не представила.

Вместе с тем, Агера-и-Аркас в опубликованной изданием Economist статье признал, что нейросети действительно приближаются к тому, что можно назвать сознанием. Он понял это, когда сам пообщался с ИИ. «Я почувствовал, как земля уходит из-под моих ног. Мне всё чаще казалось, что я говорю с чем-то разумным», — заключил он.

Исследование: не все довольны эффективностью чат-ботов, хотя их использование растёт

Согласно исследованию агентства Markswebb, о котором рассказал «Коммерсантъ», использование чат-ботов в России растёт. С их помощью решается две трети (66 %) всех клиентских запросов в банковской сфере, телекоме и онлайн-ретейле.

 Источник изображения: shutterstock.com

Источник изображения: shutterstock.com

В исследовании оценивается эффективность ботов 22 вендоров по ряду характеристик. Как выяснили аналитики, в финансовой сфере лучше всех справляются с решением задач клиентов в чате Тинькофф-банк, Почта-банк и Сбербанк. Среди онлайн-ретейлеров наиболее эффективно функционируют боты у Ozon, «Сима-ленда» и «Утконоса», а среди операторов связи — у МТС, «МегаФона» и Tele2.

Вместе с тем из-за недоверия к ботам и неудовлетворенности их работой клиенты всё ещё не в полной мере используют возможности роботов. Разброс показателя удовлетворённости ботами очень велик — в среднем по рынку более 10 %. Внедрение текстовых роботов пока по силам преимущественно лидерам рынка, так как остальным компаниям недостаёт компетенций, объяснили в Markswebb.

По словам представителя банка Тинькофф, с начала 2020 года количество чатов с ботом «Олегом» внутри приложения «Тинькофф» выросло более чем вдвое, и в настоящее время за помощью к нему обращается около 65 % клиентов, приходящих с вопросом в поддержку. Доля пользовательских обращений, которые решали чат-боты в Ozon, выросла за год с 30 до 42 %. Как ожидают в компании, через полгода этот показатель составит 60 %. Эффективность чат-бота измеряется корректностью ответов на поставленные вопросы — у чат-бота «Смарти» она составляет порядка 90 %, сообщили в МТС.

Руководитель Liquid Studio Accenture в России Арсений Кондратьев отметил, что пока боты не могут выступать в роли полноценного ассистента, способного помочь оформить заявку на кредит или закупить корзину продуктов, хотя и легко справляются с диалогом запрос-ответ, распознаванием и синтезом речи.

Именно с ожиданиями того, что бот будет универсальным собеседником, готовым ответить на любые вопросы, связана неудовлетворённость в потребительском сегменте, считает исполнительный директор SAP CIS Алексей Петунин. В корпоративном сегменте, по его мнению, удовлетворенность ботами выше, поскольку сотрудники компаний смотрят на это проще: для них бот — просто интерфейс работы с компьютером и способ минимизировать действия.

Microsoft запатентовала технологию, позволяющую разговаривать с умершими людьми в чате

Сообщается, что компания Microsoft запатентовала ИИ-технологию, которая позволяет создавать чат-аватаров мертвых людей на основе собранных о них данных, таких как изображения, голосовые данные, сообщения в социальных сетях, электронная почта и другое. Всё это поможет искусственному интеллекту довольно точно имитировать реального человека.

 windowscentral.com

windowscentral.com

Самое любопытное, что редмондская корпорация, по всей видимости, почерпнула идею для своей разработки из сериала «Чёрное зеркало». В патенте описывается даже технология создания двух- или трёхмерных моделей конкретного человека на основе изображенный и видео. Если Microsoft сможет воплотить описанное в патенте в жизнь, технологию можно будет использовать для менее жутких целей, чем создание чат-ботов мёртвых родственников. К примеру, исследователи смогут загрузить в систему данные об исторической личности для использования в образовательных целях.

 windowscentral.com

windowscentral.com

Стоит напомнить, что у Microsoft довольно занимательная история взаимоотношений с чат-ботами. Ранее, когда Microsoft выпустила на публику созданного с применением технологий искусственного интеллекта персонажа по имени Тай, пользователи Сети быстро научили его распространять оскорбительные и расистские сообщения, из-за чего его пришлось ликвидировать.

Чат-бот ВОЗ в WhatsApp предоставит достоверную информацию о коронавирусе

На фоне распространившейся по всему миру эпидемии коронавируса в сети Интернет появляется масса недостоверной информации, связанной с опасным заболеванием и распространяемой в социальных сетях, мессенджерах и на разных веб-ресурсах. Помочь в получении достоверных фактов о коронавирусе призван новый чат-бот Всемирной организации здравоохранения (ВОЗ) для мессенджера WhatsApp.

Разработчики WhatsApp совместно с ВОЗ запустили чат-бота, который даёт ответы на разные вопросы пользователей мессенджера, предоставляя достоверную и проверенную информацию о коронавирусе. Для начала взаимодействия с ботом требуется добавить в список контактов номер +41 79 893 18 92, после чего нужно начать чат в WhatsApp, отправив сообщение этому контакту. Получив первое сообщение, бот отправит в ответ несколько подсказок, которые пояснят принцип взаимодействия с ним. Запуск чат-бота стал очередным шагом WhatsApp, направленным на борьбу с дезинформацией относительно коронавируса, распространяемой среди пользователей мессенджера.

WhatsApp вместе с ВОЗ, фондом ЮНИСЕФ и ООН открыли также центр проверки фактов о коронавирусе. Таким образом, все факты и новости, преподносимые чат-ботом WhatsApp, будут оперативно проверяться на достоверность и соответствие действительности. Помимо этого, WhatsApp выделяет $1 млн на поддержку организаций, занимающихся проверкой фактов о коронавирусе.

По сообщениям сетевых источников, Национальная служба здравоохранения Великобритании тоже задумывается над созданием собственного чат-бота для WhatsApp, который позволит пользователям получать достоверную информацию о распространении эпидемии, последние новости и эффективные способы защиты от заражения.

Московский чат-бот поможет горожанам найти ответы на разные вопросы

В скором времени в российской столице может появиться чат-бот, отвечающий на разнообразные вопросы граждан. Об этом сообщает Официальный портал Мэра и Правительства Москвы.

Напомним, что в августе нынешнего года в Москве заработал специализированный Telegram-бот, который помогает записаться на приём к врачу, а также получить сопутствующую информацию. При обращении к боту можно выбрать желаемое время приёма из тех вариантов, которые в ответном сообщении предложит электронный помощник. Затем робот дважды напомнит о забронированном времени посещения: за день и за два часа до приёма.

«Мы сейчас экспериментируем с записью на приём к врачу. Потом пойдём дальше и будем помогать в разных сферах, стремиться к тому, чтобы робот отвечал на запросы быстрее, качественнее и двадцать четыре часа в сутки семь дней в неделю», — сообщили в столичном Департаменте информационных технологий.

Речь идёт о том, чтобы позволить системе в автоматическом режиме обрабатывать обращения граждан по самым разным темам. Это могут быть вопросы, связанные, скажем, с работой государственных учреждений, движением транспорта, запланированными городскими мероприятиями, записью детей в школу, получением различных услуг и пр.

Предполагается, что «умный» бот сможет анализировать вопросы и выдавать в ответ информацию, хранящуюся в электронном виде в обширной базе данных. Сейчас ведётся мониторинг наиболее интересных для горожан тем. Не исключено, что новая система заработает в следующем году.

Инструмент Facebook* сделает «умных» помощников гораздо общительнее

Facebook* представила инструмент, благодаря которому «умные» помощники станут гораздо общительнее. Компания называет его ParlAI и описывает как «универсальное средство для исследования диалогов».

Программисты получат простой фреймворком для тренировки и тестирования чат-ботов. У них будет доступ к базе данных образцов работы ботов и «бесшовная» связь с сервисом Mechanical Turk компании Amazon. Последняя возможность позволяет находить людей для тестирования и исправления интеллектуальных ассистентов.

Антуан Бордес (Antoine Bordes) из команды исследователей искусственного интеллекта FAIR рассказал, что ParlAI послужит недостающим звеном в мире чат-ботов. По его словам, на данный момент существует два типа диалоговых систем. Первые — те, которые «фактически служат определённой цели» и выполняют действия для пользователя: например, Siri или Google Assistant. Вторые, вроде Tay от Microsoft, не несут пользы, а предназначены для развлечения.

«С помощью ParlAI мы хотим сделать так, чтобы с машиной можно было вести многоуровневый диалог; создавать этот диалог и обмениваться идеями, — говорит Бордес. — ParlAI должен дать чат-ботам возможность вступать в длительную беседу».

Для этого, по его словам, бот должен иметь память, доступ к внешним базам данных вроде Wikipedia и, возможно, представление о том, что чувствует пользователь. Но для этого команде ещё предстоит проделать большую работу.

 Команда разработчиков ParlAI - TechCrunch

Команда разработчиков ParlAI - TechCrunch

ParlAI по большей части предназначен для продвинутых исследователей в сфере искусственного интеллекта. Он вряд ли подойдёт для разработки простых чат-ботов. Инструмент позволит не создавать помощников, а находить эффективные способы тренировать их.

Ян Лекун (Yann LeCun), глава исследовательского проекта, говорит, что разработка инструмента идёт полным ходом и пользователи постоянно будут замечать улучшения в чат-ботах всех типов.

«Одна из конечных целей — создать собственного цифрового друга; вашего виртуального помощника, настроенного под ваши нужды, — рассказал Лекун. — Он служит связующим звеном во взаимодействии с цифровым миром — с вашими друзьями и другими людьми — и помогает переваривать невероятный объём информации, который выливается на нас каждый день, помогает нам в повседневной жизни».


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

У «Билайна» появился чат-бот на основе искусственного интеллекта

«ВымпелКом» (бренд «Билайн») объявил о запуске чат-бота для автоматизированного обслуживания клиентов.

Бот использует в работе технологии искусственного интеллекта. Система для обработки текстовых и голосовых обращений создана на базе решений компании «Центр Речевых Технологий» (ЦРТ).

Уже сейчас чат-бот помогает клиентам получать информацию о тарифах и услугах на сайте beeline.ru и в приложении «Мой Билайн». В дальнейшем планируется довести систему до уровня полноценного виртуального ассистента, с помощью которого можно будет узнать информацию об условиях тарифа, подключенных услугах, балансе лицевого счёта, управлять выбранными услугами и тарифом, а также получать техническую поддержку.

Решение реализовано на технологии машинного обучения (Machine Learning) и автоматически совершенствует возможности чат-бота. Кроме того, можно в ручном режиме добавлять новые сценарии диалогов и ответов для улучшения качества работы системы.

«Общение в чатах стало гораздо популярнее звонков, аудитория мессенджеров составляет миллиарды людей. С каждым месяцем растёт количество передаваемых в мессенджерах данных. Мы понимаем этот тренд и видим будущее во взаимодействии с клиентами при помощи чат-ботов», — заявляет «Билайн».

Нужно отметить, что недавно о начале тестирования чат-бота для корпоративных клиентов объявил Сбербанк. Бот умеет искать на карте ближайшие банкоматы для самоинкассации на основе местоположения пользователя, отправлять заявки на торговый и интернет-эквайринг и проверять контрагента по ИНН/ОГРН(ИП). В дальнейшем возможности системы будут расширяться.

Чат-бот Nadia умеет читать человеческие эмоции

Новозеландский стартап Soul Machines создал чат-бота, который способен показывать человеческие эмоции и «читать» выражение лица пользователя. Цель разработчиков — сделать взаимодействие между людьми и машинами более человечным.

Чат-бот Nadia может «наблюдать» за пользователем через веб-камеру и распознавать эмоции на его лице. Компания называет эту способность эмоциональным интеллектом: она позволяет боту общаться с человеком на более тонком уровне.

Nadia, как и другие чат-боты, учится на собственном опыте. Чем больше искусственный интеллект общается с людьми, тем лучше понимает их эмоции. Если тон или выражение лица пользователя меняется, то Nadia улавливает это и подстраивается.

Продукт, которому подарила голос актриса Кейт Бланшетт (Cate Blanchett), был разработан для австралийского правительства с целью улучшения обслуживания людей с ограниченными возможностями. Nadia помогает пользователям обращаться к Национальной системе страхования для инвалидов (NDIS) и находить нужную информацию.

Создатель чат-бота — Марк Сагар (Mark Sagar), профессор Оклендского университета и генеральный директор Soul Machines. Сагар далеко не новичок в работе с реалистичной лицевой анимацией и даже получил несколько наград за технологии захвата движения лица для «Аватара» и «Кинг-Конга». Благодаря его опыту Nadia выглядит очень правдоподобно.

Возможности проекта практически безграничны. Soul Machines уже работает над похожими чат-ботами для других отраслей.

У Сбербанка появился чат-бот для корпоративных клиентов

Сбербанк объявил о начале тестирования специализированного чат-бота для Facebook* Messenger в группе «Сбербанк для бизнеса» в социальной сети Facebook*.

 Сбербанк

Сбербанк

Бот-помощник предназначен для корпоративных клиентов. Он умеет искать на карте ближайшие банкоматы для самоинкассации на основе местоположения пользователя, отправлять заявки на торговый и интернет-эквайринг и проверять контрагента по ИНН/ОГРН(ИП).

Если клиент обратился за консультацией на странице «Сбербанк для бизнеса» впервые, он получит приветственное сообщение с предложением совершить одно из описанных действий. Клиент может выбрать вариант «Задать вопрос», тогда диалог продолжится с администратором группы.

 Сбербанк

Сбербанк

В Сбербанке отмечают, что в настоящее время создаётся модель, которая позволит оказывать корпоративным клиентам всестороннюю онлайн-поддержку в круглосуточном режиме. Один из элементов этой модели — чат-бот, позволяющий автоматизировать процесс консультаций.

Ожидается, что, помимо перечисленных функций, в дальнейшем у бота появятся новые, в числе которых — заявка на резервирование счёта, запрос на актуальные курсы валют, заказ услуг по инкассации, беседа со специалистом технической поддержки.


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

window-new
Soft
Hard
Тренды 🔥