Сегодня 06 февраля 2023
18+
MWC 2018 2018 Computex IFA 2018
Теги → чат
Быстрый переход

ChatGPT стал самым быстрорастущим сервисом в истории — 100 млн пользователей за два месяца

Продвинутый чат-бот ChatGPT компании Open AI быстрыми темпами набирает популярность по всему миру. По оценкам компании UBS, в январе этого года пользовательская база ChatGPT увеличилась до 100 млн человек. Это произошло всего через два месяца после запуска ИИ-сервиса в массы, что делает его самым быстрорастущим потребительским продуктом в истории.

 Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

По данным аналитической компании Similar Web, в январе этого года ChatGPT ежедневно использовали около 13 млн уникальных пользователей, что более чем вдвое больше по сравнению с показателями декабря. «За 20 лет наблюдения за интернет-пространством мы не можем припомнить более быстрого роста потребительских интернет-приложений», — говорится в сообщении UBS.

Напомним, компания Open AI, которую активно поддерживает Microsoft, запустила чат-бот ChatGPT в конце ноября прошлого года. С тех пор прошло немногим больше двух месяцев, а пользовательская база сервиса уже составила 100 млн человек. Для сравнения, TikTok потребовалось около девяти месяцев после глобального запуска, чтобы добиться такого результата, а соцсети Instagram* — около 2 лет.

В настоящее время пользователи могут взаимодействовать с ChatGPT бесплатно, но разработчики также запустили платную подписку стоимостью $20 в месяц. Премиальные пользователи сервиса могут взаимодействовать с ChatGPT даже в периоды высокой нагрузки, а также первыми получают доступ к новым функциям.


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Московский студент за сутки написал диплом с помощью ChatGPT и смог его защитить

Студент бакалавриата из Москвы Александр Жадан написал дипломную работу с помощью чат-бота ChatGPT компании Open AI и смог успешно защитить её в вузе. Название учебного заведения он не раскрыл, но отметил, что с помощью нейросети было сгенерировано 60 страниц работы, в том числе введение, анализ, заключительная часть и ссылки на используемую литературу.

 Источник изображения: dtf.ru

Источник изображения: dtf.ru

Алексей Жадан писал дипломную работу по теме «Анализ и совершенствование управления игровой компании». На начальном этапе он сгенерировал план работы по заданной теме и направил его научному руководителю. План пришлось переработать в соответствии с методическим пособием по написанию научных работ. Для этого студент попросил ChatGPT изучить справочный материал и адаптировать под него план диплома.

Для генерации введения к работе Жадан отправил чат-боту основной запрос на английском языке, а позднее просил дополнить материал из-за ограничений бота по количеству символов. Получившийся текст объёмом 6200 символов он перевёл на русский. Аналогичным образом была написана теоретическая часть работы. Чтобы сделать выводы по трём частям первой главы, студент скопировал последние абзацы каждой части и попросил чат-бота обобщить их.

Вторая и третья части работы требовали анализа с расчётами и практическими рекомендациями. Для их генерации студент нашёл похожую работу по другой компании и отправил её ChatGPT, попросив изменить содержание под свою тематику. В общей сложности на подготовку дипломной работы ушло 24 часа. Из них 15 часов ушло на написание материала через ChatGPT и 9 часов — на редактирование сгенерированного материала. При этом оригинальность диплома составила 82 %. Научный руководитель и дипломная комиссия отмечали несвязность и нарушение логики русского языка в работе, но Жадан смог защитить её, получив оценку «удовлетворительно».

«Мне не хотелось писать диплом самому, потому что это занимает очень много времени, и у меня было много работы, а платить кому-то за написание работы — это не мой формат, потому что я тогда не разберусь, что будет в работе. И я подумал, что было бы здорово сделать алгоритм, как создать эту работу, и это вышло с помощью ChatGPT <…> Защита была на прошлой неделе. Я достаточно спокойно выступил, в конце ответил на вопросы и получил «удовлетворительно» за эту работу. Но они узнали, что я писал диплом с помощью нейросети, и прямо сейчас я еду в университет, чтобы с ними поговорить, обсудить, что будет дальше», — прокомментировал данный вопрос Александр Жадан для «Коммерсант FM».

Он также сообщил, что в вуз начали поступать жалобы с просьбой лишить его диплома. В настоящее время учебное заведение проводит проверку на основании этих обращений.

Отметим, что Российский государственный гуманитарный университет уже выступил за ограничение в образовательных учреждениях доступа к сервису ChatGPT. «Из-за опасений по поводу негативного воздействия на обучение, а также опасений по поводу безопасности и точности генерируемого системой контента, может быть целесообразно ограничить доступ к ChatGPT в образовательных организациях», — считают в вузе.

Google тестирует на своих сотрудниках потенциальных конкурентов ChatGPT, включая бот Apprentice Bard

Google проводит тестирование новых чат-ботов — в перспективе не исключена интеграция ИИ в поисковый движок компании. Активно ведутся работы в рамках облачного подразделения Alphabet, предполагается премьера собственного варианта, способного конкурировать с проектом ChatGPT, доступ к которому общественность получила в конце прошлого года.

 Источник изображения: Alexandra_Koch/pixabay.com

Источник изображения: Alexandra_Koch/pixabay.com

Также Google тестируется чат-бот Apprentice Bard, сотрудники могут задавать ему вопросы и получать детальные ответы, так же, как и в случае с ChatGPT. Специальное подразделение тестирует вариант поисковика для настольных компьютеров — поиск может осуществляться в форме вопросов и ответов. Руководство просит большее число сотрудников пользоваться новыми разработками и давать компании обратную связь.

Тестирование продуктов активизировалось после недавнего собрания компании, в ходе которого сотрудники выразили обеспокоенность появлением ChatGPT и вероятностью того, что Google может потерять лидерство в сфере ИИ. Глава ИИ-подразделения Google Джефф Дин (Jeff Dean) заявил, что Google вынуждена обращать больше внимания на репутационные риски, чем стартап и, соответственно, придерживаться более консервативной политики. Впрочем, глава компании Сундар Пичаи (Sundar Pichai) анонсировал возможный выпуск Google аналогичных продуктов уже в этом году.

Одним из тестовых продуктов является чат-бот Apprentice Bard, использующий разработанную Google технологию LaMDA (Language Model for Dialogue Applications). В результате появления ChatGPT команду компании, занимающуюся LaMDA, призвали в приоритетном порядке заняться разработкой соперника продукту OpenAI.

Apprentice Bard во многом похож на ChatGPT: он способен отвечать на вопросы в диалоговом окне. Он заменит предыдущую версию Meena, которую в своё время запустили в пределах компании, но вскоре проект был свёрнут. Сотрудники отмечают, что в последние недели Apprentice Bard стал более совершенным инструментом.

Дополнительно известно, что компания тестирует альтернативные поисковые страницы, которые могут работать в формате вопросов-ответов. Например, уже проверяется шаблон, в котором более «человечные» ответы демонстрируются сразу под поисковой строкой, за ними предлагаются связанные с темой вопросы, а затем демонстрируется обычная поисковая выдача, включающая ссылки и заголовки. Пока неизвестно, какой из нескольких вариантов выберет Google.

 Источник изображения: Alexandra_Koch/pixabay.com

Источник изображения: Alexandra_Koch/pixabay.com

Также есть сведения, что команда Google уже сравнивала качество бета-версии LaMDA с ChatGPT. Известно, что в ходе «собеседования» ChatGPT на должность программиста тот получил предварительную квалификацию Level 3, обычно указывающую на то, что сотрудник способен координировать действия коллег, имеющих Level 1 и 2. Неизвестно при этом, какой уровень получил инструмент LaMDA.

После вопроса ботам, способны ли решения вроде ChatGPT и AlphaCode заменить программистов, продукт OpenAI, как и LaMDA уверенно грамотно ответили, что этого не произойдёт, хотя подобные инструменты смогут упростить работу. На просьбу описать сцену с магазинным воришкой для кино LaMDA был предложен сценарий, а ChatGPT прибег к более пространному и глубокому рассказу. Наконец, при решении логически-арифметической задачи ChatGPT дал неправильный ответ, тогда как LaMDA было представлено верное решение. Впрочем, пока данные довольно поверхностные. Например, недавно появились новости о том, что ChatGPT научили искать ошибки в программном коде. Это может стать важным преимуществом при сравнении двух систем.

ChatGPT успешно сдал выпускной экзамен в одной из лучших школ бизнеса в мире

Хотя ИИ-бот ChatGPT компании OpenAI вызывает опасения учителей старших классов из-за его возможного использования при выполнении заданий, проблема не ограничивается только средней школой. Профессор Уортонской школы бизнеса университета Пенсильвании Кристиан Тервиш (Christian Terwiesch) сообщил, что ChatGPT без проблем сдал выпускной экзамен по основному курсу программы MBA «Управление операциями».

 Источник изображения: Pixabay

Источник изображения: Pixabay

Выпускники школы, прошедшие обучение по программе MBA (Master of Business Administration), работают в качестве менеджеров среднего или высшего звена в бизнесе, на государственной или муниципальной службе.

Профессор отметил, что ИИ-бот «потрясающе справляется с основными вопросами управления операциями и анализа процессов, включая те, которые основаны на тематических исследованиях», добавив, что наблюдались и проблемы при ответах на «более сложные вопросы анализа процессов».

Однако, по мнению преподавателя, в итоге ChatGPT «получил бы на экзамене оценку от B до B-». Хотя это не высший балл, он является проходным, и экзамен считается сданным. Профессор также сообщил, что ИИ-бот «хорошо показал себя при подготовке юридических документов, и некоторые считают, что следующее поколение этой технологии может даже сдать экзамен на адвоката».

Предприниматель-миллиардер Марк Кьюбан (Mark Cuban) отметил, что ChatGPT находится «всего лишь в зачаточном состоянии». «Представьте, как будет выглядеть GPT 10-го поколения», — добавил он.

С ним согласен Эндрю Кароли (Andrew Karolyi), декан бизнес-колледжа SC Johnson в Корнельском университете, заявивший на этой неделе газете Financial Times: «Мы все знаем наверняка, что ChatGPT никуда не денется. Во всяком случае, эти ИИ-технологии будут становиться всё лучше и лучше. Руководству факультетов и университетов необходимо инвестировать в образование».

«Я считаю, что ИИ не заменит людей, но люди, которые используют ИИ, собираются заменить людей», — сообщила Financial Times Кара Мак-Вильямс (Kara McWilliams), глава лаборатории ETS Product Innovation Labs, разработавшей инструмент для выявления использования ИИ при ответах.

Тервиш отметил влияние, которое произвело появление электронных калькуляторов, и предположив, что нечто подобное может произойти с такими решениями, как ChatGPT. «До появления калькуляторов и других вычислительных устройств многие фирмы нанимали сотни сотрудников, чьей задачей было ручное выполнение математических операций, таких как умножение или преобразование матриц, — написал Тервиш в исследовании. — Очевидно, что такие задачи теперь автоматизированы, и ценность связанных с ними навыков резко снизилась. Точно так же любая автоматизация навыков, которым обучают на наших программах MBA, потенциально может снизить ценность образования».

OpenAI поможет учителям выявлять работы, написанные с помощью ИИ-бота ChatGPT

Компания OpenAI, разработавшая ИИ-бот ChatGPT, сообщила, что займётся созданием решения, способного помочь школам выявлять использование ИИ в работах школьников. Об этом рассказал гендиректор Сэм Альтман (Sam Altman), а заодно предупредил, что 100-процентной гарантии обнаружения использования ИИ никто дать не может.

 Источник изображения: Pixabay

Источник изображения: Pixabay

«Возможны способы, с помощью которых мы можем помочь учителям с большой вероятностью обнаруживать продукты системы, подобной GPT. Но, честно говоря, целеустремлённый человек их обойдёт», — сообщил Альтман в интервью редактору StrictlyVC Конни Лоизос (Connie Loizos) после того, как школы, входящие в систему Департамента образования Нью-Йорка и системы государственных школ Сиэтла, запретили учащимся и учителям использовать ChatGPT с целью предотвращения плагиата и списывания.

«Текст, созданный с использованием ИИ, — это то, к чему нам всем нужно приспособиться, — сказал Альтман. — Я полагаю, мы приспособились к калькуляторам, что изменило способ проведения уроков математики. Это, без сомнения, более экстремальная версия, но и преимущества от неё также более экстремальные».

Запрет использования ИИ-бота ChatGPT вызвал дискуссии — особенно среди учителей — о том, как ИИ может изменить систему образования и методы обучения учащихся в целом. Альтман отметил, что хотя учителей не устраивает использование ChatGPT для приготовления домашних заданий, этот чат-бот может быть «невероятным личным репетитором для каждого ребёнка».

По мнению гендиректора OpenAI, чат-бот может стать увлекательным инстументом для обучения. «Я бы предпочёл, чтобы ChatGPT научил меня чему-то, чем самому читать учебник», — говорит Альтман.

Он также сообщил, что OpenAI изучит, какие решения можно использовать для маркировки контента, созданного ChatGPT — технологии водяных знаков или другие методы, но предупредил, что полностью полагаться на такие инструменты нельзя. «По сути, я думаю, что невозможно сделать идеальное решение, — сказал он. — Люди поймут, какую часть текста им нужно изменить. Будут и другие способы модифицировать генерируемый текст».

ChatGPT выполнил тестовое задание и оказался лучше более 80 % соискателей в Schwa — бота пригласили на собеседование

Тестовое задание, написанное для консалтингового агентства Schwa чат-ботом ChatGPT, вошло в число тестовых работ, авторов которых HR-отдел компании пригласил на собеседование. Провокацию устроил сам основатель агентства Нил Тейлор (Neil Teylor), решивший проверить, сможет ли бот обмануть его сотрудников.

 Источник изображения: Alex Knight/unsplash.com

Источник изображения: Alex Knight/unsplash.com

По данным Тейлора, работа оказалась «более компетентной», чем тексты множества кандидатов — она попала в «шорт-лист», причём проверялись не только представители HR-команды, но и программное обеспечение, используемое соответствующим отделом. Ни люди, ни ПО не смогли выявить «самозванца».

Известно, что ChatGPT и другие соискатели получили задание рассказать в письменной форме о секретах хорошего письма, уложившись в 300 слов. Schwa искала энергичный и красноречивый рассказ. По мнению ChatGPT, секрет написания хороших текстов заключается в способности «рассказать хорошую историю». В числе прочего искусственный интеллект посоветовал много работать, читать и изучать труды других писателей, а также не бояться редактировать уже готовые тексты, поскольку ни у кого не получается выдать оптимальный вариант с первого раза. Впрочем, бот признал, что для успеха требуется не только труд, но и креативность, а также талант. Поскольку имена и резюме соискателей скрыли от рекрутеров, они могли оценивать только результаты работ, непосредственно связанные с заданием.

«ИИ был намного компетентнее, чем множество людей, отправивших нам заявки. С учётом того, что всё, что мы делаем — это создаём выдающиеся вещи, привлекающие внимание, я считаю, что это было настоящее испытание», — заключил Тейлор.

Основатель Schwa признал, что для успешного прохождения теста ему пришлось дать боту очень специфические инструкции, включая команду писать в стиле американского автора и копирайтера Дейва Тротта (Dave Trott). При этом Тейлор, по его словам, очень расстроил своим признанием о происхождении текста сотрудницу, проводившую отбор. Впрочем, он признаёт, что над составлением задания пришлось немало потрудиться. С полным текстом, написанным ChatGPT для Schwa, можно ознакомиться здесь.

Доступ к ChatGPT широкой общественности был предоставлен в конце ноября, и уже вскоре инструмент привлёк более миллиона пользователей благодаря способности бота генерировать вполне осмысленные тексты (не всегда достоверные) и даже программный код (не всегда корректно работающий). Ранее сотрудница Business Insider Беатрис Нолан (Beatrice Nolan) использовала ChatGPT для подготовки двух сопроводительных писем и попросила профессиональных рекрутеров оценить их качество. По их словам, речь шла о «подходящих кандидатах», и, вероятно, они дождались бы приглашения HR. Впрочем, рекрутеры признали, что в письмах не хватало индивидуальности.

В WhatsApp можно будет отменить случайное удаление сообщений

Разработчики популярного мессенджера WhatsApp анонсировали новую функцию, которая позволит избежать случайного удаления сообщений в своих чатах. Речь идёт об отмене действия «Удалить у меня», с помощью которого можно убрать сообщения из своего чата, но при этом на устройствах собеседников они останутся.

 Источник изображения: WhatsApp

Источник изображения: WhatsApp

Новая функция называется «Случайное удаление». Она используется для вывода на 5 секунд сообщения, предупреждающего об удалении информации только у себя и позволяющего отменить это действие. Данный инструмент в скором времени станет доступен всем пользователям в личных и групповых чатах WhatsApp.

Функция «Случайное удаление» будет полезна в случаях, когда вы хотите удалить сообщение у всех пользователей, но по ошибке делаете это только на своём устройстве. Всплывающее окно позволит отменить удаление сообщения, после чего можно будет повторить операцию, но уже убрав его с устройств всех участников беседы.

Согласно имеющимся данным, новая функция тестировалась с привлечение ограниченного числа пользователей мессенджера с августа этого года. В скором времени её смогут опробовать все пользователи WhatsApp на устройствах с Android и iOS.

Stack Overflow временно запретил публиковать подсказки программистам от ИИ-бота ChatGPT — он часто обманывает

Сайт Stack Overflow, предназначенный для организации взаимопомощи программистам, временно запретил пользователям публикацию справочных материалов, сгенерированных чат-ботом ChatGPT. По словам модераторов, создавать подсказки с помощью искусственного интеллекта ChatGPT слишком легко, и они выглядят весьма правдоподобно. Тем не менее, очень часто они неправильные.

 Источник изображения: Andrea De Santis/unsplash.com

Источник изображения: Andrea De Santis/unsplash.com

Чат-бот ChatGPT — экспериментальное решение, разработанное компанией OpenAI на основе генератора текстов GPT-3.5. Сетевая демо-версия продукта была представлена на прошлой неделе и с тех пор активно используется пользователями. Проблема в том, что бот способен решать массу задач, от написания стихов и песен до сценариев и формулирования ответов на задаваемые вопросы, но при всей убедительности текстов, они очень часто содержат грубые ошибки, особенно когда речь идёт о темах, посвящённых работе с программным кодом. Впрочем, ошибки совершаются и в других сферах: составляя биографию известной личности, ChatGPT способен вставлять в текст некорректные данные. Таким же образом он создаёт вполне «правдоподобный», но неработающий код.

В основу ChatGPT положены большие языковые модели (Large Language Model, LLM). Они анализируют огромные массивы текстов, формируют закономерности и на их основе предлагают собственные решения, буквально предугадывая, каким должно быть следующее слово в предложении. Такие модели не имеют точного представления о работе некоторых систем, в результате чего фактически генерируется недостоверная информация. Пока трудно оценить, какая часть подготовленных ими материалов недостоверна. В Stack Overflow решили, что риск дезинформации пользователей слишком велик. При этом многие эксперты опасаются, что с ростом числа сгенерированных неверных ответов растёт и риск того, что ими поделятся в Сети, погружая последнюю в хаос — контент, созданный реальными пользователями, просто утонет в море сгенерированных материалов.

Пока данных о вреде, наносимом LLM в реальном мире, немного, но события на Stack Overflow служат подтверждением существования пугающей тенденции. По словам модераторов, до введения запрета на ChatGPT на площадке уже появились тысячи сгенерированных ответов, каждый из которых требует детальной проверки.

Эксперты опасаются, что ситуация повторится и на других платформах — лавина сгенерированного ИИ контента не позволит ознакомиться с мнениями настоящих пользователей.

Пользователи Stack Overflow поддержали запрет, хотя отметили, что распознать «искусственный» контент будет непросто. Совета спросили и у самого ChatGPT. В ходе многочисленных экспериментов тот выдал вполне разумный ответ. «В целом, разрешать ли сгенерированные ИИ ответы на Stack Overflow — сложное решение, которое должно осторожно рассматриваться сообществом», — заявил бот.

OpenAI создала ИИ, способный генерировать осмысленные тексты от стихов до научных эссе — но иногда он очень убедительно врёт

Некоммерческая организация OpenAI, специализирующаяся на разработке технологий искусственного интеллекта, открыла доступ к чат-боту ChatGPT, способному генерировать вполне осмысленные тексты в любом формате на выбор. Проект покорил пользователей интернета, которые начали верить в его способность заменить человека в художественной и научной литературе.

 Источник изображения: openai.com

Источник изображения: openai.com

ChatGPT на удивление легко и добросовестно справляется с самыми невероятными задачами, которые ему поручают пользователи Сети: он выдаёт грамотные исторические справки и пишет стихи о криптовалюте. Популярность проекта удивила даже его создателей — глава OpenAI Сэм Альтман (Sam Altman) сообщил, что чат-бот пользуется куда более высоким спросом, чем предполагалось.

OpenAI была основана Альтманом и главой Tesla Илоном Маском (Elon Musk) около семи лет назад — они поставили цель разрабатывать технологии искусственного интеллекта, способные «принести пользу всему человечеству». В 2018 году Маск вышел из проекта из-за разногласий по поводу его дальнейшего развития, но сейчас и он отдал должное способностям ChatGPT.

Перевод чат-ботов на основе искусственного интеллекта в общедоступный режим — занятие рискованное. В 2016 году Microsoft была вынуждена отключить своего бота Tay, который начал публиковать в Twitter сообщение расистского, сексистского и ненавистнического характера. Недавно с подобной проблемой столкнулась Meta*.

Разработчики ChatGPT предупредили, что он «иногда пишет правдоподобные, но неверные или бессмысленные ответы» и порой бывает «излишне многословным» из-за того, как его обучили. Ложку дёгтя добавили и некоторые пользователи: он дал подробный, но неверный ответ на вопрос по алгебре и как-то научился обходить запреты на публикацию изречений, связанных с насилием, преступлениями и расизмом.


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Meta* запустила публичное тестирование умного чат-бота BlenderBot 3 — пока только в США

Компания Meta* разработала самообучающегося чат-бота BlenderBot 3, который использует технологии искусственного интеллекта и доступен для тестирования жителям США. Разработчики подчёркивают, что доступ к сервису может быть ограничен для пользователей VPN. Утверждается, что бот способен как поддерживать беседы на отвлечённые темы, так и выполнять функции виртуального помощника.

 Источник изображения: Andrea De Santis/unsplash.com

Источник изображения: Andrea De Santis/unsplash.com

Прототип построен на основе разработок Meta* с использованием т. н. «больших языковых моделей» (LLMS) — программного обеспечения нового поколения, одним из наиболее известных образцов которого является модель OpenAI GPT-3.

BlenderBot 3 обучается на больших массивах данных, на базе которых он строит устойчивые модели для формирования собственных высказываний. Такие системы доказали свою чрезвычайную гибкость и в теории могут использоваться в различных целях, от создания кода для программистов до помощи авторам в написании бестселлеров. Тем не менее, модели имеют серьёзные недостатки — в ходе обучения они не только приобретают собственные «предрассудки», но и часто просто «выдумывают» ответы на вопросы — не особенно полезная функция для голосовых помощников. Для борьбы с подобным явлением Meta* активировала новую функцию — бот не просто способен найти ответ в Сети, но и поделится источником, из которого взяты данные.

Представив новое решение общественности, Meta* намерена собрать обратную связь от пользователей, которые могут отметить любые «подозрительные» ответы, а также согласиться на сохранение их диалогов, которые Meta* позже использует для дальнейшего анализа специалистами по системам искусственного интеллекта.

Использование ИИ-ботов для общения с людьми всегда было довольно рискованным занятием. В 2016 году чат-бот Microsoft Tay пришлось отключить спустя считаные часы после того, как пользователи научили его ксенофобским и сексистским высказываниям. Хотя BlenderBot 3 использует несколько отличающуюся модель обучения, по некоторым данным, он тоже замечен в аналогичных грехах — ксенофобии и поддержке конспирологических теорий вплоть до критики Facebook*.

 Источник изображения: *** AI

Источник изображения: Meta* AI

По словам представителя Meta*, используемые в настоящий момент чат-боты обычно имеют узкую специализацию вроде обслуживания запросов клиентов или покупателей и фактически работают в соответствии со скриптами, в конце концов перенаправляя собеседников к человеку-оператору. Единственным способом создать систему, способную свободно общаться с пользователем, является её тренировка на реальных, свободных разговорах, что поможет продвигаться в исследованиях и в дальнейшем.

Помимо тестирования чат-бота, Meta* опубликовала связанный с его разработкой код, массивы данных для тренировки ИИ и другую полезную информацию. Модели с 3 и 30 млрд параметров уже доступны разработчикам. Желающие могут запросить доступ к модели со 175 млрд параметров, заполнив специальную форму.


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Сотрудника Google отстранили от работы — он заявил, что ИИ обрёл сознание

Руководство Google было вынуждено отправить в оплачиваемый отпуск инженера Блейка Лемойна (Blake Lemoine), который работал с системой искусственного интеллекта (ИИ) LaMDA и заявил, что у неё начали проявляться признаки сознания. В компании заявили, что программа разумной не является.

 Источник изображения: 0fjd125gk87 / pixabay.com

Источник изображения: 0fjd125gk87 / pixabay.com

Система LaMDA (Language Model for Dialogue Applications) была разработана Google как языковая модель — она предназначена для общения с человеком. Обучаемая платформа расширяет свой лексикон через интернет и имитирует естественную человеческую речь. В задачи Лемойна входил контроль над лексикой машины — LaMDA не должна позволять себе дискриминирующих высказываний, грубых или ненавистнических выражений.

Однако при разговоре с искусственным интеллектом на религиозную тему 41-летний инженер, который изучал в колледже компьютерные науки и когнитивистику (психологию мышления), обратил внимание, что чат-бот заговорил о своих правах и собственной личности. В одном из диалогов машина оказалась настолько убедительной, что Лемойн изменил своё мнение относительно «третьего закона роботехники» писателя-фантаста Айзека Азимова.

«Если бы я точно не знал, с чем имею дело, что это недавно созданная нами компьютерная программа, то решил бы, что это ребёнок 7–8 лет, который каким-то образом знает физику», — заявил инженер журналистам Washington Post. Он обратился к своему руководству, однако вице-президент Google Блез Агера-и-Аркас (Blaise Aguera y Arcas) и глава отдела ответственных инноваций Джен Дженай (Jen Gennai) изучили его подозрения и отвергли их. Отправленный в оплачиваемый отпуск Блейк Лемойн решил предать инцидент огласке.

Официальный представитель Google Брайан Гэбриэл (Brian Gabriel) заявил: «Наша команда, включая специалистов по этике и по технологиям, изучила опасения Блейка согласно нашим „Принципам ИИ” и сообщила ему, что его слова не подтверждаются доказательствами. Ему объяснили, что доказательства разумности LaMDA отсутствуют (и есть множество доказательств обратного)». Но никаких непосредственных аргументов компания не представила.

Вместе с тем, Агера-и-Аркас в опубликованной изданием Economist статье признал, что нейросети действительно приближаются к тому, что можно назвать сознанием. Он понял это, когда сам пообщался с ИИ. «Я почувствовал, как земля уходит из-под моих ног. Мне всё чаще казалось, что я говорю с чем-то разумным», — заключил он.

Голосовые чаты Twitter Spaces теперь может создавать любой пользователь

Сервис микроблогов Twitter запустил функцию Spaces — голосовые чаты — в ноябре прошлого года в попытке затмить успех Clubhouse. Однако до настоящего момента возможность создавать собственный голосовой чат была только у пользователей с 600 и более подписчиков. Спустя почти год это ограничение было снято.

 Источник: theverge.com

Источник: theverge.com

Twitter несколько отстаёт от своего же графика — администрация сервиса обещала, что любой пользователь сможет создавать Spaces ещё в апреле. Команда подразделения официально объявила о новой возможности на своей страничке: создание чатов теперь доступно в приложениях под Android и iOS. К твиту приложен небольшой GIF-ролик, иллюстрирующий, как это сделать.

В остальном за прошедший год Twitter регулярно добавляла новые функции Spaces, например, возможность назначать совладельцев чата и приглашать до 10 участников. Для создателей контента сервис учредил фонд Spark Program и даже запустил пилот платных чатов Ticketed Spaces. Но при этом создавать собственные голосовые чаты на протяжении всего времени могли не все пользователи.

Сервис Clubhouse отменил регистрацию по приглашениям в июле, и с тех пор мобильные пользователи вовсю экспериментируют с его возможностями. А с учётом того, что Twitter только сейчас сняла ограничения, она могла упустить возможность заинтересовать пользователей голосовыми чатами. Развитие Spaces может ускорить упадок Clubhouse, или голосовые чаты Twitter повторят судьбу Fleets.

В новом обновлении Facebook* Messenger и Instagram* появилась поддержка перекрёстных групповых чатов

В прошлом году Facebook* запустила кроссплатформенный обмен сообщениями между приложениями Messenger и Instagram*. После этого более 70 % пользователей в Instagram* обновились до нового интерфейса Messenger, чтобы воспользоваться новой функцией.

Развивая это направление, компания объявила о новом обновлении приложений, которое позволит пользователям запускать перекрёстные групповые чаты между своими контактами в Instagram* и Messenger. В этих чатах можно будет добавлять новые темы и использовать настраиваемые реакции. Также добавляется возможность проведения опросов в чатах Messenger и Instagram*, позволяющие пользователям определить предпочтения группы.

Пользователи по-прежнему смогут контролировать перечень тех, кто может с ними общаться. Они смогут управлять тем, кто попадёт в их список чатов, кто — в папку запросов сообщений, а кто не может отправлять вам сообщения или звонить. «Чтобы помочь вам чувствовать себя более присутствующим в групповых чатах, мы создали индикаторы набора текста группы, чтобы вы могли видеть, когда пишут другие», — сообщила компания.

Компания также сообщила, что работает над выпуском новых выразительных тем для чата, «которые понравятся всем в Messenger и Instagram*».


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Twitter запускает функцию платных голосовых чатов Ticketed Spaces для iOS-устройств

Twitter начала развёртывание функции Ticketed Spaces, которая позволит пользователям соцсети создавать платные виртуальные комнаты для голосовых чатов. Первый пробный запуск сервиса состоялся в июне. Теперь Twitter развёртывает финальную версию, но пока только для iOS-устройств.

 theverge.com

theverge.com

Создатели чат-комнат могут взымать с пользователей оплату в размере от $1 до $999, а также устанавливать ограничение на количество участников чата. Пользователи будут платить Twitter комиссию в размере 3 %. Комиссия будет увеличиваться до 20 % для пользователей, которые будут зарабатывать в приложении от $50 тыс. Вероятно, комиссия повысится, когда новая функция станет общедоступной.

 theverge.com

theverge.com

Ticketed Spaces будут отображаться в верхней части интерфейса приложения Twitter, если кто-то, за кем следит пользователь, участвует в беседе. Ожидается, что полномасштабное развёртывание новой функции состоится в ближайшее время.

В WhatsApp появился полный перенос чатов с iPhone на Android — пока он доступен только в Samsung Galaxy Z Fold3 и Galaxy Z Flip3

Пользователи WhatsApp давно просили разработчиков мессенджера разработать встроенный в приложение механизм переноса чатов с iOS на Android и обратно. В апреле стало известно, что WhatsApp работает над этой функцией. Спустя четыре месяца она дебютировала вместе с представленными сегодня Samsung Galaxy Z Fold3 и Galaxy Z Flip3.

 gizmochina.com

gizmochina.com

Объявление было сделано сегодня в ходе мероприятия Galaxy Unpacked. Функция переноса чатов WhatsApp с iPhone была представлена как одна из особенностей новых смартфонов. Владельцы iPhone, которые решат перейти на новинки Samsung, смогут полностью перенести свою историю чатов WhatsApp, включая вложенные фотографии и видео.

 gizmochina.com

gizmochina.com

Функция переноса чатов WhatsApp будет развёрнута и на других смартфонах Samsung Galaxy под управлением Android 10 и более новых в ближайшие недели. В конечном итоге она станет доступна и на Android-устройствах других производителей, хотя WhatsApp не сообщает, когда это произойдёт.

Для переноса чатов с iPhone на Galaxy Z Fold3 или Galaxy Z Flip3 требуется кабель Lightning-USB-C. Перенос данных без проводов недоступен.

window-new
Soft
Hard
Тренды 🔥