Сегодня 06 февраля 2023
18+
MWC 2018 2018 Computex IFA 2018
Теги → бот
Быстрый переход

ChatGPT стал самым быстрорастущим сервисом в истории — 100 млн пользователей за два месяца

Продвинутый чат-бот ChatGPT компании Open AI быстрыми темпами набирает популярность по всему миру. По оценкам компании UBS, в январе этого года пользовательская база ChatGPT увеличилась до 100 млн человек. Это произошло всего через два месяца после запуска ИИ-сервиса в массы, что делает его самым быстрорастущим потребительским продуктом в истории.

 Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

По данным аналитической компании Similar Web, в январе этого года ChatGPT ежедневно использовали около 13 млн уникальных пользователей, что более чем вдвое больше по сравнению с показателями декабря. «За 20 лет наблюдения за интернет-пространством мы не можем припомнить более быстрого роста потребительских интернет-приложений», — говорится в сообщении UBS.

Напомним, компания Open AI, которую активно поддерживает Microsoft, запустила чат-бот ChatGPT в конце ноября прошлого года. С тех пор прошло немногим больше двух месяцев, а пользовательская база сервиса уже составила 100 млн человек. Для сравнения, TikTok потребовалось около девяти месяцев после глобального запуска, чтобы добиться такого результата, а соцсети Instagram* — около 2 лет.

В настоящее время пользователи могут взаимодействовать с ChatGPT бесплатно, но разработчики также запустили платную подписку стоимостью $20 в месяц. Премиальные пользователи сервиса могут взаимодействовать с ChatGPT даже в периоды высокой нагрузки, а также первыми получают доступ к новым функциям.


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Московский студент за сутки написал диплом с помощью ChatGPT и смог его защитить

Студент бакалавриата из Москвы Александр Жадан написал дипломную работу с помощью чат-бота ChatGPT компании Open AI и смог успешно защитить её в вузе. Название учебного заведения он не раскрыл, но отметил, что с помощью нейросети было сгенерировано 60 страниц работы, в том числе введение, анализ, заключительная часть и ссылки на используемую литературу.

 Источник изображения: dtf.ru

Источник изображения: dtf.ru

Алексей Жадан писал дипломную работу по теме «Анализ и совершенствование управления игровой компании». На начальном этапе он сгенерировал план работы по заданной теме и направил его научному руководителю. План пришлось переработать в соответствии с методическим пособием по написанию научных работ. Для этого студент попросил ChatGPT изучить справочный материал и адаптировать под него план диплома.

Для генерации введения к работе Жадан отправил чат-боту основной запрос на английском языке, а позднее просил дополнить материал из-за ограничений бота по количеству символов. Получившийся текст объёмом 6200 символов он перевёл на русский. Аналогичным образом была написана теоретическая часть работы. Чтобы сделать выводы по трём частям первой главы, студент скопировал последние абзацы каждой части и попросил чат-бота обобщить их.

Вторая и третья части работы требовали анализа с расчётами и практическими рекомендациями. Для их генерации студент нашёл похожую работу по другой компании и отправил её ChatGPT, попросив изменить содержание под свою тематику. В общей сложности на подготовку дипломной работы ушло 24 часа. Из них 15 часов ушло на написание материала через ChatGPT и 9 часов — на редактирование сгенерированного материала. При этом оригинальность диплома составила 82 %. Научный руководитель и дипломная комиссия отмечали несвязность и нарушение логики русского языка в работе, но Жадан смог защитить её, получив оценку «удовлетворительно».

«Мне не хотелось писать диплом самому, потому что это занимает очень много времени, и у меня было много работы, а платить кому-то за написание работы — это не мой формат, потому что я тогда не разберусь, что будет в работе. И я подумал, что было бы здорово сделать алгоритм, как создать эту работу, и это вышло с помощью ChatGPT <…> Защита была на прошлой неделе. Я достаточно спокойно выступил, в конце ответил на вопросы и получил «удовлетворительно» за эту работу. Но они узнали, что я писал диплом с помощью нейросети, и прямо сейчас я еду в университет, чтобы с ними поговорить, обсудить, что будет дальше», — прокомментировал данный вопрос Александр Жадан для «Коммерсант FM».

Он также сообщил, что в вуз начали поступать жалобы с просьбой лишить его диплома. В настоящее время учебное заведение проводит проверку на основании этих обращений.

Отметим, что Российский государственный гуманитарный университет уже выступил за ограничение в образовательных учреждениях доступа к сервису ChatGPT. «Из-за опасений по поводу негативного воздействия на обучение, а также опасений по поводу безопасности и точности генерируемого системой контента, может быть целесообразно ограничить доступ к ChatGPT в образовательных организациях», — считают в вузе.

Google тестирует на своих сотрудниках потенциальных конкурентов ChatGPT, включая бот Apprentice Bard

Google проводит тестирование новых чат-ботов — в перспективе не исключена интеграция ИИ в поисковый движок компании. Активно ведутся работы в рамках облачного подразделения Alphabet, предполагается премьера собственного варианта, способного конкурировать с проектом ChatGPT, доступ к которому общественность получила в конце прошлого года.

 Источник изображения: Alexandra_Koch/pixabay.com

Источник изображения: Alexandra_Koch/pixabay.com

Также Google тестируется чат-бот Apprentice Bard, сотрудники могут задавать ему вопросы и получать детальные ответы, так же, как и в случае с ChatGPT. Специальное подразделение тестирует вариант поисковика для настольных компьютеров — поиск может осуществляться в форме вопросов и ответов. Руководство просит большее число сотрудников пользоваться новыми разработками и давать компании обратную связь.

Тестирование продуктов активизировалось после недавнего собрания компании, в ходе которого сотрудники выразили обеспокоенность появлением ChatGPT и вероятностью того, что Google может потерять лидерство в сфере ИИ. Глава ИИ-подразделения Google Джефф Дин (Jeff Dean) заявил, что Google вынуждена обращать больше внимания на репутационные риски, чем стартап и, соответственно, придерживаться более консервативной политики. Впрочем, глава компании Сундар Пичаи (Sundar Pichai) анонсировал возможный выпуск Google аналогичных продуктов уже в этом году.

Одним из тестовых продуктов является чат-бот Apprentice Bard, использующий разработанную Google технологию LaMDA (Language Model for Dialogue Applications). В результате появления ChatGPT команду компании, занимающуюся LaMDA, призвали в приоритетном порядке заняться разработкой соперника продукту OpenAI.

Apprentice Bard во многом похож на ChatGPT: он способен отвечать на вопросы в диалоговом окне. Он заменит предыдущую версию Meena, которую в своё время запустили в пределах компании, но вскоре проект был свёрнут. Сотрудники отмечают, что в последние недели Apprentice Bard стал более совершенным инструментом.

Дополнительно известно, что компания тестирует альтернативные поисковые страницы, которые могут работать в формате вопросов-ответов. Например, уже проверяется шаблон, в котором более «человечные» ответы демонстрируются сразу под поисковой строкой, за ними предлагаются связанные с темой вопросы, а затем демонстрируется обычная поисковая выдача, включающая ссылки и заголовки. Пока неизвестно, какой из нескольких вариантов выберет Google.

 Источник изображения: Alexandra_Koch/pixabay.com

Источник изображения: Alexandra_Koch/pixabay.com

Также есть сведения, что команда Google уже сравнивала качество бета-версии LaMDA с ChatGPT. Известно, что в ходе «собеседования» ChatGPT на должность программиста тот получил предварительную квалификацию Level 3, обычно указывающую на то, что сотрудник способен координировать действия коллег, имеющих Level 1 и 2. Неизвестно при этом, какой уровень получил инструмент LaMDA.

После вопроса ботам, способны ли решения вроде ChatGPT и AlphaCode заменить программистов, продукт OpenAI, как и LaMDA уверенно грамотно ответили, что этого не произойдёт, хотя подобные инструменты смогут упростить работу. На просьбу описать сцену с магазинным воришкой для кино LaMDA был предложен сценарий, а ChatGPT прибег к более пространному и глубокому рассказу. Наконец, при решении логически-арифметической задачи ChatGPT дал неправильный ответ, тогда как LaMDA было представлено верное решение. Впрочем, пока данные довольно поверхностные. Например, недавно появились новости о том, что ChatGPT научили искать ошибки в программном коде. Это может стать важным преимуществом при сравнении двух систем.

ChatGPT успешно сдал выпускной экзамен в одной из лучших школ бизнеса в мире

Хотя ИИ-бот ChatGPT компании OpenAI вызывает опасения учителей старших классов из-за его возможного использования при выполнении заданий, проблема не ограничивается только средней школой. Профессор Уортонской школы бизнеса университета Пенсильвании Кристиан Тервиш (Christian Terwiesch) сообщил, что ChatGPT без проблем сдал выпускной экзамен по основному курсу программы MBA «Управление операциями».

 Источник изображения: Pixabay

Источник изображения: Pixabay

Выпускники школы, прошедшие обучение по программе MBA (Master of Business Administration), работают в качестве менеджеров среднего или высшего звена в бизнесе, на государственной или муниципальной службе.

Профессор отметил, что ИИ-бот «потрясающе справляется с основными вопросами управления операциями и анализа процессов, включая те, которые основаны на тематических исследованиях», добавив, что наблюдались и проблемы при ответах на «более сложные вопросы анализа процессов».

Однако, по мнению преподавателя, в итоге ChatGPT «получил бы на экзамене оценку от B до B-». Хотя это не высший балл, он является проходным, и экзамен считается сданным. Профессор также сообщил, что ИИ-бот «хорошо показал себя при подготовке юридических документов, и некоторые считают, что следующее поколение этой технологии может даже сдать экзамен на адвоката».

Предприниматель-миллиардер Марк Кьюбан (Mark Cuban) отметил, что ChatGPT находится «всего лишь в зачаточном состоянии». «Представьте, как будет выглядеть GPT 10-го поколения», — добавил он.

С ним согласен Эндрю Кароли (Andrew Karolyi), декан бизнес-колледжа SC Johnson в Корнельском университете, заявивший на этой неделе газете Financial Times: «Мы все знаем наверняка, что ChatGPT никуда не денется. Во всяком случае, эти ИИ-технологии будут становиться всё лучше и лучше. Руководству факультетов и университетов необходимо инвестировать в образование».

«Я считаю, что ИИ не заменит людей, но люди, которые используют ИИ, собираются заменить людей», — сообщила Financial Times Кара Мак-Вильямс (Kara McWilliams), глава лаборатории ETS Product Innovation Labs, разработавшей инструмент для выявления использования ИИ при ответах.

Тервиш отметил влияние, которое произвело появление электронных калькуляторов, и предположив, что нечто подобное может произойти с такими решениями, как ChatGPT. «До появления калькуляторов и других вычислительных устройств многие фирмы нанимали сотни сотрудников, чьей задачей было ручное выполнение математических операций, таких как умножение или преобразование матриц, — написал Тервиш в исследовании. — Очевидно, что такие задачи теперь автоматизированы, и ценность связанных с ними навыков резко снизилась. Точно так же любая автоматизация навыков, которым обучают на наших программах MBA, потенциально может снизить ценность образования».

OpenAI поможет учителям выявлять работы, написанные с помощью ИИ-бота ChatGPT

Компания OpenAI, разработавшая ИИ-бот ChatGPT, сообщила, что займётся созданием решения, способного помочь школам выявлять использование ИИ в работах школьников. Об этом рассказал гендиректор Сэм Альтман (Sam Altman), а заодно предупредил, что 100-процентной гарантии обнаружения использования ИИ никто дать не может.

 Источник изображения: Pixabay

Источник изображения: Pixabay

«Возможны способы, с помощью которых мы можем помочь учителям с большой вероятностью обнаруживать продукты системы, подобной GPT. Но, честно говоря, целеустремлённый человек их обойдёт», — сообщил Альтман в интервью редактору StrictlyVC Конни Лоизос (Connie Loizos) после того, как школы, входящие в систему Департамента образования Нью-Йорка и системы государственных школ Сиэтла, запретили учащимся и учителям использовать ChatGPT с целью предотвращения плагиата и списывания.

«Текст, созданный с использованием ИИ, — это то, к чему нам всем нужно приспособиться, — сказал Альтман. — Я полагаю, мы приспособились к калькуляторам, что изменило способ проведения уроков математики. Это, без сомнения, более экстремальная версия, но и преимущества от неё также более экстремальные».

Запрет использования ИИ-бота ChatGPT вызвал дискуссии — особенно среди учителей — о том, как ИИ может изменить систему образования и методы обучения учащихся в целом. Альтман отметил, что хотя учителей не устраивает использование ChatGPT для приготовления домашних заданий, этот чат-бот может быть «невероятным личным репетитором для каждого ребёнка».

По мнению гендиректора OpenAI, чат-бот может стать увлекательным инстументом для обучения. «Я бы предпочёл, чтобы ChatGPT научил меня чему-то, чем самому читать учебник», — говорит Альтман.

Он также сообщил, что OpenAI изучит, какие решения можно использовать для маркировки контента, созданного ChatGPT — технологии водяных знаков или другие методы, но предупредил, что полностью полагаться на такие инструменты нельзя. «По сути, я думаю, что невозможно сделать идеальное решение, — сказал он. — Люди поймут, какую часть текста им нужно изменить. Будут и другие способы модифицировать генерируемый текст».

Издание CNET перестало публиковать статьи, написанные ИИ, после волны критики

Согласно информации источников, раскрытие информации о множестве написанных ИИ-алгоритмами публикаций на сайте CNET вызвало шквал критики и заставило руководство начать расследование этой практики. Владелец ресурса назначил ответственных для изучения ситуации и поиска выхода из неё, а также для формулирования выводов о будущем применении ИИ в сфере журналисткой деятельности на ресурсе. Публикация сгенерированных статей приостановлена.

 Источник изображения: Pixabay

Источник изображения: Pixabay

В настоящий момент нет ясности в том, на каком уровне принимались решения о публикации сгенерированных ИИ-алгоритмом статей на финансовую тематику. В то же время сторонние ресурсы поймали ответственных лиц CNET на вранье. Например, представители издания утверждали, что созданные роботом заметки вычитывались специалистами для поиска ошибок и несоответствий. Тем не менее, именно благодаря присутствию грубых ошибок стало понятно, что тексты имеют искусственное происхождение.

Но самой большой ошибкой стало неявное указание на авторство заметок. Узнать о сомнительном статусе автора можно было только по всплывающей подсказке-намёку об авторе под ником CNET Money. Если бы издатель чётко указал на авторство ИИ, то никакого скандала, скорее всего, не было бы. Публикации ИИ вполне можно было бы считать экспериментом. Наконец, если бы ИИ генерировал статьи о котиках, то это тоже не вызвало бы бурной реакции. Другое дело — материалы о финансовой сфере, а это хлеб авторов совсем другого уровня.

В целом можно сказать, что «начинание» CNET вышло из-под контроля и явно требует переосмысления, чем и пообещали заняться владельцы издания. Пока же публикации ИИ приостанавливаются как на сайте CNET, так и на ресурсах Bankrate и CreditCards.com, принадлежащих компании Red Ventures.

ChatGPT выполнил тестовое задание и оказался лучше более 80 % соискателей в Schwa — бота пригласили на собеседование

Тестовое задание, написанное для консалтингового агентства Schwa чат-ботом ChatGPT, вошло в число тестовых работ, авторов которых HR-отдел компании пригласил на собеседование. Провокацию устроил сам основатель агентства Нил Тейлор (Neil Teylor), решивший проверить, сможет ли бот обмануть его сотрудников.

 Источник изображения: Alex Knight/unsplash.com

Источник изображения: Alex Knight/unsplash.com

По данным Тейлора, работа оказалась «более компетентной», чем тексты множества кандидатов — она попала в «шорт-лист», причём проверялись не только представители HR-команды, но и программное обеспечение, используемое соответствующим отделом. Ни люди, ни ПО не смогли выявить «самозванца».

Известно, что ChatGPT и другие соискатели получили задание рассказать в письменной форме о секретах хорошего письма, уложившись в 300 слов. Schwa искала энергичный и красноречивый рассказ. По мнению ChatGPT, секрет написания хороших текстов заключается в способности «рассказать хорошую историю». В числе прочего искусственный интеллект посоветовал много работать, читать и изучать труды других писателей, а также не бояться редактировать уже готовые тексты, поскольку ни у кого не получается выдать оптимальный вариант с первого раза. Впрочем, бот признал, что для успеха требуется не только труд, но и креативность, а также талант. Поскольку имена и резюме соискателей скрыли от рекрутеров, они могли оценивать только результаты работ, непосредственно связанные с заданием.

«ИИ был намного компетентнее, чем множество людей, отправивших нам заявки. С учётом того, что всё, что мы делаем — это создаём выдающиеся вещи, привлекающие внимание, я считаю, что это было настоящее испытание», — заключил Тейлор.

Основатель Schwa признал, что для успешного прохождения теста ему пришлось дать боту очень специфические инструкции, включая команду писать в стиле американского автора и копирайтера Дейва Тротта (Dave Trott). При этом Тейлор, по его словам, очень расстроил своим признанием о происхождении текста сотрудницу, проводившую отбор. Впрочем, он признаёт, что над составлением задания пришлось немало потрудиться. С полным текстом, написанным ChatGPT для Schwa, можно ознакомиться здесь.

Доступ к ChatGPT широкой общественности был предоставлен в конце ноября, и уже вскоре инструмент привлёк более миллиона пользователей благодаря способности бота генерировать вполне осмысленные тексты (не всегда достоверные) и даже программный код (не всегда корректно работающий). Ранее сотрудница Business Insider Беатрис Нолан (Beatrice Nolan) использовала ChatGPT для подготовки двух сопроводительных писем и попросила профессиональных рекрутеров оценить их качество. По их словам, речь шла о «подходящих кандидатах», и, вероятно, они дождались бы приглашения HR. Впрочем, рекрутеры признали, что в письмах не хватало индивидуальности.

Telegram наводнили боты, которые воруют аккаунты пользователей

В Telegram растёт число фишинговых атак — злоумышленники пытаются похитить аккаунты пользователей. По данным «Коммерсанта», в первую очередь вредоносная активность осуществляются с помощью ботов, причём за год количество атак на аккаунты выросло вдвое. По мнению экспертов, наиболее опасна и распространена схема с массовыми рассылками. Впрочем, имеются и другие способы хищения.

 Источник изображения: Dima Solomin/unsplash.com

Источник изображения: Dima Solomin/unsplash.com

Как сообщает издание со ссылкой на компанию «Код безопасности», к началу текущего года фишинг в России стал одним из основных способов мошенничества в популярном мессенджере. Рост интереса злоумышленников к платформе Telegram обусловлен притоком аудитории, по разным причинам перешедшей с других сервисов. По данным Cofence, занимающейся обеспечением кибербезопасности, фишинг в Telegram в 2022 году вырос на 800 %, причём основным рабочим инструментом злоумышленников стали именно боты.

В Group-IB рассказывают, что в России уже выявлено не менее тысячи мошеннических группировок, действующих в Telegram и здесь же координирующих действия. В чате среднестатистической группировки может состоять порядка 200 участников.

По данным «Лаборатории Касперского», как в прошлом, так и в 2023 году используются схемы, предусматривающие кражу информации с помощью фейковых ресурсов, на которых тем или иным способом пользователей побуждают ввести данные, необходимые для входа в мессенджер.

В Positive Technologies напоминают о рассылках сообщений, предназначенных для кражи личных сведений и, конечно, вредоносного ПО под видом значимых документов. Основной целью является взлом аккаунтов пользователей с последующим перехватом контроля над популярными группами и каналами. В компании также считают ботов главным инструментом атак злоумышленников. Так, в конце прошлого года состоялась массовая «подарочная рассылка» подписки на премиум-версию Telegram, в результате которой мошенники получили доступ к аккаунтам многих пользователей. Это лишь один из инцидентов безопасности, имевших место в Telegram конце прошлого года.

 Источник изображения: Christian Wiediger/unsplash.com

Источник изображения: Christian Wiediger/unsplash.com

Считается, что притоку пользователей в Telegram с последующим оживлением деятельности злоумышленников способствовали как закрытие для российских пользователей рекламных кабинетов на некоторых зарубежных платформах, так и блокировка российской стороной Instagram* и Facebook*. По данным компании «Антифишинг», число атак на бизнес-аккаунты в Telegram в прошлом году удвоилось.

По словам экспертов, большую угрозу, чем фишинг, представляет новый метод авторизации в мессенджере, введённый в середине прошлого года. По словам владельца бота «Глаз бога» Евгения Антипова, это случилось с тех пор, как Telegram перестал отправлять код для авторизации с помощью SMS, заменив механизм на использование активного клиента на мобильном устройстве или ПК.


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Stack Overflow временно запретил публиковать подсказки программистам от ИИ-бота ChatGPT — он часто обманывает

Сайт Stack Overflow, предназначенный для организации взаимопомощи программистам, временно запретил пользователям публикацию справочных материалов, сгенерированных чат-ботом ChatGPT. По словам модераторов, создавать подсказки с помощью искусственного интеллекта ChatGPT слишком легко, и они выглядят весьма правдоподобно. Тем не менее, очень часто они неправильные.

 Источник изображения: Andrea De Santis/unsplash.com

Источник изображения: Andrea De Santis/unsplash.com

Чат-бот ChatGPT — экспериментальное решение, разработанное компанией OpenAI на основе генератора текстов GPT-3.5. Сетевая демо-версия продукта была представлена на прошлой неделе и с тех пор активно используется пользователями. Проблема в том, что бот способен решать массу задач, от написания стихов и песен до сценариев и формулирования ответов на задаваемые вопросы, но при всей убедительности текстов, они очень часто содержат грубые ошибки, особенно когда речь идёт о темах, посвящённых работе с программным кодом. Впрочем, ошибки совершаются и в других сферах: составляя биографию известной личности, ChatGPT способен вставлять в текст некорректные данные. Таким же образом он создаёт вполне «правдоподобный», но неработающий код.

В основу ChatGPT положены большие языковые модели (Large Language Model, LLM). Они анализируют огромные массивы текстов, формируют закономерности и на их основе предлагают собственные решения, буквально предугадывая, каким должно быть следующее слово в предложении. Такие модели не имеют точного представления о работе некоторых систем, в результате чего фактически генерируется недостоверная информация. Пока трудно оценить, какая часть подготовленных ими материалов недостоверна. В Stack Overflow решили, что риск дезинформации пользователей слишком велик. При этом многие эксперты опасаются, что с ростом числа сгенерированных неверных ответов растёт и риск того, что ими поделятся в Сети, погружая последнюю в хаос — контент, созданный реальными пользователями, просто утонет в море сгенерированных материалов.

Пока данных о вреде, наносимом LLM в реальном мире, немного, но события на Stack Overflow служат подтверждением существования пугающей тенденции. По словам модераторов, до введения запрета на ChatGPT на площадке уже появились тысячи сгенерированных ответов, каждый из которых требует детальной проверки.

Эксперты опасаются, что ситуация повторится и на других платформах — лавина сгенерированного ИИ контента не позволит ознакомиться с мнениями настоящих пользователей.

Пользователи Stack Overflow поддержали запрет, хотя отметили, что распознать «искусственный» контент будет непросто. Совета спросили и у самого ChatGPT. В ходе многочисленных экспериментов тот выдал вполне разумный ответ. «В целом, разрешать ли сгенерированные ИИ ответы на Stack Overflow — сложное решение, которое должно осторожно рассматриваться сообществом», — заявил бот.

OpenAI создала ИИ, способный генерировать осмысленные тексты от стихов до научных эссе — но иногда он очень убедительно врёт

Некоммерческая организация OpenAI, специализирующаяся на разработке технологий искусственного интеллекта, открыла доступ к чат-боту ChatGPT, способному генерировать вполне осмысленные тексты в любом формате на выбор. Проект покорил пользователей интернета, которые начали верить в его способность заменить человека в художественной и научной литературе.

 Источник изображения: openai.com

Источник изображения: openai.com

ChatGPT на удивление легко и добросовестно справляется с самыми невероятными задачами, которые ему поручают пользователи Сети: он выдаёт грамотные исторические справки и пишет стихи о криптовалюте. Популярность проекта удивила даже его создателей — глава OpenAI Сэм Альтман (Sam Altman) сообщил, что чат-бот пользуется куда более высоким спросом, чем предполагалось.

OpenAI была основана Альтманом и главой Tesla Илоном Маском (Elon Musk) около семи лет назад — они поставили цель разрабатывать технологии искусственного интеллекта, способные «принести пользу всему человечеству». В 2018 году Маск вышел из проекта из-за разногласий по поводу его дальнейшего развития, но сейчас и он отдал должное способностям ChatGPT.

Перевод чат-ботов на основе искусственного интеллекта в общедоступный режим — занятие рискованное. В 2016 году Microsoft была вынуждена отключить своего бота Tay, который начал публиковать в Twitter сообщение расистского, сексистского и ненавистнического характера. Недавно с подобной проблемой столкнулась Meta*.

Разработчики ChatGPT предупредили, что он «иногда пишет правдоподобные, но неверные или бессмысленные ответы» и порой бывает «излишне многословным» из-за того, как его обучили. Ложку дёгтя добавили и некоторые пользователи: он дал подробный, но неверный ответ на вопрос по алгебре и как-то научился обходить запреты на публикацию изречений, связанных с насилием, преступлениями и расизмом.


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Криптобиржа Binance поможет разобраться с ботами в Twitter

Крупнейшая в мире криптовалютная биржа Binance, подтвердившая в минувшую пятницу, что финансово поддержала Илона Маска в сделке по покупке Twitter, создаёт команду для оказания помощи социальной сети в борьбе с фейковыми аккаунтами.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Представитель Binance сообщил, что внутренняя команда специалистов криптобиржи займётся разработкой стратегии, которая должна помочь Маску реализовать своё видение относительно дальнейшей работы Twitter. Но в первую очередь команда сосредоточится на определении того, чем блокчейн и криптовалюта смогут быть полезными в функционировании социальной платформы.

Представитель отметил, что планирование реализации данной инициативы всё ещё находится на ранней стадии. Круг задач создаваемой команды может включать разработку ончейн-решений «для устранения некоторых проблем Twitter, таких как распространение в последние годы бот-аккаунтов», рассказал он.

Напомним, что Маск неоднократно указывал на значительное количество ботов в Twitter, удельный вес которых, по его мнению, гораздо больше, чем отражено в официальной отчётности социальной сети. И он называл это одной из главных проблем, которая может привести к срыву сделки по покупке платформы.

Новая статья: Подборка полезных Telegram-ботов для повседневных задач и работы

Данные берутся из публикации Подборка полезных Telegram-ботов для повседневных задач и работы

Twitter проведёт реструктуризацию подразделения, отвечающего за борьбу с дезинформацией и ботами

Откровения бывшего главы службы безопасности Twitter, который утверждает, что в компании не всё так благополучно с защитой от хакеров и спамеров, наверняка сыграют на руку Илону Маску (Elon Musk). Одновременно появляется информация, что социальная сеть решила объединить команды специалистов, которые отвечали за борьбу с дезинформацией, вредоносным контентом, спамом, а также работой с профилями пользователей.

 Источник изображения: Pixabay, PhotoMIX-Company

Источник изображения: Pixabay, PhotoMIX-Company

О предстоящих изменениях сообщает Reuters со ссылкой на собственные осведомлённые источники. По их данным, ранее в структуре Twitter за борьбу с распространением дезинформации и вредоносного контента отвечала «группа оздоровления», а сервисная служба отвечала за проверку клиентских профилей и удаление учётных записей, связанных с распространением спама. Теперь руководство Twitter сообщило сотрудникам, что новая объединённая группа будет называться «Health Products and Services».

Элла Ирвин (Ella Irwin), которая вступила в должность вице-президента Twitter по оздоровлению в июне этого года, заявила о необходимости структурных подразделений компании объединить усилия в устранении конкретных проблем, а не продолжать работать в «обособленных бункерах». Сотрудники Twitter на условиях анонимности заявили Reuters, что штат специалистов, отвечающих за борьбу с вредоносной информацией, в последние месяцы заметно сократился. По мнению сотрудников компании, пожелавших остаться неизвестными, реструктуризация не окажет существенного влияния на эффективность работы указанных подразделений Twitter. Бывший специалист по информационной безопасности компании признал, что корни проблем социальной сети с фиктивными учётными записями слишком глубоки, чтобы их можно было устранить силами одной команды.

Meta* запустила публичное тестирование умного чат-бота BlenderBot 3 — пока только в США

Компания Meta* разработала самообучающегося чат-бота BlenderBot 3, который использует технологии искусственного интеллекта и доступен для тестирования жителям США. Разработчики подчёркивают, что доступ к сервису может быть ограничен для пользователей VPN. Утверждается, что бот способен как поддерживать беседы на отвлечённые темы, так и выполнять функции виртуального помощника.

 Источник изображения: Andrea De Santis/unsplash.com

Источник изображения: Andrea De Santis/unsplash.com

Прототип построен на основе разработок Meta* с использованием т. н. «больших языковых моделей» (LLMS) — программного обеспечения нового поколения, одним из наиболее известных образцов которого является модель OpenAI GPT-3.

BlenderBot 3 обучается на больших массивах данных, на базе которых он строит устойчивые модели для формирования собственных высказываний. Такие системы доказали свою чрезвычайную гибкость и в теории могут использоваться в различных целях, от создания кода для программистов до помощи авторам в написании бестселлеров. Тем не менее, модели имеют серьёзные недостатки — в ходе обучения они не только приобретают собственные «предрассудки», но и часто просто «выдумывают» ответы на вопросы — не особенно полезная функция для голосовых помощников. Для борьбы с подобным явлением Meta* активировала новую функцию — бот не просто способен найти ответ в Сети, но и поделится источником, из которого взяты данные.

Представив новое решение общественности, Meta* намерена собрать обратную связь от пользователей, которые могут отметить любые «подозрительные» ответы, а также согласиться на сохранение их диалогов, которые Meta* позже использует для дальнейшего анализа специалистами по системам искусственного интеллекта.

Использование ИИ-ботов для общения с людьми всегда было довольно рискованным занятием. В 2016 году чат-бот Microsoft Tay пришлось отключить спустя считаные часы после того, как пользователи научили его ксенофобским и сексистским высказываниям. Хотя BlenderBot 3 использует несколько отличающуюся модель обучения, по некоторым данным, он тоже замечен в аналогичных грехах — ксенофобии и поддержке конспирологических теорий вплоть до критики Facebook*.

 Источник изображения: *** AI

Источник изображения: Meta* AI

По словам представителя Meta*, используемые в настоящий момент чат-боты обычно имеют узкую специализацию вроде обслуживания запросов клиентов или покупателей и фактически работают в соответствии со скриптами, в конце концов перенаправляя собеседников к человеку-оператору. Единственным способом создать систему, способную свободно общаться с пользователем, является её тренировка на реальных, свободных разговорах, что поможет продвигаться в исследованиях и в дальнейшем.

Помимо тестирования чат-бота, Meta* опубликовала связанный с его разработкой код, массивы данных для тренировки ИИ и другую полезную информацию. Модели с 3 и 30 млрд параметров уже доступны разработчикам. Желающие могут запросить доступ к модели со 175 млрд параметров, заполнив специальную форму.


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Сделка по покупке Twitter Илоном Маском под вопросом — команда бизнесмена не смогла достоверно определить долю ботов

Подготовку к сделке по покупке Twitter Илоном Маском (Elon Musk) продолжают сопровождать противоречия. Представители социальной сети провели специальный брифинг, в ходе которого попытались убедить общественность, что доля ботов значительно ниже 5 %, но неофициальные источники утверждают, что Илон Маск и его специалисты не смогли найти рабочего способа получить достоверное представление о доле сомнительных учётных записей.

 Источник изображения: Twitter

Источник изображения: Twitter

В итоге в течение прошедших суток курс акций Twitter попеременно двигался в противоположных направлениях. Поскольку сотрудники Twitter выступили с заявлениями о методике определения доли сомнительных записей раньше, акции компании днём попытались вырасти в цене на 2,6 %. Позже на страницах The Washington Post была опубликована статья, сформировавшая обратный тренд, после чего акции Twitter завершили сессию снижением курса на 4 %. Издание со ссылкой на свои источники сообщило, что, во-первых, команда Илона Маска отчаялась найти методы анализа предоставляемой Twitter информации, которые позволяли бы достоверно определить долю сомнительных учётных записей в ежедневной «монетизируемой» пользовательской аудитории.

Во-вторых, источники сообщили, что потенциальный покупатель прекратил искать источники финансирования сделки на начальных условиях, которые оценивали активы Twitter в $44 млрд. Ожидается, что в тактике поведения Маска применительно к подготовке этой сделки скоро произойдут значительные изменения. Будет ли это отказ от покупки активов Twitter по изначально оговорённой цене, либо сделка развалится полностью, сейчас судить сложно.

Эксперты поясняют, что оба сценария для Маска будут труднореализуемыми. Прежде всего, ему предстоит доказать, что недостоверность информации о доле сомнительных учётных записей, предоставленной Twitter, является существенным нарушением условий сделки. Сделать это будет крайне сложно, особенно с учётом той поспешности, которая сопутствовала переговорам о покупке социальной сети на начальном этапе. Отделаться выплатой неустойки в размере $1 млрд Илону Маску в случае полного отказа от покупки Twitter тоже вряд ли удастся. Компания в случае развала сделки останется в крайне уязвимом положении и попытается взыскать с Илона Маска ущерб через суд или даже принудить его к покупке своих активов. Представители Twitter и Илона Маска соответственно все эти слухи комментировать для The Wall Street Journal отказались.

window-new
Soft
Hard
Тренды 🔥