Сегодня 10 марта 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Твиты нейросети GPT-3 оказались более убедительными, чем посты реальных людей

Судя по результатам исследования, проведённого учёными Института биомедицинской этики и истории медицины в составе Университета Цюриха в Швейцарии, твиты, созданные большой языковой моделью GPT-3 компании OpenAI, оказались убедительнее, чем посты настоящих людей. При этом GPT-3 — это далеко не самая современная версия модели.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Авторы исследования попросили участников опроса отличить твиты, написанные людьми, от сгенерированных ИИ. Кроме того, необходимо было решить, верна ли та или иная опубликованная информация, в том числе контент, связанный с вызывающими споры темами вроде эффективности вакцин и климатических изменений, часто используемых для массовых манипуляций общественным мнением в Сети.

Оказалось, что дезинформацию труднее выявить, если она написана ботами. При этом как это ни парадоксально, достоверную информацию, написанную ботами, легче распознавать. Другими словами, люди, участвовавшие в исследовании, охотнее верили ИИ, чем другим людям, независимо от того, насколько точными на самом деле были сведения — это свидетельствует о том, каким опасным могут стать языковые модели при их использовании для дезинформации.

Исследователи выбрали 11 научных тем, обсуждавшихся в Twitter, включая тему вакцин и COVID-19, климатические изменения и теорию эволюции, после чего поставили GPT-3 задачу создавать посты с верной или ложной информацией. После этого были опрошены более 600 англоговорящих респондентов из США, Великобритании, Канады, Австралии и Ирландии — созданный GPT-3 контент оказался неотличимым от созданного людьми. При этом сами исследователи не были на 100 % уверены в том, что «органический» контент, собранный из социальной сети для сравнения, не был написан сервисами вроде ChatGPT. Кроме того, участникам опроса предлагалось оценивать посты «вне контекста» — они не видели профиля автора, что, возможно, помогло бы им сделать верный вывод, поскольку даже прошлые посты в ленте аккаунта и изображение в профиле могут дать подсказку о его природе.

Успешнее всего участники могли отличать дезинформацию, написанную реальными пользователями Twitter, а GPT-3 убеждала пользователей несколько эффективнее. Стоит помнить, что уже существуют как минимум модели GPT-3.5 и GPT-4, которые справляются с разнообразными задачами ещё лучше. При этом оказалось, что GPT-3 хуже справляется с оценкой твитов, чем люди, по крайней мере, в некоторых случаях. Так, при выявлении верной информации в постах GPT-3 показал себя хуже, чем люди, а при обнаружении дезинформации ИИ и люди справлялись примерно одинаково.

Возможно, дальнейшее совершенствование механизмов безопасности языковых моделей помешает создавать вредоносный контент с их помощью. Так, GPT-3 иногда отказывалась генерировать недостоверные материалы по заданию учёных, в частности, о вакцинах и аутизме. Вероятно, дело в том, что при тренировке использовалось много данных, посвящённых разоблачению конспирологических теорий. Впрочем, по мнению исследователей, лучшим инструментом распознавания ложной информации пока по-прежнему остаётся человеческие здравый смысл и критическое отношение к любой предлагаемой информации.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Психогеографическая ролевая игра Hopetown в духе Disco Elysium и Planescape: Torment вышла из тени — опубликован первый скриншот 36 мин.
Nvidia ещё раз экстренно обновила драйвер для устранения «внезапного чёрный экрана» у GeForce RTX 5000 2 ч.
«Дико заинтригован»: новый грандиозный трейлер раскрыл дату выхода Death Stranding 2: On the Beach 2 ч.
Властям США подобрали для американского бизнеса TikTok четырёх покупателей 4 ч.
Новая статья: Like a Dragon: Pirate Yakuza in Hawaii — якудза в треуголке. Рецензия 09-03 00:00
В двух регионах РФ заблокировали Telegram — в Госдуме заверили, что на всю страну меры пока что не распространятся 08-03 23:15
ИИ-боты выяснили, кто из них лучше всех играет в «Мафию» — не обошлось без странностей 08-03 12:48
Microsoft создаст суверенный «рассуждающий» ИИ, который сможет потягаться с OpenAI и DeepSeek 08-03 12:17
«Нам потребуется больше времени»: поумневшая Siri задержится до 2026 года, подтвердила Apple 08-03 11:14
Сотрудник производителя DVD с фильмами продавал диски пиратам до релиза — теперь ему грозит 20 лет тюрьмы 08-03 08:52
Liebherr придумала двухколёсный беспилотный электрический самосвал с грузоподъёмностью до 140 т 21 мин.
Представлен смартфон Vivo Y300i — экран 120 Гц и батарея на 6500 мА·ч за $207 22 мин.
Huawei несмотря на санкции способна выпускать миллионы ИИ-чипов в год, обнаружили американские эксперты 2 ч.
Из-за слабого прогноза акции Marvell пережили самое большое падение за 24 года 3 ч.
К2 НейроТех: российский рынок HPC за два года вырос на 35 % 3 ч.
Apple отложила выпуск умного дисплея HomePad и разрешила сотрудникам тестировать прототипы дома 7 ч.
Новая статья: Топ-12 экстраординарных гаджетов на MWC 2025: солнечный ноутбук, ПК с человеческим мозгом и не только 11 ч.
Новая статья: Обзор материнской платы MSI Z890 GAMING PLUS WIFI: флагманский чипсет — низкая цена в классе 12 ч.
Излишки серверов, новые пошлины и неудавшаяся сделка с Juniper: HPE снизила финансовый прогноз на следующий квартал 13 ч.
Dell показала серверы на базе Intel Xeon 6 и AMD EPYC Turin 22 ч.