Сегодня 13 августа 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

OpenAI: детекторы ИИ и сам ChatGPT неспособны отличить текст нейросети от человеческого

OpenAI признала, что существующие инструменты для обнаружения текстов, созданных ИИ, неэффективны и часто дают ложные срабатывания. В обновлённом разделе с часто задаваемыми вопросами (FAQ) компания подчёркивает, что даже сам ChatGPT не способен точно определить, создан текст человеком или машиной. Эксперты призывают отказаться от автоматизированных инструментов обнаружения ИИ и полагаться на человеческий опыт и интуицию.

 Источник изображения: mozarttt / Pixabay

Источник изображения: mozarttt / Pixabay

На своём сайте в разделе FAQ под заголовком «Как преподаватели могут реагировать на то, что студенты выдают работы, созданные ИИ, за свой собственные?» компания рассказывает о том, работают ли детекторы ИИ: «Коротко говоря — нет. Несмотря на то, что некоторые компании (включая OpenAI) выпустили инструменты, предназначенные для обнаружения контента, созданного ИИ, ни один из них не смог достоверно отличить контент, созданный ИИ, от контента, созданного человеком».

Такие детекторы ИИ, как, например, GPTZero, часто дают ложные срабатывания из-за того, что в их основе лежат непроверенные методы детекции. В конечном счёте, нет ничего особенного в текстах, созданных ИИ, что всегда отличало бы их от текстов, написанных человеком. К тому же детекторы можно обойти, перефразировав текст. В июле OpenAI прекратила поддержку своего экспериментального инструмента AI Text Classifier с печальным показателем точности 26 %.

Компания также разрушает другой миф, что ChatGPT может определить, создан текст машиной или нет: «К тому же, у ChatGPT нет „понимания“, какой контент может быть создан ИИ. Он иногда выдумывает ответы на вопросы вроде „ты написал это [эссе]?“ или „это могло быть написано ИИ?“. Эти ответы случайны и не имеют под собой никаких оснований».

OpenAI также говорит о склонности своих ИИ-моделей сообщать ложную информацию: «Иногда ChatGPT звучит убедительно, но может дать неверную или вводящую в заблуждение информацию (часто называемую „галлюцинацией“). Он даже может выдумывать вещи вроде цитат или ссылок, поэтому не используйте его как единственный источник для исследований». Так, например, в мае нью-йоркскому адвокату, который воспользовался ChatGPT и получил в ответ вымышленные факты, грозила потеря лицензии.

Несмотря на то, что детекторы ИИ не работают, это не значит, что человек никогда не сможет обнаружить текст, созданный ИИ. Например, преподаватель, знакомый с письменным стилем ученика, может заметить, когда его стиль или уровень знаний внезапно меняются.

К тому же, некоторые неаккуратные попытки выдать текст, созданный ИИ, за свой собственный, могут иметь характерные признаки, такие как фраза «как модель языка ИИ», что указывает на то, что человек просто скопировал и вставил ответ, полученный от ChatGPT, даже не прочитав его. Недавно в научном журнале Nature была опубликована статья о том, как в одной научной статье читатели обратили внимание на фразу «Regenerate response» (сгенерировать новый ответ), которая является элементом интерфейса ChatGPT.

На текущем этапе технологического развития безопаснее всего избегать полностью автоматизированных инструментов для определения текстов, созданных с помощью ИИ. Это подтверждает и мнение Этана Моллика (Ethan Mollick), профессора из бизнес-школы Уортона (Wharton School of the University of Pennsylvania) и аналитика в области ИИ. Он подчёркивает, что на данный момент детекторы ИИ имеют высокий уровень ложных срабатываний, и ими пользоваться не следует.

Таким образом, вопрос об отличии машинного текста от человеческого остаётся открытым, а ответ на него, возможно, лежит в области интуитивного понимания и профессионального опыта каждого отдельного человека.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Блогер встроил «чит» прямо в руку — электростимуляция ускорила прицеливание в CS2 2 ч.
ИИ-бот Claude теперь может прочитать «Войну и мир» за раз — Anthropic увеличила контекстное меню в 5 раз 2 ч.
ИБ-платформа Security Vision 5 получила множество доработок 3 ч.
Krafton: увольнение руководителей Unknown Worlds спасло Subnautica 2 от судьбы Kerbal Space Program 2 и «непоправимого ущерба всей франшизе» 3 ч.
Chrome начнёт блокировать скрипты для слежки, но только в режиме «Инкогнито» 4 ч.
VK Tech увеличила в I полугодии 2025 года выручку в полтора раза, а количество клиентов выросло более чем втрое 4 ч.
Догоняя X: месячная аудитория Threads превысила 400 млн активных пользователей 5 ч.
Perplexity предложила выкупить Google Chrome за $34,5 млрд — сам стартап стоит почти вдвое меньше 5 ч.
Персонализация поиска Google стала по-настоящему персональной — теперь можно самому выбирать источники 7 ч.
Capcom устроит «эксклюзивный показ» Resident Evil Requiem на Gamescom: Opening Night Live 7 ч.