Сегодня 01 апреля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

OpenAI: детекторы ИИ и сам ChatGPT неспособны отличить текст нейросети от человеческого

OpenAI признала, что существующие инструменты для обнаружения текстов, созданных ИИ, неэффективны и часто дают ложные срабатывания. В обновлённом разделе с часто задаваемыми вопросами (FAQ) компания подчёркивает, что даже сам ChatGPT не способен точно определить, создан текст человеком или машиной. Эксперты призывают отказаться от автоматизированных инструментов обнаружения ИИ и полагаться на человеческий опыт и интуицию.

 Источник изображения: mozarttt / Pixabay

Источник изображения: mozarttt / Pixabay

На своём сайте в разделе FAQ под заголовком «Как преподаватели могут реагировать на то, что студенты выдают работы, созданные ИИ, за свой собственные?» компания рассказывает о том, работают ли детекторы ИИ: «Коротко говоря — нет. Несмотря на то, что некоторые компании (включая OpenAI) выпустили инструменты, предназначенные для обнаружения контента, созданного ИИ, ни один из них не смог достоверно отличить контент, созданный ИИ, от контента, созданного человеком».

Такие детекторы ИИ, как, например, GPTZero, часто дают ложные срабатывания из-за того, что в их основе лежат непроверенные методы детекции. В конечном счёте, нет ничего особенного в текстах, созданных ИИ, что всегда отличало бы их от текстов, написанных человеком. К тому же детекторы можно обойти, перефразировав текст. В июле OpenAI прекратила поддержку своего экспериментального инструмента AI Text Classifier с печальным показателем точности 26 %.

Компания также разрушает другой миф, что ChatGPT может определить, создан текст машиной или нет: «К тому же, у ChatGPT нет „понимания“, какой контент может быть создан ИИ. Он иногда выдумывает ответы на вопросы вроде „ты написал это [эссе]?“ или „это могло быть написано ИИ?“. Эти ответы случайны и не имеют под собой никаких оснований».

OpenAI также говорит о склонности своих ИИ-моделей сообщать ложную информацию: «Иногда ChatGPT звучит убедительно, но может дать неверную или вводящую в заблуждение информацию (часто называемую „галлюцинацией“). Он даже может выдумывать вещи вроде цитат или ссылок, поэтому не используйте его как единственный источник для исследований». Так, например, в мае нью-йоркскому адвокату, который воспользовался ChatGPT и получил в ответ вымышленные факты, грозила потеря лицензии.

Несмотря на то, что детекторы ИИ не работают, это не значит, что человек никогда не сможет обнаружить текст, созданный ИИ. Например, преподаватель, знакомый с письменным стилем ученика, может заметить, когда его стиль или уровень знаний внезапно меняются.

К тому же, некоторые неаккуратные попытки выдать текст, созданный ИИ, за свой собственный, могут иметь характерные признаки, такие как фраза «как модель языка ИИ», что указывает на то, что человек просто скопировал и вставил ответ, полученный от ChatGPT, даже не прочитав его. Недавно в научном журнале Nature была опубликована статья о том, как в одной научной статье читатели обратили внимание на фразу «Regenerate response» (сгенерировать новый ответ), которая является элементом интерфейса ChatGPT.

На текущем этапе технологического развития безопаснее всего избегать полностью автоматизированных инструментов для определения текстов, созданных с помощью ИИ. Это подтверждает и мнение Этана Моллика (Ethan Mollick), профессора из бизнес-школы Уортона (Wharton School of the University of Pennsylvania) и аналитика в области ИИ. Он подчёркивает, что на данный момент детекторы ИИ имеют высокий уровень ложных срабатываний, и ими пользоваться не следует.

Таким образом, вопрос об отличии машинного текста от человеческого остаётся открытым, а ответ на него, возможно, лежит в области интуитивного понимания и профессионального опыта каждого отдельного человека.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Разработчики Palworld анонсировали симулятор свиданий по мотивам игры, и это не шутка — трейлер Palworld! More Than Just Pals 2 ч.
В новых Android-смартфонах нашли вирус, который угоняет аккаунты Telegram и ворует криптовалюту 2 ч.
Wizards of the Coast заблокировала мод по Baldur’s Gate 3 для Stardew Valley, но у истории «хорошая концовка» 2 ч.
Стало известно, какие iPhone не смогут обновиться до iOS 19 4 ч.
Copilot+PC на чипах Intel и AMD наконец получили новые ИИ-функции для Paint, «Фото» и не только 4 ч.
Настольная карточная игра Riftbound по League of Legends вышла из тени — подробности международного запуска 4 ч.
Завирусившийся новый генератор изображений в ChatGPT стал доступен всем пользователям 4 ч.
OpenAI привлекла $40 млрд инвестиций от «синдиката инвесторов» — деньги пойдут на создание AGI 4 ч.
OpenAI привлекла рекордные $40 млрд — капитализация достигла $300 млрд 5 ч.
«Он смотрит в прошлое»: глава Take-Two объяснил, почему ИИ никогда не создаст собственную GTA VI 5 ч.
Arm намерена занять 50 % рынка чипов для ЦОД к концу 2025 года — Nvidia ей в этом поможем 8 мин.
Bharti Airtel подключила Мумбаи к мировой сети с помощью кабеля 2Africa Pearls с пропускной способностью 100 Тбит/с 10 мин.
$100 млрд для отвода глаз: эксперты усомнились в планах TSMC по развитию фабрик в США 39 мин.
Европа технически готова построить суперколлайдер будущего, который будет втрое больше БАКа 48 мин.
Microsoft вновь заявила о намерении сотрудничать с OpenAI несмотря на план по замедлению экспансии ЦОД 54 мин.
XenData представила 1U-устройство Z20 на базе Windows 11 Pro для доступа к облачным хранилищам 58 мин.
Asus и Xbox намекнули на совместный выпуск портативной приставки с «новым уровнем гейминга» 59 мин.
Флагманский смартфон Honor Magic 7 стал доступен для предзаказа в России за 109 990 рублей 2 ч.
Минпромторг готовит обязательную маркировку импортной электроники — это может лишить россияне дешёвых гаджетов из-за границы 2 ч.
Первый пациент с Neuralink провёл год с имплантом в голове — побочных эффектов нет 3 ч.