Пользователям ChatGPT позволят изменять ИИ-бота под себя — это даст боту больше свободы

Читать в полной версии

Разработавшая передового ИИ-бота ChatGPT компания OpenAI рассказала о том, как проект может развиваться дальше. В качестве одного из вариантов рассматривается настраиваемая версия системы, способная в определённой мере адаптироваться к отдельным пользователям.

Источник изображения: Gerd Altmann / pixabay.com

К такому решению компанию подтолкнули некоторые отзывы на работу ChatGPT: систему начали обвинять в предвзятости в отношении вопросов политического и культурного характера. Например, она пишет стихи про одного президента США и отказывается писать про другого. Поэтому в компании решили выпустить обновление ChatGPT, которое даст платформе больше свободы при ответах на запросы пользователей: ИИ-бот сможет «говорить» вещи, неприемлемые для других. Идея уже вызвала опасения, что ChatGPT начнёт в итоге продвигать спорные идеологии или займёт одну из сторон в культурной войне.

Разработчик обещает сохранить защитные барьеры, способные сделать поведение ChatGPT недопустимым. С другой стороны, он не хочет превратить систему в «подхалимский» ИИ, который «бездумно усиливает существующие убеждения людей». Настало время решить, каковы будут границы дозволенного у ИИ, говорят в OpenAI: компания не может принять такое решение самостоятельно и не хочет выстраивать единую монолитную систему ИИ — это противоречит уставу OpenAI, который предписывает «избегать чрезмерной концентрации власти». Компания призывает представителей общественности выдвигать идеи о дальнейшем управлении ChatGPT — могут появиться несколько версий системы.

OpenAI также попыталась стать прозрачнее в отношении того, что может показаться предвзятостью ИИ по деликатным политическим и культурным вопросам. ChatGPT — большая языковая модель, обученная на библиотеках интернет-контента, на новостях, книгах и сообщениях в соцсетях, а не база данных. При ответе на вопрос система производит нечто вроде «автозаполнения» на заданную тему, и любое проявление предубеждения является просто технической ошибкой. Разработчик не в силах предсказать, какой вопрос зададут машине, а значит, не в силах написать инструкцию для каждого из них. OpenAI проводит активные исследования и разработку с целью снизить число таких ошибок, есть и специалисты, ответственные за «тонкую настройку» ChatGPT — они помогают ИИ давать более точные ответы на узкие вопросы. Компания опубликовала рекомендации (PDF), на основе которых специалисты выстраивают свою работу с системой, и пообещала привести демографическую сводку об этих специалистах.