Сэм Альтман хочет, чтобы человек доверил ChatGPT память о всей своей жизни
Читать в полной версииГендиректор OpenAI Сэм Альтман (Sam Altman) на недавнем мероприятии, посвящённом искусственному интеллекту, рассказал, каким видит будущее ChatGPT. На вопрос о том, как можно сделать платформу ещё более персонализированной, Альтман ответил, что хочет, чтобы модель документировала и помнила о жизни человека всё. В идеале это будет «очень маленькая рассуждающая модель с контекстом на триллион токенов, в который вносишь всю свою жизнь».
Источник изображений: Growtika / unsplash.com
«Эта модель может рассуждать во всём вашем контексте и делать это эффективно. И каждый разговор, который вы когда-либо вели в своей жизни, каждая книга, которую когда-либо читали, всё, что когда-либо смотрели, находится там, плюс связано со всеми вашими данными из других источников. И ваша жизнь просто продолжает добавляться к этому контексту», — рассказал глава OpenAI.
У Альтмана есть веские основания считать такой сценарий развития ChatGPT естественным — молодёжь в вузах пользуется платформой как операционной системой, пояснил он. Они загружают файлы, подключают источники данных и вводят для их обработки «сложные запросы»; более того, они уже «на деле не принимают никаких жизненных решений, не спросив ChatGPT». «Сильно упростим: люди старшего возраста используют ChatGPT как замену Google. Люди в возрасте от 20 до 30 лет используют его как наставника в жизни», — заявил Сэм Альтман.
С одной стороны, система, которая решает некоторые жизненные задачи вместо человека, могла бы облегчить ему жизнь. С другой, нельзя сказать наперёд, насколько можно доверять свою жизнь крупной технологической компании: например, Google, которая долгое время позиционировалась как «корпорация добра», уже проиграла не один судебный процесс, в котором её признали виновной в антиконкурентных действиях.
Чат-боты с ИИ могут быть подвержены манипуляциям со стороны своих разработчиков и высказывать предвзятую точку зрения. Иногда ИИ выходит из-под контроля — недавно тот же ChatGPT начал проявлять в отношении пользователей чрезмерно подхалимское поведение, и его очередное обновление пришлось откатить. Наконец, до сих пор не решена проблема с галлюцинациями ИИ, то есть инцидентами, когда чат-бот с уверенностью даёт явно не соответствующие действительности ответы; более того, со временем эта особенность ИИ даже усугубляется.