Адвокат воспользовался ИИ-ботом ChatGPT и горько об этом пожалел
Читать в полной версииСтремительно набирающие популярность чат-боты на основе искусственного интеллекта могут выдавать за истину вымышленные факты, что приводит пользователей к ложным выводам. Эта особенность сыграла злую шутку с адвокатом Стивеном Шварцем (Steven Schwartz) из юридической фирмы Levidow, Levidow & Oberman, использовавшим ИИ-чат-бота ChatGPT в работе над делом своего клиента Роберто Мата (Roberto Mata).
Роберто Мата подал в суд на авиакомпанию Avianca в связи с получением травм из-за столкновения с сервировочной тележкой во время полёта в 2019 году, заявив о халатности со стороны её сотрудника. Стивен Шварц, адвокат Levidow, Levidow & Oberman, имеющий лицензию на адвокатскую практику в Нью-Йорке более трёх десятилетий, прибегнул к помощи ChatGPT для сбора данных о предыдущих подобных судебных процессах, итоги которых свидетельствовали бы в пользу его подзащитного.
Как выяснилось, ChatGPT предоставил ему вымышленные факты, из-за чего адвокату теперь грозит потеря лицензии. В конце апреля адвокаты Avianca из Condon & Forsyth направили судье Кевину Кастелю (Kevin Castel) Федерального окружного суда Южного округа Нью-Йорка письмо, в котором поставили под сомнение подлинность приведённых адвокатом дел.
Судья после проверки отметил в постановлении, что по крайней мере шесть дел, представленных Шварцем в качестве прецедентов, «кажутся фиктивными судебными решениями с фиктивными цитатами и фиктивными внутренними отсылками к источнику».
Шварц в письменном заявлении под присягой сообщил 25 апреля, что до этого дела он никогда не использовал ChatGPT в качестве источника юридической информации и, следовательно, «не знал о возможности того, что его содержание может быть ложным». Он добавил, что «очень сожалеет о том, что использовал генеративный искусственный интеллект для дополнения правового исследования, проведённого здесь, и никогда не будет делать этого в будущем без абсолютной проверки его подлинности».