Юрист использовал ChatGPT в суде и попал в большие неприятности

ChatGPT часто не просто ищет и обрабатывает факты, но и придумывает свои. Недавно из-за «фантазии» чат-бота нью-йоркский юрист попал в большие неприятности, предоставив судье исследование, сгенерированное искусственным интеллектом.
Юрист использовал ChatGPT в суде и попал в большие неприятности
Unsplash
Чат-бот рассказал юристу о делах, которых никогда не существовало. И подтвердил их реальность

Всё началось со стандартного судебного процесса: мужчина подал в суд на авиакомпанию Avianca, заявив, что получил травму ноги из-за незакрепленной тележки. Его адвокат представил судье краткое исследование, в котором содержались аналогичные дела, такие как «Петерсен против Iran Air 905 F. Supp 2d 121 (DDC 2012)» и «Миллер против United Airlines, Inc, 174 F.3d 366 (2-й округ, 1999 г.)».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

ChatGPT обманывает юриста

«Исследование» составил адвокат Стивен Шварц из манхэттенской юридической фирмы Levidow, Levidow & Oberman, за плечами которого 30-летний опыт работы. Шварц признался суду, что раньше никогда не пользовался ChatGPT для юридических исследований и «не знал о возможности того, что его содержание может быть ложным».

Адвокат также добавил, что просил чат-бот перепроверять источники. Во всех случаях ChatGPT подтверждал их реальность.

Последствия

8 июня должно пройти слушание по делу о предоставлении ложной информации судье
8 июня должно пройти слушание по делу о предоставлении ложной информации судье
Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Шварц признался, что «очень сожалеет» об использовании чат-бота для судебного исследования. Он также отметил, что «никогда не будет делать этого в будущем без абсолютной проверки его подлинности».

Однако судья указал на серьезность последствий и заявил, что не может закрыть глаза на случившиеся. Теперь в июне Шварца ждет слушание, где будет обсуждаться наказание для юриста.

Кстати, ранее исследователи из Стэнфордского университета проверили надежность ответов ChatGPT и пришли к довольно тревожным выводам. Они заметили, что несмотря на довольно убедительные тексты, чат-бот не часто подкрепляет предложения цитатами, а четверть из них не имеют надежных ссылок. Подробнее об этом в нашем материале.