На волне ударного развития ИИ-технологий представители многих профессий опасаются, что в будущем эти программы лишат их работы. Для американца Стивена Шварца подобный исход может наступить гораздо раньше ожидаемого, но не по той причине, о которой вы могли бы предположить. Адвокат из юридической фирмы «Levidow, Levidow & Oberman» воспользовался ChatGPT для составления юридического брифа, а теперь его ожидают санкции вплоть до лишения права на осуществление адвокатской деятельности.
Роберто Мата нанял фирму «Levidow, Levidow & Oberman» для подачи иска и взыскания компенсации с колумбийской авиалинии Avianca за получение травмы во время рейса в Международный аэропорт имени Джона Кеннеди в Нью-Йорке. Представители авиалинии подали ходатайство о закрытии дела, однако адвокаты Роберто решили ответить 10-страничным брифом с аргументацией о целесообразности дальнейшего рассмотрения ситуации. В документе было перечислено 6 аналогичных случаев, включая: «Varghese v. China Southern Airlines», «Martinez v. Delta Airlines», «Miller v. United Airlines» и т. д. К сожалению для истца и его юридической команды, ни адвокаты ответчика, ни другие сотрудники федерального суда не смогли найти судебной документации, которая подтверждала бы аргументы «Levidow, Levidow & Oberman». Почему? Потому что все они оказались сфабрикованными ChatGPT, упс)
В аффидевите, представленном суду «Levidow, Levidow & Oberman», один из адвокатов фирмы Стивен Шварц пояснил, что он обратился к ChatGPT в рамках юридического исследования в поисках аргументации в пользу продолжения рассмотрения дела. Шварц написал, что он не знал о том, что чат-бот может предоставлять сфабрикованный контент. Более того, адвокат включил в аффидевит скриншоты, которые демонстрируют, как он спрашивал ИИ, являются ли перечисленные судебные разбирательства реальными. Программа не просто ответила утвердительно, но аргументировала, что детали этих дел можно найти в «авторитетных юридических базах данных», включая Westlaw и LexisNexis. Шварц высказал «глубочайшие сожаления» по поводу использования ИИ-программы и пообещал впредь не обращаться к чат-боту без исчерпывающей верификации генерируемых им данных.
Стоит отметить, что на месте Шварца мы бы не были так уверены, что ему ещё доведётся когда-либо составлять брифы для судебных заседаний и вести адвокатскую деятельность в целом. В ходе следующего заседания по делу Роберто Мата против Avianca 8 июня судья планирует рассмотреть потенциальные санкции в отношении адвоката. Ни для кого не секрет, что генеративным ИИ-моделям свойственны «галлюцинации» – выведение заведомо неправдивой информации в весьма убедительной форме. Тем удивительнее, что сотрудник юридической фирмы поверил ChatGPT на слово и не убедился в наличии деталей перечисленных судебных разбирательств на указанных чат-ботом платформах юридических исследований (Westlaw и LexisNexis). Более того, согласно некоторым источникам, позже он предоставил суду документы, якобы подтверждающие реальность упомянутых судебных разбирательств, и они тоже оказались придуманными ИИ. Очевидно, халатность Шварца и, возможно, умышленное предоставление суду сфабрикованных документов будут иметь неприятные последствия не только для него самого, но также для его юридической фирмы и, возможно, даже для клиента.