
В нескольких словах
Австралийский адвокат извинился за использование ИИ, который допустил ошибки в деле об убийстве, включая поддельные цитаты и несуществующие судебные решения.
МЕЛЬБУРН, Австралия (AP) — Ведущий австралийский адвокат принес извинения судье за предоставление материалов по делу об убийстве, содержащих поддельные цитаты и несуществующие судебные решения, сгенерированные искусственным интеллектом.
Эта оплошность в Верховном суде штата Виктория является еще одним примером череды подобных происшествий по всему миру. Адвокат Риши Натвани, имеющий почетное звание королевского адвоката, взял на себя «полную ответственность» за предоставление неверной информации в материалах по делу подростка, обвиняемого в убийстве, согласно судебным документам, с которыми ознакомилась Associated Press в пятницу.
«Мы глубоко сожалеем и испытываем смущение из-за случившегося», — заявил Натвани судье Джеймсу Эллиотту в среду от имени команды защиты. Это привело к 24-часовой задержке в рассмотрении дела, которое Эллиотт надеялся завершить в среду. В четверг Эллиотт постановил, что подзащитный Натвани, личность которого не может быть установлена из-за его несовершеннолетия, не виновен в убийстве по причине психического расстройства.
«Мягко говоря, то, как развивались эти события, неудовлетворительно», — заявил Эллиотт адвокатам в четверг. «Способность суда полагаться на точность материалов, представленных адвокатами, имеет основополагающее значение для надлежащего отправления правосудия», — добавил Эллиотт.
Фальшивые материалы включали сфабрикованные цитаты из выступления в законодательном собрании штата и несуществующие ссылки на судебные дела, якобы из Верховного суда. Ошибки были обнаружены помощниками Эллиотта, которые не смогли найти эти дела и попросили адвокатов защиты предоставить копии. Адвокаты признали, что цитаты «не существуют» и что материалы содержат «вымышленные цитаты», говорится в судебных документах.
Адвокаты объяснили, что они проверили точность первоначальных цитат и ошибочно предположили, что остальные также будут верными. Материалы также были отправлены прокурору Дэниелу Порседду, который не проверил их точность. Судья отметил, что Верховный суд выпустил руководство по использованию ИИ адвокатами в прошлом году.
«Недопустимо использование искусственного интеллекта, если продукт этого использования не проверен независимо и тщательно», — сказал Эллиотт. В судебных документах не указана система генеративного искусственного интеллекта, использованная адвокатами. В аналогичном деле в Соединенных Штатах в 2023 году федеральный судья наложил санкции на двух адвокатов и юридическую фирму после того, как их обвинили в представлении вымышленных юридических исследований по иску о травме в авиации. Судья П. Кевин Кастел заявил, что они действовали недобросовестно. Но он принял во внимание их извинения и исправительные меры, предпринятые для объяснения, почему не требуются более суровые санкции, чтобы гарантировать, что они или другие не позволят инструментам искусственного интеллекта снова подтолкнуть их к созданию поддельной юридической истории в своих аргументах.
Позже в том же году в юридических документах, поданных адвокатами Майкла Коэна, бывшего личного адвоката президента США Дональда Трампа, были процитированы вымышленные судебные решения, изобретенные ИИ. Коэн взял вину на себя, заявив, что не осознавал, что инструмент Google, который он использовал для юридических исследований, также способен к так называемым галлюцинациям ИИ.