
В нескольких словах
Австралийский адвокат извинился за предоставление суду фальшивых цитат, сгенерированных ИИ, что привело к задержке судебного разбирательства.
МЕЛЬБУРН, Австралия (AP) — Известный австралийский адвокат принес извинения судье за представление материалов по делу об убийстве, содержавших сгенерированные искусственным интеллектом (ИИ) фальшивые цитаты и несуществующие судебные решения.
Этот скандал в Верховном суде штата Виктория стал очередным в череде подобных происшествий по всему миру. Адвокат Риши Натвани, имеющий звание королевского адвоката, взял на себя «полную ответственность» за предоставление неверной информации в материалах по делу подростка, обвиняемого в убийстве, согласно судебным документам, с которыми ознакомилось The Associated Press в пятницу.
«Мы глубоко сожалеем и испытываем смущение из-за произошедшего», — заявил Натвани судье Джеймсу Эллиотту в среду от имени команды защиты. Это привело к 24-часовой задержке в рассмотрении дела, которое Эллиотт надеялся завершить в среду. В четверг Эллиотт вынес решение, что подзащитный Натвани, личность которого не может быть раскрыта из-за его несовершеннолетия, не виновен в убийстве по причине психического расстройства.
«Мягко говоря, способ, которым разворачивались эти события, неудовлетворителен», — заявил Эллиотт адвокатам в четверг. «Способность суда полагаться на точность представленных адвокатами материалов является основополагающей для надлежащего отправления правосудия», — добавил Эллиотт.
Фальшивые материалы включали вымышленные цитаты из речи в законодательном собрании штата и несуществующие ссылки на судебные решения, якобы из Верховного суда. Ошибки были обнаружены помощниками Эллиотта, которые не смогли найти эти дела и попросили адвокатов защиты предоставить копии. Адвокаты признали, что цитаты «не существуют» и что представленные материалы содержат «вымышленные цитаты», говорится в судебных документах.
Адвокаты объяснили, что они проверили начальные цитаты на точность и ошибочно предположили, что остальные будут такими же. Материалы также были отправлены прокурору Даниэлю Порседду, который не проверил их точность. Судья отметил, что Верховный суд выпустил руководство в прошлом году о том, как адвокаты должны использовать ИИ. «Использование искусственного интеллекта недопустимо, если результаты его использования не проверяются независимо и тщательно», — заявил Эллиотт.
В судебных документах не указана генеративная система искусственного интеллекта, использованная адвокатами. В аналогичном случае в США в 2023 году федеральный судья вынес предупреждение двум адвокатам и юридической фирме после того, как их обвинили в предоставлении вымышленных юридических исследований по иску о травме в авиации. Судья П. Кевин Кастель заявил, что они действовали недобросовестно. Однако он принял во внимание их извинения и предпринятые ими меры, объяснив, почему более суровые санкции не были необходимы, чтобы гарантировать, что они или другие больше не позволят инструментам искусственного интеллекта заставить их создавать фальшивую юридическую историю в своих аргументах.
Позже в том же году больше вымышленных судебных решений, изобретенных ИИ, были процитированы в юридических документах, поданных адвокатами Майкла Коэна, бывшего личного адвоката президента США Дональда Трампа. Коэн взял вину на себя, заявив, что не осознавал, что инструмент Google, который он использовал для юридических исследований, также способен к так называемым галлюцинациям ИИ.
Судья Высокого суда Великобритании в июне предупредил, что предоставление ложных материалов, как если бы они были подлинными, может рассматриваться как неуважение к суду или, в «наиболее вопиющих случаях», как воспрепятствование осуществлению правосудия, что влечет за собой максимальное наказание в виде пожизненного заключения.