Адвокат в условиях нехватки времени, из-за травмы спины, столкнулся с иммиграционным делом, где представлял клиента, обжаловавшего решение министра. Чтобы сэкономить время, он решил воспользоваться ChatGPT для создания резюме судебных дел, введя ключевые слова по теме. Текст показался ему достаточно убедительным, и, не проверяя факты, он вставил ссылки на якобы существующие дела в свои документы.
Две недели спустя министерство выявило проблему: из 17 указанных дел ни одно не существовало.
Адвокат был смущен и принес свои извинения в федеральном суде. Однако министерство настояло на серьезном рассмотрении дела, подчеркнув важность предотвращения подобных ошибок в будущем. Суд решил, что этот случай должен стать примером для всех юристов, использующих AI, и передал его на рассмотрение Комиссару по юридическим услугам штата Новый Южный Уэльс.
Пока использование AI в юридической практике остается не до конца понятным, масштаб его распространения неизвестен. Согласно исследованию компании Thomson Reuters, около 40% юристов в Австралии работают в фирмах, которые осторожно экспериментируют с AI. Однако лишь 9% активно используют технологии в ежедневных операциях, а треть опрошенных выразили желание иметь генеративного AI-ассистента.
В другом случае адвокат из Мельбурна столкнулся с дисциплинарным разбирательством после использования AI в семейном деле. Программа выдала ложные ссылки на судебные дела, что привело к задержке слушания. Юрист представил суду список дел, запрошенных судьей, но позже признал, что использовал Leap — юридическое ПО с генеративным AI. Однако система неправильно сгенерировала ссылки, а адвокат не проверил их вручную.
Кристиан Бек, генеральный директор Leap, отметил, что юристы по всему миру начинают внедрять AI в свою работу. Он подчеркнул, что компания активно рекомендует этичное и ответственное использование своих продуктов и предлагает возможность проверки данных реальными юристами.
Но не только адвокаты сталкиваются с критикой за использование AI. Судьи все чаще выражают беспокойство, что документы, предоставляемые в суд не юристами, могут быть сгенерированы AI. В одном деле обвиняемый представил характеристику, якобы написанную его братом, но судья указал, что стиль текста, скорее всего, принадлежал AI. В другом деле, связанном с университетом, истец представил документы с несуществующими ссылками на судебные прецеденты, что вызвало подозрения у судьи.
Недавно Верховный суд Нового Южного Уэльса издал постановление, запрещающее использование AI для создания свидетельских показаний, характерных справок и других документов, представляемых в суд.
Профессор Джини Патерсон из Университета Мельбурна, директор Центра по изучению AI и цифровой этики, отмечает, что проблема не только в небрежности юристов, но и в недостатке их знаний об AI.
“Это вопрос грамотности в области AI, и важно, чтобы юристы знали, где и как правильно использовать эту технологию”, — говорит она.
Юридическая комиссия штата Виктория выделила неправильное использование AI как одну из ключевых угроз.
“Обязанность предоставлять точную юридическую информацию лежит на адвокатах, а не на AI. AI не может заменить профессиональные суждения и этику”, — подчеркивает комиссия.
Источник
Источник новости: habr.com