Валюта
  • Загрузка...
Погода
  • Загрузка...
Качество воздуха (AQI)
  • Загрузка...

Растущее использование технологий искусственного интеллекта (ИИ) в судебных процессах вызывает опасения, что это может усугубить предвзятость и структурные искажения в правовой системе. Яркий пример произошел в Индии, в штате Андхра-Прадеш, где судья сослался на четыре правовых прецедента в земельном споре, но позже выяснилось, что все они были сгенерированы инструментом ИИ и не существовали в реальности. Ошибка была обнаружена только на этапе апелляции, дойдя до Верховного суда Индии.

Верховный суд не счел это простой ошибкой, а квалифицировал как "профессиональное нарушение", направив уведомления Генеральному прокурору, Генеральному солиситору и Совету адвокатов Индии. Вопрос интеграции ИИ в судебные процессы активно обсуждается по всему миру, поскольку технология часто внедряется быстрее, чем разрабатываются правила её регулирования. Например, в 2023 году судья в Колумбии включил в решение по делу о лечении аутичного ребенка расшифровку разговора с ChatGPT, а в Нью-Йорке два адвоката были наказаны за представление искового заявления со ссылками на вымышленные ИИ дела.

В Индии наиболее примечательный случай использования ИИ в суде произошел в марте 2023 года, когда судья Высокого суда Пенджаба и Харьяны во время слушания по вопросу залога по делу об убийстве задал вопрос ChatGPT для получения контекста. Судья проявил прозрачность, указав в письменном решении о консультации с чат-ботом, но правозащитники предупредили о склонности ChatGPT к выдумыванию фактов и кодированию предвзятости из обучающих данных. В Индии залог не является формальностью: сотни тысяч человек содержатся в тюрьмах в качестве подследственных, ожидая суда годами.

Кризис в судебной системе Индии, где насчитывается около 55 миллионов нерассмотренных дел, создает неподходящие условия для неконтролируемого внедрения ИИ. Председатель Верховного суда Сурья Кант отметил, что ИИ парадоксальным образом увеличивает нагрузку, поскольку сотрудникам судов теперь приходится проверять существование сгенерированных ИИ правовых ссылок. Более глубокая проблема заключается в том, что ИИ может не только выдумывать факты, но и наследовать предвзятость, заложенную в обучающих данных, которые отражают социальное неравенство.

В индийских тюрьмах маргинализированные группы, такие как далиты и мусульмане, непропорционально представлены среди подследственных, что повышает риск усиления дискриминации при использовании ИИ в прогнозных системах. Эксперты подчеркивают, что ИИ должен оставаться строго вспомогательным инструментом в залах суда. В Индии уже ведутся эксперименты с моделями, такими как InLegalLLaMA, предназначенными для работы с местными правовыми корпусами, и системой SUPACE, разработанной при Верховном суде для помощи судьям в анализе прецедентов. В Бразилии ИИ используется для группировки однотипных дел, но его роль ограничивается оперативными задачами, а не принятием решений.

Source: www.dw.com


Последние новости

Последние новости