В Краснодарском крае возник прецедент, вызвавший серьезную обеспокоенность в профессиональной юридической среде. Поводом для обсуждений стал приговор Ейского городского суда, который, по утверждению стороны защиты, мог быть частично составлен с помощью технологий искусственного интеллекта.
Юристы настаивают: необходима четкая правовая регламентация применения ИИ в сфере уголовного судопроизводства, особенно при подготовке столь ответственных документов, как приговоры.
Резонанс вызвало дело в отношении двух бывших сотрудников полиции, признанных виновными в получении взятки. Суд назначил обоим по семь лет лишения свободы. Однако внимание защиты привлекла нестандартная стилистика документа: фразы вроде «целая плеяда защитников», «чудесным образом участвовали в проверках» и «решительное должностное лицо» показались адвокату Алексею Аванесяну неуместными и нехарактерными для официально-делового стиля приговора. Юрист инициировал лингвистическую экспертизу, которая подтвердила наличие признаков машинной генерации текста. В частности, эксперт указал на стилистические несоответствия, неестественные речевые конструкции и избыточность текста без смысловой нагрузки.
Несмотря на представленные аргументы, Краснодарский краевой суд отказался признавать наличие нарушений, оставив приговор в силе. Апелляционная инстанция заявила, что текст документа изложен в понятной форме, а стиль изложения не оказывает влияния на законность судебного решения. В объединенной пресс-службе судов региона также напомнили, что оценка приговора входит в компетенцию только вышестоящих судебных органов, подчеркнув, что стороны вправе обратиться в кассацию, если считают постановление вынесенным с нарушениями.
Адвокат Аванесян пояснил, что его жалоба не связана с категорическим отрицанием применения ИИ, а направлена на установление правовой определенности. Он подчеркнул, что в действующем законодательстве отсутствует прямое указание на допустимость или запрет использования искусственного интеллекта при подготовке приговоров, что создает юридическую неопределенность и риски для соблюдения прав участников процесса. По его мнению, нейросети могли бы способствовать более объективной оценке доказательств, но только при условии полной прозрачности их применения и исключения человеческого вмешательства в выборочные части текста.
С позицией о необходимости четкого регулирования использования ИИ в судопроизводстве согласны и другие представители юридического сообщества. Управляющий партнер адвокатского бюро «Правовой статус» Алексей Иванов отметил, что хотя технологии могут быть полезны для автоматизации отдельных процедур, передача ключевых судебных функций нейросетям недопустима. Он подчеркнул, что в европейской правовой практике, например в Германии, подобные вопросы уже урегулированы, и аналогичный подход необходим в России.
На этом фоне встал вопрос об использовании ИИ и в других звеньях правоохранительной системы. По информации «Коммерсанта», в следственном управлении Следственного комитета по краю не стали комментировать, применяются ли подобные технологии при составлении обвинительных заключений. В свою очередь, в ГУ МВД региона заявили, что их следователи не используют нейросети, прежде всего — по правовым причинам: нет законных оснований передавать подготовку документов алгоритмам.
Сложившаяся ситуация, по мнению кубанских адвокатов, требует вмешательства профессионального сообщества и законодательной власти. Они настаивают на выработке понятных и юридически обоснованных критериев допустимости использования ИИ в судопроизводстве, чтобы предотвратить подмену человеческого правосудия автоматизированными решениями, не способными учитывать нюансы уголовных дел и особенности правоприменительной практики.