Молодежь и наука - третье тысячелетие: Материалы студенческой научно-практической конференции с международным участием
244 числа судей, оспаривающих выводы ИИ. Это связано с человеческим фактором: высокая нагрузка на судей позволяет им автоматически утверждать решения, сгенерированные ИИ, поскольку у них зачастую отсутствуют время и мотива- ция для детального анализа дел. По нашему представлению, это одна из самых больших проблем, которая может постигнуть судебную систему при внедрении ИИ. Деятельность судьи может свестись к банальной проверке документов. При этом необходимо пони- мать, что в данном контексте подразумевается самообучаемый ИИ, который меняет свой алгоритм. Данная инновация довольно-таки тяжело может подда- ваться контролю со стороны создателя и пользователя данной системы, по- скольку человек в процессе самообучения ИИ может перестать понимать его, то ни о каком контроле не может идти речь, и судья может вынести решение, опираясь на искусственный интеллект, который работает по одному принципу, а через некоторое время по аналогичному делу может вынести другое решение, потому что система уже работает по иному принципу. На ум приходит вариант развития данной системы через обновления, и не создавать саморазвивающийся ИИ, но тут встаёт и другая проблема – на сколько частыми они будут. Если данные обновления будут слишком редкими, то решения будут выдаваться на основе устаревших данных, если же они будут слишком частыми, то встаёт во- прос целесообразности данной системы, ибо на это потребуется много финан- совых, экономических затрат, и самое главное будет ли данная система, которая развивается человеком далеким от юриспруденции верной. Немаловажным является и мнение самих судей по данному вопросу. В своём исследовании А. Файн, С. Ли, М. К. Миллер, опросили выпускников Национального юридического колледжа в Рино, штат Невада, которые впослед- ствии работали судьями, были получены ответы от 381 судьи, 168 судей дали развернутый ответ. На вопрос «Относятся ли судьи в целом негативно или по- зитивно к использованию искусственного интеллекта?» 64 % опрошенных от- ветили на этот вопрос отрицательно, т. е. они не считают, что использование ИИ может устранить предвзятость при принятии решений об освобождении под поручительство и вынесении приговора. В развернутых ответах судьи в целом негативно отнеслись к использованию ИИ для освобождения под поручительст- во и вынесения приговоров: 229 ответов были отрицательными, 33 – нейтраль- ными и 63 – положительными. Некоторые судьи отметили свое неприятие ал- горитмов, особенно в отношении этических недостатков использования ИИ при принятии решений о поручительстве и вынесении приговора. Кроме того, неко- торые судьи отметили, что эти инструменты не принесут пользы [4]. На вопрос «Отражают ли ответы судей внутренний или внешний фокус контроля?» авторы получили такие результаты «Высказывания судей отражают высокую степень внутреннего локуса контроля. Идея использования ИИ для принятия решений об освобождении под поручительство и вынесении пригово- ра вызывает у судей чувство нехватки контроля. В целом судьи демонстрирова- ли высокий уровень неопределенности. Кроме того, судьи отмечали угрозу их автономии со стороны ИИ и активно выступали за то, чтобы самым важным ас- пектом при принятии решений об освобождении под поручительство и вынесе- нии приговора было судейское усмотрение» [4].
Made with FlippingBook
RkJQdWJsaXNoZXIy ODQ5NTQ=