Введение
В эпоху стремительного развития технологий искусственный интеллект (ИИ) проникает во все сферы человеческой деятельности, и уголовное право не является исключением. Использование ИИ в уголовном правосудии обещает повышение эффективности, объективности и справедливости, однако сопряжено с серьезными этическими, правовыми и практическими рисками. Данная работа посвящена теоретическому анализу возможностей и рисков применения ИИ в уголовном праве, постановке проблем, связанных с его внедрением. Целью работы является выявление ключевых аспектов, требующих дальнейшего изучения и регулирования для обеспечения ответственного и эффективного использования ИИ в уголовном правосудии.
Возможности
Повышение эффективности расследования и раскрытия преступлений. ИИ может выступать как инструмент обработки, подготовки и источник информации. Некоторые направления использования:
Автоматический анализ цифровых доказательств в рамках экспертиз; распознавание лиц и голосов на видеозаписях; алгоритмы категоризации дел в Следственном комитете и МВД; использование нейросетей для оценки связей между фигурантами уголовных дел.
Одной из ключевых возможностей ИИ является предсказание преступлений на основе анализа больших данных. Алгоритмы машинного обучения могут обрабатывать огромные объемы информации, включая данные о предыдущих преступлениях, демографические данные и социальные факторы. Это позволяет правоохранительным органам более эффективно распределять ресурсы и проводить профилактические меры.
ИИ может значительно ускорить процесс анализа данных, связанных с расследованием преступлений. Технологии обработки естественного языка (NLP) могут помочь в анализе текстовых данных, таких как показания свидетелей или отчеты полиции. Кроме того, ИИ может обрабатывать визуальные данные, например, анализировать видеозаписи с камер наблюдения.
Использование ИИ может улучшить оперативность и эффективность работы правоохранительных органов. Автоматизация рутинных задач позволяет сотрудникам сосредоточиться на более сложных аспектах расследований. Например, ИИ может помочь в выявлении паттернов преступной активности и предоставлении рекомендаций по действиям.
Согласно подп. «б» п. 19 Национальной стратегии развития искусственного интеллекта на период до 2030 года, утвержденной Указом Президента Российской Федерации от 10.10.2019 № 490 (далее – Стратегия развития ИИ) [3], одним из основных принципов развития и использования технологий ИИ является безопасность, т.е. недопустимость использования ИИ в целях умышленного причинения вреда гражданам и юридическим лицам, а также предупреждение и минимизация рисков возникновения негативных последствий использования технологий ИИ.
Риски
С развитием технологий ИИ в практике значительно увеличится число преступлений, совершаемых в форме небрежного бездействия. Данное обстоятельство актуализирует вопрос трансформации формулы небрежности посредством исключения в ряде обстоятельств (специальные случаи «взятия обязанности») элемента возможности предвидения общественно опасных последствий с сохранением элемента долженствования.
Мы полагаем, что использование технологий ИИ при совершении преступления нецелесообразно рассматривать в качестве одного из обстоятельств, отягчающих наказание, т.е. в контексте его индивидуализации (ст. 63 УК) [1, с. 74], поскольку данный признак существенно повышает общественную опасность того или иного преступного деяния, что необходимо учитывать в рамках дифференциации ответственности и самостоятельной криминализации. С. А. Аверинская и А. А. Севастьянова предлагают дополнить уголовный закон запретом на создание и использование искусственного интеллекта в целях, не предусмотренных законодательством (злонамеренных), если деяние повлекло причинение вреда объектам уголовно-правовой охраны.
Данные авторы отвергают введение использования ИИ в качестве квалифицирующего признака в ряд статей УК, поскольку «применение искусственного интеллекта настолько широко, как и человеческой деятельности, что в таком случае возникнет необходимость включения данного признака в каждый состав преступления, что не является целесообразным. Поэтому целесообразно ввести новый состав преступления» [2, с. 94-96].
Так же, предвзятость алгоритмов. Например, системы распознавания лиц часто демонстрируют низкую точность в отношении различных расовых групп, что приводит к ложным обвинениям.
Ошибки распознавания лиц, особенно при низком качестве видео.
Переквалификация дела на основе ИИ-аналитики без достаточных оснований.
Нарушение принципа презумпции невиновности – когда ИИ ошибочно идентифицирует человека, бремя доказывания перекладывается на невиновного.
Проблема масштабирования ошибок – если алгоритм содержит предвзятость или неточность, эта неточность может быть воспроизведена в тысячах или даже миллионах дел, оказывая непропорциональное негативное воздействие на определённые группы людей.
Принятие ошибочных решений на основе недостоверных данных, собранных с помощью программ, основанных на ИИ. Например, алгоритмы, используемые для распознавания или анализа лиц, работают по-разному в зависимости от пола, возраста и этнической принадлежности идентифицируемого человека.
Субъективизм алгоритмов – они создаются, обучаются и осуществляют принятие решения на основе тех данных, которые изначально выбрал и загрузил в систему человек, или система собрала сама.
Ситуации, когда в базе данных, на основе которой обучаются системы ИИ, могут отсутствовать сведения, стратегически важные для принятия решения, особенно если это связано не с обычным, а экстраординарным преступлением.
Использование ИИ в уголовном праве может также привести к нарушениям прав человека. Например, системы слежения и мониторинга могут использоваться для нарушения права на частную жизнь. Кроме того, зависимость от алгоритмов может привести к недостаточной ответственности и прозрачности в принятии решений.
Этические аспекты использования ИИ в уголовном праве вызывают серьезные дискуссии. Вопросы о том, насколько допустимо полагаться на технологии при вынесении решений о свободе человека, становятся все более актуальными. Необходимо учитывать последствия ошибок алгоритмов, которые могут привести к несправедливым обвинениям или лишению свободы.
Вывод
Использование искусственного интеллекта в уголовном праве представляет собой двойственный процесс, сочетающий в себе как значительные возможности, так и серьезные риски. Важно продолжать исследовать способы минимизации этих рисков, разрабатывать этические нормы и регуляции для использования ИИ в правоохранительной деятельности. Только при условии ответственного подхода к внедрению технологий можно обеспечить их эффективное использование без ущерба для прав человека и социальной справедливости.

.png&w=640&q=75)