Искусственный интеллект в уголовном праве: возможности и риски

Научный руководитель

Секция

Юридические науки

Ключевые слова

предсказание преступлений
эффективность расследований
судебные процессы
этические аспекты
правовые последствия
безопасность данных
ответственность за решения ИИ

Аннотация статьи

В последние годы искусственный интеллект (ИИ) активно внедряется в различные сферы, включая уголовное право, что открывает новые возможности для повышения эффективности правоприменения. Использование ИИ позволяет автоматизировать анализ данных, предсказание преступлений, а также улучшение работы правоохранительных органов через оптимизацию расследований и судебных процессов. Однако наряду с положительными аспектами возникают и серьезные риски, связанные с этическими, правовыми и социальными последствиями. Вопросы дискриминации, прозрачности алгоритмов, а также защита прав человека становятся особенно актуальными в контексте применения ИИ в уголовном праве. Данная работа рассматривает как преимущества, так и угрозы, связанные с использованием искусственного интеллекта в данной области, подчеркивая необходимость сбалансированного подхода к его внедрению и регулированию.

Текст статьи

Введение

В эпоху стремительного развития технологий искусственный интеллект (ИИ) проникает во все сферы человеческой деятельности, и уголовное право не является исключением. Использование ИИ в уголовном правосудии обещает повышение эффективности, объективности и справедливости, однако сопряжено с серьезными этическими, правовыми и практическими рисками. Данная работа посвящена теоретическому анализу возможностей и рисков применения ИИ в уголовном праве, постановке проблем, связанных с его внедрением. Целью работы является выявление ключевых аспектов, требующих дальнейшего изучения и регулирования для обеспечения ответственного и эффективного использования ИИ в уголовном правосудии.

Возможности

Повышение эффективности расследования и раскрытия преступлений. ИИ может выступать как инструмент обработки, подготовки и источник информации. Некоторые направления использования:

Автоматический анализ цифровых доказательств в рамках экспертиз; распознавание лиц и голосов на видеозаписях; алгоритмы категоризации дел в Следственном комитете и МВД; использование нейросетей для оценки связей между фигурантами уголовных дел.

Одной из ключевых возможностей ИИ является предсказание преступлений на основе анализа больших данных. Алгоритмы машинного обучения могут обрабатывать огромные объемы информации, включая данные о предыдущих преступлениях, демографические данные и социальные факторы. Это позволяет правоохранительным органам более эффективно распределять ресурсы и проводить профилактические меры.

ИИ может значительно ускорить процесс анализа данных, связанных с расследованием преступлений. Технологии обработки естественного языка (NLP) могут помочь в анализе текстовых данных, таких как показания свидетелей или отчеты полиции. Кроме того, ИИ может обрабатывать визуальные данные, например, анализировать видеозаписи с камер наблюдения.

Использование ИИ может улучшить оперативность и эффективность работы правоохранительных органов. Автоматизация рутинных задач позволяет сотрудникам сосредоточиться на более сложных аспектах расследований. Например, ИИ может помочь в выявлении паттернов преступной активности и предоставлении рекомендаций по действиям.

Согласно подп. «б» п. 19 Национальной стратегии развития искусственного интеллекта на период до 2030 года, утвержденной Указом Президента Российской Федерации от 10.10.2019 № 490 (далее – Стратегия развития ИИ) [3], одним из основных принципов развития и использования технологий ИИ является безопасность, т.е. недопустимость использования ИИ в целях умышленного причинения вреда гражданам и юридическим лицам, а также предупреждение и минимизация рисков возникновения негативных последствий использования технологий ИИ.

Риски

С развитием технологий ИИ в практике значительно увеличится число преступлений, совершаемых в форме небрежного бездействия. Данное обстоятельство актуализирует вопрос трансформации формулы небрежности посредством исключения в ряде обстоятельств (специальные случаи «взятия обязанности») элемента возможности предвидения общественно опасных последствий с сохранением элемента долженствования.

Мы полагаем, что использование технологий ИИ при совершении преступления нецелесообразно рассматривать в качестве одного из обстоятельств, отягчающих наказание, т.е. в контексте его индивидуализации (ст. 63 УК) [1, с. 74], поскольку данный признак существенно повышает общественную опасность того или иного преступного деяния, что необходимо учитывать в рамках дифференциации ответственности и самостоятельной криминализации. С. А. Аверинская и А. А. Севастьянова предлагают дополнить уголовный закон запретом на создание и использование искусственного интеллекта в целях, не предусмотренных законодательством (злонамеренных), если деяние повлекло причинение вреда объектам уголовно-правовой охраны.

Данные авторы отвергают введение использования ИИ в качестве квалифицирующего признака в ряд статей УК, поскольку «применение искусственного интеллекта настолько широко, как и человеческой деятельности, что в таком случае возникнет необходимость включения данного признака в каждый состав преступления, что не является целесообразным. Поэтому целесообразно ввести новый состав преступления» [2, с. 94-96].

Так же, предвзятость алгоритмов. Например, системы распознавания лиц часто демонстрируют низкую точность в отношении различных расовых групп, что приводит к ложным обвинениям.

Ошибки распознавания лиц, особенно при низком качестве видео.

Переквалификация дела на основе ИИ-аналитики без достаточных оснований.

Нарушение принципа презумпции невиновности – когда ИИ ошибочно идентифицирует человека, бремя доказывания перекладывается на невиновного.

Проблема масштабирования ошибок – если алгоритм содержит предвзятость или неточность, эта неточность может быть воспроизведена в тысячах или даже миллионах дел, оказывая непропорциональное негативное воздействие на определённые группы людей.

Принятие ошибочных решений на основе недостоверных данных, собранных с помощью программ, основанных на ИИ. Например, алгоритмы, используемые для распознавания или анализа лиц, работают по-разному в зависимости от пола, возраста и этнической принадлежности идентифицируемого человека.

Субъективизм алгоритмов – они создаются, обучаются и осуществляют принятие решения на основе тех данных, которые изначально выбрал и загрузил в систему человек, или система собрала сама.

Ситуации, когда в базе данных, на основе которой обучаются системы ИИ, могут отсутствовать сведения, стратегически важные для принятия решения, особенно если это связано не с обычным, а экстраординарным преступлением.

Использование ИИ в уголовном праве может также привести к нарушениям прав человека. Например, системы слежения и мониторинга могут использоваться для нарушения права на частную жизнь. Кроме того, зависимость от алгоритмов может привести к недостаточной ответственности и прозрачности в принятии решений.

Этические аспекты использования ИИ в уголовном праве вызывают серьезные дискуссии. Вопросы о том, насколько допустимо полагаться на технологии при вынесении решений о свободе человека, становятся все более актуальными. Необходимо учитывать последствия ошибок алгоритмов, которые могут привести к несправедливым обвинениям или лишению свободы.

Вывод

Использование искусственного интеллекта в уголовном праве представляет собой двойственный процесс, сочетающий в себе как значительные возможности, так и серьезные риски. Важно продолжать исследовать способы минимизации этих рисков, разрабатывать этические нормы и регуляции для использования ИИ в правоохранительной деятельности. Только при условии ответственного подхода к внедрению технологий можно обеспечить их эффективное использование без ущерба для прав человека и социальной справедливости.

Список литературы

  1. Букалерова Л.А., Уторова Т.Н., Сизов Д.О. К вопросу о значении искусственного интеллекта в уголовном праве // Пенитенциарная наука. 2020. Т. 14. № 1. С. 70-75.
  2. Аверинская С.А., Севастьянова А.А. Создание искусственного интеллекта с целью злонамеренного использования в уголовном праве Российской Федерации // Закон и право. 2019. № 2. С. 94-96.
  3. Указ Президента Российской Федерации от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации» (вместе с «Национальной стратегией развития искусственного интеллекта на период до 2030 года») // СЗ РФ, 14.10.2019, № 41, ст. 5700.

Поделиться

20

Позднякова К. В. Искусственный интеллект в уголовном праве: возможности и риски // Искусственный интеллект и этика: диалог компьютерных наук, философии и права : сборник научных трудов по материалам Международной научно-практической конференции 15 декабря 2025г. Белгород : ООО Агентство перспективных научных исследований (АПНИ), 2025. URL: https://apni.ru/article/13871-iskusstvennyj-intellekt-v-ugolovnom-prave-vozmozhnosti-i-riski

Обнаружили грубую ошибку (плагиат, фальсифицированные данные или иные нарушения научно-издательской этики)? Напишите письмо в редакцию журнала: info@apni.ru

Похожие статьи

Другие статьи из раздела «Юридические науки»

Все статьи выпуска
Актуальные исследования

#50 (285)

Прием материалов

13 декабря - 19 декабря

осталось 5 дней

Размещение PDF-версии журнала

24 декабря

Размещение электронной версии статьи

сразу после оплаты

Рассылка печатных экземпляров

14 января