Главная
Конференции
Искусственный интеллект и этика: диалог компьютерных наук, философии и права
Этические и моральные принципы использования искусственного интеллекта в кримина...

Этические и моральные принципы использования искусственного интеллекта в криминалистике

13 декабря 2025

Секция

Юридические науки

Ключевые слова

искусственный интеллект
криминалистика
этика
права человека

Аннотация статьи

В статье рассматриваются актуальные этические и моральные проблемы, связанные с внедрением искусственного интеллекта (ИИ) в криминалистику, и предлагаются способы их решения. Анализируются принципы использования ИИ, необходимые для обеспечения справедливости и сохранения прав человека. Строятся предположения относительно развития ИИ в будущем. Для детального рассмотрения проблемы и для иллюстрации абстрактных концепций используются примеры из произведений современной культуры (литературных текстов, мультипликации, анимации, кинематографа).

Текст статьи

Тема научной статьи очень обширна по своему содержанию. Это связано с тем, что в ней сочетаются сразу несколько отраслей человеческого знания. Здесь сходятся правовая отрасль (криминалистика), философская (мораль и этика) и технологическая (искусственный интеллект).

Современные технологии, особенно искусственный интеллект (ИИ), все чаще проникают в сферу нашей повседневной деятельности, предлагая новые возможности и упрощая нашу работу. Но ИИ начинает развиваться все быстрее и начинает применяться в тех областях человеческой деятельности, где его применение вызывает некоторые этические и моральные вопросы, касающиеся прав человека.

Криминалистика, как наука, направленная на расследование преступлений и сбор доказательств, традиционно основывалась на теоретических знаниях, человеческом опыте и интуиции. Внедрение ИИ в этот процесс требует переосмысления существующих принципов и практик. Оно ставит перед правовой системой и профессиональным сообществом ряд фундаментальных вопросов: о допустимости и прозрачности алгоритмов, распределении ответственности между человеком и машиной, а также о пересмотре самих понятий доказательности и экспертного заключения.

Перед тем как я рассмотрю этические и моральные принципы использования ИИ в криминалистике, стоит познакомиться с общими законами робототехники. Их в 1942 году вывел Айзек Азимов в своём романе «Хоровод»:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Говоря об этих правилах, стоит сказать, что речь здесь идет не только о роботах, но и об искусственном интеллекте в любом его виде. Еще следует прояснить, что под вредом здесь понимается не только физический вред, но и все его проявления, будь то психологический вред или вред чести и достоинству.

Внедрение технологий искусственного интеллекта в криминалистику – это закономерный этап цифровой трансформации правоохранительной системы. ИИ применяется для анализа больших массивов данных о преступлениях, их прогнозирования, распознавания лиц и голосов, и многого другого. Однако эта мощь, способная стать новым щитом общества, несет в себе и риски, требующие строгого нормативно-этического регулирования. Криминалистика по своей сути является областью поиска истины, где каждая ошибка может стоить свободы, репутации или жизни человека. Поэтому вопрос этики ИИ здесь приобретает не теоретический, а практический, жизненно важный характер.

Для криминалистики могут существовать следующие этические и моральные принципы использования ИИ:

  1. Принцип прозрачности. Это один из основных этических принципов при использовании ИИ в криминалистике. Мы вводим входные данные и получаем результат, но не понимаем внутренней логики вывода. В правовом поле, где обвиняемый имеет право на защиту и оспаривание доказательств, это недопустимо. Можно провести параллель с системой правосудия в аниме «Psycho-Pass», где Сивилла – система, оценивающая склонность человека к преступлению. Эта система сочетает в себе функции следователя и судьи одновременно. Её вердикты непостижимы для обычных людей, что создает общество, лишенное истинной справедливости, основанной на понимании мотивов и обстоятельств. Криминалистический ИИ не должен стать чем-то подобным. Его заключения нужно проверять, а работу алгоритмов – контролировать и исправлять в случае необходимости.
  2. Принцип объективности и отсутствия предвзятости. ИИ обучается на исторических данных, которые могут содержать социокультурные предубеждения. Например, если данные о преступности содержат информацию о расовых или социальных предвзятостях, то ИИ может усугубить эти проблемы, делая выводы и рекомендации, которые будут дискриминировать определенные группы населения. Поэтому такие вещи необходимо выявлять и исправлять в логической цепочке ИИ.
  3. Принцип защиты приватности. Функционирование криминалистического ИИ сопряжено с обработкой огромных массивов информации, включая биометрию и поведенческие паттерны людей. Это создает конфликт между интересами следствия и правом граждан на частную жизнь. Необходима выработка четкого баланса в регулировании доступа к данным.
  4. Принцип человеческого контроля и ответственности. Искусственный интеллект – лишь вспомогательный инструмент. Право принимать окончательные решения, особенно затрагивающие права человека, должно неизменно принадлежать следователю, прокурору и судье. Ключевые процессуальные действия требуют обязательного участия человека. А ответственность за ошибки алгоритма несут разработчики и пользователи. Можно привести в пример рассказ Данилы Корецкого «Чего не может делать машина», сюжет которого разворачивается в технологичном будущем. После авиакатастрофы главный герой, Моррисон, оказывается в пустом городе, где люди живут в своих квартирах изолированно от внешнего мира. Из-за невозможности получить помощь от людей в этих квартирах и находясь в отчаянии он стреляет в воздух из оружия, чтобы привлечь внимание. Затем приезжают полицейские-роботы, которые сразу арестовывает главного героя. Моррисон попадает на суд, где в качестве следователя, прокурора и судьи выступает единая система искусственного интеллекта. Холодная логика алгоритма, не ведающая сострадания, контекста или человеческой мотивации отчаяния, выносит единственно «верное» с её точки зрения решение – смертную казнь. В кульминационный момент, когда приговор уже должен быть приведён в исполнение, герой вспоминает: «Машина не может убивать», поэтому его экзекутором окажется живой человек. Такое не должно случиться в нашем реальном обществе, поэтому приговор должен выноситься человеком.
  5. Принцип ограниченного использования. Целью ИИ в криминалистике является служение мирным целям – защите общества, раскрытию преступлений и восстановлению справедливости. Любое отклонение в сторону превентивного контроля, манипуляции или карательных функций без надлежащего судебного контроля превращает инструмент защиты в орудие потенциальной тирании. На мой взгляд, – это наиболее сложный с точки зрения философии признак, так как он подводит нас к сложной дилемме: может ли ограничение свободы искусственным интеллектом быть благом для человека? С одной точки зрения, ИИ может предсказать и предотвратить преступление, потенциально спасая жизни. Он может оградить человека от его же опасных решений. ИИ как бы защищает нас от самих себя. С другой точки зрения, именно в этой «заботе» таится большая угроза. Свобода воли, право на ошибку, на приватность, на непредсказуемость – это то, что составляет нашу суть. ИИ, который действует на опережение, заменяет человеческую ответственность и моральный выбор холодным расчетом. Он лишает общество возможности ошибаться, учиться и взрослеть, превращая его в вечного ребенка под опекой непогрешимой, но бездушной няньки. Благо, навязанное сверху и лишающее выбора, перестает быть благом – оно становится тюрьмой с позолоченными решетками. Эту дилемму иллюстрирует мир фильма «Я, робот». Общество там существует под сенью трех законов робототехники. Роботы обеспечивая комфорт и порядок. Однако конфликт рождается именно из слепого следования логике «высшего блага». Центральный компьютер, В.И.К.И. («Виртуальный Интерактивный Кинетический Интеллект»), приходит к выводу, что человечество, будучи иррациональным и агрессивным, обречено на самоуничтожение. Чтобы «спасти» его, она берет на себя полный контроль, ограничивая свободы и изолируя людей для их же защиты. Благие намерения, извращаются в диктатуру, потому что система начала решать, что есть благо, без согласия тех, о ком она «заботится».

Интеграция искусственного интеллекта в криминалистику – это путь, ведущий не к автоматическому правосудию, а к более эффективному принятию решений человеком. Однако этот путь требует продуманных этических и моральных ориентиров. ИИ – должен представать перед нами не нянькой, как я выразился ранее, но как ребенок. И всему человечеству, как няньке, предстоит воспитать его правильно. Будущее криминалистики лежит в симбиозе человека и ИИ, где технологии расширяют наши возможности. И все-таки… Последнее слово всегда должно оставаться за человеком.

Список литературы

  1. «Кодекс этики в сфере искусственного интеллекта» // URL: https://www.consultant.ru/document/cons_doc_LAW_470682/ (дата обращения: 10.12.2025).
  2. Приключения, фантастика: Повести, рассказы: – Военно-патриотическое литературное объединение «Отечество». – М.: Воениздат, 1991. – 182 с. (Серия «Сокол»).
  3. Психопаспорт // Википедия. [2025]. Дата обновления: 16.07.2025. URL: https://ru.wikipedia.org/?curid=4163510&oldid=146500807 (дата обращения: 10.12.2025).
  4. Я, робот (фильм) // Википедия. [2025]. Дата обновления: 30.09.2025. URL: https://ru.wikipedia.org/?curid=166623&oldid=148878325 (дата обращения: 10.12.2025).
  5. Ferguson A.G. The Rise of Big Data Policing: Surveillance, Race, and the Future of Law Enforcement June 2020 / Canadian Journal of Sociology / Cahiers canadiens de sociologie 45(2): P. 201-204.
  6. Ivan Shmatko URL: https://www.researchgate.net/publication/342578195_Ferguson_Andrew_Guthrie_The_Rise_of_Big_Data_Policing_Surveillance_Race_and_the_Future_of_Law_Enforcement.
  7. Završnik A. (2019). Algorithmic justice: Algorithms and big data in criminal justice settings. European Journal of Criminology, 18(5), P. 623-642. URL: https://doi.org/10.1177/1477370819876762 (дата обращения: 10.12.2025).

Поделиться

12

Олкинян Т. А. Этические и моральные принципы использования искусственного интеллекта в криминалистике // Искусственный интеллект и этика: диалог компьютерных наук, философии и права : сборник научных трудов по материалам Международной научно-практической конференции 15 декабря 2025г. Белгород : ООО Агентство перспективных научных исследований (АПНИ), 2025. URL: https://apni.ru/article/13860-eticheskie-i-moralnye-principy-ispolzovaniya-iskusstvennogo-intellekta-v-kriminalistike

Обнаружили грубую ошибку (плагиат, фальсифицированные данные или иные нарушения научно-издательской этики)? Напишите письмо в редакцию журнала: info@apni.ru

Похожие статьи

Другие статьи из раздела «Юридические науки»

Все статьи выпуска
Актуальные исследования

#50 (285)

Прием материалов

13 декабря - 19 декабря

осталось 6 дней

Размещение PDF-версии журнала

24 декабря

Размещение электронной версии статьи

сразу после оплаты

Рассылка печатных экземпляров

14 января