Главная
АИ #23 (258)
Статьи журнала АИ #23 (258)
Защита информации в условиях развития искусственного интеллекта

Защита информации в условиях развития искусственного интеллекта

Рубрика

Военное дело

Ключевые слова

искусственный интеллект
документы
особенность
защита
развитие

Аннотация статьи

В рамках данной работы рассмотрено несколько ключевых аспектов, касающихся защиты информации в условиях развития ИИ. Будет проанализировано какие существуют угрозы в области информационной безопасности и способы защиты от них с помощью искусственного интеллекта.

Текст статьи

Современная информационная безопасность сталкивается с множеством актуальных угроз, при этом киберпреступность непрерывно эволюционирует. В 2025 году среди наиболее заметных направлений следует выделить методы социальной инженерии. Это технологии манипуляции, направленные на обман пользователей с целью получения конфиденциальной информации и доступа к системам. Атаки на социальные сети и мессенджеры также увеличиваются, что приводит к росту случаев взлома личных аккаунтов [1].

Кибератаки как средство протеста становятся более распространенными, что связано с глобальными геополитическими изменениями. Эти атаки часто направлены на крупные организации и государственные учреждения, что требует создания систем защиты, способных справляться с подобными вызовами. Кроме того, шпионское ПО продолжает представлять собой серьезную угрозу, его использование возрастает, что требует от компаний применения комплексных мер безопасности для защиты данных.

Использование искусственного интеллекта преступниками для осуществления более сложных атак также требует особого внимания. Киберпреступники применяют ИИ для создания новых способов атак и обхода систем защиты, что ставит под угрозу существующие методы обеспечения безопасности. Это еще раз подчеркивает необходимость внедрения более продвинутых технологий защиты, способных адаптироваться к меняющимся условиям цифровой среды.

Искусственный интеллект (ИИ) становится важным инструментом в сфере информационной безопасности, предоставляя новые подходы к защите и анализу киберугроз. Несмотря на значительный прогресс, как правило, традиционные методы защиты не утрачивают актуальности. Например, основными направлениями применения ИИ являются аутентификация пользователей и защита паролей, где технологии, такие как капча и биометрия, помогают предотвращать атаки типа «брутфорс» [2].

Рынок решений на базе ИИ в этой области демонстрирует впечатляющий рост. Прогнозы показывают, что его стоимость ожидается на уровне 30 миллиардов долларов к 2026 году, начиная с 8 миллиардов долларов в 2019 [3]. Этот рост связан с увеличением объема данных, необходимого для обучения алгоритмов, и развитием вычислительных мощностей, что позволяет использовать более сложные нейронные сети для обработки и анализа угроз.

С использованием ИИ можно значительно повысить уровень обнаружения угроз, такие как кибератаки на корпоративные сети. Варианты применения включают не только улучшение аутентификации, но и комплексный подход к анализу данных, что делает системы более защищёнными в условиях постоянного развития технологий. Несмотря на преимущества, с которыми ИИ приходит в область кибербезопасности, необходимо также следить за новыми угрозами, которые могут возникнуть в результате эволюции технологий.

Совместное использование человеческого интеллекта и возможностей искусственного интеллекта (ИИ) в современных системах защиты информации открывает новые горизонты для обнаружения и предотвращения угроз. ИИ позволяет обрабатывать объемные данные, что делает его незаменимым инструментом для быстрого выявления аномалий в сетевом трафике и поведении пользователей. Эта способность к обнаружению помогает выявить признаки несанкционированного доступа и другие кибератаки, что повышает общую безопасность организаций [3].

Для оптимизации взаимодействия между человеком и машиной необходимо создавать механизмы, способствующие эффективному сотрудничеству, где ИИ будет выполнять роль помощника и инструмента, позволяющего специалистам по безопасности сосредоточиться на более сложных задачах. Интеграция возможностей ИИ с человеческой экспертизой окажет долговременное влияние на стратегии киберзащиты, обеспечивая более безопасные и надежные системы. Предполагается, что будущие технологии будут направлены на расширение границ возможностей ИИ и улучшение совместимости с человеческими факторами.

Кроме того, стоит отметить, что применение ИИ в защите информации требует постоянного обновления знаний и навыков как специалистов, так и самих систем. Это взаимодействие влечет за собой необходимость постоянного обучения и адаптации, что в свою очередь создает условия для устойчивого развития экосистемы кибербезопасности. ИИ способен эффективно работать с большими наборами данных и мгновенно реагировать на чрезвычайные ситуации, однако научная база и решения все равно требуют человеческого контроля [1].

Летний период 2023 года ознаменовался значительными изменениями в области законодательства об искусственном интеллекте. Депутаты Европейского парламента поддержали законопроект AI Act, который стал первым всеобъемлющим законодательством, касающимся ИИ, в мире. Новый закон вступил в силу в первой половине 2024 года и сосредоточен на защите данных, вводя строгие меры, такие как запрет на отслеживание биометрии в реальном времени, создание предиктивных систем и социальных рейтингов [4].

AI Act устанавливает риск-ориентированный подход, аналогичный GDPR. Он подразумевает, что требования и ограничения будут проявляться с учетом потенциального влияния на права и свободы персональных данных. Это важный шаг в направлении повышения уровня юридической ответственности и защиты граждан в контексте применения технологий [4]. Закон запрещает использование ИИ для массового наблюдения и требует явного согласия на обработку персональных данных, что является ключевым моментом, способствующим укреплению доверия к ИИ-системам.

Данные положения AI Act должны помочь в сертификации и мониторинге ИИ-систем, тем самым способствуя обеспечению их соответствия установленным стандартам и защите конфиденциальности граждан. В ближайшие годы ожидается, что AI Act окажет огромное влияние на регулирование ИИ в мире, устанавливая новые ориентации для других стран и регионов. По неофициальным прогнозам, его воздействие на индустрию ИИ будет аналогично тому, которое GDPR оказал на сферу защиты персональных данных [1]. 

Будущее технологий защиты данных, основанных на искусственном интеллекте (ИИ), откроет новые горизонты в кибербезопасности. Внедрение ИИ уже изменяет подходы к анализу больших объемов информации и предсказанию киберугроз. Одной из ключевых задач становится создание профилей потенциальных рисков, что позволяет компаниям учитывать свою инфраструктуру и мотивы киберпреступников [2]. Современные системы ИИ успешно выявляют аномалии сетевого трафика и мониторят пользовательское поведение, что способствует снижению вероятности несанкционированного доступа.

В будущем ожидается, что ИИ не только отреагирует на угрозы, но и предскажет их появления до того, как они произойдут. Развитие новых технологий, таких как квантовые вычисления, может повысить защиту данных за счет более сложных методов шифрования, что в свою очередь сделает защиту более надежной. Тем не менее не стоит забывать о том, что киберпреступники также используют ИИ для обхода защитных механизмов. Автоматизация атак с применением ИИ усложняет задачу обеспечения киберзащиты [3].

В конечном счете успешная интеграция ИИ в системы защиты данных зависит от умения специалистов сочетать новые технологии с существующими методами защиты. Подходы, основанные на машинном обучении и аналитике больших данных, будут определять будущее обеспечения безопасности информации в условиях растущих угроз.

Текущая интеграция искусственного интеллекта (ИИ) в системы защиты информации открывает новые горизонты для повышения уровня безопасности, однако также представляет собой вызовы, требующие тщательного анализа и разработки. Применение ИИ позволяет значительно упростить процессы мониторинга и реагирования на инциденты. Например, технологии, основанные на анализе данных, могут выявлять аномалии в поведении пользователей или сетевом трафике, что способствует предсказанию потенциальных атак [2]. Тем не менее важно учитывать, что высокая степень автоматизации, которую приносят такие системы, не исключает необходимость участия человека в процессе обеспечения безопасности.

Прогнозы касаемо роста использования ИИ в кибербезопасности подтверждают опасения и ожидания относительно увеличения комплексности угроз, с которыми сталкиваются компании. Ожидаемый рост числа кибератак и степень адаптации к ним популярных технологий делает обязательным подготовку и обучение специалистов, которые смогут эффективно управлять этими новыми инструментами защиты информации [3].

В условиях стремительного развития технологий, особенно в области искусственного интеллекта, защита информации становится одной из наиболее актуальных и сложных задач. В ходе работы мы рассмотрели множество аспектов, касающихся угроз в области информационной безопасности, и выявили, что современные киберугрозы становятся все более изощренными и сложными. Это требует от специалистов по информационной безопасности не только глубоких знаний, но и способности адаптироваться к новым условиям. Искусственный интеллект, в свою очередь, открывает новые горизонты для повышения уровня защиты данных, позволяя автоматизировать процессы анализа угроз и реагирования на инциденты.

Одной из ключевых задач, которую мы поставили перед собой, было изучение роли ИИ в повышении уровня защиты информации. Мы пришли к выводу, что ИИ способен значительно улучшить процессы мониторинга и анализа, а также предсказания потенциальных угроз. Однако важно отметить, что внедрение ИИ в системы защиты информации требует тщательной проработки алгоритмов и моделей, чтобы избежать ложных срабатываний и обеспечить высокую степень надежности.

Взаимодействие человека и ИИ в процессах защитных мер также является важным аспектом, который мы рассмотрели. Человеческий фактор остается критически важным в области информационной безопасности, и ИИ не может полностью заменить специалистов. Вместо этого, ИИ должен стать инструментом, который помогает людям принимать более обоснованные решения, улучшая их способность реагировать на угрозы. Это взаимодействие требует от специалистов не только технических знаний, но и навыков работы с новыми технологиями.

Законодательные инициативы, такие как AI Act, играют важную роль в формировании правовой базы для использования ИИ в области защиты данных. Мы проанализировали, как эти инициативы могут повлиять на безопасность данных и какие новые требования могут быть введены для компаний, использующих ИИ. Это подчеркивает необходимость постоянного мониторинга изменений в законодательстве и адаптации к ним.

Перспективы развития технологий защиты данных на базе ИИ выглядят многообещающе. Мы можем ожидать появления новых решений, которые будут более адаптивными и эффективными в борьбе с киберугрозами. Однако для достижения надежной безопасности необходимо интегрировать знания из различных областей, включая технологии, законодательство и человеческий фактор.

Таким образом, работа над защитой информации в условиях развития искусственного интеллекта требует комплексного подхода и постоянного обновления знаний. Важно не только следить за новыми угрозами и технологиями, но и активно участвовать в формировании правовой базы, которая будет способствовать безопасному использованию ИИ. Только так мы сможем обеспечить надежную защиту данных и минимизировать риски, связанные с киберугрозами.

Список литературы

  1. Эксперты по информационной безопасности назвали главные… [Электронный ресурс] // rg.ru – Режим доступа: https://rg.ru/2023/01/17/eksperty-po-informacionnoj-bezopasnosti-nazvali-glavnye-ugrozy-na-2023-god.html.
  2. Искусственный интеллект в киберзащите / Хабр [Электронный ресурс] // habr.com – Режим доступа: https://habr.com/ru/companies/pt/articles/904936/.
  3. Кибербезопасность будущего: технологии ИИ против угроз [Электронный ресурс] // companies.rbc.ru – Режим доступа: https://companies.rbc.ru/news/3b5fhbvgnq/kiberbezopasnost-buduschego-tehnologii-ii-protiv-ugroz/.
  4. AI Act: Новые правила для развития… – Data Privacy Office [Электронный ресурс] // data-privacy-office.com – Режим доступа: https://data-privacy-office.com/ai-act-overview/.

Поделиться

166

Жуков Н. К., Попов Ю. Л. Защита информации в условиях развития искусственного интеллекта // Актуальные исследования. 2025. №23 (258). Ч.I. С. 23-26. URL: https://apni.ru/article/12323-zashita-informacii-v-usloviyah-razvitiya-iskusstvennogo-intellekta

Обнаружили грубую ошибку (плагиат, фальсифицированные данные или иные нарушения научно-издательской этики)? Напишите письмо в редакцию журнала: info@apni.ru

Похожие статьи

Другие статьи из раздела «Военное дело»

Все статьи выпуска
Актуальные исследования

#24 (259)

Прием материалов

14 июня - 20 июня

осталось 4 дня

Размещение PDF-версии журнала

25 июня

Размещение электронной версии статьи

сразу после оплаты

Рассылка печатных экземпляров

9 июля