Активное внедрение искусственного интеллекта в бизнес открыло большое количество возможностей и перспектив, но также оно принесло разнообразные риски, требующие внимания и стратегического подхода. Понимание и учет этих рисков позволят использовать полный потенциал технологий искусственного интеллекта, обеспечивая при этом защиту от возможных юридических проблем и обязательств. Проанализируем основные проблемы, с которыми могут столкнуться компании в процессе внедрения искусственного интеллекта в бизнес-процессы.
1. Риск нарушения авторских прав
Один из основных юридических рисков, связанных с использованием искусственного интеллекта, – это непреднамеренное нарушение авторских прав. Нейросети обучаются на больших объемах данных и среди них могут быть данные, защищенные авторским правом. Искусственный интеллект может воспроизводить или изменять авторский контент, что может привести к юридическим спорам. Например, компания OpenAI получила уже несколько исков о нарушении авторских прав. Совсем недавно к правообладателю широко известного ChatGPT обратился Джулиан Санктон, автор бестселлеров New York Times. Он утверждал, что потратил пять лет и огромные ресурсы на исследование и написание книги «Дом на краю Земли» [1]. Суть дела заключается в том, что компании OpenAI и Microsoft используют произведения, защищенные авторским правом, не выплачивая авторам компенсации и не запрашивая у них разрешения. В иске утверждается, что эти компании не только использовали миллионы произведений, но и построили модель, имитирующую стиль и тематику этих защищенных авторским правом материалов.
2. Неясное владение
Для владельцев бизнеса очень важно быть уверенными в том, что результаты работы сотрудников имеют потенциал стать активами компании и получат правовую защиту. Тем не менее в случае использования искусственного интеллекта при создании различных произведений, до сих пор остается спорным и неясным вопрос о том, кому же такие произведения принадлежат. В юридической доктрине есть разные варианты, самые распространенные из них: права принадлежат пользователю нейросети, правообладателю, искусственному интеллекту, либо никому, то есть являются общественным достоянием. Риск того, что произведения, созданные работниками с использованием искусственного интеллекта, не будут принадлежать компании, а будут считаться общедоступными и не подлежащими правовой охране, расценивается как критичный и неприемлемый многими компаниями.
3. Разглашение конфиденциальной информации
Не секрет, что искусственный интеллект обучается, в том числе на данных ввода и вывода, то есть на той информации, которую пользователи нейросети вводят и которую получают в ответ на свой запрос. Конфиденциальные сведения теоретически могут быть включены в ответы для любого пользователя за пределами определенной компании. Иностранные источники утверждают, что у компании Samsung произошла утечка конфиденциальной информации в результате использования сотрудниками компании ChatGPT [2]. В ответ на произошедший инцидент компания запретила сотрудникам использовать сторонние нейросети в работе. Примеру Samsung последовали и другие компании. Этот случай стал предупреждением для всех компаний, которые работают с искусственным интеллектом. Необходимо помнить, что нейросети не обладают моралью и этикой. Они могут использовать любую информацию в своих целях или передавать ее третьим лицам. Поэтому нужно быть очень внимательными и осторожными при использовании нейросетей.
4. Несоблюдение обязательных требований законодательства
Системы генеративного искусственного интеллекта могут выдавать некорректные суждения, основываясь, например, на расовой принадлежности граждан. Кроме того, инновационные технологии искусственного интеллекта могут нарушать закон о защите персональных данных и других законов, за что компания может быть привлечена к ответственности.
5. Кибербезопасность
Злоумышленники могут задействовать искусственный интеллект с целью создания ложной информации, проведения фишинговых атак и разработки вредоносного программного кода. Эти действия представляют дополнительные угрозы для пользователей в сети Интернет.
6. Неточные ответы
Одним из наиболее значимых рисков при использовании генеративного искусственного интеллекта является тенденция предоставлять неверную, хотя на первый взгляд правдоподобную, информацию. Такие системы, как ChatGPT, могут «галлюцинировать», то есть, выдумывать факты.
Как минимизировать риски?
- Всегда изучать пользовательское соглашение нейросети, поскольку там содержится крайне важная информация: на каких условиях пользователю передаются права на произведения, созданные с использованием нейросети; положения о конфиденциальности данных и ответственности; обязательные условия использования контента, например, обязательна ли ссылка на нейросеть; что запрещено генерировать и как можно использовать творчество нейросети. Пользовательское соглашение помогает прояснить множество вопросов и принять взвешенное решение, стоит ли вообще использовать ту или иную нейросеть в работе. Кроме того, правообладатели искусственного интеллекта часто меняют положения пользовательских соглашений, поэтому необходимо следить за их изменениями.
- Обучайте своих сотрудников, вносите изменения в локальные акты, договоры, разрабатывайте политику приемлемого использования и тд. На мой взгляд, нельзя игнорировать тот факт, что сотрудники захотят использовать нейросети в своей работе и задача работодателя предвосхитить это и заранее установить границы дозволенного. Кроме того, компании сами заинтересованы в том, чтобы обучить своих работников мерам безопасности, объяснить вероятность возникновения рисков, связанных с разглашением конфиденциальной информации, кибератак и других потенциальных рисков.
- Изменяйте результаты выдачи искусственного интеллекта и сохраняйте историю работы с ИИ-контентом. В случае возникновения споров об авторстве на произведения, созданные с использованием искусственного интеллекта, потенциально придется доказывать творческий вклад человека в создание таких произведений. В этой ситуации полезными будут доказательства того, что вклад человека был существенным.
- Помните о том, что все загруженное в нейросеть становится общедоступным. Как было описано ранее в этой статье, искусственный интеллект несет в себе огромный риск разглашения конфиденциальной информации и не стоит использовать его для работы с критически важной информацией.
- Следите за изменениями в законодательстве в сфере искусственного интеллекта. На данный момент тема искусственного интеллекта активно обсуждается на различных уровнях. В обозримом будущем будут появляться нормативные акты, которые могут серьезно затронуть представителей бизнеса.
- Не отдавайте принятие критически важных решений искусственному интеллекту. Каким бы «умным» не казался искусственный интеллект, он не может заменить человека. Кроме того, искусственный интеллект не обладает правосубъектностью и не будет нести ответственность за вред, причиненный его действиями. В случае ошибок при принятии критически важных решений иски будут обращены к конкретным компаниям и людям.
- Покупайте бизнес-лицензии, не используйте общедоступные версии искусственного интеллекта. Общедоступные версии искусственного интеллекта подвержены рискам кибербезопасности, так как могут быть легко подвергнуты взлому и использованы злоумышленниками для создания вредоносного кода. Бизнес-лицензии обычно обеспечивают регулярное обновление, последние версии защиты от уязвимости, а также дают доступ к более высококвалифицированным специалистам технической поддержки и позволяют подстраивать программные решения под уникальные требования конкретной компании.
Такие меры предосторожности в работе с искусственным интеллектом позволят минимизировать риски для компаний, внедряющих в работу искусственный интеллект и обеспечат уверенную позицию в случае судебного спора.