Автор(-ы):
Вашеняк Наталья Евгеньевна
8 декабря 2023
Секция
Юриспруденция
Ключевые слова
Аннотация статьи
Научная статья представляет собой анализ наиболее значимых рисков, сопутствующих внедрению систем искусственного интеллекта в бизнес. Автор идентифицирует ключевые риски. В статье также представляется авторская методика, основанная на систематическом и комплексном подходе, направленном на минимизацию этих рисков с целью предотвращения потенциальных судебных споров. Методика включает в себя четкую систему контроля доступа, стратегии обеспечения прозрачности владения, а также принципы этичного использования искусственного интеллекта в бизнесе. Полученные результаты и рекомендации предоставляют компаниям инструментарий для обеспечения безопасного и эффективного внедрения технологий искусственного интеллекта, минимизируя риски возможных правовых противоречий и последующих юридических споров.
Текст статьи
Активное внедрение искусственного интеллекта в бизнес открыло большое количество возможностей и перспектив, но также оно принесло разнообразные риски, требующие внимания и стратегического подхода. Понимание и учет этих рисков позволят использовать полный потенциал технологий искусственного интеллекта, обеспечивая при этом защиту от возможных юридических проблем и обязательств. Проанализируем основные проблемы, с которыми могут столкнуться компании в процессе внедрения искусственного интеллекта в бизнес-процессы.
1. Риск нарушения авторских прав
Один из основных юридических рисков, связанных с использованием искусственного интеллекта, – это непреднамеренное нарушение авторских прав. Нейросети обучаются на больших объемах данных и среди них могут быть данные, защищенные авторским правом. Искусственный интеллект может воспроизводить или изменять авторский контент, что может привести к юридическим спорам. Например, компания OpenAI получила уже несколько исков о нарушении авторских прав. Совсем недавно к правообладателю широко известного ChatGPT обратился Джулиан Санктон, автор бестселлеров New York Times. Он утверждал, что потратил пять лет и огромные ресурсы на исследование и написание книги «Дом на краю Земли» [1]. Суть дела заключается в том, что компании OpenAI и Microsoft используют произведения, защищенные авторским правом, не выплачивая авторам компенсации и не запрашивая у них разрешения. В иске утверждается, что эти компании не только использовали миллионы произведений, но и построили модель, имитирующую стиль и тематику этих защищенных авторским правом материалов.
2. Неясное владение
Для владельцев бизнеса очень важно быть уверенными в том, что результаты работы сотрудников имеют потенциал стать активами компании и получат правовую защиту. Тем не менее в случае использования искусственного интеллекта при создании различных произведений, до сих пор остается спорным и неясным вопрос о том, кому же такие произведения принадлежат. В юридической доктрине есть разные варианты, самые распространенные из них: права принадлежат пользователю нейросети, правообладателю, искусственному интеллекту, либо никому, то есть являются общественным достоянием. Риск того, что произведения, созданные работниками с использованием искусственного интеллекта, не будут принадлежать компании, а будут считаться общедоступными и не подлежащими правовой охране, расценивается как критичный и неприемлемый многими компаниями.
3. Разглашение конфиденциальной информации
Не секрет, что искусственный интеллект обучается, в том числе на данных ввода и вывода, то есть на той информации, которую пользователи нейросети вводят и которую получают в ответ на свой запрос. Конфиденциальные сведения теоретически могут быть включены в ответы для любого пользователя за пределами определенной компании. Иностранные источники утверждают, что у компании Samsung произошла утечка конфиденциальной информации в результате использования сотрудниками компании ChatGPT [2]. В ответ на произошедший инцидент компания запретила сотрудникам использовать сторонние нейросети в работе. Примеру Samsung последовали и другие компании. Этот случай стал предупреждением для всех компаний, которые работают с искусственным интеллектом. Необходимо помнить, что нейросети не обладают моралью и этикой. Они могут использовать любую информацию в своих целях или передавать ее третьим лицам. Поэтому нужно быть очень внимательными и осторожными при использовании нейросетей.
4. Несоблюдение обязательных требований законодательства
Системы генеративного искусственного интеллекта могут выдавать некорректные суждения, основываясь, например, на расовой принадлежности граждан. Кроме того, инновационные технологии искусственного интеллекта могут нарушать закон о защите персональных данных и других законов, за что компания может быть привлечена к ответственности.
5. Кибербезопасность
Злоумышленники могут задействовать искусственный интеллект с целью создания ложной информации, проведения фишинговых атак и разработки вредоносного программного кода. Эти действия представляют дополнительные угрозы для пользователей в сети Интернет.
6. Неточные ответы
Одним из наиболее значимых рисков при использовании генеративного искусственного интеллекта является тенденция предоставлять неверную, хотя на первый взгляд правдоподобную, информацию. Такие системы, как ChatGPT, могут «галлюцинировать», то есть, выдумывать факты.
Как минимизировать риски?
Такие меры предосторожности в работе с искусственным интеллектом позволят минимизировать риски для компаний, внедряющих в работу искусственный интеллект и обеспечат уверенную позицию в случае судебного спора.
Список литературы
Поделиться
Вашеняк Н. Е. Риски для бизнеса в связи с использованием искусственного интеллекта. Как избежать судебных споров? // Актуальные исследования. 2023. №49 (179). Ч.II.С. 48-50. URL: https://apni.ru/article/7740-riski-dlya-biznesa-v-svyazi-s-ispolzovaniem