Бизнес и ИИ/нейросети: аспекты правовой безопасности и первая судебная практика

| статьи | печать

Стремительный технологический прогресс оказывает неотвратимое влияние на бизнес: маркетинг, финансы, производство, логистику и управление персоналом. Компании могут значительно улучшить свою эффективность, повысить конкурентоспособность и улучшить качество продукции или услуг благодаря использованию ИИ и нейросетей. В материале рассмотрим базовое правовое регулирование такого использования и возникающие при этом риски.

Искусственный интеллект (далее также — ИИ) и нейросети (искусственные нейронные сети, ИНС) играют все более важную роль в современном бизнесе. Они помогают компаниям автоматизировать процессы, улучшать прогнозирование, оптимизировать ресурсы и принимать более точные решения. ИИ и нейросети могут быть применены в различных областях бизнеса, таких как маркетинг, финансы, производство, логистика и управление персоналом. Например, они могут анализировать данные о клиентах и предсказывать их поведение, оптимизировать производственные процессы, управлять запасами и складскими запасами, проводить анализ рисков и многое другое.

Компании могут значительно улучшить свою эффективность, повысить конкурентоспособность и улучшить качество продукции или услуг благодаря использованию ИИ и нейросетей. Однако правовое регулирование такого использования все еще остается достаточно неоднозначным и зыбким.

Что такое искусственный интеллект и нейросети?

Ключевым нормативным правовым актом, регулирующим общие положения о применении ИИ, является Указ Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации» (вместе с «Национальной стратегией развития искусственного интеллекта на период до 2030 года», далее — Стратегия). В нем также приведены основные понятия, используемые в этой области.

Так, в соответствии с подп. «а» п. 5 Стратегии:


цитируем документ

...искусственный интеллект — комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений.


Законодатель не дает единого определения понятию «нейросеть», однако в соответствии с п. 7 Стратегии можно утверждать следующее:


цитируем документ

...нейросеть — это подвид ИИ, который применяет машинное обучение, базирующееся на множестве вычислительных систем, организованных по аналогии с человеческим мозгом.


При этом технологии искусственного интеллекта включают:


цитируем документ

...технологии, основанные на использовании искусственного интеллекта (включая компьютерное зрение, обработку естественного языка, распознавание и синтез речи, интеллектуальную поддержку принятия решений и перспективные методы искусственного интеллекта).

Подпункт «б» п. 5 Стратегии


Аналогичные определения содержит и Федеральный закон от 24.04.2020 № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве и внесении изменений в ст. 6 и 10 Федерального закона „О персональных данных“».

Компании активно используют искусственный интеллект и нейросети для создания текстов, изображений и даже музыки. Однако в первую очередь может возникнуть вопрос о том, кому будут принадлежать авторские права. В России, как и в большинстве стран, предусматривается антропоцентрический взгляд на данный вопрос. Принято считать нейросеть лишь инструментом, а автором — пользователя, на котором и будет лежать ответственность за сгенерированный контент.

«Дипфейки»: первые судебные дела

Технология «дипфейк» представляет собой метод искусственного интеллекта (подвида нейронной сети), который позволяет создавать фальшивые видео- или аудиоматериалы, в которых лица или голоса могут быть заменены на искусственно созданные. Хотя существует потенциальный риск использования «дипфейк» (или же «дипфейков») для манипуляции информацией и создания дезинформации, эта технология также может приносить выгоду в бизнесе.

Например, дипфейки могут использоваться для создания рекламных роликов с участием известных личностей или в целях персонализации рекламных материалов для целевой аудитории. Это увеличивает вовлеченность потребителей и привлекает больше внимания к продукту или услуге.

Однако важно помнить о правовых аспектах использования «дипфейк» в бизнесе. По общему правилу ст. 152.1 ГК РФ предусматривает, что обнародование и дальнейшее использование изображения гражданина (в том числе его фотографии, а также видеозаписи или произведения изобразительного искусства, в которых он изображен) допускаются только с согласия этого гражданина. После смерти человека (например, медийной личности) права могут защищать наследники или иные заинтересованные лица.

В свою очередь, такое согласие не требуется в том числе, когда гражданин позировал за плату.

При этом существует риск нарушений законодательства о защите персональных данных (ст. 9, 11, 19 Федерального закона от 27.07.2006 № 152-ФЗ «О персональных данных»), об авторских правах (ст. 1255, 1270, 1301 ГК РФ) и предотвращении манипуляции информацией (ст. 10, 15, 16 Федерального закона от 27.07.2006 № 149-ФЗ «Об информации, информационных технологиях и о защите информации»).

Негативные последствия использования подобных технологий могут наступить для бренда или репутации компании. Наряду с этим важнейшее значение может приобретать необходимость правильного определения правового положения объектов, созданных при помощи технологии «дипфейк», чтобы защитить свои права.

Например, в первом российском деле (решение АС города Москвы от 30.11.2023 по делу № А40-200471/23‑27‑1448) о незаконном использовании видео, созданного с использованием дипфейк-технологии, ответчик аргументировал правомерность использования спорного видеоролика и предполагаемую возможность его свободного использования тем, что он не является объектом авторского права по причине использования технологии «дипфейк».

Однако суд указал, что спорное видео — результат творческого труда людей, а технология — лишь дополнительный инструмент обработки видео:


цитируем документ

Спорный видеоролик был создан группой: автором-сценаристом, видеооператором (оператор-постановщик), моушн-дизайнером, актером.

Технология «дипфейк» — это дополнительный инструмент обработки (технического монтажа) видеоматериалов, используемый моушн-дизайнером.


С учетом этого суд апелляционной инстанции отметил, что:


Исходный видеоряд вопреки доводам ответчика отличается исключительно визуальным образом лица актера.

Соответственно, тот факт, что моушн-дизайнер <…> по заказу ООО «<…>» осуществил технический монтаж исходных материалов видеоролика посредством технологии deep-fake сам по себе не свидетельствует о том, что видеоролик доступен для свободного использования (без согласия правообладателя), или о том, что группа лиц, обеспечившая написание сценария видеоролика, видеосъемку, его аудиосопровождение, не внесли личный творческий вклад в создание видеоролика и не признаются его авторами.

Постановление Девятого арбитражного апелляционного суда от 08.04.2024 по делу № А40-200471/23


C учетом этого спорное видео — это объект авторского права, регулируемый и охраняемый в соответствии со ст. 1263 ГК РФ, который нельзя свободно использовать, иначе придется платить компенсацию за нарушение исключительных прав.


цитируем документ

С точки зрения нарушения исключительного права на объект интеллектуальной собственности не имеет значения, является ли факт незаконного использования объекта существенной или несущественной частью хозяйственной деятельности.


Ответчик по делу был обязан выплатить компенсацию в качестве меры юридической ответственности за правонарушение, которое стало причиной неправильного определения статуса объектов, созданных при помощи технологии «дипфейк».

Таким образом, можно также прийти к выводу о том, что в России объекты, созданные ИИ, считаются объектами авторского права. Если пользователь не только сгенерировал картинку/текст, но и в последующем их доработал, или выбрал или расположил материал, созданный ИИ, достаточно творчески, и полученная работа в целом представляет собой оригинальное авторское произведение, то с большой вероятностью созданное произведение будет объектом авторских прав (и автором будет пользователь).

Относительно личных данных установлено, что технология «дипфейк» способна использовать голос, внешность и иные черты отдельно взятого человека при создании генеративного контента. Однако в силу законодательной неурегулированности, наказания за использование дипфейка не последует, если человек сам не заявит о незаконном использовании его внешности. То же и с имитацией голоса.

При этом с 1 сентября вступит в силу постановление Правительства РФ от 01.04.2024 № 408, в соответствии с которым видами биометрических персональных данных, на которые распространяется действие Федерального закона «Об осуществлении идентификации и (или) аутентификации физических лиц с использованием биометрических персональных данных <…>», являются изображение лица человека, полученное с помощью фото- видеоустройств, и запись голоса человека, полученная с помощью звукозаписывающих устройств.

Таким образом, внедрение аналогичных норм в российское законодательство является лишь вопросом времени. Соответственно, компаниям, использующим в своих производственных процессах технологии «дипфейк», необходимо более тщательно прослеживать и проверять создание генеративного контента. Даже сейчас существуют риски привлечения юридического лица к мерам юридической ответственности за неосмотрительность и небрежность в рассматриваемой области.

Патентоспособность ИИ-систем

Остро стоит вопрос для многих фирм о патентах на системы искусственного интеллекта. Сейчас многие компании разрабатывают свои нейросети, «чат-боты», а также иные системы искусственного интеллекта для распространения и использования. На такие изобретения также многие юридические лица стремятся получить патент, однако существует ряд сложностей. Примером является одно из первых в России дел по вопросам патентовании систем ИИ (решение СИП от 31.03.2023 по делу № СИП-599/2022).

Заявитель обратился в суд с требованиями о признании недействительным решения Федеральной службы по интеллектуальной собственности (далее — Роспатент), принятого по результатам рассмотрения возражения на решение об отказе в выдаче патента на изобретение — интеллектуальную систему «Способ библиографического поиска и поиска профильного издания», функционирующую на базе алгоритмов лингвистического анализа текстов и извлечения ключевых слов.

В решении Роспатент аргументировал свою позицию следующим образом:


цитируем документ

…в материалах заявки, в том числе и в уточненном описании, не раскрыто, что представляет из себя предлагаемая интеллектуальная система, какими она обладает техническими особенностями для того, чтобы она могла создать нормативную базу данных ключевых слов и смогла присвоить их произведениям науки, каким образом данная интеллектуальная система должна быть адаптирована для выполнения данных операций, что в материалах заявки не раскрыт лингвистический анализ, за счет которого это обеспечивается, а также список программ, заявитель указывает, что системы лингвистического анализа текстов интеллектуальной системой известны до даты приоритета изобретения, являются общеизвестными, а их технические особенности, адаптация для различных операций, в том числе и для реализации задач изобретения, широчайшим образом представлены в имею­щейся литературе по указанной теме.


Суд согласился с выводами Роспатента, признав решение об отказе правомерным и обоснованным, тем самым отказывая в удовлетворении требованиям заявителя.

Таким образом, во избежание неблагоприятных для себя последствий важное значение имеет соблюдение дополнительных особых критериев патентоспособности интеллектуальных систем как изобретений:

  • конкретность изложения сущности изобретения;

  • отображение технико-технологических характеристик;

  • выход за рамки общих вычислений с описанием конкретных методов системы.

Безопасное использование нейросетей в бизнесе

Под безопасностью ИИ, как одного из основных принципов развития и использования технологий искусственного интеллекта, соблюдение которых обязательно при реализации Стратегии, подразумевается:


цитируем документ

...недопустимость использования искусственного интеллекта в целях умышленного причинения вреда гражданам и юридическим лицам, а также предупреждение и минимизация рисков возникновения негативных последствий использования технологий искусственного интеллекта.

Подпункт «б» п. 19 Стратегии


Безопасное использование ИИ и нейронных сетей в бизнесе играет важную роль, учитывая потенциальные угрозы и риски, связанные с этими технологиями. Сегодня многие компании разрабатывают принципы применения ИИ для соблюдения мер предосторожности. Примером может служить разработка «Кодекса этики в сфере ИИ», подписантами которого являются крупные российские компании и иные компании.

При этом органы государственной власти также предпринимают меры относительно безопасного вектора развития применения ИИ-систем юридическими и физическими лицами.

В связи с этим ключевое значение при использовании ИИ и нейросетей приобретает соблюдение ряда мер предосторожности:

1. Как правило, разработчики нейросетей предоставляют пользовательское соглашение. В нем должно быть указано, кто является владельцем сгенерированных данных (генеративного контента), а также по законам какой страны будут разрешаться споры.

2. В сгенерированных объектах могут быть использованы логотипы, известные товарные знаки и слоганы. Их возможно разместить только с согласия правообладателей. В противном случае к лицам, недобросовестно использующим охраняемые объекты, могут быть предъявлены претензии.

3. В сгенерированных произведениях могут быть использованы персональные данные, на применение которых их владелец не давал разрешения. В этом случае их использование не разрешается. В корреляции с данной проблемой необходимо также учитывать вопросы этики. Этические аспекты применения ИИ и нейросетей в предпринимательской деятельности играют важную роль не только на основании мер предосторожности в отношении персональных данных и иных охраняемых объектов, но и как важный фактор, влияющий на репутацию компании среди партнеров и клиентов.

4. Сгенерированная информация, особенно если планируется ее дальнейшее применение в коммерческих целях, должна проверяться на предмет достоверности.

Нейросети часто ошибаются: могут ссылаться на несуществую­щие источники, «искажать» факты, при этом ответственность за это может понести их правообладатель. Помимо выходной генеративной информации, проверке могут подлежать исходные данные, которые используются в «запросах»: их актуальность и достоверность, так как в некоторых случаях нейросети не способны отличить ненастоящие и не соответствующие входные данные от правильных и надежных.

5. Немаловажен и постоянный мониторинг и контроль работы ИИ и нейронных сетей, используемых на предприятии и в производственных процессах компании, а также результаты таких работ, чтобы вовремя выявить возникающие технические неполадки (например, некорректная техническая обработка входных данных, искажение входящей информации) или ошибки, тем самым оптимизируя бизнес-процессы и улучшая производительность. Этому может также способствовать постоянное обновление систем и программного обеспечения.

Вместе с этим с развитием нейросетей и ИИ могут возникнуть и иные риски их использования.

В заключение

Сегодня искусственный интеллект и нейронные сети играют все более важную роль в современных бизнес-процессах и будут широко применяться в будущем. Правовое регулирование данных явлений также будет развиваться по мере роста актуальности и релевантности качественно новых законодательных норм в сфере ИИ.

Согласно существующей ограниченной и достаточно малочисленной правоприменительной практике, ИИ как инструмент оптимизации и повышения качества и эффективности производственных процессов на предприятиях является важным фактором развития бизнеса. Несмотря на минимальное количество нормативных правовых актов, важнейшую роль играет соблюдение мер предосторожности использования нейросетей и ИИ-систем для того, чтобы обезопасить себя и свое дело от значительных рисков и возможных убытков.