Обучение искусственного интеллекта и использование результатов его работы: российский и зарубежный опыт

| статьи | печать

Объем российского рынка больших данных и искусственного интеллекта (далее — ИИ) растет, соответственно, сложно сомневаться в том, что ежегодно влияние ИИ будет только возрастать. В то же время текущее законодательство не всегда успевает за трендами и развитием ИИ. Поэтому в материале исследуем регулирование ИИ в российском законодательстве, в том числе вопросы использования данных и результатов интеллектуальной деятельности для обучения ИИ, создание ИИ результатов работ и их статус. Также обратим внимание на риски, связанные с разработкой и использованием ИИ, и на то, как эти вопросы решаются российской судебной практикой и практикой за рубежом.

В настоящее время в России отсутствует единый нормативный правовой акт, регулирующий применение искусственного интеллекта. Тем не менее в 2019 г. был подписан Указ Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации» (далее — Указ № 490), которым утверждена Национальная стратегия развития искусственного интеллекта до 2030 года (далее — Стратегия).

Анализируя понятие, содержащееся в Указе № 490, можно выявить три основных особенности искусственного интеллекта:

  • ИИ является комплексом технологических решений;

  • ИИ способен имитировать когнитивные функции человека (включая самообучение);

  • ИИ создает результаты, сопоставимые с результатами интеллектуальной деятельности человека.

Обучение искусственного интеллекта

Одной из задач Стратегии является совершенствование навыков создания моделей искусственного интеллекта, в связи с чем стоит подробно остановиться на вопросах, связанных с созданием таких моделей.

Под «моделью ИИ» Указ № 490 понимает ПО, предназначенное для выполнения интеллектуальных задач на уровне, сопоставимом с результатами интеллектуального труда человека или превосходящем их, использующее алгоритмы и наборы данных для выведения закономерностей, принятия решений или прогнозирования результатов.

Сегодня в России отсутствует единый документ, регулирующий процедуру создания датасетов для моделей ИИ. В то же время видится логичным, что при создании датасетов должны соблюдаться нормы и правила, связанные с использованием информации разного рода (в частности, результатов интеллектуальной деятельности и общедоступной информации), которые мы рассмотрим далее.

Использование результатов интеллектуальной деятельности в датасетах ИИ: опыт России, Японии и Великобритании

В данный момент наибольшей популярностью пользуются системы генеративного ИИ, позволяющие по запросу пользователя создать те или иные объекты (например, текст или изображение) или видоизменять объекты, предоставленные пользователем (например, обрабатывать фотографии в стиле определенного художника).

Создание систем ИИ с такими функциями невозможно без включения в датасеты ИИ реальных данных, которые часто являются охраняемыми законами результатами интеллектуальной деятельности, что вызывает вопрос — требуется ли согласие правообладателя для использования его произведения в датасете искусственного интеллекта?

Согласно ст. 1229 ГК РФ правообладатель вправе использовать результат интеллектуальной деятельности по своему усмотрению любым не противоречащим закону способом, в связи с чем видится, что включение результата интеллектуальной деятельности в датасет также допустимо только с согласия правообладателя.

В то же время такой подход применяется не во всех юрисдикциях. Например, в 2019 г. Закон Японии «Об авторском праве» был дополнен ст. 30-4, которая указывает, что использование результатов интеллектуальной деятельности без цели получения удовольствия от мыслей и чувств, выраженных в произведении (в том числе для разработки или использования технологии, связанной с записью звуков или визуальных образов произведения) не является нарушением авторского права.

Другими словами, нормы текущего законодательства Японии позволяют использовать результаты интеллектуальной деятельности для обучения моделей ИИ, в том числе включать их в датасеты. При этом закон допускает использование объектов интеллектуальной собственности как в некоммерческих, так и в коммерческих целях, а также прямо не учитывает, каким образом пользователь получил те результаты интеллектуальной деятельности, на которых будет обучен ИИ.

В то же время стоит отметить, что указанное регулирование стало предметом дискуссии, поскольку не совсем очевидно, где грань между использованием результатов интеллектуальной деятельности для развлекательных целей и без таковых.

С учетом этого японское Агентство по культурным вопросам выработало следующую позицию: использование результатов интеллектуальной деятельности для обучения ИИ будет неправомерным в том случае, если цель обучения ИИ — научить его создавать похожие произведения или подражать стилю оригинального автора1.

Другие страны, в частности Великобритания, также допускают возможность использования результатов интеллектуальной деятельности для обучения ИИ (так называемое text and data mining), но только если такое обучение производится без целей извлечения прибыли (раздел 29А Copyright, Designs and Patents Act 1988).

Таким образом, вопросы несогласованного с правообладателем использования результатов интеллектуальной деятельности для создания датасетов для коммерческого использования ИИ становятся предметом рассмотрения суда.

Например, сейчас в Великобритании продолжается рассмотрение иска крупного фотобанка к создателю системы о нарушении исключительных прав на фотографии фотобанка при создании ИИ-сервиса (Getty Images v. Stability AI).

В данном случае истец полагает, что в действиях ответчика содержатся два нарушения: использование изображений при создании системы искусственного интеллекта, а также их переработка при создании результатов по запросам пользователей.

Иск был заявлен в 2023 г., и на данный момент суд еще не начал рассмотрение дела по существу. Причина — большое количество процессуальных моментов, связанных с тем, что на стороне фотобанка выступает компания, представляющая интересы 50 000 правообладателей, чьи права якобы были нарушены ответчиком, однако представители не могут точно указать, какие именно произведения были незаконно использованы ответчиком для «тренировки» своей нейросети.

В настоящее время указанный спор, несмотря на два года с момента его начала, только начинает рассматриваться по существу. Остается ждать, какую позицию займет суд при рассмотрении данного вопроса.

Использование общедоступной информации для обучения ИИ

Обучение ИИ возможно не только при помощи результатов интеллектуальной деятельности, но и при помощи другой общедоступной информации: например, публикаций в соцсетях. В связи с этим важным становится вопрос о том, насколько правомерно использовать данные, расположенные в открытом доступе.

На данный момент в российской судебной практике был ряд значимых судебных дел, связанных с использованием и коммерциализацией общедоступной информации.

Полагаю, некоторые правовые позиции из этих дел могут быть применимы и к вопросам, связанным с использованием общедоступной информации для обучения искусственного интеллекта.

Так, стоит вспомнить известный спор между крупным порталом и разработчиком средства автоматизации рекрутинга. Кратко напомню суть спора: общество использовало материалы, размещенные на сайте истца, для своего программного обеспечения, позволяющего автоматизировать процесс подбора персонала, что, по мнению истца, нарушало исключительные права на базу данных (Определение Московского городского суда от 26.03.2019 по делу № 4г/5-3467/2019).

В данном случае Мосгорсуд посчитал, что сервисом не были предоставлены доказательства нарушения своего исключительного права программой, что привело к отказу в удовлетворении иска.

Еще один не менее важный спор — дело компании против социальной сети (дело № А40-18827/2017). Компания разработала ряд приложений, которые позволяли получать общедоступную информацию о пользователях социальной сети в форме, удобной для дальнейшего использования, например, при оценке благонадежности потенциальных заемщиков. Социальная сеть не оценила данное использование и подала иск против компании о нарушении исключительных прав на базу данных.

Рассмотрение дела заняло шесть лет, за которые оно прошло два круга: по итогам суд установил, что компания неоднократно признавалась в использовании материалов из социальной сети, которое осуществлялось исключительно для коммерческих целей: совместное использование ответчиком нескольких видов ПО делает полученную информации коммерчески ценной, в связи с чем действия компании нарушают исключительное право социальной сети как изготовителя базы данных.

В то же время стоит отметить, что после вынесения решения апелляционной инстанции на втором круге рассмотрения дела стороны решили подписать мировое соглашение, в котором установили, что не имеют друг к другу каких-либо претензий.

Следовательно, оба указанных дела подтверждают, что использование общедоступной информации при обучении искусственного интеллекта потенциально может привести к судебным спорам.

Несмотря на то, что на данный момент в России нет актуальных примеров судебных дел такого рода, мировые тенденции показывают, что указанные проблемы являются актуальными: например, в начале июня американская социальная сеть подала иск к компании за использование комментариев пользователей для обучения чатбота (Reddit v. Anthropic).

По мнению социальной сети, чатбот «намеренно обучался на личных данных пользователей <…>, никогда не спрашивая их согласия».

В связи с этим на данный момент видится, что самым надежным способом использования информации для обучения систем ИИ является заключение соглашения с правообладателем (если речь идет о результатах интеллектуальной деятельности) или с организатором хранения такой информации (если речь идет о том, чтобы использовать данные социальных сетей и иных открытых источников). Иные подходы создают риски получения претензий и судебных исков от таких лиц.

Использование результатов, созданных искусственным интеллектом

Еще один не менее важный вопрос связан с использованием результатов работ, созданных с помощью ИИ. Существует несколько мнений, связанных со статусом таких результатов: некоторые исследователи считают, что они могут охраняться авторским правом, а кто-то полагает, что эти результаты должны находиться в общественном достоянии.

С учетом этого предлагаю рассмотреть то, как данные вопросы разрешаются в разных юрисдикциях.

Опыт России

Несмотря на то, что в настоящее время в нашей судебной практике не так много судебных решений, связанных с обучением искусственного интеллекта, все большую актуальность приобретают вопросы, связанные с использованием результатов, которые были получены с использованием ИИ.

В этой связи актуально дело № А40-200471/23-27-1448, в котором рассматривался вопрос о взыскании компенсации за незаконное использование видеоролика, при создании которого использовалась технология deepfake.

В качестве одного из аргументов ответчик утверждал, что использование технологии deepfake приводит к тому, что видеоролик не является объектом авторского права, в связи с чем может быть использован третьими лицами без согласия правообладателя.

Вынося решения о взыскании компенсации, суд указал, что в данном случае технология deepfake является инструментом для обработки видеоролика, при создании которого участвовали сценарист, видеооператор и иные лица, внесшие свой личный творческий вклад в его создание.

Несмотря на то, что в решении суда не исследуется вопрос правового статуса deepfake (и в том числе правомерности использования образа известного актера), можно сделать вывод о том, что использование искусственного интеллекта при создании результатов интеллектуальной деятельности (в случае, если совместно с искусственным интеллектом в произведение вносит свой творческий вклад человек) не препятствует признанию результата совместного творчества человека и ИИ результатом интеллектуальной деятельности.

Стоит отметить, что есть и другие судебные дела, в которых ответчик пытался обосновать отсутствие нарушения на изображение ссылкой на использование истцом инструментов искусственного интеллекта. В частности, такой аргумент был приведен в рамках рассмотрения дела № А42-3966/2023 апелляцией. Однако данный довод не нашел поддержки суда и опровергался тем, что истец предоставил видеоролик с демонстрацией 3D-модели, которая в дальнейшем была использована в создании фотографии.

Похожий довод был заявлен и в деле № А56-52652/2024: ответчик утверждал, что использовал не спорное произведение истца, а результат работы нейросети, созданный на основании его запроса. Однако и данный довод не привел к отказу в иске, и суд посчитал, что изображения сходны и на самом деле ответчик использовал то же самое изображение ног, что и изображения, права на которые принадлежат истцу. Разница была лишь в том, что изображение подвержено незначительной ретуши.

Таким образом, исходя из имеющейся на данный момент судебной практики, использование ИИ не влечет за собой автоматический отказ в защите исключительного права на данный объект. Более того, использование ответчиком искусственного интеллекта для создания объекта также не в каждом случае означает создание нового объекта: вполне вероятно, что ИИ был использован исключительно для ретуши уже существующего оригинального произведения, что требует получения согласия правообладателя.

Опыт Китая

В отличие от России, где первые споры, связанные с использованием результатов работы ИИ, появились только недавно, один из значимых китайских споров разрешился еще в 2018 г.

В другом споре (Tencent v. Yingxun Tech) компания опуб­ликовала статью о финансовой отчетности, при подготовке которой использовался ИИ-сервис, а ответчик без разрешения перепечатал эту статью на своем веб-сайте.

Суд пришел к выводу, что контент, созданный программным обеспечением, является объектом авторского права, поскольку при использовании сервиса сотрудники истца осуществляли выбор входных данных, условий запуска, шаблонов и стиля письма, что существенно повлияло на итоговый результат в виде статьи. В связи с этим суд удовлетворил требование истца о защите исключительного права на данную статью.

Вторым, не менее важным делом стало дело [(2023) Jing 0491 Min Chu No 11279], в котором рассмотрена такая ситуация. Гражданин создал изображение с помощью нейросети, составив более 150 промптов (запросов), определяющих композицию, структуру и параметры изображения. После этого другой гражданин незаконно использовал указанное изображение, полагаясь на то, что оно не защищено авторским правом.

В этом деле суд также встал на сторону истца: в данном случае истец внес значительный творческий вклад в создание итогового произведения, поскольку он неоднократно дорабатывал и перерабатывал те результаты, которые выдавала нейросеть, в связи с чем указанное произведение должно охраняться нормами авторского права, даже несмотря на то, что вклад истца заключался исключительно в предоставлении инструкций для ИИ.

Указанное дело примечательно и тем, что суд также исследовал вопрос принадлежности исключительного права на произведение: в данном случае, исходя из того, что в правилах использования нейросети указано, что разработчик сервиса не оставляет за собой каких-либо прав на результаты работы ИИ, суд признал правообладателем создателя спорного изображения (истца).

Таким образом, каждое дело требует индивидуального рассмотрения, поэтому нельзя исключать, что в скором времени и российские суды будут анализировать условия использования систем ИИ и влияние их пользовательских соглашений на принадлежность прав на результаты работы ИИ.

Выводы

По общему правилу использование результатов интеллектуальной деятельности для обучения моделей искусственного интеллекта требует получения согласия правообладателя.

Исходя из текущей судебной практики, совокупность общедоступной информации (например, данные из социальных сетей) может быть признана базой данных, в связи с чем использование такой информации для обучения моделей искусственного интеллекта (особенно тех, которые будут использоваться в коммерческих целях) также требует согласия правообладателя такой базы данных.

Вопросы с использованием результатов, созданных ИИ, только начинают проникать в российскую судебную практику. Тем не менее на данный момент можно сказать, что сам факт использования ИИ для создания произведения не означает, что созданный результат не будет охраняться нормами законодательства об интеллектуальной собственности.

В то же время вопрос о том, является ли результат работы ИИ охраняемым результатом интеллектуальной деятельности, должен решаться в каждом случае отдельно, исходя из фактических обстоятельств дела. В качестве критерия, используемого для определения охраняемости, возможно использовать творческий вклад конкретного лица (см. опыт Китая).

В будущем приобретут актуальность споры, связанные с принадлежностью результата, созданного ИИ, между разработчиком системы и ее пользователями. Видится, что данный вопрос так же, как и сейчас, будет решаться в пользовательских соглашениях об использовании конкретной системы ИИ, но нельзя исключать, что текущий подход о принадлежности результатов работ ИИ пользователям будет изменен некоторыми разработчиками в пользу сохранения у себя либо исключительного права на такой результат, либо права его использования на условиях лицензии.

1 https://www.bunka.go.jp/english/policy/copyright/pdf/94055801_01.pdf.