На пути к регулированию технологий: практический аспект

| статьи | печать

При внедрении любых технологических новинок ключевая цель регулирования заключается в создании условий для устойчивого гражданского оборота, защиты прав и интересов, а также баланса между инновациями и социальными гарантиями. В связи с этим формирование четких и универсальных норм в области ИИ остается сложной задачей, поскольку такие технологии развиваются стремительно. И именно поэтому фокус на юридических конструкциях, которые буквально рождаются на наших глазах и регулируют данную сферу, не менее важен, чем погружение в технические аспекты работы с нейросетями, промптами, голосовыми ассистентами и результатами работы ИИ и иными инструментами, внедряемыми в бизнес. И здесь возникает вопрос: на каком этапе сейчас находится практика?

В технологических процессах правовое регулирование должно быть достаточно гибким, чтобы адаптироваться к изменениям, не создавая избыточных барьеров для технологического прогресса. В то же время анализ действующего законодательства выявляет существенные пробелы в правовом регулировании ИИ. В частности, отсутствуют законодательные определения таких ключевых понятий, как «нейросеть», «дипфейк», а также единый системообразующий акт.

Будущее и инициативы в области ИИ

Для устранения этих недостатков представляется необходимым принятие специального федерального закона, который бы закрепил базовые термины и принципы правового регулирования технологий ИИ в России. Принятие данного закона создаст правовые основания для системного анализа и последующей гармонизации смежных отраслей законодательства, включая гражданское, уголовное, а также нормативные акты в сфере защиты персональных данных и информационной безопасности.

21.05.2025 в Государственную Думу внесен законопроект № 922784-8 с поправками в ч. 4 ГК РФ. Предлагаемый комплекс изменений направлен на устранение правовых пробелов, вызванных технологическим прогрессом, и обеспечение гармонизации национального законодательства с международными стандартами в области охраны интеллектуальной собственности.

Основные направления реформы охватывают три ключевых аспекта:

  • существенное расширение перечня объектов патентной охраны за счет включения технических решений, реализуемых исключительно программными методами (поправки в ст. 1350 ГК РФ), что особенно актуально в контексте развития технологий ИИ и машинного обучения;

  • кардинальное обновление понятийного аппарата патентного права, выражающееся во введении современного термина «программируемое средство», который приходит на смену устаревшему понятию «компьютерное устройство». Это изменение позволяет адекватно отразить технологические реалии, включая распространение распределенных вычислительных систем и сетей;

  • уточняются критерии охраноспособности полезных моделей (ст. 1351 ГК РФ), что способствует устранению существующих правовых неопределенностей и избавляет заявителя от необходимости описывать в заявке очевидные и типовые аппаратные компоненты.

Все это в перспективе может создать правовые основания для защиты инновационных разработок в одной из наиболее перспективных сфер технологического развития.

Также с начала этого года начали применяться утвержденные Росстандартом стандарты, закрепляющие требования к безопасности, конфиденциальности и этичности при применении ИИ-систем в различных областях (медицина, образование, производство и проч.).

Помимо прочего, активно развивается «саморегулирование» отрасли в форме различных кодексов и рекомендаций этической направленности, декларирующее принципы человеко-ориентированного и гуманистического подхода, уважения автономии и свободы воли человека, а также соответствия используемых ИИ-систем законам.

Практический подход: как меняется судебная практика

Вопрос творчества

Понятие творческого характера составляет фундаментальный принцип системы интеллектуальной собственности и авторского права, определяя границы правовой охраны различных объектов. Этот ключевой аспект требует особого внимания при анализе правового статуса результатов, созданных с использованием технологий ИИ.

Здесь стоит сразу отметить, что судебная практика последовательно придерживается субъективного подхода в понимании определения творчества:


цитируем документ

Судам при разрешении вопроса об отнесении конкретного результата интеллектуальной деятельности к объектам авторского права следует учитывать, что <…> таковым является только тот результат, который создан творческим трудом. При этом надлежит иметь в виду, что, пока не доказано иное, результаты интеллектуальной деятельности предполагаются созданными творческим трудом.

Необходимо также принимать во внимание, что само по себе отсутствие новизны, уникальности и (или) оригинальности результата интеллектуальной деятельности не может свидетельствовать о том, что такой результат создан не творческим трудом и, следовательно, не является объектом авторского права.

Пункт 80 постановления Пленума ВС РФ от 23.04.2019 № 10


Данный подход позволил охранять объекты, работа по созданию которых близка к механической, выполняемой в соответствии с определенными правилами и стандартами деятельности, например программное обеспечение. И сейчас, в эпоху развития технологий ИИ, правовое сообщество стоит на пороге нового преобразования понимания творчества.

Нейросети vs авторское право

В последние годы стремительное развитие ИИ-технологий и их массовое внедрение в бизнес и повседневную жизнь привели к резкому увеличению числа правовых споров, что в том числе обусловлено пробелами в правовом регулировании вопросов в сфере ИИ.

Особый интерес представляют вопросы авторского права в контексте нейросетей. Дискуссии охватывают широкий спектр проблем, которые на настоящий момент не имеют однозначного решения, — от законности использования обучающих датасетов до определения правообладателя контента, созданного нейросетью.

Поскольку, как было указано выше, порог признания объекта результатом интеллектуальной деятельности представляется довольно низким (достаточно минимального творческого вклада, чтобы презюмировать охраноспособность объекта, пока не доказано иное, а сам перечень объектов авторского права в соответствии со ст. 1259 ГК РФ не является закрытым), можно предположить, что практически в каждом датасете содержится чей-то охраняемый контент. Соответственно, его использование требует разрешения правообладателей. Следует учитывать, что правовой охране могут подлежать не только отдельные элементы датасета, но и сам датасет в целом — как база данных.

В российской правовой системе авторским правом охраняются оригинальная структура и способ организации базы данных, тогда как смежными правами защищается непосредственно сам массив информации. В большинстве случаев датасеты подпадают под защиту именно смежных прав, поскольку их основная ценность заключается в содержащихся данных, а не в особенностях систематизации. Также стоит отметить, что для баз данных, содержащих более 10 тыс. элемен­тов, независимо от их характера и содержания, устанавливается охрана смежными правами (ст. 1334 ГК РФ).

Таким образом, при использовании датасета для обучения нейросети следует понимать, что он может являться самостоятельным объектом авторских (смежных) прав и/или содержать охраняемые элементы.

Правовой статус пользовательских запросов (промптов) и результатов работы ИИ

Как и элементы датасетов, вводимые пользователями промпты могут как подлежать правовой охране (если соответствуют критериям охраноспособности), так и оставаться за рамками правового поля.

На данный момент квалификация правового статуса пользовательских данных и правовые последствия обработки промпта нейросетью зачастую остаются за рамками правового дискурса. Если принять тот факт, что промпт содержит творческую составляющую и бесспорно подпадает под действие авторского права, то в контексте указанного вопроса можно порассуждать над тем, что технические процессы нейросети (хранение, анализ, генерация ответа) фактически представляют собой воспроизведение и иногда — переработку промпта. Это создает для разработчиков нейросетей обязательство по получению соответствующих правомочий от пользователей-авторов.

Кроме того, возникает вопрос правовой охраны результатов, генерируемых нейросетями (аутпутов): каков объем и характер признаваемых прав на аутпуты?

Здесь ситуация неоднозначна: при работе с нейросетями уровень творческого вклада часто ниже, чем при традиционном создании произведений, а иногда может вообще отсутствовать. Ключевая проблема заключается в определении четкой границы между охраняемыми и неохраняемыми аутпутами, особенно с учетом специфики ИИ-генерации, где творческий вклад человека может быть минимальным или опосредованным. Эта дискуссия отражает необходимость либо адаптации существующих норм авторского права, либо разработки специального правового режима для результатов, созданных с участием ИИ.

По сути, результаты работ ИИ на данный момент можно разделить на следующие виды:

  • Контент, созданный с участием ИИ, но имеющий творческий вклад пользователя. Такой контент подлежит защите авторским правом (п. 80 постановления Пленума ВС РФ от 23.04.2019 № 10).

  • Контент, полностью сгенерированный ИИ и не имеющий реального творческого вклада пользователя. Такой контент не охраняется, так как отсутствует человеческое творческое участие.

Суды постепенно принимают эту логику:


цитируем документ

В обоснование апелляционной жалобы общество указывает, что <…> спорное изображение сгенерировано через нейросеть (искусственный интеллект), в связи с чем не может быть признано объектом авторского права <…>.

Указанный довод отклонен апелляционным судом как необоснованный. <…>

В силу пункта 1 статьи 1259 ГК РФ объектами авторских прав являются произведения науки, литературы и искусства независимо от достоинств и назначения произведения, а также от способа его выражения, в том числе фотографические произведения и произведения, полученные способами, аналогичными фотографии.

В качестве доказательств авторства спорного изображения истцом представлен скриншот «<…>», в котором произведение открыто в 3D-формате, который имеется только у автора изображения, как обладателя исходного файла 3D-модели с расширением <…>: «<…>».

В пункте 109 Постановления № 10 разъяснено, что при рассмотрении судом дела о защите авторских прав надлежит исходить из того, что, пока не доказано иное, автором произведения считается лицо, указанное в качестве такового на оригинале или экземпляре произведения либо иным образом в соответствии с пунктом 1 статьи 1300 ГК РФ (статья 1257 ГК РФ).

Постановление Тринадцатого ААС от 06.02.2024 № 13АП-37912/2023 по делу № А42-3966/2023


Чат-боты, голосовые ассистенты, боты и ассистенты в рекламе

Любой обыватель сталкивался с рекламой, которая явно реализуется с помощью ИИ. Однако зачастую бизнес забывает, что применение голосовых ботов для обзвона абонентов требует строгого соблюдения Закона о рекламе. Согласно ст. 18 Закона о рекламе, распространение рекламы по телефонным сетям допускается только с предварительного согласия абонента, что означает, что любые рекламные звонки с использованием голосовых ботов должны осуществ­ляться только после получения соответствующего согласия, что в практике «холодных обзвонов» отсутствует.

Однако опросы, не имеющие целью продвижения конкретного товара или услуги, не подпадают под действие рекламного законодательства и могут проводиться без предварительного согласия. Видится, что при проведении опросов голосовой бот должен сразу четко идентифицировать себя и цель звонка, не допуская скрытого продвижения товаров или услуг на каком-либо этапе разговора.

Правовая охрана голоса в условиях развития ИИ

В российском правовом поле голос рассматривается как нематериальное благо (ст. 150 ГК РФ), хотя и не поименован прямо в законе, а также может квалифицироваться как биометрические персональные данные, но только при использовании для идентификации личности.

Основной механизм защиты через компенсацию морального вреда (ст. 12 ГК РФ) оказывается недостаточно эффективным в условиях стремительного развития ИИ-технологий. В связи с этим назрела необходимость законодательных изменений, включая внесение голоса в перечень охраняемых объектов по аналогии с изображением, установление четких правил синтеза голоса в договорных отношениях и специальных положений о коммерческом использовании синтезированных голосовых моделей по аналогии с европейским регулированием. Эти меры позволят обеспечить адекватную защиту прав граждан в условиях цифровой трансформации, когда существуют технологии синтеза голоса.

Тайна частной жизни при разговоре с голосовым ассистентом

Законодательство устанавливает четкие границы допустимого при работе с конфиденциальной информацией, включая сведения о частной жизни и персональные данные. Несмотря на то, что обычные телефонные переговоры традиционно рассматривались как добровольный обмен информацией между участниками (Определение ВС РФ от 06.12.2016 № 35-КГ16-18), появление ИИ-ассистентов, способных записывать и анализировать беседы без явного уведомления собеседника, кардинально меняет правовую картину.

Конституционные гарантии неприкосновенности частной жизни (ч. 1 ст. 24 Конституции РФ) нашли отражение в отраслевом законодательстве, где особо подчеркивается запрет на сбор и использование информации о частной жизни без согласия гражданина (п. 8 ст. 9 Федерального закона от 27.07.2006 № 149-ФЗ, ст. 152.2 ГК РФ). КС РФ в своих определениях (от 26.01.2010 № 158-О-О, от 27.05.2010 № 644-О-О, от 28.06.2012 № 1253-О и др.) последовательно расширяет трактовку частной жизни, включая в нее все аспекты, которые человек желает сохранить в тайне. Особую значимость приобретает гарантия тайны телефонных переговоров, закрепленная в ст. 63 Федерального закона от 07.07.2003 № 126-ФЗ «О связи».

В этих условиях представляется, что в рамках разработки таких технологий должен быть реализован комплекс мер, направленных на соблюдение требований законодательства относительно тайны частной жизни:

  • отчетливое предупреждение о том, что собеседник общается с ИИ, а не с человеком;

  • надежные механизмы шифрования и защиты записей от несанкционированного доступа;

  • прозрачные и ясные политики обработки данных.

Отсутствие таких мер может привести к нарушению фундаментальных конституционных прав на неприкосновенность частной жизни и тайну переговоров.

Рекомендательные технологии

С октября 2023 г. вступил в силу Федеральный закон № 408-ФЗ с поправками в законодательство об информации и информационных технологиях. Данный нормативный акт представляет собой первый в российской правовой практике опыт регулирования систем ИИ, применяемых в качестве рекомендательных технологий.

Рекомендательные технологии определяются как информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям интернет-пользователей. В основе таких систем лежат современные технологии ИИ, включая машинное обучение, нейросетевые алгоритмы и обработку больших данных.

Законом устанавливается комплекс обязанностей для операторов рекомендательных систем:

  • обязательное информирование пользователей о применении ИИ-алгоритмов;

  • публикация правил использования технологий с описанием процессов обработки данных;

  • обеспечение механизма обратной связи;

  • запрет на использование технологий в противоречии с законодательством.

При работе с рекомендательными технологиями и данными о пользователе важно принять во внимание, что она должна основываться на законодательстве о защите персональных данных и иных нормативных актов1. Среди прочего следует, где это необходимо, получать согласие пользователя на обработку его данных в целях предоставления рекомендаций, а также предоставлять субъекту персональных данных возможность ознакомиться с видами данных, которые собираются на сервисе с использованием таких технологий.

Также при работе с рекомендательными технологиями стоит обращать внимание на требования законодательства по маркировке, законодательства о защите прав потребителей.

Кибербезопасность

ИИ-технологии обладают значительным потенциалом для трансформации сферы ИИ, что особенно актуально для российского технологического ландшафта. Технически специалисты отмечают множество направлений информационной безопасности, где ИИ-технологии способны не только оптимизировать существующие процессы, но и принципиально повысить уровень защиты.

Несмотря на очевидную практическую ценность интеграции ИИ-решений в существующие технологические процессы, их внедрение неизбежно сталкивается с комплексом правовых ограничений и рисков, требующих строгого соблюдения и постоянной актуализации законодательных требований.

Особую значимость приобретает вопрос защиты конфиденциальной информации, поскольку интегрируемые ИИ-решения часто работают с данными, подпадающими под действие законодательства об информации, информационных технологиях и защите информации, о коммерческой тайне, а также внутренних актов компании о конфиденциальности.

При этом техническая специфика облачных нейросетевых решений, предполагающая передачу данных за пределы защищенного периметра организации, создает дополнительные риски несанкционированного доступа к информации, что требует реализации дополнительных организационных и технических мер защиты.


1 2023 Этические рекомендации по применению рекомендательных технологий и алгоритмов, основанных на искусственном интеллекте, в цифровых сервисах. Альянс в сфере искусственного интеллекта. — URL: https://ai.gov.ru/knowledgebase/etika-i-bezopasnost-ii/2023_eticheskie_rekomendacii_po_primeneniyu_r... (дата обращения: 30.05.2025).