Популяризация ИИ: как минимизировать риски для бизнеса

| статьи | печать

По данным Минэкономразвития, Россия вошла в топ-10 стран по внедрению искусственного интеллекта. В соответствии с национальной стратегией развития этой технологии, к 2030 г. инвестиции бизнеса и государства в ИИ увеличатся до 850 млрд руб. в год. Вместе с популяризацией ИИ растет количество судебных разбирательств в этой сфере. Что нужно знать бизнесу при работе с ИИ, чтобы снизить юридические риски — разбираемся с экспертами.

Согласно данным RTM Group, в период с 01.03.2023 по 01.03.2024 было вынесено 406 судебных актов. В 31% случаев требования были удовлетворены полностью или частично; в 55,5% — отказано, в остальных — исход не определен. За аналогичный пе­рио­д с 01.03.2022 по 01.03.2023 было вынесено 165 судебных актов, предмет разбирательств которых связан с использованием технологий ИИ. В 53% случаев требования были удовлетворены полностью или частично; в 34% — отказано, в остальных — исход не определен.

Анализ RTM Group показал, что основными категориями споров, в которых так или иначе затрагивается искусственный интеллект, являются:

  • споры по грантам на разработку ИТ-продукции с использованием технологий ИИ;

  • споры по договорам на ПО, использующее технологии ИИ;

  • споры о нарушении авторских прав на произведения, созданные с использованием ИИ;

  • административные правонарушения (нарушения в рамках рассылок/звонков с использованием ИИ).

Одним из самых частых нарушений является использование технологий ИИ в целях взыскания кредитной задолженности (совершение звонков «роботом- коллектором»). Суды однозначно признают такой способ связи с должником ненадлежащим и запрещают его применять.

Споры о нарушении авторских прав на произведения, созданные с использованием ИИ, пока в судебной практике встречаются нечасто. В основном суды квалифицируют технологии ИИ как инструмент творчества. Авторское право же признается за субъектом, который может предоставить доказательства своего авторства (исходные работы, договоры, акты и т.д.). Основные дискуссии насчет наличия признаков творческого вклада в создание произведения при использовании ИИ идут на данный момент в научной среде.

В рамках государственной поддержки выделяются значительные субсидии на разработку технологий ИИ. В связи с активной политикой государства в сфере развития ИИ часто встречаются споры в рамках грантов, выданных на разработку технологий ИИ. В основном суды встают на сторону грантодателей в случае, если выявлено несоответствие комплекта документации заявленному в договоре на получение гранта.

Интерес к сфере ИИ подтверждает также и рынок госзакупок. Количество госзаказов на решения с ИИ выросло, как и суммы контрактов. За 2023—2024 гг. выявлены госзаказы на технологии ИИ с ценой контракта от 20 тыс. руб. до почти 2900 млн руб. Наиболее частыми сферами, в которых заключаются госконтракты, являются: медицина, научно-исследовательская деятельность, транспорт, связь, экология. Самые крупные контракты выявлены в сфере авиапромышленности.

По результатам исследования его авторы пришли к выводу, что количество судебных разбирательств в сфере ИИ заметно выросло. При этом случаев удовлетворения требований стало меньше. Эксперты объясняют этот тренд развитием и усложнением технологий ИИ.

Россия в лидерах среди стран по внедрению ИИ

Развитие ИИ в стране активно поддерживает государство. На пленарной сессии «Искусственный интеллект — главная технология XXI века» отраслевого дня ИИ на выставке «Россия» министр экономического развития России Максим Решетников заявил, что РФ по объему совокупных вычислительных мощностей входит в топ-10 стран-лидеров, а общий уровень внедрения искусственного интеллекта в приоритетных направлениях экономики составил 31,5%.

«Мы видим, что искусственный интеллект становится ключевой технологией, с его развитием неразрывно связано повышение эффективности во всех сферах деятельности. Благодаря ИИ становится возможен переход от экономики дефицита к экономике изобилия», — подчеркнул зампред Правительства РФ Дмитрий Чернышенко в ходе пленарной сессии. По его словам, в связке с другими технологиями ИИ способен снизить стоимость очень многих товаров, уменьшив затраты на их производство.

Говоря о необходимости развития технологий, глава Минэкономразвития России напомнил, что дефицит кадров, конкуренция за них, рост зарплат — один из ключевых вызовов в экономике в ближайшее время. Справиться с ними помогает искусственный интеллект, который за счет оптимизации процессов, снижения издержек и повышения качества продукции позволяет влиять на производительность труда. Для становления индустрии ИИ в целом правительство сформировало национальную стратегию развития ИИ до 2030 г.

По мнению властей, главное сейчас — сохранить тренд на внедрение, обеспечить массовое использование и тиражирование технологии в отраслях. «В силу масштабности — это задача правительства. Поддерживать работу с ИИ среди бизнеса, который использует технологию, помогут общесистемные меры по снятию нормативных ограничений, использованию экспериментальных правовых режимов, наращиванию кадрового резерва», — заявил М. Решетников.

При этом он акцентировал, что нужно создавать необходимые стимулы тем, кто еще не внедрил ИИ, развивать под них рынок решений. Параллельно важно развивать фундаментальную науку: методы расчетов для нейросетей, новые способы формирования моделей, оптимизацию вычислений. «Будем формировать научные школы, выделять дополнительное финансирование и открывать новые исследовательские центры, привлекать к этому бизнес, наращивать вычислительные мощности, чтобы будущим топовым специалистам было с чем работать», — уточнил министр.

В соответствии с национальной стратегией развития ИИ, к 2030 г. его внедрение даст прирост ВВП на 11,2 трлн руб., а инвестиции бизнеса и государства в ИИ увеличатся с 120 до 850 млрд руб. в год. При этом активно внедрять ИИ будут до 95% приоритетных отраслей.

Россияне стали меньше бояться искусственного интеллекта

О популяризации технологии ИИ говорят и данные соцопросов. Так, опрос SuperJob показал, что уже каждый второй россиянин не боится искусственного интеллекта, год назад таковых было 43%. Опасения и страхи остались лишь у каждого девятого. 36% опрошенных затруднились с ответом.

Среди представителей распространенных профессиональных групп чуть чаще других опасениями по поводу развития искусственного интеллекта делились системные администраторы (19%): их особенно беспокоят вопросы защиты информации и персональных данных. Усиления мошенничества боятся юристы, они также напоминают, что законодательно развитие нейросетей пока никак не регулируется (18%). Секретари говорят о бездушности машин (18%). Главных бухгалтеров (18%) и линейных бухгалтеров (16%) беспокоят перспективы тотальной автоматизации и потери работы. Охранники (13%) предрекают киберапокалипсис.

Большинство маркетологов и дизайнеров с интересом следят за развитием нейросетей и уже применяют их в работе: «Использую для нестандартных и оперативных решений, а также при обработке больших объемов информации»; «Рассматриваю ИИ как новые возможности и с позиции дополнительного инструментария».

Меньше всего нейросети пугают своих создателей — программистов: «Это отличная технология, а не замена!»; «ИИ пока что управляют люди»; «Тема раздута средствами массовой информации. Бояться нечего — весь прогресс к лучшему».

Вместе с расширением применения ИИ растут и риски его использования. На что нужно обращать внимание бизнесу при работе с ИИ, чтобы избежать судебных разбирательств? На этот вопрос мы попросили ответить экспертов.

Комментарий эксперта

1. Обеспечьте прозрачность в принятии решений ИИ и возможность объяснить, как система пришла к определенному выводу. Это поможет избежать обвинений в необоснованных действиях.

2. Убедитесь, что использование ИИ соответствует законодательству в области защиты данных, прав потребителей и других релевантных норм.

3. Исключите возможность дискриминации на основе пола, возраста, расы и других признаков. Обеспечьте этичное использование ИИ.

4. Обратите внимание на качество и достоверность данных, используемых для обучения и функционирования системы ИИ. Некорректные данные могут привести к ошибочным выводам.

5. Разработайте механизмы контроля и исправления ошибок в работе системы ИИ. Быстрая реакция на возможные проблемы поможет избежать серьезных последствий.

6. При работе с технологиями ИИ стоит обращаться к специалистам и юристам, специализирующимся на данной области, для консультаций и разработки соответствующих стратегий.

7. Обеспечьте обучение сотрудников, работающих с системами ИИ, по правилам использования и регулированию данных. Повышенная осведомленность снизит риск возникновения споров.

Соблюдение этих рекомендаций поможет бизнесу минимизировать риски судебных разбирательств, связанных с использованием технологий ИИ.

Комментарий эксперта

1. Соблюдать законодательство в области защиты данных и интеллектуальной собственности.

2. Защищать личные и конфиденциальные данные клиентов.

3. Исключать дискриминацию и предвзятость в алгоритмах ИИ.

4. Регулярно тестировать и проводить аудит ИИ.

5. Обучать персонал для правильной работы с ИИ.

Не нужно делать консультанта, который может нанести вред здоровью или привести к потере финансов (рекомендация лекарств, диагнозы, юридическая консультация и прочее). Если разработать такой ИИ, то за его рекомендации привлекут к ответственности именно компанию, а не физическое лицо.

Еще раз хочется отметить важность проведения аудита и тестов. Так как сейчас ИИ генеративный, он не думает, а генерирует ответ по векторам, что может вызывать ошибки.

Комментарий эксперта

В числе ключевых моментов при работе с ИИ нужно ознакомиться с законами об авторском праве, защите данных, прав потребителей и соблюдать этические стандарты. Клиенты и сотрудники вашего бизнеса должны понимать, как работает ваш механизм взаимодействия с нейросетями. Прозрачность может помочь избежать несправедливых обвинений. Перепроверяйте информацию вручную, проводите аудит систем искусственного интеллекта для исправления потенциальных ошибок. Обеспечьте высокий уровень безопасности данных, чтобы предотвратить утечку информации и нарушения конфиденциальности. И самое главное, хорошо обучите сотрудников, взаимодействующих с ИИ, всем перечисленным аспектам.

Комментарий эксперта

В работе с искусственным интеллектом могут возникнуть риски нарушения авторских прав. Обучение искусственного интеллекта проводится на очень больших наборах медиаданных, размещенных в публичном доступе. Основная часть используе­мой для обучения информации защищена авторским правом. Нейросеть изменяет или компилирует заимствованный контент, что может вызвать спор о нарушении этих прав.

Искусственный интеллект обучается на основе всех данных, которые размещены в сети Интернет. Поэтому при генерации ответа на запрос пользователя он может использовать информацию, попавшую в сеть против воли лица, которому эта информация принадлежит. В качестве примера можно привести утечку в сеть персональных данных, которые были использованы нейросетью для создания контента. Человек, чьи персональные данные применили без его согласия, может предъявить юридические претензии.

Система искусственного интеллекта может формулировать суждения с учетом расовых и половых признаков. Также приведу пример. Система оценки криминогенности по районам города выдавала сведения о повышенной опасности исключительно на основе анализа цвета кожи. По мнению нейросети, это означало, что в районе, где преобладают чернокожие жители, риски совершения преступлений значительно выше. Однако такие выводы — это дискриминация по тем или иным признакам, что чревато ответственностью.

Пользователям нейросетей нужно быть осторожнее. В первую очередь необходимо знакомиться с пользовательскими соглашениями и использовать результат работы ИИ с учетом прав, которые предоставляет владелец информации. В частности, такие документы содержат объем авторских прав, которыми располагает пользователь в отношении полученного контента.

При обработке своих данных необходимо помнить, что все загруженные сведения попадают в базу нейросети и будут использованы в дальнейшей обработке. Поэтому стоит серьезно отнестись к загрузке критически важных данных, утечки которых вы не хотели бы.

Комментарий эксперта

Одной из больших проблем для бизнеса при использовании внешних сервисов, предоставляющих услуги доступа к ИИ-технологиям, может стать компрометация персональных и корпоративных данных. Зачастую сотрудники в желании оптимизировать затраты рабочего времени банально не понимают принципов работы вопросно-ответных систем. Такая история может быть чревата как репутационными рисками, так и наложением чувствительных оборотных штрафов за утечку персональных данных.

В качестве профилактики можно предложить заключение со всеми сотрудниками соглашений о неразглашении информации (NDA) и разъяснительную работу. Вторым риском использования ИИ-технологий может стать нарушение авторских прав. Законодательство в этой сфере формируется, но правоприменительная практика начинает пополняться случаями разбирательств. Поэтому следует внимательно изучать политику предоставляемых услуг технологий ИИ, обращая внимание на разграничение личного и коммерческого использования.

Комментарий эксперта

Согласно судебной статистике, лишь 5% судебных разбирательств по ИИ связаны с авторским правом. Остальные разбирательства связаны с разработкой ПО и использованием ИИ банками.

Таким образом, если мы говорим про рынок рекламы и создание креативов с помощью ИИ, большая часть предпринимателей пока в безопасности. Но, конечно, если вы генерируете тексты и изображения с помощью технологий искусственного интеллекта, я рекомендую все-таки проверять их, во-первых, на правдивость, а во-вторых, на возможное нарушение авторских прав — может случиться такое, что сгенерированное изоб­ражение будет сильно похоже на то, у которого есть автор.

В остальном рынок рекламы пока может спать спокойно. И то, что количество судебных разбирательств по поводу ИИ растет, это лишь особенность нового продукта. Когда нормативная база по использованию ИИ будет создана, хаоса вокруг технологии станет значительно меньше.

Комментарий эксперта

С мощным развитием технологий искусственного интеллекта многие компании стали активно использовать его возможности для создания как текстового, так и видео- или графического контента. В некоторых компаниях даже произошло сокращение штата (например, копирайтеров) в связи с тем, что «ручной труд» легко заменили нейросети. Причем всем известный Chat GPT пишет тексты не хуже, чем среднестатистический копирайтер.

Созданные тексты, видео и фото стали размещаться на сайте. А далее возник вопрос: кому принадлежат авторские права на созданный контент? На данный момент юридически этот вопрос никак не регламентируется.

Рассмотрим возможную ситуацию: некий фотограф обнаружил на сайте фото, похожее на сделанное им, но сгенерированное или обработанное с помощью нейросети. В случае судебного разбирательства как доказать факт использования нейросети, и нужно ли его доказывать? Является ли сгененированное фото фактически созданным с нуля, или имел место факт использования чужого фото? Этот вопрос и необходимо регламентировать на законодательном уровне. На данный момент одно из возможных решений — указывать, что тот или иной контент создан с помощью нейросетей.

Второй момент, который указывает на необходимость маркировки контента от ИИ, — его возможная недостоверность. Как известно, нейросеть генерирует ответ на определенный запрос на основе большого массива информации, полученного из интернета. Каким образом нейросеть сопоставляет факты и насколько корректной была исходная информация — неизвестно. Но факт остается фактом: нейросеть может сгенерировать текст, который не только не достоверен, но и иногда опасен или абсурден. Например, однажды мы попросили Chat GPT дать ответ на вопрос: как избавиться от головной боли? В ответ нейросеть предложила прибегнуть к методу отсечения головы.

На мой взгляд, специалистам в области юриспруденции необходимо определить, что является объектом интеллектуальной собственности, кому передаются права на использование в случае применения нейросети и кто отвечает за достоверность размещаемого на сайте контента.