Инструменты ИИ в операционной деятельности компании и в юридических процессах: вызовы и новые решения

| статьи | печать

Чат-боты и виртуальные ассистенты, инструменты для анализа неструктурированных данных, рекомендательные системы и др. платформы на базе ИИ — распространенные инструменты, используемые для автоматизации бизнес-процессов, в том числе в юридичес­кой деятельности. Как интегрировать ИИ в юридическую работу, чтобы повысить ее эффективность, не потеряв при этом в качестве и не подвергнув риску клиентов и собственную репутацию? Какие могут возникать нестандартные риски их применения? В материале — ИИ-инструменты, которые открывают безграничные (?) возможности в операционной и в юридической деятельности, их этические, технические и иные ограничения, и особые риски — риски приватности.

В настоящее время к относительно прямо регулирую­щим деятельность ИИ можно отнести только Федеральный закон от 24.03.2020 № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта <…>» (далее — Закон № 123-ФЗ), которым предусмотрено экспериментальное внедрение ИИ в г. Москве.

В целом ИИ внедряется постепенно, через введение экспериментально правовых режимов. Скажем, Федеральный закон 31.07.2020 № 258 «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации» регулирует внедрение ИИ в сфере здравоохранения и транспорта (беспилотные автомобили).

Можно также выделить такие законы, как законодательство о персональных данных и об информации. Также постепенно утверждаются стандарты по направлению ИИ. В настоящее время утверждено 152 таких стандарта1.

Что такое ИИ-инструменты?

Если под ИИ подразумевается комплекс решений, имитирующий когнитивные функции человека, позволяющий получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека (п. 2 ч. 1 ст. 2 Закона № 123-ФЗ), то понятия инструментов ИИ в законодательстве не имеется.

C учетом этого, инструментом ИИ является созданное на основе технологий ИИ, предназначенное для выполнения задач, требующих имитации когнитивных функций человека (анализ данных, прогнозирование, генерация контента и т.п.), способное к самообучению и функционирую­щее обособленно.

Можно выделить такие виды ИИ-инструментов:

  • Чат-боты, виртуальные ассистенты и системы автоматического перевода;

  • Рекомендательные системы и обработка изображений и видео;

  • Аналитические платформы на базе ИИ и инструменты для автоматизации бизнес-процессов и другие.

Рост доступности облачных платформ, развитие алгоритмов и увеличение вычислительных мощностей сделали внедрение ИИ более простым и дешевым. Компании используют его для повышения конкурентоспособности, а пользователи — для повышения комфорта. Вместе с тем с количеством пользователей также повышаются и риски возникновения непредвиденных ситуаций. А с ростом числа пользователей растет и число происшествий, связанных с использованием ИИ-ассистентов.

В глобальном плане нужно упомянуть о Регламенте об ИИ, принятом в марте 2024 г. в Европе2. Его целью является улучшение функционирования внутреннего рынка и содействие внедрению ориентированного на человека и заслуживающего доверия ИИ, при этом обеспечивается высокий уровень защиты здоровья, безопасности, основных прав, включая демократию, верховенство закона и охрану окружающей среды от вредного воздействия систем ИИ, а также поддержка инноваций.

Данный регламент относится ко всем системам ИИ, за исключением тех, которые используются исключительно в военных целях или в целях научных исследований.

Все остальные ИИ-инструменты разбиты на четыре категории:

  • Система ИИ предназначена для работы с различными уровнями автономии, которая может проявлять адаптивность после развертывания и которая для достижения явных или неявных целей делает выводы из получаемых входных данных, как генерировать выходные данные, такие как прогнозы, контент, рекомендации или решения, которые могут повлиять на физическую или виртуальную окружающую среду.

  • Система ИИ с высоким уровнем риска считается таковой, если выполняются оба следующих условия:

1) система ИИ предназначена для использования в качестве компонента безопасности продукта, или система ИИ сама по себе является продуктом, подпадающим под действие отраслевого законодательства Союза, перечисленного в Приложении II Регламента;

2) продукт, компонентом которого в соответствии с пунктом (a) является система ИИ, или система ИИ как продукт, должна пройти оценку соответствия третьей стороной с целью размещения на рынке или ввода в эксплуатацию этого продукта в соответствии с законодательством ЕС о гармонизации, перечисленным в Приложении II. Моделями ИИ с высоким уровнем риска считаются все ИИ-инструменты, использующие биометрические данные, относящиеся к критически важной инфраструктуре, образованию, профессиональной подготовке.

  • Модель ИИ общего назначения основана на модели ИИ общего назначения, которая способна служить различным целям: как для непосредственного использования, так и для интеграции в другие системы ИИ.

  • Модель ИИ общего назначения с системными рисками.

Как и всегда, несомненно, будут выявляться обстоятельства, которые нынешние законы никак не охватывают. После определенного периода наблюдения за обстановкой в сфере ИИ в ЕС полагается, что и в России будут приняты нормативные акты схожего содержания с учетом выявленных недочетов и ошибок.

Ограничения = риски?

Законодательные ограничения непосредственно сопряжены с последствиями (рисками) несоблюдения данных ограничений.

Стоит начать с самых важных, на взгляд автора, ограничений:

1. Законом ограничены возможности доступа к информации (а поскольку инструменты ИИ могут способствовать получению доступа к информации без согласия обладателя информации, дальнейшее использование подобной информации влечет за собой уголовную ответственность).

2. Ограничения, хотя явно и не прописанные, но логически прослеживаемые в Законе о персональных данных:

  • запрещено неправомерное использование персональных данных, например, их сбор без согласия (ст. 9 Закона о персональных данных);

  • запрещен сбор и, соответственно, обработка персональных данных, указанных в законе (ст. 10 Закона о персональных данных);

  • запрещено автоматизированное принятие решений, затрагивающих права граждан и порождающих юридические последствия в отношении таких граждан (например, увольнение, ст. 16 Закона о персональных данных).

3. Поскольку любой ин­струмент ИИ обучается на миллионах аналогичных данных, с которыми данный инструмент создан работать, следует помнить о недопустимости нарушения авторских прав при генерации материалов с помощью подобных инструментов.

Так, суд отклонил как необоснованный довод ответчика о том, что спорное изображение сгенерировано через нейросеть (ИИ), в связи с чем не может быть признано объектом авторского права (постановление Тринадцатого арбитражного апелляционного суда от 06.02.2024 № 13АП-37912/23 по делу № А42-3966/2023). В пункте 109 постановления Пленума ВС РФ от 23.04.2019 № 10 разъяснено, что при рассмотрении судом дела о защите авторских прав надлежит исходить из того, что, пока не доказано иное, автором произведения считается лицо, указанное в качестве такового на оригинале или экземпляре произведения либо иным образом в соответствии с п. 1 ст. 1300 ГК РФ (ст. 1257 ГК РФ).

4. Риски ошибок ИИ:

  • Предвзятость алгоритмов: модели машинного обучения обучаются на данных, которые могут содержать предвзятость или дискриминацию по различным признакам.

  • Нарушение приватности: сбор больших объемов данных может привести к утечкам или неправомерному использованию информации о пользователях. Причем, если не иметь полного представления о том, как происходит сбор данных ИИ-ассистентом, то такой ассистент как раз и может осуществить сбор персональных данных, а отвечать потом вам.

  • Ошибки алгоритмов: неправильная работа систем может привести к сбоям или неправильным выводам. И то, и другое может быть критическим в зависимости от того, для какой цели использовался ИИ-ассистент.

  • Уязвимости к кибератакам: злоумышленники могут использовать уязвимости систем для получения доступа к конфиденциальной информации.

5. Этические вопросы развития и использования ИИ. Такие проблемы, как «проблема вагонетки», проблема «черного ящика» (как понять принципы работы систем ИИ?), а также ряд более явных проблем, таких как проблема информирования (всегда ли человек должен знать, что взаимодействует с ИИ?) в настоящее время только начали получать общепринятую точку зрения3.

6. Проблема делегирования принятия решений. Несмотря на то, что какой-то круг полномочий по принятию решений делегировать на ИИ все же допускается, такие решения, очевидно, не должны противоречить закону и выходить за рамки выше­указанных ограничений. Однако ИИ должен выступать как помощник в принятии решений.

7. Прозрачность понимания способа достижения результатов ИИ касается как этики, так и безопасности.


1 Стандарты по направлению «Искусственный интеллект» — URL: https://www.rst.gov.ru/portal/gost/home/standarts/aistandarts (дата обращения: 27.05.2025).

2 2024 Регламент Европейского Союза об искусственном интеллекте, АНО «Цифровая экономика» — URL: https://ai.gov.ru/knowledgebase/dokumenty-po-razvitiyu-ii-v-drugikh-stranakh/2024_reglament_evropeys... (дата обращения: 27.05.2025).

3 Белая книга этики в сфере искусственного интеллекта. — URL: https://ethics.a-ai.ru/white-book (дата обращения: 27.05.2025).