ИИ: возможна ли автономность в корпоративном управлении?

| статьи | печать

ИИ-трансформация юридической профессии затрагивает широкий спектр тем: от границ применения ИИ-инструментария при юридическом сопровождении корпорации до перспектив полной автоматизации операционной деятельности в корпорации с помощью ИИ. На стыке этого возникает вопрос о том, каковы юридические пределы, в том числе этические, ИИ-сопровождения деятельности корпорации, и можно ли говорить о правовой определенности при принятии корпоративных решений. Что же ждет эту сферу в будущем?

По данным исследования НСКУ и НОКС (2023)1 применение ИИ в корпоративном управлении в России только начинает входить в практику. Большинство компаний только оценивают перспективы внедрения, однако в отдельных зрелых цифровых отраслях, прежде всего в финансовом секторе, уже происходят пилотные внедрения: используются инструменты на базе машинного обучения, виртуальных ассистентов, рекомендательные системы и технологии обработки естественного языка.

В основном искусственный интеллект применяется при взаимодействии с советами директоров, коллегиальными органами и акционерами, работе с инсайдерской информацией и подготовке корпоративной отчетности. Пока эти решения носят точечный характер и не сформировали системного подхода.

В то же время компании-респонденты выражали интерес к более широкому применению ИИ в корпоративном управлении в среднесрочной перспективе. Предлагались сценарии использования технологий для прогнозирования последствий управленческих решений, предотвращения ошибок в работе менеджмента, поддержки планирования и аналитики, а также принятия управленческих решений и отбора кандидатов.

При этом у экспертов сохраняется общее понимание, что принятие ключевых решений должно оставаться за человеком, а ИИ должен выступать инструмен­том поддержки, а не замены управленцев.

В качестве иллюстрации можно привести пример из Кодекса этики в сфере разработки и применения искусственного интеллекта на финансовом рынке. В нем указывается, что принцип человекоцентричности включает в себя, в том числе возможность пересмотра решения, принятого с применением искусственного интеллекта.

А в рамках повышения осведомленности клиентов о принятии решений с применением искусственного интеллекта организациям рекомендовано разъяснять действия, которые клиенту необходимо совершить для принятия искусственным интеллектом решения, на основании которого делается вывод о возможности оказания услуг (информационное письмо Банка России от 09.07.2025 № ИН-016-13/91).

ИИ в корпоративном управлении: принятие рисков или ответственность?

Применение искусственного интеллекта в корпоративном управлении предоставляет значительные возможности для повышения эффективности процессов, снижения затрат и ускорения принятия решений. Однако, несмотря на этот потенциал, развитие ИИ в данной сфере сталкивается с рядом препятствий, связанных прежде всего с юридической и этической неопределенностью.

Среди ключевых рисков российские и зарубежные эксперты выделяют следующие.

Технологические вызовы

Одной из ключевых проблем корпоративного управления при внедрении искусственного интеллекта является невозможность гарантировать без­опасность автоматизированных решений2.

ИИ-системы, особенно построенные на моделях машинного обучения, не всегда демонстрируют стабильное поведение в новых или неопределенных условиях, что создает риски ошибочных решений в условиях неполных данных, а также повышенную уязвимость к манипуляциям — например, через искажение обучающих данных или атакующие запросы3.

Дополнительную угрозу представляет отсутствие механизмов блокировки или ручного контроля в автономно действующих системах. Все это может привести к убыткам, признанию решений органов управления юридически ничтожными, а также к привлечению к ответственности должностных лиц, допустивших некорректное внедрение подобных технологий.

Второй существенный риск связан с подотчетностью и проверяемостью автоматизированных решений. ИИ-системы зачастую функционируют как «черный ящик»4: остается неясным, на основании каких факторов принято то или иное управленческое решение. Это затрудняет оценку добросовестности действий директоров и менеджеров, проведение внутренних расследований и проведение внешнего аудита корпоративного управления, а также усложняет судебное оспаривание решений, где требуется доказуемость их обоснованности и законности.

Отсутствие объяснимости решений ИИ ослабляет механизмы контроля и подотчетности — ключевые элементы корпоративного права и реализации фидуциарных обязанностей.

Таким образом, технологические риски при использовании ИИ в корпоративном управлении затрагивают не только надежность и устойчивость алгоритмов, но и фундаментальные механизмы юридической подотчетности, объяснимости и управляемости принимаемых решений.

Показательным в этом контексте стало дело C-634/21 SCHUFA, в котором в соответствии со ст. 22 GDPR автоматизированная система кредитного скоринга была признана нарушающей права гражданина на защиту от решений, принятых без участия человека.

Суд указал, что такие алгоритмы могут быть незаконными, если оказывают значительное влияние на права и интересы лица, а процесс принятия решений остается непрозрачным и неподконтрольным. Этот прецедент подчеркивает, что даже технически эффективные ИИ-системы при отсутствии должного уровня объяснимости и возможности вмешательства могут повлечь правовую ничтожность решений и регуляторные риски.

Вместе с тем обсуждение применения ИИ в корпоративном управлении все чаще выходит за рамки исключительно технологических аспектов и затрагивает вопросы этики. Этические вызовы связаны с тем, насколько алгоритмические решения соответствуют принципам справедливости, добросовестности и соразмерности, а также интересам всех затронутых сторон, и требуют отдельного анализа.

Этические аспекты

Этическое применение искусственного интеллекта в корпоративном управлении предполагает соблюдение фундаментальных принципов, таких как:

  • Справедливость: ИИ-системы не должны допускать дискриминации или необоснованного предпочтения одних участников перед другими, особенно при принятии кадровых решений, оценке эффективности и распределении ресурсов. Для этого необходим регулярный аудит алгоритмов и наборов данных на предмет предвзятости, оценки качества источников и прозрачности логики выводов.

Банк России разработал Кодекс этики в сфере разработки и применения искусственного интеллекта на финансовом рынке, где рекомендует организациям при разработке и применении искусственного интеллекта соблюдать принципы человекоцентричности; справедливости; прозрачности; безопасности, надежности и эффективности и ответственное управление рисками (информационное письмо Банка России от 09.07.2025 № ИН-016-13/91).

  • Уважение к интересам организации: применение ИИ должно соответствовать стратегическим целям и корпоративным ценностям, обеспечивая баланс интересов компании, акционеров, сотрудников и других заинтересованных сторон. Поскольку не все эти интересы могут быть формализованы, важно сохранять человеческий контроль, этические фильтры и прозрачность, особенно в социально чувствительных сферах.

  • Добросовестность: акторы ИИ (разработчики, заказчики, эксплуатанты и иные участники жизненного цикла) несут ответственность за последствия применения таких решений на всех этапах жизненного цикла — от замысла до эксплуатационного сопровождения. Об этом идет речь в Национальном кодексе этики в сфере искусственного интеллекта, закрепляющий человекоориентированный и гуманистический подход, обязательность оценки рисков и недопустимость делегирования моральной ответственности ИИ-системам5.

В 2025 г. кодекс приобрел международное измерение: это подчеркивает возрастающее значение российского подхода как одного из узловых элемен­тов глобального диалога об этике ИИ6.

Как подчеркивается в Белой книге по этике ИИ, несмотря на различия в правовых системах и культурных контекстах (ЕС, США, Китай, ЮНЕСКО), в большинстве подходов прослеживается сближение по ключевым направлениям: прозрачность, ответственность, запрет дискриминации и сохранение человеческого контроля7.

Совокупность этих документов формирует добровольную институциональную среду, в рамках которой организации могут выстраивать этические подходы к управлению рисками, связанными с применением ИИ — от здравоохранения до стратегического корпоративного управления.

Правовая неопределенность

В отсутствие специального регулирования применения ИИ в корпоративных процедурах, включая вопросы допустимости автоматизации управленческих решений и распределения ответственности за их последствия, возникает правовая неопределенность как для компаний, так и для разработчиков ИИ-систем. Вместе с тем нормативная база постепенно формируется через государственные инициативы, ориентированные на развитие и внедрение ИИ-технологий.

К ключевым документам относятся:

  • Национальная стратегия развития искусственного интеллекта на период до 2030 г. Утверждена Указом Президента РФ от 10.10.2019 № 490, закрепляет ключевые принципы, важные для корпоративного применения ИИ — безопасность, прозрачность и объяснимость алгоритмов. Эти ориентиры особенно значимы при использовании ИИ для принятия управленческих решений. Стратегия также предусматривает формирование гибкой системы правового регулирования, способствующей безопасному и эффективному внедрению ИИ в экономику.

  • Федеральный закон от 31.07.2020 № 258-ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций» обеспечивает правовую базу для временного апробирования ИИ-технологий в условиях правового эксперимента, временно отступая от действующих норм. Он акцентирует внимание на управлении рисками, гражданской ответственности и страховании, что критично при автоматизации управленческих решений. Однако он не содержит норм, решающих системные вопросы — правосубъектность ИИ, пределы делегирования управленческих функций, юридическую силу решений, принятых с участием ИИ.

Зарубежный опыт правового регулирования

В 2024 г. в Регламент об искусственном интеллекте (Regulation (EU) 2024/1689 — AI Act) введена поэтапная модель регулирования ИИ-систем в зависимости от уровня риска.

Системы с недопустимым риском полностью запрещены — к ним, в частности, относятся технологии, манипулирующие поведением человека с использованием подсознательных или уязвимых состояний.

В корпоративной среде к системам высокого риска относятся ИИ-решения, применяемые в управлении человеческим капиталом, организации внутренних процессов и формировании инфраструктуры взаимодействия с персоналом. К ним относятся системы, задействованные в управлении трудовыми отношениями, включая подбор, оценку, развитие и принятие решений, затрагивающих статус работника в организации; системы, применяемые в целях внутреннего обучения, планирования профессиональных траекторий и распределения доступа к образовательным ресурсам; а также ИИ, используемый при администрировании социальных и корпоративных программ, включая доступ к льготам, компенсациям, внутренним сервисам и цифровым платформам взаимодействия. Такие системы подлежат строгому контролю: на компании возлагаются обязанности по внедрению системы управления рисками, обеспечению человеческого надзора, проверке качества данных, ведению логов и оценке воздействия на права затрагиваемых лиц. Нарушение этих требований может повлечь значительные санкции, включая штрафы до 6% от годового оборота.

Для систем с ограниченным риском предусмотрены менее обременительные требования, главным образом связанные с прозрачностью — например, обязательство информировать пользователя о том, что он взаимодействует с ИИ.

Таким образом, ИИ становится не только технологическим, но и управленческим объектом, требующим встроенности в процессы внутреннего контроля, комплаенса и стратегического надзора со стороны совета директоров.

В отличие от Европейского союза, где принятие AI Act в 2024 г. сформировало централизованную и юридически обязательную нормативную рамку, правовое регулирование ИИ в США осуществляется на принципах «мягкого права» (soft law).

В США отсутствует единый федеральный закон, регулирующий применение ИИ в межотраслевом масштабе. Вместе с тем в 2024 г. законодательные инициативы в сфере ИИ были внесены в различных штатах, а в 31 из них — приняты нормативные акты, касающиеся отдельных аспектов, включая автоматизацию труда, биометрические технологии, защиту персональных данных и предотвращение алгоритмической дискриминации (см. NCSL AI Legislation Database, 2024).

На федеральном уровне основу регулирования составляют стратегические документы исполнительной власти, такие как «Blueprint for an AI Bill of Rights» (Office of Science and Technology Policy, 2022) и Указ Президента США № 14110 от 30.10.2023 (Executive Order 14110 of October 30, 2023). Эти документы формируют рамочные принципы и этические ориентиры для разработки и использования ИИ в частном и государственном секторах.

Великобритания утвердила автономный регуляторный подход, изложенный в правительственном докладе «A Pro-Innovation Approach to AI Regulation». В отсутствие единого закона регулирование осуществляется децентрализованно — через отраслевые надзорные органы, в том числе в сферах здравоохранения, финансов, обработки персональных данных, которые формируют практические руководства и технические стандарты по обеспечению транспарентности, безопасности и подотчетности ИИ-систем.

Подобная модель управления позволяет гибко адаптироваться к быстро развивающимся ИИ-технологиям, однако накладывает на корпоративных участников повышенные обязанности по соблюдению дифференцированных требований различных регуляторов, особенно в условиях трансграничной деятельности.

Перспективы развития правового регулирования ИИ-управления в России

В России вопросы регулирования искусственного интеллекта пока не получили закрепления в рамках единого нормативного акта. Вместе с тем в 2024—2025 гг. обозначились институциональные и нормативные шаги, направленные на формирование комплексного подхода к правовому регулированию данной сферы.

В рамках государственной цифровой повестки обсуждается возможность кодификации правового регулирования технологий, включая ИИ, в составе единого акта — так называемого Цифрового кодекса. Инициатива предполагает объединение в единую систему норм, регулирующих использование вопросов связи, информации и защиты персональных данных8.

В 2025 г. состоялось первое заседание экспертного совета при межфракционной рабочей группе по законодательному обеспечению отраслевого и функционального применения искусственного интеллекта. В ходе обсуждения подчеркивалась необходимость выработки сбалансированного подхода, ориентированного на защиту интересов человека, снижение правовых рисков и развитие суверенных ИИ-технологий9.

В целом дискуссия о построении нормативной базы для ИИ в России развивается в рамках двух основных подходов:

  • секторальный предполагает внесение точечных изменений в действующее отраслевое законодательство (например, в федеральные законы «О персональных данных», «Об информации, информационных технологиях и о защите информации», «Об основах охраны здоровья граждан в РФ» и др.).

  • комплексный (интегративный) — ориентирован на принятие отдельного федерального закона об искусственном интеллекте либо на включение специального раздела в проектируемый Цифровой кодекс.

Наиболее перспективной на данном этапе представляется модель, сочетающая риск-ориентированный подход (по аналогии с Регламентом ЕС об ИИ) и институциональный надзор со стороны межведомственной структуры или уполномоченного регулятора. Такая модель позволит адаптировать правовое регулирование к темпам технологических изменений и обеспечить предсказуемость правоприменительной практики в цифровой экономике.

Перспективы внедрения ИИ в корпоративные процедуры

Внедрение ИИ открывает серьезный потенциал для повышения эффективности управления, но требует поэтапного и контролируемого подхода. ИИ-системы должны рассматриваться не как автономные субъекты, а как инструменты, подлежащие постоянной проверке — с юридическим и этическим сопровождением.

С этой целью важнейшее значение должно придаваться адаптации внутренних документов, определению пределов автоматизации и ответственности, обеспечению маркировки ИИ-генерируемых материалов — это укрепляет прозрачность и доверие со стороны органов управления. Алгоритмы должны проходить аудит, а персонал — понимать принципы их работы и риски. При формировании состава совета директоров важно учитывать готовность кандидатов к работе с цифровыми инструментами.

ИИ влияет на управленческие решения, поэтому его применение должно быть отражено в стратегии, комплаенсе, управлении рисками и раскрытии информации. Это обеспечивает надзор, снижает регуляторные риски и усиливает устойчивость.

Компании, интегрирующие ИИ с учетом правовых и этических рамок, будут лучше подготовлены к вызовам цифровой экономики и более привлекательны для инвесторов.


1 Исследование НСКУ и НОКС «Применение искусственного интеллекта в корпоративном управлении» [Электронный ресурс]. — 2023. — URL: https://nccg.ru/deyatelnost/issledovaniya-nsku/773.html (дата обращения: 23.06.2025).

2 Белая книга по этике ИИ [Электронный ресурс]. — URL: https://ai.gov.ru/knowledgebase/etika-i-bezopasnost-ii/2024_belaya_kniga_etiki_v_sfere_ii_alyyans_v_... (дата обращения: 23.06.2025).

3 Исследование НСКУ и НОКС «Применение искусственного интеллекта в корпоративном управлении» [Электронный ресурс]. — 2023. — URL: https://nccg.ru/deyatelnost/issledovaniya-nsku/773.html (дата обращения: 23.06.2025).

4 Белая книга по этике ИИ [Электронный ресурс]. — URL: https://ai.gov.ru/knowledgebase/etika-i-bezopasnost-ii/2024_belaya_kniga_etiki_v_sfere_ii_alyyans_v_... (дата обращения: 23.06.2025).

5 Национальный кодекс этики в сфере искусственного интеллекта [Электронный ресурс]. — 2021. — URL: https://ethics.a-ai.ru (дата обращения: 23.06.2025).

6 Перечень международных участников, присоединившихся к Кодексу этики ИИ [Электронный ресурс]. — URL: https://a-ai.ru/?page_id=3085 (дата обращения: 23.06.2025).

7 Белая книга по этике ИИ [Электронный ресурс]. — URL: https://ai.gov.ru/knowledgebase/etika-i-bezopasnost-ii/2024_belaya_kniga_etiki_v_sfere_ii_alyyans_v_... (дата обращения: 23.06.2025).

8 Козин Николай // В Совфеде рассказали, как будет выглядеть Цифровой кодекс России [Электронный ресурс] // Парламентская газета. 20.05.2024. — https://www.pnp.ru/politics/v-sovfede-rasskazali-kak-budet-vyglyadet-cifrovoy-kodeks-rossii.html (дата обращения: 23.06.2025).

9 В ГД обсудили законодательное регулирование искусственного интеллекта. 02.06.2025. — URL: http://duma.gov.ru/news/61534/ (дата обращения: 22.06.2025).

читайте также