Корпорации переживают фундаментальный кризис: технологическое давление ИИ на сложившиеся бизнес-процессы сталкивается с растущими этическими требованиями. Анализ российской и международной практики выявляет ключевую дилемму — этические проблемы ИИ представляют новую область ответственности, требующую радикального переосмысления стратегии превентивного риск-менеджмента. Рассмотрим один из его аспектов — фундаментальную проблему алгоритмической предвзятости и обеспечение корпоративной ответственности при автоматизации принятия решений.
Анализ российского и зарубежного правового регулирования показывает, что этические стандарты представляют собой не абстрактные декларации, а конкретные правовые и технические инструменты, направленные на решение фундаментальных проблем алгоритмической предвзятости и обеспечение корпоративной ответственности при автоматизации принятия решений.
Кодекс этики ИИ, принятый 26.10.2021 Альянсом в сфере искусственного интеллекта1, устанавливает общие этические принципы и стандарты поведения, которыми следует руководствоваться участникам отношений в сфере ИИ. К ним документ относит «круг лиц, в том числе иностранных, принимающих участие в жизненном цикле СИИ при его реализации на территории Российской Федерации или в отношении лиц, находящихся на территории Российской Федерации, включая предоставление товаров и оказание услуг» (акторы).
Центральный тезис российского подхода — абсолютный приоритет человека: «при развитии технологий ИИ человек, его права и свободы должны рассматриваться как наивысшая ценность». Кодекс закрепляет персональную ответственность — «ответственность за последствия применения СИИ всегда несет человек».
При этом главным приоритетом развития технологий ИИ в защите интересов и прав людей и отдельного человека является соблюдение положений законодательства «во всех сферах своей деятельности и на всех этапах создания, внедрения и использования технологий ИИ, в том числе в вопросах юридической ответственности». При создании и использовании ИИ нужно учитывать в том числе: риск-ориентированный подход, непричинение вреда, идентификацию ИИ в общении с человеком, информационную безопасность и пр. При этом такие лица:
цитируем документ
...не должны допускать передачи полномочий ответственного нравственного выбора СИИ, делегировать ответственность за последствия принятия решений СИИ — за все последствия работы СИИ всегда должен отвечать человек (физическое или юридическое лицо, признаваемое субъектом ответственности в соответствии с действующим законодательством Российской Федерации). Акторам ИИ рекомендуется принимать все меры для определения ответственности конкретных участников жизненного цикла СИИ с учетом их роли и специфики каждого этапа.
Банк России принял специальный «Кодекс этики в сфере разработки и применения искусственного интеллекта на финансовом рынке»2, устанавливающий принципы человекоцентричности, справедливости и прозрачности. Документ предусматривает право клиентов отказаться от взаимодействия с ИИ и требует обеспечения возможности пересмотра автоматических решений, создавая правовой прецедент для других отраслей российской экономики.
Рекомендация ЮНЕСКО по этике искусственного интеллекта3 устанавливает десять ключевых принципов, включая соразмерность и непричинение вреда, безопасность и защищенность, неприкосновенность частной жизни, подконтрольность человеку, прозрачность и объяснимость. В этом смысле российские этические императивы схожи с международными.
Проблема алгоритмической предвзятости как основание для этического регулирования
Технология имеет ряд фундаментальных проблем, которые препятствуют участию ИИ в отправлении правосудия и принятию имеющих значение для общества решений.
Так, современные нейронные сети принципиально непознаваемы из-за гигантского объема данных, на которых они обучены, — даже разработчики не понимают логику принятия решений ИИ (так называемая проблема «черного ящика»), и фильтрация применяется на этапе выдачи решения, а не на этапе его формирования. Алгоритмическая предвзятость (algorithmic bias) — это проблема технологии, которая состоит в появлении систематических и несправедливых искажений в работе алгоритмов, возникающих из-за предубеждений, содержащихся в обучающих данных, и непрозрачности процессов принятия решений в сложных нейронных сетях.
Между тем требования прозрачности к «черному ящику» невозможно эффективно исполнить. «Справедливый» ИИ технически невозможен, что является прежде всего математической проблемой, ведущей к кризису этики в сфере ИИ. И именно поэтому этические стандарты носят такой значимый характер — они призваны корректировать возможный дисбаланс, связанный с неконтролируемым использованием ИИ, и сохранять человека и его права и свободы во главе угла как высшую ценность.
Российские суды постепенно формируют принцип: ответственность за ИИ несет пользователь, а не технология. Так, в деле о взаимодействии по поводу просроченной задолженности по абонентскому номеру телефона с использованием робота-коллектора (№ А58-4709/2023) суд отметил, что:
цитируем документ
...должник или третье лицо не подозревают, что диалог происходит не с человеком — сотрудником <…>, а с компьютерной программой, имеющей признаки искусственного интеллекта, которая при этом выдает себя собеседнику за человека, задает третьему лицу вопросы, на которые получает ответы, а также воспринимает произносимую в ответ речь, то есть ведет себя как человек.
Решение Арбитражного суда Республики Саха (Якутия) от 06.09.2023 по делу № А58-4709/2023
В итоге суд особо отметил, что «использование названного метода взаимодействия с применением искусственного интеллекта <…> является иным способом взаимодействия, для использования которого необходимо письменное соглашение, заключенное между должником и кредитором и (или) лицом, действующим в его интересах».
Как выстроить этичную систему для оценки рисков при разработке и использовании систем ИИ?
Выстраивание внутренней системы для оценки рисков при разработке и использовании систем ИИ — это уже не затраты, а инвестиции в репутационную защиту. Компании, особенно ведущие международный бизнес, должны одновременно соответствовать различным критериям, как предъявляемым законодательствами, так и общеправовым принципам и общепринятой практике. Техническая революция идет рука об руку с этической эволюцией.
1 Кодекс этики в сфере ИИ. URL: https://ethics.a-ai. ru/assets/ethics_files/2025/05/23/Кодекс_этики_20_10_1_yKu2UtZ.pdf (дата обращения: 16.09.2025).
2 Кодекс этики в сфере разработки и применения искусственного интеллекта на финансовом рынке. URL: https://cbr.ru/Content/Document/File/178667/code_09072025.pdf (дата обращения: 16.09.2025).
3 2021 Рекомендация об этике искусственного интеллекта. URL: https://ai.gov.ru/knowledgebase/dokumenty-mezhdunarodnykh-organizatsiy-po-ii/2021_rekomendaciya_ob_e... (дата обращения: 16.09.2025).