На сегодняшний день способность компьютеров или машин выполнять интеллектуальные задачи не вызывает удивления, а воспринимается как этап технологической эволюции. Способность анализировать большие объемы данных, предлагать решения и взаимодействовать с пользователями в формате, приближенном к человеческому, делает технологии ИИ особенно востребованными. Вместе с тем столь стремительное распространение интеллектуальных систем порождает целый пласт этических вопросов, которые требуют комплексного подхода к правовому регулированию. Современная правовая система сегодня стоит перед вызовом ответственности, так как ИИ способен принимать решения, создавать контент, анализировать данные, но юридически остается лишь инструментом. Однако кто несет ответственность за ошибки ИИ: разработчик, владелец, пользователь, администратор или сама система?
Правовая система сегодня стоит перед вызовом: необходимо создать сбалансированную нормативную базу, способную обеспечить как развитие инноваций, так и защиту прав и свобод граждан. При этом важно учитывать уникальные особенности ИИ как технологии, отличающейся от привычных цифровых решений степенью автономности, непредсказуемостью поведения и сложностью алгоритмов.
Формирование правовых основ функционирования искусственного интеллекта в Российской Федерации приобретает особую актуальность в связи с внедрением инструментов искусственного интеллекта для автоматизации процессов, повышения эффективности услуг и инновационного развития различных сфер.
Вместе с тем активное использование ИИ требует создания сильной законодательной базы для функционирования ИИ без ущерба обществу, поскольку развитие технологий искусственного интеллекта ставит перед правовой системой множество новых задач. Эти инструменты стремительно проникают в различные сферы жизни, однако за их эффективностью и удобством скрываются серьезные юридические проблемы.
ИИ — имитация человеческого разума?
Дилемма юридической ответственности ИИ усложняется самой природой ИИ:
-
это совокупность технологий, которые позволяют машинам решать интеллектуальные задачи;
-
не мыслит «по-человечески»: он лишен чувств, самосознания и внутреннего опыта. Тем не менее ИИ способен не только поддерживать тему разговора, но и учитывать контекст предыдущих реплик, использовать речевые конструкции, близкие к живому общению, и даже подстраивать стиль речи под манеру собеседника. Это становится возможным благодаря обработке большого объема информации и выявлению статистических закономерностей.
Таким образом, ИИ — не разум в привычном смысле, а лишь математическая модель, обученная на основе человеческого разума и его проявлений. Для права это ключевой момент. Если ИИ — это не субъект с волей и разумом, а алгоритмический инструмент, то он не может нести юридическую ответственность за результаты своей работы.
Кто должен отвечать в случае, если результат функционирования ИИ окажется ошибочным, приведет к ущербу или нарушению прав потребителей?
Современные ИИ-системы, включая нейросети, чат-боты и другие интеллектуальные инструменты, широко используются в самых различных сферах: от здравоохранения и финансов до государственного управления и сферы услуг. Однако с активным внедрением этих технологий возникают новые правовые вызовы, требующие пересмотра и адаптации существующего законодательства.
Одна из ключевых проблем — это отсутствие четкой регламентации ответственности за последствия действий систем, работающих на базе искусственного интеллекта. Нейросети способны обучаться, принимать решения и выполнять задачи, ранее доступные только человеку. Чат-боты, в свою очередь, заменяют живых операторов, консультантов и даже продавцов.
При разработке норм, регулирующих ИИ, необходимо исходить из реальной природы, а именно — способности имитировать, но не заменять человеческое мышление. Это понимание позволит выстроить справедливую систему распределения ответственности и обеспечить баланс между инновациями и защитой прав и интересов граждан.
Однако остается неоспоримым тот факт, что, вне зависимости от степени автономности системы, все последствия ее работы — будь то ошибки в медицинской диагностике, сбои в транспортных системах или некорректные управленческие решения — в правовом поле всегда вменяются конкретным физическим или юридическим лицам. Таким образом, российский законодатель еще на стратегическом уровне исключил любую возможность рассматривать ИИ как самостоятельного субъекта ответственности, сохранив ее исключительно за человеком или организацией, использующих технологии ИИ.
Какой вред может принести ИИ?
Причинение вреда при использовании технологий ИИ может происходить в широком спектре ситуаций — от очевидных аварий и технических сбоев до ситуаций, приводящих к человеческим жертвам или материальному ущербу. Об этом говорится и в п. 2 Распоряжения Правительства РФ от 19.08.2020 № 2129-р «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года».
Практика применения систем ИИ показывает, что потенциальные риски их использования многообразны и могут проявляться на разных этапах и в различных формах:
- Технические дефекты, которые возникают на различных стадиях жизненного цикла ИИ: проектирование, обучение, тестирование, внедрение и эксплуатация.
Примером может быть сбой в системе компьютерного зрения беспилотного автомобиля. В медицине диагностические алгоритмы, обученные на ограниченных выборках, демонстрируют высокий процент ошибок при работе с данными, отличающимися от «эталонных», что приводит к неверным диагнозам и, как следствие, к вреду здоровью.
- Умышленное использование ИИ в противоправных целях человеком.
Здесь алгоритм становится инструментом, который повышает эффективность и масштаб действия. Так, технологии машинного обучения могут применяться для создания убедительных фальсификаций изображений и видео (deepfake) с противоправными целями. Особенно опасным является сочетание ИИ с большими данными, что позволяет злоумышленникам находить уязвимые категории граждан или организаций и воздействовать на них с высокой точностью.
- Автономное и непредсказуемое поведение ИИ.
Это случаи, когда вред возникает в результате самостоятельных решений системы, которые не были прямо предусмотрены разработчиками или операторами.
- Вред, связанный с безопасностью персональных данных.
ИИ, обученные на больших массивах информации, могут непреднамеренно восстанавливать или раскрывать конфиденциальные сведения, даже если исходные данные были обезличены. Это ставит под сомнение вопрос о сохранении баланса между правом на информацию и необходимостью обеспечить защиту персональных данных.
Таким образом, спектр возможных форм вреда от использования ИИ чрезвычайно широк и требует комплексного подхода к определению ответственности. Правовая система должна учитывать не только прямые и явные случаи ущерба, но и скрытые, которые особенно трудно фиксировать и доказывать в судебном порядке.
Как разрешить дилемму ответственности ИИ и человека?
В настоящее время этот вопрос об ответственности за последствия применения технологий ИИ решается преимущественно на основе действующего законодательства без придания ИИ статуса самостоятельного субъекта права. Системы ИИ, которые еще недавно воспринимались как элемент научной фантастики, уже позволяют переложить на автономные системы рутинные и технические задачи, повышая эффективность и точность их выполнения.
Вместе с тем рост степени автономности ИИ порождает и новые правовые вызовы, связанные с причинением вреда жизни, здоровью, имуществу и иным охраняемым законом интересам.
Проблема ответственности за результаты работы ИИ осложняется тем, что источником вреда становится не самостоятельный субъект права, а технический инструмент, способный действовать в условиях ограниченного или полного отсутствия прямого контроля со стороны человека. В правовой науке и законодательстве России, как и большинства зарубежных государств, ИИ пока рассматривается именно как такой инструмент. Следовательно, ответственность за его действия несут лица, создающие, владеющие, эксплуатирующие или контролирующие систему. При этом круг потенциально ответственных лиц достаточно широк: это могут быть разработчики алгоритмов, производители оборудования, поставщики данных, владельцы и пользователи ИИ.
Сложнейшей с точки зрения правоприменения является ситуация, когда ИИ причиняет вред автономно, без прямого вмешательства или приказа человека. Современные системы способны к самообучению и формированию новых алгоритмов действий, не предусмотренных изначально разработчиком. Однако в действующем российском праве отсутствуют основания для привлечения самого ИИ к юридической ответственности: он не обладает правосубъектностью. Идея наделения ИИ статусом «электронного лица» не получила нормативного закрепления ни в России, ни в международной практике. Российский законодатель, в том числе в рамках Национальной стратегии развития искусственного интеллекта до 2030 г., прямо исключает возможность признания ИИ субъектом права в обозримой перспективе.
Любое решение, принятое ИИ, — результат работы алгоритма, разработанного, обученного и запущенного человеком. ИИ не является субъектом права, поскольку не обладает волей и способностью осознанно принимать решения.
Следовательно, он не может быть носителем юридической ответственности ни в какой форме — ни гражданской, ни административной, ни уголовной. Поэтому все правовые последствия применения ИИ (в случае ошибки, ущерба или нарушения прав) должны быть возложены на лиц, которые его создали, обучили, внедрили или используют.

