Как бороться с вмешательством компьютерных алгоритмов в жизнь граждан? Юристы ищут ответ

| статьи | печать

Серия конференций и круглых столов в рамках проекта LF Talks, проходящих под эгидой Петербургского международного юридического форума, продолжилась круглым столом, в ходе которого обсуждались вопросы правового регулирования в цифровой медиасреде. Современное информационное общество неразрывно связано с развитием информационных технологий. И при этом многие явления активно развивающейся цифровой медиасреды действующим правовым регулированием не охватываются или охватываются в недостаточной степени. И наименее разработанными являются вопросы использования искусственного интеллекта.

Понятие «медиа» достаточно широкое, оно пришло в нашу жизнь из современных исследований в области социологии, различных направлений теоретического анализа, телекоммуникаций. И медиа в этом смысле — способ и передачи, и восприятия информации, и та среда, в которой мы живем и через которую мы конструируем на самом деле картину мира нашей современной социальной реальности. Так начал свое выступление Владислав Архипов, д.ю.н., заведующий кафедрой теории и истории государства и права Санкт-Петербургского государственного университета.

В окружающей нас действительности сейчас, особенно в эпоху ограничений, связанных с коронавирусом и переходом на дистанционный режим взаимодействия и работы, эта область использования технологий только усиливается. И ряд качеств различных медиа, такие как вариативность, транскодирование, опосредованность коммуникаций, порождают определенную правовую проблематику.

И в первую очередь такая проблематика присуща областям, в которых занят искусственный интеллект (ИИ). Термин этот в обывательском понимании означает очень широкий круг явлений. Мы же будем считать, что это технология, предназначенная для обработки информации, которую способна получать из внешней среды, и при этом в той или иной степени обладающая автономностью и способная самообучаться без участия человека.

Если посмотреть на вопрос с другой стороны, пытаясь редуцировать ключевые юридически значимые признаки ИИ, можно попробовать их выразить несколько иначе. Помимо автономности функционирования, полной или относительной, способности к поиску решений, эксперт предложил выделить такой критерий, как неорганический характер ИИ.

Проблемы правового регулирования искусственного интеллекта

В соответствующей литературе часто обсуждается вопрос о том, что технологии ИИ можно рассматривать в контексте гражданско-правовой конструкции источника повышенной опасности. По мнению В. Архипова, приверженцы такого подхода исходят скорее из потенциального риска, который может актуализироваться в зависимости от того социального контекста, в котором искусственный интеллект используется. Если речь идет о социально и юридически значимых действиях, отношениях, последствиях применения ИИ, то, убежден докладчик, еще рано говорить всерьез о такого рода рисках.

Гораздо более актуальными представляются вопросы права интеллектуальной собственности, поскольку это право и, в частности, авторское право предполагают, что автор получает определенные права. В этом контексте ИИ должен подпадать либо под определенное нормативное регулирование, либо под оценку в целом, потому что создание произведения, в смысле авторского права, это некий юридический факт.

Есть общее, в целом даже универсальное, представление о том, что субъектом творчества является именно человек. Произведение, как мы видим в разных юрисдикциях, как правило, связывается с физическим лицом, творческим трудом которого это произведение создано. Соответственно, если мы говорим о некоем произведении, которое создано с использованием искусственного интеллекта, мы видим отсутствие непосредственного физического лица, которое в этом контексте, соответственно, должно было бы быть.

С творчеством тоже есть некоторая неопределенность, но в судебной практике по крайней мере подтверждаются некоторые критерии творчества, к числу которых относится то, что объект творчества должен быть ранее не известен, обладать новизной и оригинальностью. Эти критерии в целом применимы и к тому, что создается посредством искусственного интеллекта.

В последние годы в юридической литературе главенствуют две точки зрения. Согласно одной, то, что создано искусственным интеллектом, те результаты, которые, будь они созданы человеком, мы бы сочли творческими, не должны охраняться правом интеллектуальной собственности или же они должны становиться общественным достоянием. Сторонники второй точки зрения уверены: результаты, продемонстрированные ИИ, должны признаваться объектами охраны авторских прав или объектами охраны смежных прав.

Проблема, уверен В. Архипов, должна оцениваться с точки зрения текущих реальных условий. Рынок решений, которые связаны с использованием ИИ для создания творческих произведений, уже вполне понятен.

Как правило, есть правообладатель, который разработал уникальное программное решение. Диапазон их достаточно широк: есть, например, программы, которые генерируют музыку с помощью ИИ. Утверждение о том, что такая музыка должна становиться предметом общественного достояния, достаточно спорное.

В. Архипов убежден, что наиболее оптимальным на данном этапе было бы признание таких, все-таки условно говоря, произведений, которые созданы при помощи ИИ, объектами смежных прав, подобно тому, как есть смежное право изготовителя базы данных. Да, автора в привычном нам понимании у такого произведения нет, но при этом такой объект, естественно, является результатом функционирования определенного программного обеспечения, у которого есть свой правообладатель. И создание такого объекта пока вполне разумно рассматривать как использование этого результата интеллектуальной деятельности, которое, возможно, в свою очередь, подчинено лицензионным требованиям.

И в вопросе творчества, и в вопросе использования искусственного интеллекта в области создания произведения, авторского права, мы видим, что главный вопрос связан с юридической концепцией правосубъектности. Слово «правосубъектность» в контексте искусственного интеллекта и робототехники в целом довольно одиозно, потому что первой ассоциацией, которая приходит на ум, является попытка обосновать возможность правосубъектности искусственного интеллекта или возможность правосубъектности какого-либо робота и так далее. Но в целом есть некое относительно единогласное мнение, заключающееся в том, что говорить о такой правосубъектности преждевременно.

А если говорить о фикционной правосубъектности, то тут возражение заключается в том, что создание еще одного субъекта, основанного на теории фикции, может способствовать размытию юридической ответственности. Поэтому такого рода конструкции, скорее, будут сейчас избыточны.

Но главное заключается не в частных вопросах, которые мы рассмотрели выше. Вся логика нашей правовой системы в целом определяется некой фундаментальной презумпцией того, что субъектом права и субъектом в том числе принятия юридически значимых решений является только лицо, человек, личность, которая наделена свободой, ответственностью и разумом или, по крайней мере, обладает свободной волей. И, соответственно, в этой парадигме слишком спорно выглядела бы концепция регулирования каких-либо общественных отношений и принятия юридически значимых решений исключительно в отношении искусственного интеллекта.

В поддержку этой «спорности», как правило, высказывают два главных тезиса. Первый из них заключается в том, что искусственный интеллект не обладает некоей внутренней точкой зрения по вопросам, которые имеют моральное измерение. То есть логику искусственного интеллекта можно условно описать как логику естественно-научной картины мира, с которой программные алгоритмы хорошо справляются, и логику описания, но не понимания каких-либо внутренних мотивов и невозможности разрешения спорных вопросов, касающихся ценностей человека.

И второй, более интересный, яркий тезис: принятие юридически значимых решений в рамках современных концепций правового государства предполагает, что тот, кто принимает решение, связанное с общей нормой, тоже должен его исполнять. Иными словами, даже если какой-то алгоритм используется в процессе принятия решений, то у такого рода решений все равно должен быть определенный реальный субъект, который отвечает за эти решения. И отсюда могут следовать уже и другие принципы, вроде прозрачности решений, может быть, в некоторых случаях даже прозрачности программного кода и так далее.

Искусственный интеллект и юридически значимые решения

Продолжая дискуссию, Александр Савельев, к.ю.н., доцент факультета права Высшей школы экономики, признался, что его не слишком беспокоят проблемы, связанные с тем, кому принадлежат права на созданные при помощи системы искусственного интеллекта объекты. То есть они важны, но не первостепенны.

Большую тревогу вызывает тот факт, что искусственный интеллект приобретает характер всеобъемлющей технологии и в последнее время он начинает все шире использоваться для принятия пресловутых юридически значимых решений в отношении граждан.

Так, 2020 год, помимо прочего, запомнится тем, что этот год стал беспрецедентным с точки зрения падения роли и значения права как регулятора. Мы увидели очень много примеров, когда то, что нам казалось незыблемым с правовой точки зрения еще в прошлом году, меняется буквально на глазах или же разбивается о какие-то соображения целесообразности или эффективности. И на этих руинах правового регулирования, правовых ценностей все в большей степени проявляет себя новый регулятор — тот самый программный код, который Лоуренс Лессиг1 в свое время признавал фактически новым законом.

Да, сегодня алгоритмы становятся фактически новым регулятором общественных отношений. Они начинают принимать решения о том, брать ли человека на работу, брать ли его на учебу, выдавать ли ему кредит, какое наказание ему назначить, связанное с лишением свободы или нет, привлечь ли его к ответственности административной, в том числе, допустим, за нарушение требований самоизоляции. И мы видим, что все больше эти алгоритмы начинают проникать в ту сферу, которая традиционно считалась сферой прав человека, правового регулирования и прочих высоких идей.

И казалось бы, в чем проблема, если эти решения принимаются на основе алгоритмов, больших данных — наверное, они более эффективны, связаны с сокращением транзакционных издержек и, возможно, даже, скажем так, более объективны. Но вот еще в 2016 г. Белый дом опубликовал исследование по вопросам big data, и там была достаточно интересная сентенция, как считает докладчик, являющаяся лейтмотивом вообще всей проблематики искусственного интеллекта и аналитики данных. В докладе сказано, что тот факт, что решение принято на основе больших данных, еще не означает, что оно объективно.

И вот здесь мы сталкиваемся, наверное, с ключевой проблемой использования алгоритмов искусственного интеллекта для принятия юридически значимых решений. То, что нам видится как некая объективность, на самом деле таит в себе достаточно серьезные риски дискриминации и манипулирования. Те же самые алгоритмы, которые определяют нашу платежеспособность, уже существуют, что, кстати, подтверждается и соответствующей судебной практикой.

Но что лежит в их основе? Они проприетарные, то есть являющиеся частной собственностью правообладателей и не удовлетворяющие критериям свободного программного обеспечения, и мы не сможем их детально изучить. Но если мы посмотрим на существующие зарубежные исследования, то увидим, что на платежеспособность лица влияют такие факторы, допустим, как наличие определенных людей в друзьях или их отсутствие в социальных сетях. То есть если у тебя в числе друзей те, кто когда-то не возвращал кредит, то это негативным образом влияет на твой рейтинг, поскольку есть корреляция в «уме» Data-Scientist, который считает, что окружение человека может на него негативным образом повлиять. Если человек публикует какие-то сомнительные с точки зрения Data-Scientist тексты, это тоже понижает рейтинг. Хотя никакой причинно-следственной связи между тем, что такого рода данные о человеке существуют в социальных сетях, и тем, что он может не отдать кредит, нет, это только предположение. Но эти предположения, которые нашли отражение в алгоритме, начинают непосредственно влиять на жизнь конкретного лица. И эта дискриминация непредвзятая, совершенная по неосторожности, на уровне алгоритма.

А у нас есть еще данные, которые обучают соответствующую модель искусственного интеллекта, и от качества этих данных также непосредственно зависит качество принимаемых решений. И коль скоро мы не можем проследить, что это за выборка, насколько она репрезентативна, насколько она актуальна, нет ли там каких-либо ошибок, мы не можем проследить, какие корреляции использует алгоритм, какой вес каждому фактору Data-Scientist присвоил, а значит, мы получаем то, что алгоритм начинает действовать по принципу «черного ящика». Но если в классической парадигме правового регулирования у нас есть инструменты, которые позволяют определенным образом обжаловать принятие решения, проследить, почему оно было принято, какие факторы были приняты во внимание и, соответственно, восстановить нарушенное право, то в случае с алгоритмом у нас уже таких возможностей нет.

И здесь проблематика соотношения интеллектуальной собственности и алгоритмов начинает проявляться очень сильно. Фактически, отмечает А. Савельев, мы имеем дело с новой коллизией между правами человека в широком смысле и правами на интеллектуальную собственность на те самые алгоритмы. Этот «черный ящик» имеет две основные ипостаси. Первая — техническая, когда мы не можем проследить в ряде случаев, почему было принято то или иное решение. Тем более, когда используется технология нейросети, самообучение, проследить всю цепочку практически невозможно. Но есть еще правовой «черный ящик». Это те существующие нормы об авторском праве, о ноу-хау, которые, в свою очередь, препятствуют обеспечению прозрачности в этих алгоритмах для того, чтобы можно было защитить права человека в случае, если, допустим, имеет место какая-то дискриминация права: на труд, на осуществление какой-то законной деятельности.

А. Савельев для иллюстрации своих слов привел пример, оговорившись, что это не фантастика, а конкретное дело State vs. Loomis, которое рассматривалось в США. Там активно используется специальное программное решение под названием COMPASS для оценки рисков поведения конкретных осужденных. Риски оцениваются на основе среднестатистических данных об осужденных такого типа, их расовой принадлежности, проживании в определенном месте, соответственно, возрасте и данных анкет. На основании этих данных лицу присваивается определенный рисковый рейтинг. Основываясь на этом рейтинге, судья или надзорный орган принимает решение о том, стоит ли заключать человека под стражу или применять наказание в виде ограничения свободы. В отношении одного из граждан было принято решение о назначении максимального наказания в виде лишения свободы как раз по результатам использования данной системы COMPASS. Далее это решение было обжаловано именно по причине того, что нельзя было проследить, какие критерии были использованы программой. А это нарушение принципа due process, должной правовой процедуры. И в данном случае Верховный суд штата Висконсин сказал, что на самом деле нарушения нет, потому что судья все равно сам принимал решение. Но тем не менее Верховный суд штата Висконсин все-таки признал опасность применения такого рода систем и призвал использовать ряд дисклеймеров относительно возможной необъективности.

Это, подчеркнул А. Савельев, хорошая иллюстрация того, что система алгоритмического принятия решения проникает уже в те сферы, которые нам казались фактически незыблемыми, для какой-то исключительно только правовой процедуры. Когда они проникнут в них уже окончательно? Это только вопрос времени, Впрочем, в поисках примеров можно обратить взор и на Россию. Штрафы за нарушение тех же режимов самоизоляции, допустим, в Москве, применяются по результатам алгоритмической обработки данных. И сейчас эту технологию будут дальше развивать.

Актуальная практика и перспективы правового регулирования искуственного интеллекта

Очевидно, необходимо по-новому определить баланс между интересами общества, правообладателей и пользователей систем, чтобы сконструировать некие новые способы свободного использования объектов авторского права и, возможно, объектов ноу-хау для того, чтобы можно было их проанализировать на предмет возможной дискриминации. У нас есть уже примеры в зарубежной практике, где такого рода действия и попытки предпринимались. Допустим, в Канаде существует соответствующее законодательство, которое обязывает в строгом порядке обеспечивать аудируемость алгоритмических систем, которые используются в государственном управлении.

То есть чтобы можно было самому госоргану или привлеченным им третьим лицам проверить и код, и исходные данные этой системы на предмет отсутствия каких-то предубеждений и дискриминационных начал.

В США были предприняты попытки сделать алгоритмы более прозрачными, но безуспешные, что весьма предсказуемо, поскольку там очень сильное лобби IT-компаний и правообладателей. В штате Нью-Йорк пытались ввести требование выкладывания кода такого рода решений в общий доступ для анализа. Законопроект не прошел.

В Италии подобные отношения пытаются рассматривать через призму законодательства о получении доступа к информации о деятельности госорганов. И есть два решения суда в Риме, которые разрешили получить гражданам доступ к алгоритмам, используемым системой государственного управления как раз для их анализа, считая, что это некий цифровой административный акт и к нему граждане имеют право доступа на основании существующего законодательства.

Некоторые страны, даже, точнее, города типа Хельсинки, Амстердама, приняли решение выкладывать в общий репозиторий программный код тех алгоритмов, которые используются в сфере государственного управления.

Так что мы видим в мировой практике определенные подвижки, но при этом понимаем, что если более радикальных, решительных шагов, к тому же единых в разных юрисдикциях, не будет предпринято, то «пасту в тюбик обратно не загонишь». И те данные, которые будут собраны, и те решения, которые будут приняты, уже создадут некую новую техническую реальность, с которой впоследствии бороться будет достаточно проблематично. Поэтому в настоящее время законодательство об интеллектуальной собственности — это не решение проблемы, это скорее новая проблема, которую придется решать в связи с повсеместным распространением искусственного интеллекта и особенно для принятия юридически значимых решений, в том числе в сфере государственного управления.

1 Лестер Лоуренс Лессиг третий — американский общественный активист, профессор права в Гарвардском университете. Известен прежде всего своей борьбой за изменение законодательства в области авторского права, особенно в применении к интернету.