Опасности искусственного интеллекта: пессимистичные прогнозы правоведов и тенденции его развития

| статьи | печать

Формат круглого стола, в котором проходил вебинар «Цифровая медиасреда: от интеллектуальной собственности до искусственного интеллекта», подразумевал живое общение со слушателями. В ходе дискуссии ведущие ответили на многочисленные вопросы. Наиболее интересные ответы мы приводим здесь.

Многие произведения уже сейчас могут создаваться с помощью компьютерного алгоритма. Как вы считаете, требуется ли предупреждать людей, которые такое произведение воспринимают, о том, что оно создано с помощью компьютерных алгоритмов?

В. Архипов: Очень интересный и актуальный вопрос, но он выглядит довольно невинно, потому что здесь мы говорим только об эстетическом восприятии. Хотя кому-то, например, может, наверное, показаться оскорбительным, если он или она узнает, что произведение, которое мы воспринимаем, создано с помощью искусственного интеллекта. Правда, это исключительно гипотеза и, скорее, юмористический контекст обсуждения, как мы все знаем, в некоторых уже последних произведениях кинематографа в случаях, когда актер, к сожалению, уходил из жизни до завершения съемок, использовалась его цифровая копия, это уже, в принципе, совершенно реальный кейс. Здесь, наверное, вопрос не так принципиален, хотя, исходя из общей логики, думаю, что можно было бы и предупреждать из неких гуманистических культурных соображений.

Но на самом деле этот вопрос как раз и переходит в плоскость осуществления в первую очередь юридически значимых действий с использованием алгоритмов, особенно когда мы думаем или можем разумно предполагать, что субъектом коммуникации с другой стороны выступает живой человек. Думаю, в перспективе это приведет к появлению норм, возможно, в отдельных отраслях, которые будут предусматривать информирование субъектов права в целом о том, что взаимодействие осуществляется с искусственным интеллектом. Мне кажется, это необходимо.

Заменит ли ИИ юристов?

В. Архипов: Да, вопрос периодически возникает в контекстах обсуждений искусственного интеллекта. Я совершенно не могу отрицать того факта, что алгоритмы сейчас уже заменяют отдельные технические юридические функции, это реальность каждодневная. Вот в этой части, боюсь, что юридическая функция, скажем так, фактически минимизируется.

Но вот в моем представлении, может быть, немного идеалистическом, пока мы придерживаемся вообще идеи о том, что в праве есть ценность, и о том, что это разумный и правильный способ регулирования, мы вряд ли от юристов можем отказаться, живых, я имею в виду. Но автоматизация функций — это реальность и это неизбежно, и, конечно, это скажется на рынке труда.

Способны ли существующие в законодательстве нормы минимизировать риски, которые несет в себе применение систем автоматизированного принятия юридически значимых решений?

А. Савельев: Мне кажется, что если смотреть на ситуацию абстрактно, просто через призму какого-то текста соответствующих законодательных положений и, может быть, пояснительных записок относительно того, ради чего эти положения вводились, то ситуация, может быть, не такая плохая. У нас в том же, допустим, Законе о персональных данных есть положение о принятии решения на основании исключительно автоматизированной обработки данных и соответствующие гарантии. Мы его скопировали из европейского законодательства, из директивы, которая, в свою очередь, взяла это из французского закона. Но, как показала практика, и в Европе, и во Франции, и у нас, соответственно, эта норма практически не применяется, несмотря на все достаточно хорошее посылы, которые в ней заложены.

В этой связи, конечно, есть возможность пытаться применить существующие нормы, вот как бы влить новое вино в старые меха, но боюсь, что это был бы чрезмерный оптимизм. Необходима качественная перезагрузка регулирования в этой части. И, возможно, одним из стартовых этапов для такой перезагрузки должны стать системы алгоритмического принятия решений в сфере государственного управления как наиболее серьезные с точки зрения возможных последствий для гражданина. На этом этапе можно обкатать какие-то подходы, связанные с практическими соображениями, как обеспечить прозрачность и дальше уже ее ретранслировать, возможно, на отдельно взятые коммерческие системы, которые могут принимать не менее значимые решения в отношении граждан.

Имеет ли смысл запретить использование систем автоматизированного принятия решений в каких-то определенных сферах? Поможет ли это?

А. Савельев: Запрет — это, наверное, излюбленный метод правового регулирования в отечественных, так сказать, правовых реалиях, но, возможно, в каких-то случаях это было бы оправдано. Но это, опять-таки, должно быть точечно, потому что мы понимаем, что сами по себе запреты в большинстве случаев, а в технологической сфере — особенно, можно легко обходить.

Вот в США обсуждался случай, когда одна страховая компания внедрила достаточно эффективный алгоритм предсказания смерти страхователя по договору страхования жизни. И мы понимаем, что если бы, допустим, данные, когда человек умрет, достаточно объемные данные, были бы предметом утечки, наверное, это спровоцировало бы большие социальные проблемы. Также мне кажется, что некоторые алгоритмы, связанные с принятием решения в отношении несовершеннолетних, также должны быть если не запрещены, то находиться под очень жестким контролем, поскольку это важно с учетом того, что несовершеннолетние часто совершают ошибки. Но если они будут впоследствии зафиксированы и лежать в основе каких-то решений в будущем в отношении этого гражданина, то получается, что у человека не остается права на ошибку, особенно в отношении тех людей, которые эти ошибки, по идее, в силу молодости должны совершать, чтобы взрослеть. И чтобы предотвратить такую диктатуру в будущем, необходимо такого рода системы, связанные с принятием решений в отношении несовершеннолетних, может быть, даже запретить.

Почему виртуальная собственность, виртуальное имущество, виртуальные объекты пока не находят специального регулирования в российском законодательстве, хотя это уже большой рынок деятельности крупных компаний? Или, возможно, вопрос о природе этих объектов гражданских прав лучше решить в судебной практике?

В. Архипов: Если мы постараемся закрепить какие-либо права, аналогичные вещным, за виртуальной собственностью, возникнет абсолютное правоотношение, говоря языком теории права или теории гражданского права. Это будет означать, что, например, независимо от самого виртуального мира, независимо от игры, независимо от информационной системы, если угодно, у пользователя, игрока будет существовать такое право, и это приведет к такой проблеме, которая и юристами, и теоретиками игровой индустрии уже несколько десятков лет, наверное, обсуждалась. Если игрок имеет условно право собственности в отношении виртуального предмета, то он может, например, требовать компенсации каких-либо убытков, когда эта собственность теряет ценность из-за различных патчей, которые меняют игровой баланс, и если разработчик по каким-то причинам прекратит или будет вынужден прекращать поддержку виртуального мира, то игрок станет кредитором этого самого разработчика.

Я, скорее, здесь выступаю за то, чтобы использовать текущие инструменты. При этом я склоняюсь, скорее, к концепции услуг, хотя она по налоговым соображениям может быть не выгодна игровой индустрии, но с точки зрения ценности игр, как культурного объекта ценности, смысла игры в игры, услуги позволяют в большей степени сохранить в целостности сам виртуальный мир. Потому что иначе игра перестает служить своим внутренним целям и превратится в форму просто виртуального заработка через информационную систему в случае, если будет виртуальная собственность. Поэтому текущих инструментов, мне кажется, достаточно.

А. Савельев: Закрепление этого рода объектов на уровне законодательства возможно только в той ситуации, когда государству это станет выгодно. То есть когда, допустим, оно поймет, что с помощью такого рода объектов и вообще игровой индустрии можно продвигать какие-то идеи патриотизма, цифрового суверенитета и т.д. Как только это будет возведено в ранг некой государственной политики, сразу же появится соответствующая терминологическая обвязка.

Какие вы видите тенденции в сфере искусственного интеллекта и как будет развиваться законодательство в ближайшие несколько лет, каковы ваши прогнозы?

А. Савельев: В отличие от многих других технологий, которые разрабатывались в определенной коллаборации мировым сообществом и многими юрисдикциями, технология искусственного интеллекта несет в себе потенциал скорее разъединения стран, и мы видим это по программным документам, которые они принимают. Недавно была принята стратегия обеспечения национального лидерства США в области новых технологий, где один из пунктов обеспечения такого лидерства — это не допустить попадания соответствующих разработок в руки геополитических соперников. Тем самым происходит определенное сдерживание. У нас в России, в свою очередь, идет тоже этап импортозамещения, которое не способствует тому, чтобы появлялись совместные исследования в области искусственного интеллекта с последующим внедрением их в какие-то значимые сферы общественной жизни.

Поэтому получается, что сейчас идет война всех против всех и гонка в области этих технологий, и, соответственно, это наблюдается и в технологическом ключе, и в том числе в области права. Право становится некоей расходной монетой, как фактор привлечения умов и компаний в свою юрисдикцию для того, чтобы они способствовали лидерству и конкурентному преимуществу. Так что одним из трендов, наверное, будет разобщенность и очень острое соперничество с использованием в том числе достаточно грязных, наверное, не самых правовых инструментов политического плана для того, чтобы обеспечить то самое пресловутое лидерство в этой области.

В. Архипов: Искусственный интеллект — это мегасерьезная технология, которая действительно разобщает. Более того, я бы сказал, что она может быть уподоблена интернету в более широком смысле. Потому что интернет, с одной стороны, объединяет людей, но с другой стороны сейчас, когда он попал в фокус зрения значимости в государственных смыслах, он стал тоже несколько разобщать. Один из примеров, которые я могу здесь вспомнить, это то, что нет единой мировой позиции по поводу того, как определять действия законов в пространстве и по кругу лиц в связи с интернет-отношениями, что логично было бы урегулировать на международном уровне, на уровне международного договора.

Но этого, скорее всего, не будет, потому что каждое государство стремится сейчас отстаивать суверенитет в информационном пространстве, и искусственный интеллект в этом смысле — это, наверное, одно из самых сильных современных проявлений этой тенденции. Тем более что это не просто некая информационная технология и некое пространство или область отношений, но это технология, которая может предопределить конкурентное преимущество или, наоборот, разрушительно сказаться на каких-то сферах. Более того, искусственный интеллект в части разработки может иметь не только, скажем так, гражданский характер.