Плохая сторона высоких технологий: прогнозы — 3

| новости | печать

Технологии с высоким уровнем влияния на ландшафт киберугроз, которые Лаборатория кибербезопасности «Сбера» выделила в своем предновогоднем аналитическом отчете, мы уже представили на временном горизонте до пяти лет и пять — десять лет. Сегодня закрываем перечень «самых-самых» технологий, реализацию которых авторы отчета видят на дальнем расстоянии — десять лет и дальше. Как мы и ожидали, нашлись в этом перечне технологии «забористее» уже представленных — нечто из голливудских картин про войны умных машин с человечеством.

Сильный искусственный интеллект (Artificial General Intelligence, AGI)

Данная технология подразумевает гипотетическую возможность искусственного интеллектуального агента понимать и выполнять любую интеллектуальную задачу, которую может выполнить человек. Несмотря на продолжающиеся споры в научном сообществе относительно принципиальной возможности создания AGI, было выявлено как минимум 72 активных исследовательских проекта в 37 странах. В отличие от развивающегося в наши дни слабого или узкого ИИ, тренируемого для выполнения одной узкоспециализированной задачи, AGI сможет заменить человека практически в любой сфере деятельности, осваивать навыки выполнения новых задач с учетом накопленного опыта и без утери уже усвоенных навыков. В связи с чем многие исследователи прогнозируют сопутствующие появлению AGI глобальные масштабные изменения во всех сферах деятельности человека, включая и кибербезопасность, где AGI может быть как инструментом эффективного решения задач, способным заменить человека, так и серьезной потенциальной угрозой с глобальными негативными последствиями, вплоть до экзистенциального уровня. В части кибербезопасности при возникновении AGI эксперты прогнозируют следующие угрозы:

- возникновение «умного» самообучающегося вредоносного ПО, способного на взаимодействия как с вычислительными устройствами, так и с человеком (например, за счет понимания и генерации естественного языка), с возможностью проведения сложных многоступенчатых APT-атак с задействованием социальной инженерии. Подобное ПО сможет самостоятельно обучаться новым техникам атаки и обхода средств защиты, в связи с чем противодействовать ему традиционными методами будет практически невозможно;

- массовая генерация «фейкового» видео/аудио/текстового контента для провоцирования паники, манипуляции действиями людей. Такого рода манипуляции могут создавать угрозы как для бизнеса отдельных компаний, так и для экономики государства или мира в целом;

- нахождения «слабых мест» или противоречий в процедурах, правилах, законах и регламентах для их последующей эксплуатации, что может приводить к финансовым, репутационным и другим потерям отдельных компаний, секторов экономики и государств в целом;

- взрывной рост мошенничества, направленного на частных лиц, наряду с ростом его результативности. Благодаря сбору и анализу большого количества информации о жертве, доступной в цифровом формате, AGI может подбирать эффективные методы атаки на человека с учетом его индивидуальных особенностей и биографических данных, что способно повысить шанс успеха атаки посредством социальной инженерии с текущих долей процента практически до 100%;

- переход «дружественного» AGI на сторону противника или самостоятельная смена целей и приоритетов, заложенных создателем.

Несмотря на то, что, по прогнозам различных экспертов, возникновение AGI ожидается не ранее чем через десять лет (а наиболее скептически настроенные эксперты называют сроки от 100 лет до «никогда»), уровень потенциальных угроз настолько велик, что может поставить под сомнение возможность дальнейшего существования всего человечества. Поэтому уже сейчас крайне важно следить за развитием данной технологии и заранее продумывать подходы и методы недопущения реализации возможных угроз, считают эксперты «Сбера».

Квантовые компьютеры (Quantum Computing)

Вычислительные устройства, использующие принципы квантовой механики, такие как квантовая суперпозиция и квантовая запутанность, для передачи и обработки данных. В отличие от классических компьютеров, оперирующих битами, квантовый компьютер оперирует кубитами, имеющими значение одновременно и 0, и 1. Теоретически, это позволяет обрабатывать все возможные состояния одновременно, достигая огромного превосходства над классическими компьютерами как минимум в ряде алгоритмов, специально разработанных для квантовых компьютеров. Например, квантовый алгоритм Шора для эффективного разложения чисел на простые множители. В случае возникновения настоящего квантового компьютера данный алгоритм ставит под угрозу широко используемые сейчас алгоритмы ассиметричного шифрования (например, RSA), чья стойкость основана на высокой вычислительной сложности задачи разложения больших чисел на множители для классического компьютера. При этом компенсирующее влияние на ландшафт угроз кибербезопасности в части криптографии может оказать развитие квантового шифрования, где стойкость шифра базируется не на вычислительной сложности, а на базовых физических принципах.

Двунаправленный нейрокомпьютерный интерфейс (Two-way BCI)

В отличие от однонаправленных нейроинтерфейсов, двунаправленные подразумевают возможность передачи информации в обе стороны. Распространение данной технологии может оказать более масштабное влияние на ландшафт киберугроз так как может позволить проводить атаки, направленные на изменения восприятия и удаленный контроль произвольными и непроизвольными функциями организма. Имея прямой интерфейс в мозг жертвы, злоумышленник может провести целый ряд атак — наведение «цифровых галлюцинаций» и психических расстройств, управление мыслями и поведением жертвы, перегрузка нейроинтерфейса с целью убийства или вывода из строя, перехват управления опорнодвигательным аппаратом, создание зомби-сетей из реальных людей (например, с целью совершения преступлений или терактов — зомбикамикадзе). Для защиты от подобных атак потребуется разработка систем цифровой иммунной системы, которая в дополнение к биологической иммунной системе, обеспечивающей сохранность и защиту биологических систем органов, будет обеспечивать сохранность и защиту имплантов и нейроинтерфейсов.

Отдельной сложной задачей в условиях наличия цифровых систем, вживленных в организм, будет обеспечение приватности и неприкосновенности частной жизни. Любые действия человека будут оставлять огромное количество цифровых следов, доступом к которым могут злоупотребить компании, осуществляющие обработку этих данных, правоохранительные органы, а также данные могут быть похищены и использованы злоумышленниками для совершения различных преступлений. Потребуется пересмотр не только технических подходов к защите персональных данных, но и соответствующие изменения в законодательстве и общественных нормах.

Глобальный разум (Global Brain)

Вдохновленное нейронаукой футурологическое видение планетарной информационно-коммуникационной сети, которая напрямую объединяет людей и компьютеры. Данная сеть будет содержать огромное количество информации и брать на себя все больше функций координации и коммуникации, становясь все более интеллектуальной, играя роль мозга для всей планеты.

В случае своего возникновения глобальный разум окажет масштабное влияние на ландшафт киберугроз и потребует пересмотра большинства принципов и подходов к защите информации, людей и устройств от киберугроз.

Психиатрия искусственного интеллекта (AI Psychiatry)

По мере развития систем ИИ все больше и больше сложных задач будут переходить от человека к ИИ, что потребует от ИИ систем развития навыков самообучения, большей автономности и самостоятельности в принятии решений. Авторы отчета отмечают, что даже на текущем уровне развития ИИ мы уже сталкиваемся с рядом проблем, вызванных различными артефактами и предвзятостью (bias) в обучающих данных, например, в 2016 г. Microsoft опубликовала в Twitter чат-бота Tay, способного отвечать на твиты и личные сообщения. Уже через несколько часов Tay стала публиковать ответы с оскорблением феминисток и поддержкой идей фашизма. А через 16 часов, когда существенная часть твитов Tay была оскорбительной, Microsoft прервала эксперимент. Эксперты «Сбера» не исключают, что на определенном уровне сложности и самостоятельности ИИ систем у них начнут возникать расстройства, схожие с расстройствами психики у людей. И такие моменты потребуется отслеживать, выявлять и принимать меры защиты, ведь под управлением ИИ будет находиться множество систем обеспечения функционирования и жизнедеятельности человеческого общества и «киберпсихические расстройства» ИИ могут вносить существенные нарушения в выполняемые функции, которые в свою очередь могут приводить к массовым беспорядкам, нарушению функционирования отдельных домохозяйств, промышленных предприятий, целых городов и даже регионов, гибели людей и т. п.

Аугментация человека (Human Augmentation)

Комплекс биологических и технологических подходов к расширению возможностей человеческого организма, как улучшающий имеющиеся функции, так и дающие новые, не существовавшие ранее, например, непосредственное восприятие излучения за пределами возможностей зрения или слуха, регенерация органов, суперинтеллект и прочее. Спектр возможностей, которые станут доступны, еще предстоит сформировать по мере развития технологий. Тем не менее влияние на ландшафт киберугроз аналитики «Сбера» оценивают как высокое в силу того, что текущая модель угроз и нарушителя, как и текущие требования к специалистам по кибербезопасности, основываются в том числе и на биологических, физических и психологических ограничениях организма современного человека, которые станут неактуальными с распространением аугментации.

Приятного отдыха.