Плохая сторона высоких технологий: прогнозы — 2

| новости | печать

Из обнародованного под занавес 2022 г. Лабораторией кибербезопасности «Сбера» аналитического отчета «Прогноз влияния перспективных технологий на ландшафт угроз кибербезопасности» самые, по оценке авторов документа, опасные из ближней перспективы (пять лет) технологии мы ранее представили. Продолжим.

В этот раз важнее видится познакомить читателей не с ближайшими, но средними и слабыми по уровню воздействия на ландшафт угроз кибербезопасности технологиями, а остаться с самыми влиятельными из них, но теперь со средним горизонтом (пять — десять лет) вероятной их реализации, по оценке специалистов «Сбера».

Таких технологий они называют семь.

Социальный рейтинг (Social Rating)

Уже сейчас в отдельных странах наблюдаются попытки внедрения интегрального цифрового рейтинга гражданина, на основании которого будет приниматься решение о доступе или отказе в услугах, определяться права и полномочия гражданина. Если этот тренд будет развиваться и дальше, то, считают авторы отчета, потребуются механизмы обеспечения безопасности и целостности этого рейтинга, так как манипуляция с рейтингом или данными, на базе которых он строится, будут приводить к ряду нежелательных последствий: ограничение доступа к отдельным функциям/инструментам/услугам добропорядочным гражданам или же необоснованное их получение злоумышленником.

Искусственный интеллект с сохранением приватности (Privacy-preserving AI)

Речь о комплексе технологий, обеспечивающем сохранение приватности данных, задействованных в жизненном цикле модели ИИ, а именно:

- приватность данных для обучения модели — из модели невозможно восстановить данные, использовавшиеся для ее обучения;

- приватность данных на входе — пользовательские данные, подаваемые на вход модели не раскрываются другим лицам, включая создателя модели;

- приватность данных на выходе — вывод модели недоступен для наблюдения никому, кроме пользователя, на чьих данных он рассчитан;

- приватность модели — модель не может быть украдена и использована злоумышленником.

Конкретные подходы, реализующие концепцию Privacy-preserving AI еще не финализированы, но активно исследуются научным сообществом.

Реализация искусственного интеллекта с сохранением приватности позволит расширить рынок услуг по обучению и предоставлению моделей ИИ, а также позволит компаниям совместно обучать и эксплуатировать эффективные модели ИИ без нарушения приватности используемых для этого данных и позволит уменьшить сопряженные с этими данными риски кибербезопасности. Поэтому влияние на ландшафт угроз кибербезопасности аналитики «Сбера» оценивают как высокое.

Безопасные распределенные вычисления (Secure Multi-party Computation, SMPC)

Имеется в виду ряд криптографических подходов, позволяющих нескольким участникам произвести совместные вычисления, зависящие от тайных входных данных каждого из них, таким образом, чтобы ни один участник не смог получить никакой информации о чужих тайных входных данных. В том числе такой подход не раскрывает другим участникам промежуточные результаты вычислений, что обеспечивает большую безопасность по сравнению с технологией распределенного обучения моделей ИИ. SMPC может быть использован для коммерческого обмена данными без риска их раскрытия или нарушения их приватности. В том числе этот подход может быть использован для безопасного обмена данными кибербезопасности и антифрода с соответствующими службами других участников рынка или госорганами без раскрытия персональных или конфиденциальных данных, например, списки мошенников, или индикаторы компрометации.

Искусственный интеллект в разработке ПО (AI-augmented Software Development)

Уже сейчас исследуются возможности применения ИИ в разработке программных продуктов, и, согласно прогнозам, в недалеком будущем ИИ сможет существенно упростить эту задачу, помогая человеку разрабатывать еще более сложные программные продукты, обеспечивать отсутствие программных ошибок и уязвимостей, оптимизировать эффективность ПО и ускорять процесс разработки. С точки зрения безопасности это порождает ряд проблем. Воздействие на этот ИИ может приводить к внедрению уязвимостей или незадекларированных возможностей в код (например, бэкдоры), нарушению функциональности ПО, краже исходного кода и обрабатываемых им данных.

Распределенное обучение моделей ИИ (Federated Learning)

Технология машинного обучения, обеспечивающая децентрализованное обучение модели на множестве устройств, хранящих данные для обучения локально без обмена исходными данными между устройствами. По сравнению с SMPC данный подход позволяет участвовать в процессе практически неограниченному количеству участников и, как правило, демонстрирует более высокую производительность, но при этом обладает меньшими гарантиями безопасности данных, так как другим устройствам могут быть доступны промежуточные результаты обучения, используя которые можно теоретически восстановить исходные данные. Данная технология применима для распределенного обучения единой модели с использованием данных, собираемых множеством конечных устройств. В интересах кибербезопасности распределенное обучение может быть применено в выявлении мошенничества, для повышения эффективности выявления мошеннических транзакций за счет информации на устройствах пользователей без нарушения конфиденциальности.

Дифференциальная приватность (Differential Privacy)

Технология, обеспечивающая максимально точные ответы на статистические и аналитические запросы к данным без возможности раскрытия содержания отдельных записей даже при выполнении большого количества запросов. Дифференциальная приватность основана на введении случайности в данные, без существенного влияния на их статистические характеристики. На данный момент технология довольно нова и ограниченно известна за пределами исследовательского сообщества, но активно развивается в связи с растущим спросом на решения по сохранению приватности данных. При этом уже сегодня технологию начинают использовать некоторые технологические компании для анализа данных пользовательских устройств и приложений без нарушения приватности пользователей, например, Apple использует ее для анализа некоторых данных с устройств на базе iOS11. Использование данной технологии при коммерческом обмене аналитическими и статистическими данными между компаниями или между компаниями и конечными пользователями их продуктов позволит снизить риски раскрытия конфиденциальной информации или персональных данных.

Цифровые двойники (Digital Twins)

Виртуальный аналог реального объекта, компьютерная модель, которая в своих ключевых характеристиках дублирует его и способна воспроизводить его состояния при разных условиях. Данная технология изначально возникла как часть четвертой промышленной революции для оцифровки физических объектов или процессов в производстве с целью помочь предприятиям быстрее обнаруживать физические проблемы, точнее предсказывать результаты и производить более качественных продукты. Дальнейшее развитие технологии цифровых двойников позволит оцифровывать более сложные объекты, в том числе живые организмы и другие сложные динамические системы. Например, для фармацевтической индустрии в сфере разработки лекарственных препаратов цифровой двойник может симулировать сложный комплекс физических и биохимических взаимодействий в организме человека для оценки действия новых лекарств. В сфере управления государством и охраны правопорядка, цифровой город, населенный большим количеством цифровых двойников, поможет прогнозировать реакцию общества на те или иные решения и законы, массовые беспорядки или стихийные бедствия. Для человека персональный цифровой двойник с искусственным интеллектом может быть незаменимым ассистентом, как в физическом мире, так и в метаверсе. С теми же эмоциями, поведением и паттерном действий и принятия решений, собранными на базе цифрового следа «оригинала» он может брать на себя выполнение части задач, так как с точки зрения цифровых взаимодействий с внешним миром такая реплика будет неотличима от оригинала. И хотя технологии для создания полноценного и полнофункционального цифрового двойника кажутся фантастикой, уже сейчас собирается огромное количество данных о цифровых взаимодействиях реальных людей, которые послужат «строительным материалом» для создания цифрового двойника, когда технологии позволят их использовать. С точки зрения безопасности основными угрозами для данной технологии может быть кража, злонамеренная модификация или вывод из строя цифровых двойников. Также цифровой двойник может обеспечивать псевдоудаленное присутствие пользователя на различных встречах и публичных мероприятиях, что порождает дополнительные проблемы с подтверждением аутентичности и права представительства цифрового двойника («прислан» ли цифровой двойник самим владельцем оригинальной личности, уполномочен ли он владельцем на те слова и действия, которые он произносит или производит). Соответственно, с точки зрения безопасности потребуется ряд инструментов и технологии для контроля аутентичности, целостности и права представительства цифрового двойника.

На непрофессиональный взгляд, последняя технология особенно «цепляет». Но в следующий раз мы представим из отчета «Сбера» самые влиятельные на ландшафт киберугроз технологии с горизонтом их реализации свыше десяти лет — возможно, там найдется что-то «позабористее».