Десять стратегических трендов 2025 года и влияние на них кибербезопасности
Но как это часто бывает, если начать внедрять новые технологии без учета вопросов их кибербезопасности, все это может закончиться печально. Но Gartner на своем симпозиуме обошел вниманием эту тему, что я попробую и исправить. Итак, что же это за Топ-10 трендов и как на них влияет информационная безопасность?
Агенты на базе искусственного интеллекта
ИИ-агенты помогают пользователям с рутинными задачами, принимая автономные решения в повседневной работе. Это те решения, которыми многие из нас уже пользуются, настроив соответствующие боты или скрипты, обращающиеся к зарубежным или российским, внешним или локальным LLM, виртуальные ассистенты, которые автоматически планируют встречи и управляют электронной почтой, или ИИ-агенты в корпоративных системах для автоматического выполнения задач по обработке данных или подготовке отчетов.
С точки зрения кибербезопасности стоит задуматься о следующих рисках:
- Автономное принятие решений. С ростом зависимости от ИИ-агентов возрастает риск принятия опасных или несущих вред решений или неучтенных сценариев, которые могут быть использованы злоумышленниками или осознанно ими смоделированы.
- Манипуляция и подмена ИИ-агентов. Возможность взлома или компрометации ИИ-агентов для внедрения ложных инструкций или кражи данных пользователей за счет манипуляции данными или моделями машинного обучения, на которых работают ИИ-агенты.
- Проблемы приватности. Агентский ИИ собирает и анализирует огромные объемы пользовательских данных, что создает угрозу их утечек и несанкционированного доступа к ним.
Платформы управления искусственным интеллектом
Платформы для управления ИИ и обеспечения его использования в рамках этических норм и правовых требований, число которых только растет и под которые попадают почти все мировые разработчики, желающие продавать свои ИИ-решения в США, Европе и ряде других стран. У данных платформ есть два основных сценария — мониторинг и корректировка моделей ИИ, что позволяет избежать дискриминации или предвзятости в принимаемых решениях, а также корпоративные платформы для документирования и отслеживания применения ИИ в бизнес-процессах.
Основные риски, связанные с данной тенденцией:
- Этические и правовые риски. Даже при использовании платформ управления ИИ остается вероятность неправильного применения технологий или их злоупотребления, что может повлиять на соблюдение нормативных требований, нарушение которых может караться в разных странах достаточно серьезно.
- Нарушение целостности управления. Злоумышленники могут атаковать платформы управления для изменения или отключения политик, что приведет к неконтролируемому поведению ИИ.
- Риски конфиденциальности. Центральное управление ИИ связано с доступом к огромному количеству данных, которые могут быть целью атак хакеров и их утечек.
Технологии защиты от дезинформации
Данный тренд сам по себе относится к одному из модных и востребованных направлений в информационной безопасности — проверке подлинности информации и борьбы с фейковыми новостями, включая и дипфейки, которые создаются элементарно и плодятся многократно. Такие технологии могут быть встроены в платформы для медиа, использующих ИИ для автоматической проверки достоверности новостей и постов в социальных сетях. Кроме того, эти технологии встраиваются в инструменты для анализа видео и изображений на подлинность, чтобы выявить манипуляции.
Однако предназначенные для защиты, эти системы также могут столкнуться с угрозами для них:
- Атаки на верификационные системы. Злоумышленники могут подделывать или обходить системы, предназначенные для проверки подлинности информации, что делает их бесполезными в условиях массовой дезинформации.
- Новые формы манипуляций. Адаптация технологий для создания более сложных и трудноопределимых фейков, включая использование генеративных моделей ИИ.
- Риски репутации. Ошибки в определении ложной информации могут повлиять на доверие к брендам и компаниям, использующим такие технологии.
Постквантовая криптография
У криптографических методов, устойчивых к атакам с помощью квантовых компьютеров, вполне понятное будущее, хотя реально работающих последних пока нет. Эксперты разнятся в оценке сроков их появления, но это не значит, что постквантовую криптографию рано внедрять — ведь когда такие квантовые компьютеры появятся, тогда уже будет поздно. Если честно, уже поздно, так как зашифрованные данные собираются разными государствами для последующего дешифрования. И хотя сценариев для этого тренда немало, к основным я бы отнес защиту банковских транзакций и критически важных данных от будущих угроз со стороны квантовых вычислений, а также его использование в государственных системах для защиты конфиденциальной информации и государственной тайны.
Но нельзя не забывать про возможные угрозы:
- Замедление перехода к новым алгоритмам. Временной разрыв между обнаружением уязвимостей в традиционных системах и внедрением постквантовых решений создает окна уязвимости.
- Повышенная сложность управления ключами. Постквантовая криптография требует более сложных процессов управления ключами, что может привести к ошибкам и их утечкам.
- Атаки на переходные решения. В период перехода от традиционных криптографических методов к постквантовым могут возникнуть слабые места в системах, которые злоумышленники будут использовать.
Ambient Intelligence (AmI), или окружающий интеллект
Речь идет об интеллектуальных устройствах и датчиках, невидимых для человека, которые собирают и обрабатывают информацию и используются, например, в розничной торговле для отслеживания запасов на складах с помощью «умных» меток или в логистике для мониторинга состояния грузов во время транспортировки. По сути, речь идет о новом толковании термина «Интернет вещей», но в миниатюре.
С основными рисками для таких устройств тоже все понятно:
- Сбор данных без ведома пользователей. Устройства AmI могут собирать чувствительную информацию, что повышает риск утечек данных и приводит к нарушениям приватности.
- Уязвимости в датчиках и метках. Небольшие устройства часто имеют более простые системы защиты (из-за нехватки ресурсов и фокуса на автономной работе), что делает их легкой целью для взломов и атак.
- Манипуляция средой. Внедрение фальшивых данных через датчики или «умные» метки может создавать ложные сигналы, нарушать работу систем и приводить к неверным решениям.
Энергоэффективные вычисления
В условиях роста объема и сложности вычислений разовьются новые технологии, снижающие энергопотребление сложных вычислений и обучения нейросетей, которые могут найти применение в оптических процессорах для ускорения ИИ-моделей при уменьшении энергозатрат или в нейроморфных процессорах в центрах обработки данных для экономии энергии.
Пока сложно говорить о каких-то конкретных угрозах, но как минимум можно упомянуть о следующих:
- Атаки на энергопотребляющие устройства. Злоумышленники могут манипулировать потреблением энергии устройств, создавая условия для отказа в обслуживании.
- Уязвимости в новых архитектурах. С переходом к новым вычислительным технологиям могут возникать ошибки в архитектуре, приводящие к уязвимостям.
Гибридные вычислительные системы
Gartner предсказывает объединение различных технологий вычислений (ASIC, квантовые и оптические вычисления) для решения сложных задач, которые могут быть использованы при обработке больших данных в научных исследованиях с применением гибридных систем, а также для быстрой обработка финансовых транзакций в банках с помощью квантовых и классических вычислений.
К очевидным угрозам для данной технологии можно отнести:
- Сложность управления безопасностью. Использование разных вычислительных технологий требует комплексного подхода к управлению безопасностью, что увеличивает риск человеческих ошибок.
- Неравномерная защита. Уязвимости в одной из составляющих гибридной системы могут стать точкой входа для атак.
- Новая цель для кибератак. Злоумышленники будут стремиться атаковать узлы, связывающие различные компоненты гибридной системы, чтобы получить доступ к данным или остановить работу.
Пространственные вычисления (Spatial Computing)
Хотя будущее технологий VR и AR достаточно туманно, Gartner считает, что тренд на объединение физического и цифрового миров с помощью VR и AR для организации виртуальных рабочих пространств и обучения на производстве с использованием технологий дополненной реальности, а также маркетинговые приложения для взаимодействия с клиентами в виртуальном мире — это наше ближайшее будущее. Но независимо от того, правы ли американские аналитики, угрозы для пространственных вычислений вырисовываются вполне реальные:
- Фишинг и социальная инженерия в VR/AR. Манипуляции с виртуальными объектами и средами могут применяться для обмана пользователей и кражи данных.
- Кибератаки на устройства AR/VR. Устройства пространственных вычислений могут стать объектом взлома с целью получения доступа к конфиденциальным данным или управления средой пользователя.
- Нарушение приватности. Виртуальные среды могут собирать и хранить большое количество информации о поведении и предпочтениях пользователей.
Полифункциональные роботы
Большинство современных роботов монофункциональны, то есть ограничены всего одной функцией; в отличие от полифункциональных роботов, способных выполнять разнообразные задачи. Однозначно они смогут найти применение в здравоохранении для автоматизации ухода за пациентами и помощи в медицинских процедурах, а также в производстве для быстрой переналадки на разные задачи, например, сборку и упаковку.
Развивая перечень угроз для АСУ ТП, можно предположить, что полифункциональные роботы столкнутся со следующим:
- Компрометация управляющего ПО. Злоумышленники могут перехватить управление роботами для выполнения несанкционированных действий и нанесения вреда.
- Физическая безопасность. Атаки на «умных» роботов могут нести физические риски для людей, находящихся рядом, особенно в промышленных или бытовых условиях.
- Нарушение работы сетей IoT. Полифункциональные роботы часто интегрируются в экосистемы IoT, что делает их потенциальной точкой доступа для атак на другие устройства сети.
Нейрологическое улучшение
Последняя тенденция связана с опытами Илона Маска, который экспериментирует с технологиями, повышающими когнитивные способности человека через интерфейсы «мозг — компьютер». Спектр возможных применений у этой тенденции достаточно велик — от повышения производительности работников через улучшение концентрации и быстроту принятия решений в корпоративном секторе до восстановления когнитивных функций после травм мозга и лечения нейродегенеративных заболеваний в медицине.
Тут мы имеем дело с достаточно страшными последствиями для всех нас:
- Угрозы приватности данных мозга. Данные о мозговой активности могут быть крайне чувствительными и привлекательными для злоумышленников, что создает риски кражи или манипуляции этими данными.
- Возможность контроля над когнитивными функциями. Вмешательство в работу нейроинтерфейсов может привести к опасным последствиям, включая манипуляцию мыслями или действиями пользователя; и это не говоря о банальном спаме и фишинге, который попадает сразу в мозг жертве.
- Этические и правовые риски. Использование таких технологий может нарушать правовые нормы и создавать конфликты в вопросах соблюдения прав человека и недобровольного вмешательства в личную жизнь.
Все эти десять технологий имеют потенциал трансформировать многие отрасли, но требуют продуманного подхода к их внедрению и обеспечению безопасности, так как в противном случае ущерб от их неправильного применения или атак на них может привести к недопустимым последствиям.
Опубликовано 05.11.2024