Эксперт Angara Security рекомендует относиться к алгоритмах соцсетей критически

13.09.2024
Эксперты Angara Security объясняют, почему рекомендательные алгоритмы несут риски кибербезопасности и как защититься от неприемлемого контента персонализированных рекомендаций.

Социальные сети активно применяют рекомендательные алгоритмы, поощряя пользователей как можно дольше оставаться на платформе. Но эти программные инструменты, использующие искусственные интеллект, не всегда учитывают возраст целевой аудитории. В этом году в США федеральный апелляционный суд вынес решение по делу о гибели десятилетней девочки, погибшей в попытках повторить опасный челлендж из рекомендаций TikTok. Впервые в истории социальных сетей суд решил, что платформы социальных медиа могут нести ответственность за контент, рекомендуемый их алгоритмами. Эксперты Angara Security объясняют, почему рекомендательные алгоритмы несут риски кибербезопасности и как защититься от неприемлемого контента персонализированных рекомендаций.

Рекомендательные алгоритмы — продукт машинного обучения со всеми сопутствующими рисками кибербезопасности. Обработка запроса на рекомендацию моделью с недостаточным обучением может выдать нерелевантный ответ. Неконтролируемое использование таких рекомендательных алгоритмов может быть небезопасно. Алгоритм может посоветовать рецептурный препарат с серьезными противопоказаниями к применению и выдать его за безопасный. Или, как в случае с 10-летней Нилой Андерсон из США, предложить ребенку блэкаут-челлендж в соцсети. Рекомендательный алгоритм может быть использован злоумышленниками в результате кибератаки для обучения на продвижение определенного товара или услуги, но может быть и просто не доработан и как следствие — выдавать некорректные рекомендации.

«К примеру, у модели рекомендательного алгоритма TikTok мало данных о пользователях, она не учитывает возраст целевой аудитории соцсети (а он заметно ниже возраста совершеннолетия, вплоть до 10 лет). Модель выдает контент, который не соответствует возрасту пользователя, поэтому дети младшего и школьного возраста, не владеющие критическим мышлением, попадают под влияние рекомендаций», — объясняет Павел Покровский, директор по управлению сервисами Angara Security.

Пользователю не стоит самому пытаться «доработать» рекомендательный алгоритм, чтобы лента соответствовала его ожиданиям. Обучение алгоритмов — это специфическая задача для программистов особой квалификация, вмешательство пользователя здесь не предусмотрено.

«Если человек будет специально смотреть видео с котиками или подписываться на бегунов, то через какое-то время алгоритмы действительно предложат ему больше контента с животными и спортом. Но не нужно впадать в иллюзию: при этом платформа будет продвигать товары и услуги, а также стараться как можно дольше задержать пользователя в сети. К любым рекомендациям стоит относиться с включенным критическим мышлением, а любые советы из рекомендаций стоит проверить с помощью независимых источников», — предупреждает эксперт Angara Security.

В России с 2023 года действует закон, регулирующий работу рекомендательных алгоритмов в интернете. Владельцы страниц и сервисов, использующих такие алгоритмы, должны информировать пользователей о системе рекомендаций и объяснять принципы и механизмы ее работы. Закон призван сделать механизмы рекомендаций прозрачными для российского пользователя и не допустить их использования в незаконных целях (манипуляция потребителями, создание аномального интереса к товарам, влияние на общественное мнение, нанесение вреда психике и здоровью).

При использовании иностранных интернет-сервисов с рекомендательными алгоритмами, которые не подчиняются российскому законодательству, эксперты Angara Security рекомендуют по возможности всегда указывать возраст для пользователей младшего возраста. Если алгоритм обучен распознавать возраст, это снизит риск выдачи нежелательного контента детям. Также стоит использовать настройки родительского контроля, если сервис позволяет сделать это при регистрации детского аккаунта. Сообщить разработчикам о проблеме поможет жалоба на нерелевантный контент в выдаче. Если же платформа продолжает выдавать неподходящий и даже опасный контент, возможно, безопаснее будет отказаться от ее использования.

Читайте также
Основатель и арт-директор дизайн-команды Charger расскажет, почему компания предпочитает работать с Junior-специалистами. Какие методы использует Charger для обучения и развития сотрудников? Как поддерживается корпоративная культура в команде на удалёнке? С какими трудностями сталкивается Charger при подборе новых сотрудников?

Похожие статьи