Как ИИ будет защищать россиян от фейков?
Эксперты Роскомнадзора, Главного радиочастотного центра (ГРЧЦ), аналитического центра MINDSMITH и компании «Ростелеком» провели исследование «Инструменты ИИ в руках злоумышленников — классификация угроз и способы противодействия». Они выделили 12 групп наиболее важных направлений для развития технологий безопасного интернета.
В их число вошли обнаружение дипфейков, определение контекста происходящего на видео, автоматизация мониторинга и модерации контента, распознавание лиц, извлечение смысла из текста, поддержка проверки фактов, распознавание символики, извлечение и анализ метаданных, распознавание эмоций, поддержка решений при информационных атаках, генерация и рекомендация контента.
Одной из важнейших тем в наше время стала борьба с дезинформацией. По мнению аналитиков, информационные системы уже приближаются к проверке фактов в реальном времени и будут впоследствии интегрированы в социальные сети. Например, в будущем они смогут анализировать речь и потоковое видео, проверять их и, при обнаружении ложных новостей, оповещать пользователей о недостоверном контенте. Такие системы будут включать в себя комплекс нейросетей, а внедрить их в соцсети получится в течение 3–5 лет.
«Проверка фактов приобрела особую актуальность еще во время пандемии коронавирусной инфекции и остается важной и сейчас, когда мы боремся с потоками фейков и дезинформации, которые обрушиваются на наших пользователей. Это направление уже активно развивается: например, во второй половине 2023 года Роскомнадзор должен запустить систему «Вепрь», которая сможет выявлять потенциальные угрозы в интернете. Эксперты будут анализировать поступающую информацию и прогнозировать последующее распространение деструктивных материалов. Кроме того, еще одна автоматизированная система – «Окулус» - уже работает. Она распознает изображения и символы, противоправные сцены и действия, анализирует текст в фото- и видеоматериалах. Благодаря системе можно выявить экстремистскую тематику, призывы к массовым незаконным мероприятиям или суициду, пронаркотический контент, пропаганду ЛГБТ, при этом на одно изображение система тратит всего три секунды, что в значительной степени ускоряет выявление угроз в сети. Создание таких систем – это полноценный ответ на провокации и антироссийские действия со стороны иностранных ресурсов, которые ежедневно множат в сети фейки и материалы по всем разновидностям запрещенной информации. Перспектива развития таких технологий и внедрения в эту работу возможностей искусственного интеллекта дает надежду на то, что в будущем проблему с фейками и противоправным контентом получится решить окончательно», - считает депутат Госдумы Антон Немкин.
Генеральный директор TelecomDaily Денис Кусков также подчеркнул важность разработки законодательных норм для систем на основе ИИ, которые будут фильтровать контент в сети. Он, кроме того, отметил, что нынешний уровень развития ИИ в России позволит начать полноценное использование таких систем в перспективе пяти лет. «У нас уже есть множество подобных систем – например, в Сбере, Яндексе, Роскомнадзоре. Однако и количество аудиовизуального контента в интернете растет очень быстро. Там уже очень много ложной информации, а учитывая существующие технологические возможности по замене голоса или изображения, это создаст еще больше проблем с точки зрения законодательства. Считаю, что нужно обязательно в этом направлении работать, и интеграция технологий ИИ в соцсети должна стать одним из шагов в заданном направлении. К коллапсу это точно не приведет, потому что будут выработаны подходы, которые позволят осуществлять модерацию контента за считанные минуты. В любом случае на начальном этапе – год и более – нельзя допускать применение исключительно автоматической системы к работе. Обязательно будет необходима и работа аналитиков», - заключил он.