Обнаружение дипфейков в реальном времени: как Intel Labs использует ИИ для борьбы с дезинформацией

Логотип компании
Обнаружение дипфейков в реальном времени: как Intel Labs использует ИИ для борьбы с дезинформацией
Илке Демир (Ilke Demir) из Intel объясняет, как работает технология дипфейк и почему исследователям искусственного интеллекта важно сотрудничать с антропологами, социологами и академическими исследователями.

Несколько лет назад дипфейки казались новой технологией, требующей серьезных вычислительных мощностей. Сегодня они широко распространены и потенциально могут быть использованы для дезинформации, хакерских атак и тому подобного.

Intel Labs разработала технологию обнаружения дипфейков в режиме реального времени. Илке Демир, старший научный сотрудник Intel, рассказывает о технологии, лежащей в основе дипфейков, методах обнаружения, а также об этических аспектах, связанных с разработкой и внедрением таких инструментов.

Дипфейки — это видео, речь или изображения, в которых персонажи или действия ненастоящие, созданные искусственным интеллектом (ИИ). Дипфейки используют сложные архитектуры глубинного обучения, такие как генеративные состязательные сети, вариационные автокодеры и другие модели ИИ, для создания реалистичного и очень правдоподобного контента. Эти модели могут синтезировать образы, создавать видео с синхронизацией губ и даже преобразовывать текст в изображение, так что довольно сложно отличить реальный контент от поддельного. Термин «дипфейк» иногда применяется и к аутентичному контенту, подвергнутому изменениям.

Команда Демира изучает дипфейки, которые представляют собой синтетические формы контента, сгенерированные машинами. «Причина, по которой это называется «дипфейк» (deepfake), заключается в том, что при создании контента используется сложная архитектура глубинного обучения (deep-learning) в генеративном ИИ», — говорит он.

Злоумышленники часто используют технологию дипфейка для своих махинаций. Это может быть политическая дезинформация, контент для взрослых с участием знаменитостей или других людей без их согласия, рыночные манипуляции или выдача себя за другого человека с целью наживы. Увеличение количества подобного контента делает разработку эффективных методов обнаружения дипфейков как никогда актуальной.

Intel Labs создала одну из первых в мире платформ для обнаружения дипфейков в режиме реального времени. Вместо того, чтобы искать артефакты подделки, технология анализирует соответствие реальности, например, частоту сердцебиения. Используя метод фотоплетизмографии, — система анализирует изменение цвета вен из-за содержания кислорода — технология может определить, является ли персонаж реальным человеком или синтезированным.

«Мы пытаемся смотреть на то, что является реальным и подлинным. Частота сердцебиения — один из сигналов, — рассказывает Демир. Когда сердце сокращается и проталкивает кровь в вены, вены меняют цвет. Это не видно глазу; я не могу просто посмотреть видео и увидеть частоту сердцебиения. Но это изменение цвета можно зафиксировать с помощью вычислений».

Технология обнаружения дипфейков от Intel внедряется в различных сферах и на различных платформах, включая социальные сети, информационные агентства, теле- и радиовещательные компании, инструменты для создания контента, стартапы и некоммерческие организации. Интегрируя технологию в свои рабочие процессы, организации получают возможность выявлять и предотвращать распространение дипфейков и дезинформации.

Несмотря на потенциальную возможность использования мошенниками, технология дипфейк имеет законное применение. Одним из первых вариантов такого применения было создание аватаров для представления людей в цифровой среде. Демир ссылается на конкретный вариант использования под названием «MyFace, MyChoice» («Мое лицо, мой выбор»), который использует дипфейк для повышения уровня конфиденциальности на онлайн-платформах.

Проще говоря, люди могут контролировать свою внешность на онлайн-фотографиях, заменяя свое лицо «количественно непохожим дипфейком». Эти элементы управления обеспечивают повышенную конфиденциальность, так как противодействуют автоматическим алгоритмам распознавания лиц.

Большое значение имеют этические аспекты разработки и внедрения технологий искусственного интеллекта. Команда Intel Trusted Media сотрудничает с антропологами, социологами и исследователями пользовательского мнения для оценки технологии и ее дальнейшего совершенствования. В компании также есть Совет по ответственному ИИ (Responsible AI Council), который рассматривает системы ИИ на предмет соблюдения этических принципов и социальной ответственности, включая потенциальные предвзятости (AI bias), ограничения и возможные варианты незаконного использования. Такой междисциплинарный подход помогает более эффективно контролировать, чтобы технологии искусственного интеллекта служили на пользу людям, а не причиняли вред.

«У нас есть юристы, у нас есть социологи, у нас есть психологи, и все они собираются вместе, чтобы точно определить ограничения, выяснить, есть ли предвзятость — алгоритмическая предвзятость, системная предвзятость, предвзятость данных, любой тип предвзятости», — говорит Димер. Команда проверяет код с целью выявить «любые возможные варианты использования технологии, которые могут нанести вред людям».

Так как дипфейки становятся все более распространенными и изощренными, разработка и внедрение технологий их обнаружения для борьбы с дезинформацией и другими негативными последствиями приобретает все большее значение. Технология обнаружения дипфейков в режиме реального времени от Intel Labs предлагает масштабируемое и эффективное решение этой растущей проблемы.

Читайте также
В Правительстве РФ готовится очередной национальный проект, получивший название «Средства производства и автоматизации». На его реализацию выделяется более 300 млрд рублей. Цель – предоставить дополнительный ресурс для развития российских промышленных предприятий. По словам Первого заместителя Председателя Правительства РФ Дениса Мантурова, одним из трех основных направлений, на которых будет сосредоточено внимание, станет развитие робототехники.

Опубликовано 25.07.2023

Похожие статьи