Более 80% юристов выступили за регулирование дипфейков в России
Абсолютное большинство опрошенных юристов (89,3%) отметили распространение ложной информации как основную проблему при массовом использовании технологии дипфейк в России, 73,2% выделили нарушение неимущественных прав граждан, в том числе права на имя, 73,2% — нарушение авторских и смежных прав, 58,9% — риск, связанный с нарушением закона о защите персональных данных, а 39,3% отметили нарушение закона о рекламе: юристы считают, что использование дипфейков для создания рекламы или продвижения товаров и услуг может привести к штрафам и искам для компаний. Также ряд респондентов обратили внимание на проблему уголовного характера, они отметили, что сегодня увеличилось использование дипфейков в качестве способа совершения преступлений.
Больше половины (80,4%) опрошенных юристов считают, что проблема дипфейков нуждается в разработке отдельного регулирования в России, а 16,1% отмечают, что проблема важная, но решить ее можно в частном порядке в случаях возникновения какого-либо конфликта. Маля часть (3,6%) опрошенных уверена, что проблема дипфейков преувеличена.
Кроме того, 87,5% юристов согласны с утверждением, что с увеличением и распространением технологий создания дипфейков возникает необходимость в ужесточении правовых мер по борьбе с ними. При этом 64,3% положительно оценили предлагаемую инициативу государства о введении маркировки дипфейков в России, 19,6% — дали оценку “удовлетворительно”, а 16,1% — неудовлетворительно.
В вопросе о том, какие конкретно дополнительные меры могут быть приняты в рамках регулирования дипфейков в России, большинство юристов (75%) самой эффективной мерой назвали правовое просвещение населения на темы информационной безопасности, безопасного использования онлайн-платформ и прав граждан в интернете. В то же время 66,1% юристов отмечают введение новых лицензионных требований к СМИ и информационным посредникам для проверки «органического» происхождения или контроля информации. Создание специальных комиссий, подведомственных Роскомнадзору, для разрешения конфликтов, возникших из-за использования дипфейков поддерживают 26,8%, а 16,1% рекомендуют сформировать список запрещенных программ для генерации дипфейков. Кроме того, ряд респондентов считают, что законодателям стоит задуматься о внесении изменений в КоАП и УК РФ, в том числе в части установления специальной ответственности за преступления, совершаемые с использованием дипфейков. Например, это может быть добавление отягчающего обстоятельства при совершении подобных преступлений.
Абсолютное большинство респондентов знают, что такое дипфейки — 94,6%.
Комментарии экспертного сообщества
«Использование без согласия физических лиц (включая публичных личностей, артистов, дикторов) «цифровых двойников» и синтезированной речи приводит к нарушению прав таких лиц. Современные технологии позволяют с помощью технологий искусственного интеллекта оцифровывать с высокой степенью достоверности изображение, внешность, образ и голос физических лиц. «Цифровые двойники» (к которым можно отнести голограммы физических лиц, «дипфейки», голосовые двойники) практически неотличимы от оригинального изображения и образа физического лица, при этом с помощью таких «двойников» может осуществляться публичная и коммерческая деятельность. Использование «дипфейков» и синтезированного голоса может привести к нарушению авторских и смежных прав, неимущественных прав граждан. В настоящее время правовой охране в соответствии с Гражданским кодексом Российской Федерации подлежат только изображения людей. Вместе с тем охране не подлежат цифровые образы и синтезированный голос. В этой связи целесообразно совершенствование существующих правовых механизмов охраны цифровых образов и голосов людей», - Никита Данилов, генеральный директор Национальной федерации музыкальной индустрии, преподаватель образовательной платформы Moscow Digital School.
«Использование дипфейков распространилось в различных сферах, включая совершение преступлений. К ним относятся мошенничество, вымогательство, клевета, экстремистские преступления, оборот порнографии и хулиганство. Это создает повышенную общественную опасность, так как дипфейки облегчают совершение преступлений и затрудняют их раскрытие. Использование дипфейков требует новых методов обнаружения и перекрестной проверки, что затрудняет работу полиции и судебного процесса. Использование дипфейков может нарушать неприкосновенность частной жизни и усложнять расследование преступлений. Кроме того, доказательство достоверности видео-материалов становится затруднительным из-за использования дипфейков, что может увеличить уровень преступности и снизить уровень раскрываемости преступлений. В связи с этим требуются изменения в уголовном и административном законодательстве для установления квалифицирующего признака совершения преступлений с использованием технологий искусственного интеллекта (дипфейков)», - Екатерина Ипполитова, преподаватель образовательной платформы Moscow Digital School.
«Очевидно, что дипфейки являются достаточно мощным инструментом, в том числе, к сожалению, и для недобросовестных действий. В частности, они могут быть способом обмана при мошенничестве. А с учетом весомости такого инструмента для обмана и возможностей, которые он дает, можно предположить, что общественная опасность такого способа обмана выше, чем других способов. Поэтому предложения ввести использование дипфейков в качестве квалифицирующих признаков специальных составов преступлений могут иметь право на жизнь», Дмитрий Кравченко, член правления Ассоциации юристов России, председатель исполкома Московского отделения АЮР.
О международном регулировании
«Ряд стран в рамках регулирования технологий использования ИИ уже предпринимают попытки ограничить разработку и использования дипфейков. Так, в проекте цифрового кодекса Киргизии дается определение дипфейков и указывается, что системы, генерирующие дипфейки, являются системами повышенной опасности, в отношении которых устанавливаются отдельные требования и ограничения. Еще более радикальной позиции придерживается на настоящей момент Европейский союз: в их проекте акта "любые платформы и модели, так или иначе манипулирующие людьми через социальную инженерию" предлагается запретить. Есть страны, применяющие более мягкий подход к регулированию ИИ. Например, Великобритания провозглашает, что выбрала "инновационный подход", и страна стремится занять лидирующие позиции в глобальной гонке ИИ. Однако вопросы о том, насколько генеративный ИИ подвержен таким рискам, как дезинформация (в том числе связанная с разработкой дипфейков) и предвзятость, остаются», - Александра Орехович, директор по правовым инициативам Фонда развития интернет-инициатив (ФРИИ), преподаватель образовательной платформы Moscow Digital School.В исследовании использовались количественные методы, включая опрос студентов и преподавателей образовательной платформы Moscow Digital School. В опросе приняли участие более 500 юристов крупных российских IT-компаний и сотрудников юридических фирм, занимающихся интеллектуальной собственностью и информационными технологиями.