Игра разума, или Как регулировать ИИ без ущерба для прогресса
Свобода или контроль?
Наряду с позитивными новостями о внедрении ИИ, появляются и сообщения о его негативных последствиях, что вызывает серьезные вопросы о необходимости и способах его регулирования. В частности, Россия пока предоставляет значительные свободы компаниям, занимающимся ИИ, в отличие от США и Китая, где регулирование более жесткое. Основной вопрос дискуссии был сформулирован так: какой путь должна выбрать Россия, чтобы не задушить технологии, но обеспечить безопасность?
Александр Крайнов, директор по развитию технологии искусственного интеллекта компании «Яндекс» начал с критики подхода, который ставит перед выбором между безопасностью людей и развитием технологий. Он выразил мнение, что счастье и безопасность людей должны быть на первом месте, и если развитие технологий угрожает этим ценностям, от технологий нужно отказаться. Однако, такой подход неправилен и нужно переформулировать вопрос.
«Мы должны выбирать между жизнью людей с технологиями и без технологий. Исторический опыт показывает, что мы развиваем и потребляем технологии на протяжении всей истории человечества. Каждый раз при появлении новой технологии возникает вопрос, нужна ли она нам и стоит ли ее регулировать или развивать. Со временем мы видим, что технологии оказывают положительное влияние на жизнь людей», — сказал Крайнов. Развитие технологий, по его словам, неизбежно приводит к их полезности в будущем. И продолжил свою мысль, затронув тему ошибок ИИ. «Если с использованием ИИ будет больше ошибок, чем без него, то, конечно, не стоит его внедрять. Но если ошибок будет меньше, то его внедрение оправдано. Важно всегда сравнивать ситуацию «с» и «без», а не оценивать ИИ в отдельности», — отметил эксперт, добавив, что смысл развития любой технологии заключается в повышении качества жизни людей. По его словам, соревнование и движение вперед — важные факторы для человека, поэтому оценивать успех надо не по уровню развития технологии или регуляторным мерам, а по качеству жизни.
А как быть с рисками искусственного интеллекта в таких чувствительных областях, как медицина и образование? Например, в прошлом году сервис от Google рекомендовал пользователю употреблять камни для получения питательных веществ, что могло иметь серьезные последствия. И как в России на текущий момент регулируется искусственный интеллект согласно нормам права, есть ли стандартизация в соответствии с международными нормами?
Денис Хабаров, руководитель практики компании «Меллинг, Войтишкин и Партнеры» начал с шутки, что юристы и регуляторы «всегда всё портят», но признал, что это важный аспект обсуждения. Он заметил, что в России есть некоторые нормы, регулирующие искусственный интеллект, но страна пока находится в начале пути. Существует несколько способов развития: жесткое регулирование, как в Европе, или более свободное, как в Индии. В России существуют институты ответственности, которые позволяют работать со случаями ущерба и спорных правоотношений, однако бизнесу нужна ясность. Спикер обратил внимание, что в российском законодательстве есть «серые зоны», где не ясно, кто несет ответственность за действия ИИ. Это реальная проблема для компаний, далеких от ИТ-сектора и использующих ИИ в своей деятельности.
«К нам приходит много клиентов, которые спрашивают, кто несет ответственность за действия ИИ, например, в создании маркетингового контента. Данная проблема не до конца решена, и нужно регулировать процесс фактически в ручном режиме, создавая договорные структуры для минимизации рисков клиента», — добавил Хабаров.
Эксперт уверен, что регулирование ИИ неизбежно будет развиваться и важно понять, в каком направлении это делать. Если Россия пойдет по пути жестких ограничений, как в Европе, это вряд ли станет способствовать развитию технологий.
Вместе и порознь
Сегодня есть несколько направлений международного сотрудничества в области ИИ. Наиболее заметное сотрудничество происходит в рамках БРИКС, где активно обсуждаются стандарты с индийскими коллегами. По мнению Дениса Хабарова, очень важна стандартизация, поскольку без нее невозможно эффективно обмениваться данными и обеспечивать совместимость систем.
Однако несмотря на сотрудничество, страны осознают, что находятся в своеобразной гонке, которая определит лидеров в сфере ИИ. В стратегических программах практически каждого государства прописана цель стать лидером в этой области. «Сотрудничество и выработка стандартов сейчас во многом направлены на замедление развития ИИ, чтобы предотвратить потенциальные угрозы. Недавно все испугались быстрого прогресса больших языковых моделей, таких как GPT, и с тех пор страны стараются оптимизировать этот процесс на разных уровнях», — отметил Хабаров.
Он добавил, что в разных блоках, таких как БРИКС, стандартизация и согласование продолжатся, но вне блоков вопрос остается сложным из-за текущей геополитической ситуации.
Как считает Лидия Михеева, секретарь Общественной палаты РФ, предосторожности, которые необходимо принять в отношении искусственного интеллекта, не должны находиться в сфере публичного права. Она призвала законодателей не увеличивать количество запретов, ограничений и санкций, чтобы не препятствовать прогрессу. «В области частного права уже сейчас не только есть немало инструментов, позволяющих защитить гражданина, если он пострадал в результате применения ИИ, но и меры превенции тоже имеются. Наш путь — в развитии этих мер»,— сказала Михеева. Она также предложила развивать культуру пользовательского соглашения, подчеркнув ее актуальность как для компаний, так и для пользователей. Так многие пользователи забывают о договорных отношениях, в которых они находятся с разработчиками ИИ, и часто не читают пользовательские соглашения, что приводит к недоразумениям и рискам.
Необходимо также введение дисклеймеров, чтобы свести к минимуму заблуждения при использовании ИИ. Секретарь Общественной палаты РФ предложила проработать меры по предупреждению выдачи сомнительных или негативных результатов, которые могли бы предпринимать сами компании. «Интересен опыт Японии, где практикуется мягкое право или саморегулирование. Компании могут заранее предпринять меры и только потом выпускать продукт на рынок. Однако важно, чтобы такие меры не были чрезмерными», — добавила она. Поэтому аккуратное движение в направлении базовых мер превенции позволит России сохранить территорию свободы для развития технологий.
Как Индия и ОАЭ регулируют ИИ
Искусственный интеллект в Индии развивается очень активно, с ежегодными темпами роста около 25–35%. По оценкам, к 2027 году рынок ИИ в Индии достигнет $17 млрд.
Авик Саркар, член Совета по искусственному интеллекту в Министерстве электроники и информационных технологий Индии, считает важным найти баланс при регулировании искусственного интеллекта. «Мы должны обеспечить исключение вреда для населения. Это наша основная задача. В то же время мы должны развивать бизнес-экосистему в стране», — пояснил Саркар. Он указал, что в Европе регулирование часто касается «аутсайдеров», не учитываются потребности стартапов и малых компаний, которым необходима поддержка. «В Индии частно-государственное партнерство хорошо развито, и правительство играет важную роль в укреплении такого партнерства. Проблемы, с которыми мы сталкиваемся, отличаются от проблем других стран. Например, около 20% населения хорошо говорит по-английски, что важно учитывать», — добавил он.
Саркар отмечает, что индийские стартапы предлагают инновационные проекты не только для внутреннего рынка, но и для других стран, в том числе страна оптимистично смотрит на сотрудничество с Россией.
А как решают проблемы регуляторики в ОАЭ? Ведь за последние годы ОАЭ стали одной из ведущих стран в области технологий, включая создание должности министра по искусственному интеллекту в 2017 году и развитие стратегии по внедрению ИИ в экономику.
Халфан Белхул, генеральный директор Dubai Future Foundation, подчеркнул, что ОАЭ, будучи одной из самых молодых стран, только начинает осознавать полное влияние искусственного интеллекта на жизнь. Он рассказал о работе ОАЭ в области регулирования ИИ, в частности, о лаборатории регулирования, которая занимается инновациями и поддерживает диалог с госслужбами и министерствами. «Работа на министерском уровне, сотрудничество с госслужбами и министерствами — вот ключи к успеху. Все понимают, что использование ИИ связано с определенными рисками, но важно использовать его на благо человечества», — добавил Белхул. Он подчеркнул важность пользовательского опыта в определении баланса между благом для общества и потенциальными рисками.
Моральные алгоритмы
Не остались без внимания и вопросы интеграции этики в модели искусственного интеллекта. С одной стороны, учет культурных особенностей различных стран может способствовать качественному диалогу и сглаживанию конфликтов, а с другой стороны, такие модели могут формировать узкий взгляд. В качестве примера можно назвать взлом нейросетей OpenAI и создание модели Godmode GPT, которая могла использовать ненормативную лексику и давать инструкции по взлому автомобилей и приготовлению запрещенных веществ. Как должна быть встроена этика в модели ИИ, в какой момент и кто должен это определять?
Андрей Незнамов, управляющий директор — начальник центра регулирования AI Сбера начал с того, что искусственный интеллект не является эфемерной конструкцией и уже вписан в действующее правовое поле. К ИИ применяется множество нормативных требований, и каждая отрасль, где внедряется ИИ, подчиняется соответствующему регулированию. «Мы, как разработчики российских больших моделей, хорошо знаем, сколько законодательных требований необходимо соблюдать, и мы их соблюдаем», — отметил он. По его словам, создание общего закона об ИИ может быть неэффективным решением, поэтому спикер предложил несколько подходов для решения возникающих проблем. Во-первых, когда возникают определенные проблемы, их можно решить с помощью точечных изменений в законодательстве. Во-вторых, важную роль в регулировании применения ИИ играют пользовательские соглашения. Например, «Яндекс» и Сбер имеют разные подходы к вопросу о правах на созданные изображения, что отражено в их пользовательских соглашениях. В-третьих, он подчеркнул значимость этики в сфере искусственного интеллекта, отметив, что российский кодекс этики стал одним из самых известных инструментов, к которому присоединилось 27 разработчиков из 21 страны мира.
«Этика в сфере искусственного интеллекта — своеобразная платформа, где можно пилотировать решения сложных вопросов. Это не этика ИИ, а этика в сфере ИИ»,— пояснил Незнамов, подчеркнув, что интеграция этики в модели ИИ является важным и эффективным инструментом для закрытия оставшихся «серых зон» в регулировании.
Кстати, российский кодекс этики в сфере искусственного интеллекта уже собрал 400 подписантов благодаря созданию площадки для диалога по вопросам регулирования спорных вопросов. В исполнение кодекса была принята декларация об ответственном генеративном искусственном интеллекте, подписантами которой стали Сбер, «Яндекс» и ведущие научные школы. Они помогают разрабатывать большие модели. Незнамов указал, что этот путь является одним из самых перспективных для выстраивания системы регулирования.
Он также отметил скепсис, с которым некоторые относятся к этике, считая ее формой саморегулирования, которую можно игнорировать. «Это не так. Всегда есть отраслевое законодательство, от которого никто из нас не уйдет, хотим мы этого или нет. А там, где оно не очевидно применяется, этика является хорошим инструментом, особенно когда она поддержана государством», — подчеркнул Незнамов.
Проблема регулирования ИИ становится глобальной, и все страны мира сталкиваются с ней. Для системного обмена опытом и создания единой этической рамки взаимодействия была создана международная площадка — Альянс БРИКС аутрич по искусственному интеллекту. Это негосударственный альянс, предназначенный для взаимодействия и обмена опытом между странами-участницами.
Действовать как человек
AGI (Artificial General Intelligence), или сильный искусственный интеллект общего уровня, — термин, обозначающий будущие системы ИИ, способные выполнять любую интеллектуальную задачу, с которой справляется человек. В отличие от сегодняшних узких ИИ, созданных для конкретных целей, таких как распознавание лиц или игра в шахматы, AGI сможет учиться и адаптироваться ко множеству задач, словно универсальный мозг. Какие вызовы AGI может принести?
По мнению Андрея Незнамова, AGI представляет одну из самых серьезных проблем. Так, вначале никто не воспринимал AGI всерьез, считая его технологией далекого будущего. Однако со временем отношение научного сообщества изменилось. «Раньше все говорили, что AGI вообще не будет. Потом, что он будет где-то после 22 века, а потом ожидания начали снижаться. Сейчас некоторые зарубежные эксперты говорят, что AGI будет в 2027 году, как заявил Илон Маск, или даже в 2025 году, как сказал Альтман две недели назад», — напомнил Незнамов.
Мы действительно стоим перед невероятным вызовом: как контролировать то, что еще не создано? По словам спикера, право всегда инертно и регулирует существующие общественные отношения, тогда как отношения в связи с AGI пока не очевидны. Он предположил, что этика и диалог между разработчиками и регуляторами могут помочь в решении этой проблемы.
Какие угрозы появляются для рынка труда и населения, связанные с развитием искусственного интеллекта?
Антон Ткачев, первый заместитель председателя комитета Государственной Думы Федерального Собрания РФ по информационной политике, информационным технологиям и связи, начал с разграничения восприятия регулирования искусственного интеллекта на уровне комитета. Он отметил, что, в отличие от обсуждения AGI, стоит уделить внимание узким моделям ИИ, которые представляют собой технологии, аналогичные любому другому программному обеспечению. «Мы достаточно открыты и лояльны к малым и крупным разработчикам, и здесь нет ограничений. Однако возникает вопрос персональных данных. Эффективность моделей, включая будущие AGI, критически зависит от данных», — пояснил Ткачев. Он упомянул, что недавно Максут Шадаев заявил о создании обезличенного государственного облака данных, которое могут использовать разработчики. Вопрос качества этих данных остается открытым.
«Мы должны обратить внимание на формирование рынка малого и среднего предпринимательства (МСП). Например, в Воронежской области многие предприятия даже не знакомы с ИИ и считают его слишком сложным и дорогим. Им не хватает информации и поддержки» — подчеркнул он.
По его словам, политическая партия «Новые люди» запускает лабораторию искусственного интеллекта, которая будет заниматься алгоритмикой и внедрением ИИ в МСП. Планируются мероприятия, направленные на просвещение и развитие этого направления. «AGI будет эффективным только при наличии больших вычислительных мощностей. Если мы не создадим культуру запроса на ИИ среди МСП, то не получим этих мощностей. Государственная Дума полностью включена в эту работу. Мы открыты для поддержки малых моделей ИИ без учета персональных данных, и мешать этому никто не будет», — заключил Ткачев.
ИИ в финансах
Как банки справляется с вызовами, сложностями и ограничениями в сфере искусственного интеллекта?
По словам Константина Маркелова, вице-президента по бизнес-технологиям Т-Банка в сфере финтеха и финансов, дела обстоят примерно так же, как во всей индустрии ИИ. Но регулирование технологии сложнее и опаснее, чем регулирование ее использования или тех, кто ее использует.
«Представьте, что мы начнем регулировать производителей двигателей внутреннего сгорания, и если автомобиль собьет человека, то будем предъявлять претензии к производителю. В таком случае виноват водитель, а не технология. В финансах мы сейчас сталкиваемся с проблемой дипфейков», — пояснил Маркелов.
Он указал, что дипфейки представляют серьезную опасность, так как законодательство России позволяет получать финансовые услуги по биометрическим данным. Например, мошенники звонят голосом СЕО банка и просят перевести деньги, используя реалистичные видео или аудиозаписи.
«То же самое происходит с банком: пишут в чат поддержки, звонят в кол-центр, представляясь клиентами. Технологии используются вредоносно. Генеративные технологии могут создавать вредоносный контент, но это не значит, что технология должна исчезнуть. Важно, кто и как ее использует», — добавил он, сделав акцент на необходимости ответственности за неправильное применение технологий. Он также отметил, что 5–10 лет назад оптимисты не ожидали, что развитие AGI будет таким быстрым.
«Если эта экспонента продолжится, то придется понять, что именно регулировать. Возможно, в будущем не мы станем регулировать технологии, а технологии начнут регулировать нас. Это спорный тезис, но его стоит обдумать», — заключил Константин Маркелов.
Спикер выразил надежду, что в будущем искусственный интеллект не запретит людям самим себя регулировать, предположив, что регулирование может касаться не только ИИ, который используют люди, но и людей, которые не используют ИИ или используют его неправильно.
«В будущем, я верю, что в большинстве профессий — врачи, юристы, судьи или водители, — появятся настоящие copilots, предоставляющие второе мнение. Врач, который не использует это второе мнение, будет считаться устаревшим», — отметил Маркелов.
По мнению Алексея Каширина, директора Центра продвинутой аналитики Альфа-Банка, регулирование как «защита от дурака» может стать полезным, но в некоторых вопросах нужно искать новые подходы, особенно в работе с данными.
«Интенсификация обмена данными — огромный драйвер для развития искусственного интеллекта. Если обмена данными не будет, это может стать ключевым блокиратором для развития ИИ», — отметил Каширин.
Он напомнил цитату президента РФ, которую неоднократно упоминали на ПМЭФ, о развитии искусственного интеллекта, которое невозможно остановить, а значит, нужно возглавить. «Для того чтобы возглавить, необходимо понимать, что делать с новыми технологиями обмена данными. С одной стороны, это порождает множество рисков, с другой — технологии могут минимизировать подобные риски», — сказал Алексей и отметил, что риски возникают не только от технологий, но и от пользователей, которые часто сами предоставляют мошенникам доступ к своим аккаунтам.
«Образовательная функция очень важна. В Альфа-Банке уже не один год преподаем финансовую грамотность, а сейчас начали преподавать цифровую грамотность. Если все крупные участники рынка займутся этим и регулятор систематизирует и сделает это регулярным, то мы сможем снизить технологические риски», — заключил Алексей Каширин.
Опубликовано 28.06.2024