Google ужесточает требования для исследований ИИ из-за проблем с цензурой
Компания просит авторов воздержаться от представления технологий в негативном свете, а также консультироваться с различными отделами из-за ряда «деликатных тем».
Согласно новой процедуре проверки Google, исследователи должны проконсультироваться с юридическими, политическими и общественными отделами, прежде чем приступать к рассмотрению таких тем, как анализ лиц и эмоций, а также категоризация по признаку расы, пола или политической принадлежности. Также в списке «острых моментов» можно обнаружить нефтяную промышленность, Китай, Иран, Израиль, COVID-19, безопасность дома, страхование, данные о местоположении, религию, беспилотные автомобили, телекоммуникации и системы, рекомендующие или персонализирующие веб-контент.
«Развитие технологий и нынешние тенденции во внешней среде все чаще приводят к ситуациям, когда кажущиеся безобидными проекты поднимают этические, репутационные, нормативные или правовые вопросы», — говорится во внутреннем документе о политике компании для исследовательского персонала.
По словам сотрудников Google, пункт о «деликатных темах» стал дополнительным этапом проверки работ на такие подводные камни, как разглашение коммерческой тайны. Однако в некоторые проекты компания вмешалась перед самой публикацией, попросив авторов «проявлять большую осторожность, чтобы задать позитивный тон».
В одном из них была поднята тема «рекомендательного ИИ», как например сервисы YouTube для персонализации контента пользователей. Авторы высказали опасения, что технология может способствовать «дезинформации, дискриминационным или иным несправедливым результатам» и «недостаточному разнообразию контента», а также вести к «политической поляризации». В последней публикации вместо этого говорится, что системы могут способствовать «повышению точности информации, справедливости и разнообразию контента». То есть фокус был смещен на позитивные аспекты.
«Это не означает, что мы должны прятаться от настоящих проблем», — пояснили в Google.
Тем не менее штатные исследователи заявляют, что, по их мнению, компания начинает вмешиваться в важные исследования потенциального вреда от технологий. Как отметила Маргарет Митчелл, одна из сотрудников Google, «если мы исследуем что-то исходя из нашего опыта, и нам не разрешается публиковать это из-за несоответствия качественному рецензированию, то мы сталкиваемся с серьезной проблемой цензуры».
На своем сайте Google заявляет, что ее ученые имеют «ощутимую» свободу, тем не менее напряжение в коллективе достаточно очевидно, особенно если учитывать уход Тимнит Гебру, которая вместе с Маргарет возглавляли команду из 12 человек, сосредоточенную на этике в применении искусственного интеллекта. По словам Гебру, Google уволил ее после того, как она оспорила приказ не публиковать исследование, в котором утверждалось, что имитирующий речь искусственный интеллект может поставить в невыгодное положение маргинализированные группы населения.
Компания заявила, что всего лишь приняла и ускорила ее отставку. Старший вице-президент Джефф Дин уточнил в своем заявлении, что в статье Гебру говорится о потенциальном вреде, но не обсуждаются предпринимаемые усилия по его устранению.
Бурный рост исследований и разработок в области искусственного интеллекта побудили власти США и других стран начать разрабатывать правила его использования. Среди аргументов встречаются цитаты из научных исследований, показывающие, что программное обеспечение для анализа лиц и ему подобное могут закрепить предубеждения или разрушить конфиденциальность.