ИИ: добрый помощник или коварный джинн?

Логотип компании
ИИ: добрый помощник или коварный джинн?
Искусственный интеллект (ИИ) прочно вошел в нашу жизнь. Из инновационного прорыва он превратился в технологию, которой мы пользуемся, сами того не замечая. Вместе с тем развитие ИИ порождает ряд этических вопросов — и ответы на многие из них пока еще не найдены.

Развитие искусственного интеллекта

Многие считают ИИ прорывной технологией, появившейся в последние годы. На самом деле в ее основе лежит идея, придуманная более полувека назад, — просто применять ее научились относительно недавно.

О создании искусственного интеллекта задумывался еще Алан Тьюринг, которого по праву считают отцом компьютерных наук. Сам термин появился в 1950-е — сочетание Artificial Intelligence («искусственный интеллект») предложил Марвин Минский, основатель Лаборатории искусственного интеллекта в Массачусетском технологическом университете.

Правда, тот же Минский в конце 1960-х, несмотря на ряд успешно работающих прототипов на электронных лампах, в конечном итоге разочаровался в возможностях нейронных сетей. После его критической статьи, написанной в соавторстве с Сеймуром Пейпертом, разработки ИИ и нейронных сетей приостановились почти на двадцать лет. Сказался и финансовый вопрос: работа с нейронными сетями и сегодня недешевое удовольствие, а тогда стоимость тем более требовала куда более серьезных ресурсов.

В этот период фактически развивался только один подвид ИИ — так называемые экспертные системы. Они не основывались на нейронных сетях и были способны заменить человека при выполнении отдельных специфических задач. Например, в 1980-е они обрабатывали большие объемы данных в крупных компаниях и предлагали решения на их основе для отдельных областей знаний. Несмотря на ощутимый вклад в развитие компьютерной отрасли, эти устройства просуществовали недолго. Вскоре их вытеснили самые обычные ПК: они почти не уступали в мощности и были более выгодными экономически. В 1990-е рынок экспертных систем в виде специализированных машин исчез, эволюционировав в отдельный класс популярных алгоритмов. Так, суперкомпьютер IBM Watson, известный в 2000-е, представлял собой экспертную систему, базирующуюся на современных технологиях.

Искусственный интеллект: направления и задачи

ИИ — понятие достаточно широкое, в него входят не только нейронные сети, но и алгоритмы, решающие рутинные задачи из области экспертных систем и математической статистики. Первые применяются, к примеру, в чат-ботах или системах распознавания образов, с помощью которых на производстве ведется визуальный контроль качества. Вторые активно используются в финансовой сфере: с их помощью клиенты получают персональные предложения за счет сегментации по группам. Они же обеспечивают более высокий отклик при проведении маркетинговых кампаний и социологических исследований. Объединение двух подходов позволило развиться новому направлению генеративных нейронных сетей, наподобие известного ChatGPT.

По принципам работы обычно выделяют две группы методов искусственного интеллекта: 

  • машинное обучение;
  • глубокое обучение.

Машинное обучение активно использует математическую статистику и смежные с ней области из теории графов для анализа входной информации в цифровом виде и поиска статистически подтвержденных ответов. Основу машинного обучения заложили экспертные системы конца 1980-х годов, создав серьезную алгоритмическую базу. Недаром одним из лучших «учебников» по математическим моделям в предиктивном и кластерном анализе долгое время было руководство по эксплуатации SPSS Statistics (позже IBM SPSS Statistics) — специализированного ПО для обработки статистических данных.

Глубокое обучение — подвид машинного обучения, создатели которого взяли в качестве ориентира принципы работы человеческого мозга. В своей основе он использует нейронные сети, связанные между собой алгоритмами машинного обучения, что позволяет модели «обучаться», передавая результат работы одной искусственной внутренней сети на вход другой в рамках единой глобальной задачи обучения. На основе этого подхода строится распознавание образов, работа с естественным языком и действуют генеративные нейронные сети для создания изображений, аудио- и видеоконтента.

Отдельно стоит отметить работу с естественным языком — направление, возникшее на пересечении математической лингвистики и методов искусственного интеллекта. Входные данные в такие системы поступают на обычном языке, разбиваются на понятные машине элементы, затем они обрабатываются, после чего машинный язык снова переводится в грамматически правильную фразу на естественном языке. Сегодня эта технология используется в чат-ботах и голосовых помощниках, упрощает взаимодействие с генеративными сетями и в целом снижает сложность взаимодействия между далекими от информационных технологий обывателями и искусственным интеллектом.

Чат-боты и голосовые помощники

Люди уже не представляют жизни без возможностей, предоставляемых инструментами на основе ИИ, в том числе без чат-ботов и голосовых помощников. И те и другие востребованы как со стороны бизнеса, так и со стороны рядовых пользователей. С их помощью компании обрабатывают входящие звонки или вовсе обходятся без звонков, экономя серьезные средства.

Что касается бытового применения голосовых помощников, ими пользуются даже далекие от технологий люди. Самый популярный из них в России, безусловно, «Алиса», но она далеко не единственная на рынке. При этом голосовые помощники становятся все умнее. Если еще несколько лет назад они нередко отвечали невпопад, то со временем таких «проколов» стало меньше.

В этом контексте стоит упомянуть и небезызвестный ChatGPT. С его помощью пишут дипломные работы, диссертации и даже статьи — что, впрочем, уже не раз вызывало широкий общественный резонанс. При этом ИИ так умело компонует данных, что даже фиктивная информация воспринимается как подлинная. И это, к слову, один из подводных камней: если в экспертных системах очень много внимания уделялось очистке и проверке данных, то здесь они просто берутся из сети со всеми вытекающими последствиями. Этот аспект порождает ряд этических вопросов — но их круг далеко не исчерпывается вопросами чистоты данных.

Этические вопросы

С развитием ИИ все актуальнее становятся этические вопросы его применения. Уже не так просто отличить изображение, сгенерированное нейросетью, от реальной фотографии. Это создает новые возможности — например, подобные изображения сегодня используются в маркетинговых целях. Воспользоваться нейросетью гораздо проще, чем покупать векторную графику в фотобанке, и к тому же гораздо дешевле. Поскольку в законодательстве нет четкого определения правового статуса нейронной сети, результат ее работы нельзя однозначно отнести к нелегальному использованию интеллектуальной собственности. Более того, у ряда генеративных моделей даже лицензионное соглашение составляется в достаточно свободной форме, в явном виде запрещая только репликацию известных торговых марок.

В то же время возникает ряд спорных моментов. Скажем, как быть с так называемыми дипфейками, когда нейросеть подменяет на фото или видео фигуры или лица людей? И этот метод используется далеко не в благородных целях. Уже не раз случался общественный резонанс из-за компрометирующих фото с политиками или порнороликов со знаменитостями, которые на поверку оказывались фальшивками, созданными нейросетью. Но еще хуже то, что не всегда есть возможность отличить реальное изображение от сфабрикованного.

Еще сложнее дело обстоит с подменой голоса. Если изображение можно синтезировать, то для голоса все еще нужны референсы — то есть записи голосов реальных людей. При этом сейчас также практически отсутствует легальная база, позволяющая регулировать использование подобных записей. К чему это приводит, показывает недавний кейс, когда актриса озвучания, записавшая свой голос для внутренних нужд известного банка, потом услышала его в рекламе порнороликов. При этом она ничего не могла сделать: в законодательстве попросту не предусмотрены подобные ситуации. Еще больше опасений вызывает развитие моделей, авторы которых заявляют, что могут воспроизвести любой голос из короткого образца. Несмотря на изначально благую цель в виде создания синхронных переводов и упрощения дубляжа и озвучки видеороликов, легко представить, как этой технологией могут воспользоваться телефонные мошенники.

Впрочем, и с картинками не все так гладко. Многие известные художники с популярного портала концепт-артов оказались в ловушке, обнаружив, что для обучения популярной нейронной сети применялись их работы, доступные широкой публике. С формальной стороны, ничего не было нарушено: изображение само по себе не хранится внутри созданной модели и не было использовано в коммерческих целях, однако теперь сеть может создать новые картинки, абсолютно точно копируя стиль оригиналов. В подобной ситуации зачем обращаться к художнику, если результат может быть доступен в считаные минуты и бесплатно? По этому поводу уже не раз высказывались протесты и предъявлялись претензии — и это, скорее всего, только начало.

Читайте также
Редакция IT Manager портала IT-World вместе с экспертами разбирается, как подход data-driven работает в России, какие задачи он решает и почему его значение продолжает расти, несмотря на санкционные вызовы и необходимость адаптации к новым условиям.

Что со всем этим делать, пока не очень понятно. То и дело звучат призывы запретить сбор биометрических данных, но этот путь представляется тупиковым. Мы так или иначе живем в цифровом мире, хотим мы того или нет. И даже если написать отказ от сбора биометрии, ее косвенно соберет десяток-другой устройств.

Образно говоря, мы выпустили джинна из бутылки, он пока веселый и забавный. Однако пока нет законодательной базы, оговаривающей вопросы использования ИИ, совладать с этим джинном не получится, и временами он уже начинает показывать зубы. Сейчас очень важно проработать юридическую основу, способную удержать его в узде. Это по большому счету и определит — наряду с технологиями — дальнейшие перспективы развития ИИ. Но хотя жесткая рука регулятора может быть эффективным решением, оно далеко не единственное. Параллельно с законодательными нормами для решения проблемы необходимо разрабатывать и внедрять корпоративную цифровую ответственность. И работать над этим нужно уже сейчас, пока «джинн» ИИ еще только набирает силу.

Опубликовано 29.11.2023

Похожие статьи