Как вернуть ИИ в реальный мир и заставить говорить правду?

Логотип компании
Как вернуть ИИ в реальный мир и заставить говорить правду?
Брайан Худ, политик из Австралии был крайне удивлен тем, что по версии ChatGPT, он является осужденным преступником. Естественно, он решил пойти по пути судебных разбирательств, и уведомил об этом разработчика чат-бота. Непосредственно в этом случае, он собирался судиться с разработчиками из OpenAI. Его история является хорошей иллюстрацией проблемы, часто возникающей при использовании технологий искусственного интеллекта.

Чат-боты обучаются на огромных объемах данных, и их переобучение требует затрат и времени. Возможно поэтому его устные претензии к OpenAI не особенно помогли. Его проблема была решена, только после того, как ей заинтересовались СМИ, и лишь после выхода новой версии ChatGPT. Впрочем, сам он, так и не получил никаких объяснений.

Такие компании, как Google и Microsoft, сейчас вовсю используют в своих продуктах технологии искусственного интеллекта. Похоже, что вскоре им придется реагировать на массовые требования об удалении ложной информации или по поводу нарушений авторских прав.

Все понимают, что искусственный интеллект способен генерировать бессмысленные и ложные идеи, но неспособен нести за них никакой ответственности. В связи с этим, напрашивается вопрос: к кому конкретно будут направляться претензии и судебные иски, и каким образом заставить ИИ не выдавать ложную информацию о конкретной личности?

Пытаясь найти решение проблемы, ученые создают новую область под названием «машинное отучение», которая пытается научить алгоритмы «забывать» недопустимые фрагменты данных. Среди тех, кто первым обратил на эту проблему внимание, была лаборатория Google DeepMind.

Эксперты Google вместе с другими учеными опубликовали статью, описывающую алгоритм удаления выбранных данных из языковых моделей —таких как ChatGPT и чат-бот Google Bard. В июне Google объявила конкурс для других по усовершенствованию методов отучения, в котором уже насчитывается более одной тысячи участников.

Тем не менее, некоторые исследователи полагают, что необходимо точно определить юридические принципы использования технологий искусственного интеллекта. Например, определить на каких основаниях и откуда собираются данные для обучения, кто получает прибыль от использования готовых продуктов, или кто будет нести ответственность за вред, нанесенный при помощи ИИ.

Читайте также
Межсетевые экраны следующего поколения (NGFW) все шире используются российскими компаниями для защиты от атак и вторжений. О том, как развивается это направление ИБ-продуктов и какие тенденции сегодня заметны на этом рынке, нам рассказал менеджер по развитию компании UserGate Александр Луганский.

Опубликовано 12.12.2023

Похожие статьи