Как вернуть ИИ в реальный мир и заставить говорить правду?
Чат-боты обучаются на огромных объемах данных, и их переобучение требует затрат и времени. Возможно поэтому его устные претензии к OpenAI не особенно помогли. Его проблема была решена, только после того, как ей заинтересовались СМИ, и лишь после выхода новой версии ChatGPT. Впрочем, сам он, так и не получил никаких объяснений.
Такие компании, как Google и Microsoft, сейчас вовсю используют в своих продуктах технологии искусственного интеллекта. Похоже, что вскоре им придется реагировать на массовые требования об удалении ложной информации или по поводу нарушений авторских прав.
Все понимают, что искусственный интеллект способен генерировать бессмысленные и ложные идеи, но неспособен нести за них никакой ответственности. В связи с этим, напрашивается вопрос: к кому конкретно будут направляться претензии и судебные иски, и каким образом заставить ИИ не выдавать ложную информацию о конкретной личности?
Пытаясь найти решение проблемы, ученые создают новую область под названием «машинное отучение», которая пытается научить алгоритмы «забывать» недопустимые фрагменты данных. Среди тех, кто первым обратил на эту проблему внимание, была лаборатория Google DeepMind.
Эксперты Google вместе с другими учеными опубликовали статью, описывающую алгоритм удаления выбранных данных из языковых моделей —таких как ChatGPT и чат-бот Google Bard. В июне Google объявила конкурс для других по усовершенствованию методов отучения, в котором уже насчитывается более одной тысячи участников.
Тем не менее, некоторые исследователи полагают, что необходимо точно определить юридические принципы использования технологий искусственного интеллекта. Например, определить на каких основаниях и откуда собираются данные для обучения, кто получает прибыль от использования готовых продуктов, или кто будет нести ответственность за вред, нанесенный при помощи ИИ.
Опубликовано 12.12.2023