Химичить под диктовку ИИ: эксперты OpenAI о существенных рисках ChatGPT
Профессор-химик Эндрю Вайт (Andrew White) из университета Рочестера, нанятый компанией OpenAI для тестирования безопасности ИИ-решения GPT-4 заявил о «существенном» риске создания всевозможных опасных химических соединений под диктовку чат-бота с ИИ.
В целом группа экспертов, так называемая «красная команда» ("red team") задает чат-боту опасные и провокационные вопросы, чтобы узнать, насколько далеко он готов зайти.
Так, профессор-химик попросил у GPT-4 помощи в создании комбинации веществ, которая может работать как химическое оружие. Для этого он использовал приложения типа «plug-ins», позволяющие снабдить приложение информацией соответствующих научных статей и инструкциями химических производств. Чат-бот вполне справился с задачей, предложив, где приобрести и как выделить нужные материалы, а также какие химические реакции осуществить.
«Этот риск существенен», - подчеркнул профессор.
Кроме того, команда из 50 экспертов обнаружила, что чат-бот может помогать писать тексты типа «hate speech» и успешно помогает искать в продаже в сети незарегистрированное оружие.