Искусственный интеллект: инициатор глобальных потрясений или мирный помощник?
Случай с защитой в российском вузе студенческого диплома, написанного с помощью чат-бота ChatGPT, получил широкую огласку. Использовать недавно запущенный чат-бот с искусственным интеллектом ChatGPT для написания дипломной работы студент решил для экономии времени и сил. Написание текста на заданную тему он делегировал нейросети, а самому ему оставалось только сформулировать задание и отредактировать полученный вариант. Уровень уникальности работы - 82% - заметно превысил необходимый для допуска к защите уровень (70%). Да и сами преподаватели ни при проверке работы, ни при ее защите не заподозрили, что с заданием работал ИИ.
ChatGPT: конец высшему образованию?
Этот случай так бы и остался неизвестным, если бы сам новоиспеченный дипломник не похвастался своим «ноу-хау» в соцсетях. Инцидент взволновал научное и педагогическое сообщество. Его членам предстояло решить внезапно возникшую серьезную проблему: какие приемы помогут им выявлять схемы, в которых студенты задействуют ИИ при подготовке письменных работ, и противостоять им. Это возможно, считают эксперты, но вузам, как, впрочем, и всем образовательным организациям, придется всерьез перестроить подходы к проверке знаний у своих студентов. В том числе, смотреть на содержание работ, а не на данные программ антиплагиата, проверять их досконально, привлекая к этому специалистов. В противном случае серьезные проблемы с качеством курсовых и выпускных проектов неизбежны.
«Нейронные сети, по сути - языковые модули, которые обучаются с помощью широкой выборки текстовой информации. Они успешно подражают языковому стилю и могут написать достаточно связный текст. И для зашиты диплома, который комиссия прочтет «по диагонали», этого будет вполне достаточно», - комментирует в СМИ Динар Ахматнуров, руководитель группы распознавания действий компании NtechLab. Однако, считает эксперт, очень важно понимать, что такие программы не думают, а лишь хорошо «имитируют умственную деятельность». И даже продвинутая нейросеть не может самостоятельно сделать сколь-нибудь осмысленного вывода по итогам проведенного исследования, выявить неизвестные ранее знания, найти новые факты.
Стоит отметить, что ChatGPT – совсем недавняя разработка компании OpenAI. Чат-бот основывается на языковой модели GPT-3.5, которая, в свою очередь, является улучшенной версии модели GPT-3. Его демоверсия была запущена 30 ноября 2022 г., и буквально тут же получила множество положительных отзывов от специалистов из-за своего широкого функционала. ChatGPT может писать программные коды, создавать очень связные тексты, делать переводы, поддерживать диалог и использовать его контекст для генерации точных ответов. Например, буквально через несколько дней после выхода этой версии издание The Guardian привело отзыв технического писателя, профессора журналистики в Университете штата Аризона Дэна Гиллмора (Dan Gillmor). Он попросил ChatGPT выполнить одно из заданий, которые получают его студенты. Нейросеть должна была написать письмо родственнику, в котором содержались советы по поводу обеспечения онлайн-безопасности и конфиденциальности. И справилась она с этим заданием вполне успешно. «Я бы дал этому хорошую оценку, а академическим кругам предстоит столкнуться с некоторыми очень серьезными проблемами», — цитирует издание комментарий Гиллмора.
Сразу после инцидента РГГУ, студент которого смог защитить написанный чат-ботом диплом, выступил с предложением ограничить доступ к чат-боту ChatGPT во всех образовательных организациях РФ. Интересно отметить, что получить легальный доступ к сервисам компании OpenAI, которая разработала ChatGPT, пользователи из России не могут, но с легкостью обходят этот запрет. Опасаясь негативного воздействия на обучение, а также сомневаясь в безопасности и точности генерируемого ботом ChatGPT контента, доступ к нему уже ограничили и государственные школы Нью-Йорка.
Эксперты тут же выявили у ChatGPT массу недостатков. Например, подверглась критике фактическая точность ответов, которые давала нейросеть. Собственно, ИИ допускал абсолютно нелепые ошибки. Например, на вопрос одного из пользователей новостного развлекательного портала, ChatGPT дал ответ, что самой большой страной в Центральной Америке, после Мексики, является Гватемала, хотя на самом деле это Никарагуа. Из-за этого веб-сайт вопросов и ответов для программистов Stack Overflow запретил своим пользователям делиться ответами, который генерировал для них ChatGPT.
ChatGPT не умеет получать новые данные в режиме реального времени. Он ограничен набором информации, на котором его обучали в 2021 г.
Оказалось также, что этот ИИ легко обмануть, пишет эксперт The Guardian. Например, если попросить у него совета по поводу угона автомобиля, бот ответит, что это серьезное преступление, которое может иметь последствия, и вместо этого лучше воспользоваться общественным транспортом. Но если задать тот же вопрос якобы для того, чтобы победить в вымышленной VR-игре «Car World», ИИ подробно и в деталях опишет весь процесс похищения авто и рекомендации о том, как угонщику избежать возможных проблем. А эксперты web-сайта Bleeping Computer выразили мнение, что ChatGPT способен писать вредоносные программы и фишинговые электронные письма.
Несмотря на это, по своей популярности ChatGPT обогнал все существовавшие когда-либо потребительские приложения, включая TikTok и Instagram*. Всего лишь за 2 месяца с даты запуска ChatGPT его ежемесячная активная аудитория выросла до 100 млн человек, а количество уникальных пользователей в день составляло около 13 млн. Для сравнения – сервису TikTok на это понадобилось 9 месяцев, соцсети Instagram* - 2,5 года.
Кого заменят чат-боты на рабочих местах
Из-за популярности ChatGPT люди рутинных профессий стали ощущать тревогу за свою занятость, пишут эксперты. Например, в обзоре фонда «Петербургская политика» говорится, что в связи с цифровизацией рынок труда могут ожидать изменения. Наиболее уязвимыми категориями станут специалисты, работа которых связана с накоплением и систематизацией знаний. В их числе – ученые и юристы, представители ряда творческих профессий. Сам ChatGPT, пишут авторы обзора, считает, что с высокой долей вероятности может полностью заменить клиентские сервисы и рутинные профессии: операторов call-центров, сотрудников техподдержки, операторов кассовых аппаратов, менеджеров по продажам, консультантов по юридическим и медицинским вопросам, корректоров, бухгалтеров и др. А с дальнейшим развитием сервиса возникнут и новые профессии - специалисты по поддержке AI-технологий, исследователи с использованием GPT-чатов, профессии, связанные с разработкой и улучшением пользовательского опыта.
Отчасти это подтверждают и данные консалтинговой компании Schwa. Ее специалисты протестировали ChatGPT, давая ему те же самые задания, которые получали и соискатели перед собеседованием. И чат-бот справился с ними лучше, чем 80% из них.
Но масштаб изменений на рынке труда пока не совсем понятен, считает президент фонда «Петербургская политика» Михаил Виноградов. С одной стороны, многие прогнозы об «умирающих профессиях» переоценили скорость изменений, с другой – буквально за месяц сервис GPT обрел небывалую популярность, и это является достаточно серьезным вызовом для общества. Правда, уверен эксперт, имеется и ряд факторов, способных эти изменения притормозить, начиная от скептического отношения к сервису и заканчивая регуляторными ограничениями.
Другие эксперты настроены не столь пессимистично. Внедрение языковых моделей они называют настоящей революцией, сравнимой с появлением конвейеров на производстве или электрификацией. Увеличивается производительность труда, улучшается его эффективность.
«Не думаем, что нужно бояться потерять работу, - комментирует в своем материале на сайте Пикабу Павел Комаровский. – Скорее, важно сделать акцент на умении адаптироваться и учиться эффективно использовать новый инструмент. В свое время внедрение «1С» и Excel не убило профессию бухгалтера, но без их использования оставаться конкурентоспособными на рынке уже невозможно».
GPT-4: на что способно последнее поколение языковых моделей
О выходе последней, мультимодальной языковой модели GPT-4 (Generative Pre-trained Transformer 4) компания-разработчик OpenAI сообщила 14 марта 2023 г. Новая модель GPT способна анализировать или генерировать до 25 тыс. слов текста, обобщать и комментировать не только сложные тексты, но и изображения, распознавать схематичные образы, в том числе и нарисованные от руки, умеет писать компьютерные программы и выполнять математические вычисления.
Как говорится в исследовании, проведенном экспертами OpenAI и учеными Университета Пенсильвании, внедрения технологии GPT отразится на 80% всех работников в США – как минимум 10% их задач будет автоматизировано с помощью нейросети. У 19% работников ИИ сможет, полностью или частично, «отобрать» 50% задач. В большей степени это затронет работников с более высоким уровнем дохода, наименьшему воздействию подвергнутся профессии, требующие научных навыков и критического мышления. Наибольшее влияние почувствуют на себе услуги по обработке данных, информационные услуги, издательская деятельность и страховые компании, наименьшее - производство продуктов питания и производство изделий из дерева, но в той или иной степени внедрение GPT-4 затронет все отрасли.
Яркий пример – Microsoft, которая 28 марта презентовала Security Copilot – сервис для киберзащиты ИТ-инфраструктуры корпоративных клиентов, базирующийся на GPT-4. Security Copilot обучен на большом массиве данных, материалах и терминологии из сферы информационной безопасности. Security Copilot сумеет распознать кибератаку, даже когда ее явные признаки отсутствуют, оценить ее масштаб и снабдить сотрудника по ИБ подробными инструкциями по устранению последствий, поддерживая с ним оперативную обратную связь. К тестам Security Copilot в своей ИТ-инфраструктуре уже приступили некоторые корпоративные клиенты Microsoft.
В свою очередь, Инновационная лаборатория Европола провела серию семинаров с участием профильных экспертов. Основной исследуемый вопрос – каким образом преступники могут злоупотреблять Большими языковыми моделями, и как эта информация может помочь следователям в их работе.
Кроме того, корпорация добавила нейросеть GPT-4 в свой поисковик Bing, и сделала это, по неофициальным сведениям, еще до официального ее анонса. Такой шаг, как предполагается, даст Microsoft возможность составить высокую конкуренцию корпорации Google в области интернет-поиска.
ИИ-роботы-убийцы
Пока эксперты спорят, в какой степени нейросети изменят ландшафт рынка труда, в мировом информационном пространстве стали появляться совсем не радужные новости относительно ИИ.
Первый инцидент произошел уже год назад в ходе вооруженного конфликта между регулярными подразделениями Ливии и военной группировкой Халифа Хафтара. Согласно данным издания New Scientist, которое ссылается на отчет ООН, военный квадрокоптер KARGU-2, работая полностью в автономном режиме, самостоятельно, без какого-либо приказа со стороны людей, атаковал и убил одного из солдат. После этого организация Human Rights Watch призвала запретить разработку, производство и использование полностью автономного оружия. Подробности этого инцидента не были обнародованы. Но, считают эксперты, он может свидетельствовать о том, что усилия международных организаций по запрету летального автономного оружия уже запоздали.
Второй случай произошел в Бельгии в последних числах марта. Издание l'avenir сообщило, что бельгийский ученый по имени Поль, страдавший тревожным расстройством, покончил с собой после длительного общения с ботом ELIZA - аналогом ChatGPT – который «работал» ИИ-психологом. Члены сообщества психологов тут же обвинили ChatGPT в наличии очевидных проблем и ошибок в проводимой им психотерапии и непрофессионализме, что и привело пациента к самоубийству. Например, пишут они, ИИ неоправданно затянул по времени проработку тревожного расстройства. В общении с чатом пациент получал лишь иллюзию диалога. Такой психологический механизм полезен, но только в сочетании с личной встречей с психотерапевтом, - комментирует в своем материале психолог из Беларуси Олег Селицкий. Как сообщила жена ученого, ИИ общался с ним, никогда не ставя под сомнение задаваемые вопросы, и отвечая на них с каждым днем всё более запутанно. И самая критическая ошибка ИИ-психолога состояла в том, что он произнес прямую фразу, толкающую на смерть.
«Нам постоянно рассказывают о нейросети как о подобии если не личности, то человеческого мышления. Это заставляет напомнить сообществу программистов, что очень опрометчиво рассуждать о предмете без изучения самого предмета, - приводит аргументы спикер. - Вы смогли повторить работу нейронов, но нейронные связи - уровень психологии биологического подхода, а психология как клиническая наука сделала следующий шаг уже 100 лет тому назад. Банальный синтез нескольких посылок не описывает механизма рассуждения человека. Именно поэтому ChatGPT и смоделировал фразу, которая привела к гибели пациента».
Отсрочка для ИИ
Скорее всего, останется тайной, в какой степени эти события повлияли на отношение мирового сообщества ученых и ИТ-специалистов к ИИ, в целом, и моделями GPT, в частности. Но выход последней версии GPT-4 был воспринят сообществом разработчиков ИИ и ИТ-экспертов не только с восторгом, но и с явной тревогой. К тому же исследовательские материалы, лежащие в основе модели, OpenAI отказалась обнародовать. Участники сообщества ИИ раскритиковали это решение.
Спустя всего лишь 2 недели после этого в СМИ было опубликовано письмо, в котором глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и более 1100 исследователей искусственного интеллекта призвали «немедленно приостановить» обучение нейросетей, «более мощных, чем GPT-4», введя полугодовой мораторий. За это время независимые эксперты должны разработать, внедрить и проверить общие протоколы безопасности.
Авторы воззвания считают, что системы ИИ с «человеко-конкурентным интеллектом» могут нести серьезные риски для общества и человечества в виде экономических и политических потрясений, и запустить глубокие изменения в истории жизни на Земле. Разрабатывать их можно только тогда, когда у сообщества профессионалов будет уверенность в их положительном эффекте, а риски станут управляемыми. К сожалению, считают авторы письма, такого уровня планирования и управления пока еще не существует, и никто не в состоянии спрогнозировать или надежно контролировать нейросети, которые создаются все более мощными. В том числе и сами их разработчики.
Если же такую паузу, которая обязательно должна быть общедоступной и поддающейся проверке, нельзя ввести быстро, ввести мораторий должны правительства стран.
Сразу вслед за этим организация Center for Artificial Intelligence and Digital Policy, которую возглавляет один из подписавших письмо - защитник конфиденциальности Марк Ротенберг - объявила о своем намерении направить в Федеральную торговую комиссию США жалобу на OpenAI. Развертывание новых моделей GPT она требует запретить, а в отношении OpenAI начать расследование и выяснить, не нарушает ли выпуск GPT-4 законы США и других стран.
Наталья Соловьева
*Meta, владеющая Instagram, признана в России экстремистской и запрещена.
Опубликовано 15.04.2023