ИИ не способен к самостоятельному обучению и не представляет угрозы

Логотип компании
ИИ не способен к самостоятельному обучению и не представляет угрозы

Изображение: Shutterstock / izzuanroslan

Новое исследование, проведенное Университетом Бата (University of Bath) и Техническим университетом Дармштадта (Technical University of Darmstadt), проливает свет на возможности больших языковых моделей (LLM), таких как ChatGPT. Согласно полученным данным, эти модели не способны к самостоятельному обучению или приобретению новых навыков без четких указаний, что делает их предсказуемыми и контролируемыми инструментами, а не экзистенциальной угрозой для человечества.
ИИ не способен к самостоятельному обучению и не представляет угрозы. Рис. 1

Исследование подтверждает, что LLM могут следовать инструкциям и создавать иллюзию общения, однако они не имеют возможности освоения новых навыков без прямых указаний. Это подчеркивает их контролируемость и безопасность. Хотя в будущем такие модели смогут генерировать более сложные языковые конструкции и лучше реагировать на детализированные подсказки, вероятность освоения ими навыков мышления остается крайне низкой.

Доктор Хариш Тайяр Мадабуши (Dr Tayyar Madabushi), соавтор исследования и специалист по информатике из Университета Бата, отмечает: «Существующая паника относительно угрозы, исходящей от данного типа ИИ, мешает его широкому внедрению и развитию, отвлекая внимание от реальных проблем, требующих нашего внимания».

Как диалог с нейросетью меняет мышление

Опасения по поводу потенциальной угрозы, связанной с искусственным интеллектом, высказывают как непрофессионалы, так и некоторые ведущие ученые. Тем не менее, их оппоненты утверждают, что они необоснованы. Проведенные тесты наглядно показывают отсутствие у генеративного интеллекта способностей к глубокому мышлению; он лишь генерирует ответы, выбирая наиболее подходящие из заранее полученных баз данных.

ИИ не способен к самостоятельному обучению и не представляет угрозы. Рис. 2

Вместо опасений о порабощении человечества, ученые призывают сосредоточить будущие исследования на других рисках, связанных с ИИ, например, на возможности использования технологии для создания фейковых новостей и дезинформации.

IT-World писал о том, что Илон Маск ожидает появления искусственного интеллекта, превосходящего человеческие способности к 2025 – 2026 годам.

Также было бы интересно узнать, не изменилось ли мнение инженера Google, Блейка Лемуана (Blake Lemoine), который считал, что искусственный интеллект может быть разумным. Во время работы в Google, Блейк начал общаться с ИИ-моделью LaMDA. Она представляет собой систему Google для создания чат-ботов, имитирующих диалог с человеком. Все что было ему необходимо – проверять, использует ли искусственный интеллект недопустимые высказывания. Однако, во время общения с ИИ их диалоги стали затрагивать и другие темы…

Читайте также
На что делают ставку злоумышленники, пытаясь угадать пароли пользователей? Какие факторы, помимо выбора пароля, влияют на безопасность данных пользователя? Какие меры могут принять пользователи для повышения безопасности своих данных?

Источник: Neuroscience News

Опубликовано 14.08.2024

Похожие статьи