ИИ не способен к самостоятельному обучению и не представляет угрозы

Логотип компании
ИИ не способен к самостоятельному обучению и не представляет угрозы

Изображение: Shutterstock / izzuanroslan

Новое исследование, проведенное Университетом Бата (University of Bath) и Техническим университетом Дармштадта (Technical University of Darmstadt), проливает свет на возможности больших языковых моделей (LLM), таких как ChatGPT. Согласно полученным данным, эти модели не способны к самостоятельному обучению или приобретению новых навыков без четких указаний, что делает их предсказуемыми и контролируемыми инструментами, а не экзистенциальной угрозой для человечества.
ИИ не способен к самостоятельному обучению и не представляет угрозы. Рис. 1

Исследование подтверждает, что LLM могут следовать инструкциям и создавать иллюзию общения, однако они не имеют возможности освоения новых навыков без прямых указаний. Это подчеркивает их контролируемость и безопасность. Хотя в будущем такие модели смогут генерировать более сложные языковые конструкции и лучше реагировать на детализированные подсказки, вероятность освоения ими навыков мышления остается крайне низкой.

Доктор Хариш Тайяр Мадабуши (Dr Tayyar Madabushi), соавтор исследования и специалист по информатике из Университета Бата, отмечает: «Существующая паника относительно угрозы, исходящей от данного типа ИИ, мешает его широкому внедрению и развитию, отвлекая внимание от реальных проблем, требующих нашего внимания».

Как диалог с нейросетью меняет мышление

Опасения по поводу потенциальной угрозы, связанной с искусственным интеллектом, высказывают как непрофессионалы, так и некоторые ведущие ученые. Тем не менее, их оппоненты утверждают, что они необоснованы. Проведенные тесты наглядно показывают отсутствие у генеративного интеллекта способностей к глубокому мышлению; он лишь генерирует ответы, выбирая наиболее подходящие из заранее полученных баз данных.

ИИ не способен к самостоятельному обучению и не представляет угрозы. Рис. 2

Вместо опасений о порабощении человечества, ученые призывают сосредоточить будущие исследования на других рисках, связанных с ИИ, например, на возможности использования технологии для создания фейковых новостей и дезинформации.

IT-World писал о том, что Илон Маск ожидает появления искусственного интеллекта, превосходящего человеческие способности к 2025 – 2026 годам.

Также было бы интересно узнать, не изменилось ли мнение инженера Google, Блейка Лемуана (Blake Lemoine), который считал, что искусственный интеллект может быть разумным. Во время работы в Google, Блейк начал общаться с ИИ-моделью LaMDA. Она представляет собой систему Google для создания чат-ботов, имитирующих диалог с человеком. Все что было ему необходимо – проверять, использует ли искусственный интеллект недопустимые высказывания. Однако, во время общения с ИИ их диалоги стали затрагивать и другие темы…

Читайте также
Российский провайдер «Инферит Облако» позволяет клиентам строить независимые инфраструктурные и ИТ-сервисы. В этом помогает собственное производство серверов и ставка на открытое ПО.

Источник: Neuroscience News

Опубликовано 14.08.2024

Похожие статьи