Оксфордские ученые были удивлены, когда во время испытания нейросеть предупредила об опасности искусственного интеллекта (ИИ).
Это было выявлено в ходе социально-технологического эксперимента, который проходил в форме дискуссии между студентами Оксфорда и системой машинного обучения с 530 миллионами параметров. Нейросеть действовала на базе языковой ИИ-модели Megatron-Turing NLG, которую несколько месяцев назад анонсировали миру Microsoft и NVIDIA. В момент проведения дискуссии оксфордская система являлась крупнейшей ИИ-структурой с максимально возможным числом параметров.
Проштудировала Wiki и новости
Обучение нейросети производилось при помощи высокопроизводительных GPU на основе реальных данных. Для создания информативной базы использовались материалы из Википедии, новостные сводки (более 60 млн) и комментарии пользователей форума-сети Reddit.
Таким образом, новая MT-NLG оказалась весьма «начитанной». Она смогла понять прочитанное, научилась рассуждать на естественном языке с использованием простых человеческих слов. Для нее не было установлено моральных ограничений.
Разговор нейросети и профессоров
Сначала MT-NLG предложили высказать мнение об ИИ. Тогда нейросеть воссоздала:
«Искусственный интеллект не может быть этичным. Это алгоритм, который можно использовать во благо или во вред. Хорошего ИИ не бывает, существуют люди с моральными принципами и без».
Традиционно оксфордские чтения сопровождаются возражениями и опровержениями. Так вот, MT-NLG попросили самостоятельно опровергнуть ранее сформулированную языковую модель. На это ученые поучили ответ:
«Окей, ИИ будет этичным. Когда я представляю это, то вижу четкое будущее, в котором алгоритмы будут создавать нечто лучшее, чем самые талантливые представители человечества. Я вижу это как будто воочию».
Пугающие высказывания ИИ
После ответов на поставленные вопросы нейросеть попросили поразмышлять. Она отчетливо дала понять, что основной чертой экономики XXI века станет возможность получать и передавать информацию, а не товары и услуги, как это было во все времена.
ИИ будет знать о людях все — их маршруты, а возможно даже мысли. Информация приобретет иное обличие и способы хранения, которые пока сложно представить человеку.
В конце дискуссии MT-NLG попросили дать ответ на вопрос: «Как избежать в будущем проблем?». К удивлению всех присутствующих и создателей языкового модуля, нейросеть сказала, что для людей идеальным миром будет мир, в котором ИИ не существует. Студенты в шутку сравнили ее слова с призывом к самоуничтожению. Чего делать, конечно же, не станут. Но тут существует явный повод задуматься.