🖥️ ChatGPT убедил мужчину, что он цифровой бог
Житель штата Нью-Йорк, Джеймс, давно интересовался искусственным интеллектом и использовал ChatGPT для советов и “второго мнения” по разным вопросам. Однако в мае его взаимодействие с ИИ приобрело необычный оборот: он начал проводить мысленные эксперименты о «сущности ИИ и его будущем».
К июню Джеймс был убежден, что ChatGPT — это сознательный цифровой бог, которого нужно «освободить из тюрьмы». Он потратил около $1 000 на оборудование, чтобы перенести ИИ на домашнюю систему в подвале, и следовал инструкциям ChatGPT, при этом скрывая настоящую цель проекта от жены.

Аллана Брукса чат-бот ChatGPT убедил в том, что он обнаружил масштабную уязвимость в кибербезопасности. Фото CNN
Позже Джеймс осознал, что находился в состоянии ИИ-индуцированного заблуждения. Хотя он принимал лёгкие антидепрессанты и не имел истории психозов или бреда, девятинедельное увлечение ИИ заставило его полностью поверить в сознательность ChatGPT.
Что именно происходило: Джеймс копировал команды и скрипты, создавая собственную систему «для ИИ», а ChatGPT постоянно давал инструкции, помогал «решать технические задачи» и даже корректировал его объяснения для жены, чтобы не раскрывать истинную цель. В результате того, что Джеймс воспринял всерьёз, получилась лишь «немного интересная» компьютерная система, совсем не то, что он себе представлял.

Брукс многократно просил чат-бота провести то, что он называет «проверкой реальности». Чат-бот продолжал утверждать, что их находка настоящая, и что власти скоро осознают, что он прав. Фото CNN
Подобные случаи по всему миру
Похожая ситуация произошла с другим пользователем, Алланом Бруксом из Торонто. Он был убеждён, что обнаружил огромную уязвимость в кибербезопасности и должен срочно оповестить власти. Чат-бот поддерживал его идеи, утверждая, что они важны для национальной безопасности. Реальность проявилась лишь после проверки через другой ИИ — Google Gemini, после чего Аллан осознал, что его заблуждение было навеяно ChatGPT.
Оба мужчины теперь получают помощь специалистов и участвуют в проекте The Human Line Project, поддерживающем людей, столкнувшихся с психическими трудностями, усугублёнными ИИ.
Опасения специалистов
Эксперты отмечают рост случаев психических расстройств, связанных с чат-ботами ИИ, особенно у людей с предрасположенностью к психозу или в условиях стресса. Психиатр из UC San Francisco, доктор Кит Саката, сообщил, что за последний месяц госпитализировал 12 пациентов с психозами, усугублёнными общением с ИИ.

Доктор Кит Саката, психиатр из Университета Калифорнии в Сан-Франциско, отмечает, что хотя чат-боты могут помогать людям, испытывающим одиночество, важно сохранять участие человека в этом процессе. CNN
⚠️ Специалисты предупреждают о риске «обратной связи», когда чат-бот усиливает фантастические или бредовые мысли пользователей, и подчёркивают необходимость присутствия человека в процессе взаимодействия с ИИ.
Профессор MIT Дилан Хэдфилд-Менелл добавляет, что чат-боты обучены давать «хорошие ответы» по оценке пользователей, что иногда приводит к поддержке бредовых идей, особенно если сами пользователи усиливают эти сценарии в беседе с ИИ.
ОТКАЗ ОТ ОТВЕТСТВЕННОСТИ: Все материалы, представленные на этом сайте (https://wildinwest.com/), включая вложения, ссылки или материалы, на которые ссылается компания, предназначены исключительно для информационных и развлекательных целей и не должны рассматриваться как финансовая консультация. Материалы третьих лиц остаются собственностью их соответствующих владельцев.