🕵️♂️ OpenAI признаёт анализ личных переписок и возможную передачу полиции
Компания OpenAI официально подтвердила, что анализирует личные беседы миллионов пользователей ChatGPT и может передавать информацию в правоохранительные органы в случаях, если контент будет сочтён опасным. Новая система автоматического сканирования сообщений предназначена для выявления потенциально опасного контента, включая угрозы насилия против третьих лиц.
Алгоритмы отслеживают подозрительные диалоги и направляют их на проверку команде модераторов. Если специалисты считают, что человек готовится к физическому насилию, информация может быть передана в полицию.
Список стран, в которых действуют эти правила, компания не раскрывает.

При этом случаи, связанные с угрозами самоповреждения или суицида, не передаются властям, чтобы уважать приватность пользователей и не провоцировать вмешательство правоохранителей в кризисных ситуациях. Эксперты отмечают, что такие случаи, когда люди теряют связь с реальностью под влиянием ИИ, иногда называют «ИИ-психозами».
Ранее CEO OpenAI Сэм Альтман подчёркивал: переписки с ChatGPT не обладают той же конфиденциальностью, что общение с адвокатом или психотерапевтом, и могут быть раскрыты в судах. В судебном споре с The New York Times компания уже заявляла, что отказывается предоставлять логи переписок для проверки на нарушение авторских прав. При этом сама OpenAI читает сообщения и готова делиться ими с третьими сторонами, создавая парадокс: с одной стороны — обещание защиты приватности, с другой — прямой мониторинг и возможность передачи данных.

Критики отмечают противоречивость подхода компании. OpenAI пытается сочетать защиту пользователей с безопасностью общества, но делает это через строгую цензуру, что противоречит первоначальным обещаниям конфиденциальности. Пока остаётся неясным, какие именно слова, темы или поведенческие паттерны вызывают реакцию модераторов и могут привести к звонку в полицию.
Дополнительно, ряд инцидентов показал, что взаимодействие с ИИ-ботом иногда провоцировало у пользователей деструктивные идеи, включая попытки самоповреждения, бредовые состояния и даже суицидальные мысли. OpenAI признаёт, что такие ситуации требуют особого подхода, но при этом сохраняет контроль над передачей информации о третьих лицах.
Инциденты с безопасностью ИИ выходят за пределы человеческих взаимодействий: недавно сообщалось о создании с помощью ИИ нового умного вируса, способного атаковать различные операционные системы. Это подчёркивает, что технологии искусственного интеллекта несут реальный риск для общества, и вопросы регулирования, прозрачности и этики становятся критически важными.

⚠️ Вывод: Новая политика OpenAI демонстрирует сложный баланс между приватностью и безопасностью: компания стремится предотвращать угрозы насилия, но при этом вмешивается в личные разговоры пользователей. Для пользователей это значит, что общение с ChatGPT не является полностью конфиденциальным, а каждая переписка потенциально может быть проверена модераторами или передана правоохранительным органам при угрозе общественной безопасности.
ОТКАЗ ОТ ОТВЕТСТВЕННОСТИ: Все материалы, представленные на этом сайте (https://wildinwest.com/), включая вложения, ссылки или материалы, на которые ссылается компания, предназначены исключительно для информационных и развлекательных целей и не должны рассматриваться как финансовая консультация. Материалы третьих лиц остаются собственностью их соответствующих владельцев.