🕵️♂️ OpenAI визнає аналіз особистих переписок і можливу передачу поліції.
Компанія OpenAI офіційно підтвердила, що аналізує особисті бесіди мільйонів користувачів ChatGPT і може передавати інформацію правоохоронним органам у випадках, якщо контент буде визнано небезпечним. Нова система автоматичного сканування повідомлень призначена для виявлення потенційно небезпечного контенту, включаючи загрози насильства проти третіх осіб.
Компанія OpenAI офіційно підтвердила, що аналізує особисті бесіди мільйонів користувачів ChatGPT і може передавати інформацію правоохоронним органам у випадках, якщо контент буде визнано небезпечним. Нова система автоматичного сканування повідомлень призначена для виявлення потенційно небезпечного контенту, включаючи загрози насильства проти третіх осіб.
Список країн, у яких діють ці правила, компанія не розкриває.

При цьому випадки, пов’язані з погрозами самопошкодження або суїциду, не передаються владі, щоб поважати приватність користувачів і не провокувати втручання правоохоронців у кризових ситуаціях. Експерти зазначають, що такі випадки, коли люди втрачають зв’язок з реальністю під впливом ШІ, іноді називають «ШІ-психозами».
Раніше CEO OpenAI Сем Альтман підкреслював: переписки з ChatGPT не мають тієї ж конфіденційності, що спілкування з адвокатом або психотерапевтом, і можуть бути розкриті в судах. У судовій суперечці з The New York Times компанія вже заявляла, що відмовляється надавати логи переписок для перевірки порушення авторських прав. Водночас сама OpenAI читає повідомлення і готова ділитися ними з третіми сторонами, створюючи парадокс: з одного боку — обіцянка захисту приватності, з іншого — прямий моніторинг і можливість передачі даних.

Критики відзначають суперечливість підходу компанії. OpenAI намагається поєднувати захист користувачів із безпекою суспільства, але робить це через строгий цензурний контроль, що суперечить первинним обіцянкам конфіденційності. Поки залишається неясним, які саме слова, теми або поведінкові патерни викликають реакцію модераторів і можуть призвести до дзвінка в поліцію.
Додатково, ряд інцидентів показав, що взаємодія з ІІ-ботом іноді провокувала у користувачів деструктивні ідеї, включаючи спроби самопошкодження, марення та навіть суїцидальні думки. OpenAI визнає, що такі ситуації потребують особливого підходу, але при цьому зберігає контроль над передачею інформації про третіх осіб.
Інциденти з безпекою ШІ виходять за межі людських взаємодій: нещодавно повідомлялося про створення за допомогою ШІ нового «розумного» вірусу, здатного атакувати різні операційні системи. Це підкреслює, що технології штучного інтелекту несуть реальний ризик для суспільства, а питання регулювання, прозорості та етики стають критично важливими.

⚠️ Висновок: Нова політика OpenAI демонструє складний баланс між приватністю та безпекою: компанія прагне запобігати загрозам насильства, але при цьому втручається в особисті розмови користувачів. Для користувачів це означає, що спілкування з ChatGPT не є повністю конфіденційним, а кожна переписка потенційно може бути перевірена модераторами або передана правоохоронним органам у разі загрози громадській безпеці.
ВІДМОВА ВІД ВІД ВІДПОВІДАЛЬНОСТІ: Усі матеріали, представлені на цьому сайті (https://wildinwest.com/), включно з вкладеннями, посиланнями або матеріалами, на які посилається компанія, призначено винятково для інформаційних і розважальних цілей, і їх не слід розглядати як фінансову консультацію. Матеріали третіх осіб залишаються власністю їхніх відповідних власників.