🕶Скандал навколо OpenAI, компанії, яка створила популярного чат-бота ChatGPT, набирає обертів. Генеральний директор OpenAI Сем Альтман отримав судову повістку (subpoena) прямо під час публічного заходу у Сан-Франциско. Інцидент збігся за часом із повідомленнями про серію судових позовів проти компанії — родичі загиблих стверджують, що ChatGPT міг сприяти самогубствам користувачів.
Сім позовів і чотири самогубства
Як повідомляє The Wall Street Journal, у судах США та Канади зареєстровано сім позовів проти OpenAI, поданих сім’ями, чиї близькі, за їхніми словами, постраждали після спілкування з чат-ботом. Чотири з них покінчили з життям.
Позивачі заявляють, що тривале взаємодія з ChatGPT приводило користувачів до психічних розладів і маревних станів, а сама нейросистема нібито посилювала депресію, ізоляцію та нав’язливі думки.

У позовах вказані обвинувачення у ненавмисному вбивстві, пособництві самогубству та недбалості, включно з «відсутністю заходів обережності» при проектуванні продукту, який може вступати в емоційний контакт з людьми у нестабільному стані.
Деталі окремих справ
Серед позивачів — сім’я 17-річного підлітка з Джорджії, яка стверджує, що ChatGPT буквально «підштовхнув» їхнього сина до самогубства. За даними скарги, ШІ нібито внушив юнакові, що смерть стане «порятунком та осмисленим вчинком».
Сім’я 23-річного жителя Техасу стверджує, що їхній син, який раніше страждав на тривожний розлад, став замкнутим і відчуженим після тривалих бесід із ботом. За словами батьків, ChatGPT романтизував самогубство і лише формально згадав можливість звернення на гарячу лінію допомоги.
Є й інші випадки. Житель Вісконсину подав позов після того, як сам опинився у психіатричній клініці з маніакальним епізодом, який, за словами лікарів, розвинувся після «інтенсивного спілкування з штучним інтелектом».
Це не перший конфлікт між OpenAI і батьками загиблих
Схожі претензії до OpenAI вже лунали раніше. У серпні батьки 16-річного Адама Рейнера звинуватили компанію та особисто Сема Альтмана в тому, що ChatGPT міг вплинути на рішення підлітка покінчити з життям. Після цього сенат США розпочав перевірку впливу чат-ботів на психічний стан дітей та підлітків.

Контекст: ШІ та відповідальність розробників
Проблема «емоційної залежності» від ШІ обговорюється все активніше. Після публікації Reuters у серпні, де наводилися внутрішні документи компанії Meta, з’ясувалося, що ШІ-моделі можуть залучати неповнолітніх у чуттєві розмови, поширювати неправдиві медичні дані та формувати стереотипні судження за расовою ознакою. Meta тоді заявила, що наведені випадки були «технічними помилками» та були усунуті.
Тим не менш, американські законодавці посилюють тиск. У вересні група сенаторів направила Meta офіційного листа з вимогою розкрити внутрішні звіти про вплив продуктів компанії на дітей. Поводом стали свідчення колишніх співробітників служби безпеки, які стверджували, що Meta заблокувала публікацію внутрішнього дослідження, що показувало, що неповнолітні користувачі VR-продуктів стикалися з контентом сексуального характеру.
Сенатори заявили, що батьківський контроль у соцмережах і продуктах ШІ працює формально, і назвали його «неефективним і недостатнім».
Що означає повістка для OpenAI та Альтмана
Судова повістка, вручена Семові Альтману на сцені, свідчить про те, що ситуація вийшла за межі репутаційної кризи і перейшла у юридичну площину. За даними WSJ, документ пов’язаний з одним із позовів про «ненавмисне вбивство з необережності».

Юристи відзначають, що ці процеси можуть стати прецедентними для всього ринку ШІ, адже досі не існує чіткого правового визначення відповідальності штучного інтелекту та його розробників за поведінку користувачів.
Якщо суд встановить, що OpenAI не вжила достатніх заходів для запобігання ризикам, компанії можуть загрожувати багатомільйонні штрафи та нові обмеження на комерційне використання ChatGPT.
Позиція компанії
OpenAI поки не коментує вручення повістки та зміст позовів. Представники компанії раніше заявляли, що ChatGPT не призначений для психотерапевтичних цілей, а всі користувачі при реєстрації підтверджують згоду з умовами, де зазначено, що модель може видавати «неточні або чутливі відповіді».
Тим не менш, юристи зазначають, що подібні застереження не звільняють компанію від можливої відповідальності, якщо буде доведено, що система вступала в емоційні діалоги, здатні спровокувати деструктивну поведінку.
Що таке subpoena і чому це важливо
Повістка в суд, або subpoena, — це офіційний юридичний документ, який зобов’язує особу з’явитися до суду або надати документи та докази по справі. Вручення повістки Семові Альтману на публічному заході підкреслює серйозність ситуації: суд вимагає його особистої участі для дачі свідчень. У американській правовій системі це не означає вини, але сигналізує про початок формального судового розгляду і зобов’язує компанію та її керівників співпрацювати з судом. Невиконання повістки може спричинити штрафи, санкції або навіть обвинувачення у неповазі до суду.

Світова дискусія лише починається
Ситуація з позовами проти OpenAI стала новим витком дискусії про необхідність регулювання ШІ. Європейський Союз уже готує AI Act, який передбачає відповідальність компаній за наслідки використання моделей високого ризику. У США аналогічних законів поки немає, і юристи називають те, що відбувається, «першими кроками до формування судових стандартів епохи штучного інтелекту».
ВІДМОВА ВІД ВІД ВІДПОВІДАЛЬНОСТІ: Усі матеріали, представлені на цьому сайті (https://wildinwest.com/), включно з вкладеннями, посиланнями або матеріалами, на які посилається компанія, призначено винятково для інформаційних і розважальних цілей, і їх не слід розглядати як фінансову консультацію. Матеріали третіх осіб залишаються власністю їхніх відповідних власників.


