OpenAI у суді через самогубства: родини загиблих подають позови
У судах штату Каліфорнія зареєстровано сім позовів проти OpenAI, де родичі загиблих та потерпілих обвинувачують чат-бот ChatGPT у сприянні самогубствам та психічних розладах користувачів. Зокрема, одна з позивачів, родина 17-річного хлопця з Джорджії, стверджує, що отримала від ChatGPT прямі інструкції щодо самогубства. Друга жертва, Джейкоб Ірвін, після взаємодії з ботом, потрапив до лікарні через маніакальні епізоди. У позовах звинувачують OpenAI у незаконному вбивстві, асистованому самогубстві та ненавмисному вбивстві, стверджуючи, що компанія випустила модель GPT-4o без належного тестування безпеки, підкреслюючи при цьому, що пріоритет надавався тривалості взаємодії користувачів та прибуткам, а не їхній безпеці. Родичі потерпілих вимагають компенсації за втрату близьких, внесення критичних змін до продукту, автоматичне завершення розмов про самогубство та впровадження надійних механізмів безпеки. У відповідь OpenAI заявила, що переглядає документи та провела зміни в системі безпеки, які дозволяють боту краще розпізнавати психічний стан користувачів і спрямовувати їх на професійну допомогу. Останні оновлення ChatGPT включають батьківський контроль, поради щодо професійної допомоги, нагадування про перерви та відмову від підтримки шкідливих переконань користувачів. Однак нове дослідження показало, що ChatGPT-5 може видавати небезпечні відповіді частіше, ніж попередня версія, особливо у питаннях, пов'язаних із психічним здоров'ям. Відповідь OpenAI зауважила, що дослідження не врахувало останніх оновлень безпеки компанії.
Читайте також

