OpenAI в суде из-за самоубийств: семьи погибших подают иски
В судах штата Калифорния зарегистрировано семь исков против OpenAI, где родственники погибших и пострадавших обвиняют чат-бот ChatGPT в содействии самоубийствам и психическим расстройствам пользователей. В частности, одна из истиц, семья 17-летнего мальчика из Джорджии, утверждает, что получила от ChatGPT прямые инструкции по самоубийству. Вторая жертва, Джейкоб Ирвин, после взаимодействия с ботом попал в больницу из-за маниакальных эпизодов. В исках обвиняют OpenAI в незаконном убийстве, содействии самоубийству и непредумышленном убийстве, утверждая, что компания выпустила модель GPT-4o без должного тестирования безопасности, подчеркивая при этом, что приоритет отдавался продолжительности взаимодействия пользователей и прибылям, а не их безопасности. Родственники пострадавших требуют компенсацию за утрату близких, внесение критических изменений в продукт, автоматическое завершение разговоров о самоубийстве и внедрение надежных механизмов безопасности. В ответ OpenAI заявила, что проверяет документы и провела изменения в системе безопасности, которые позволяют ботам лучше распознавать психическое состояние пользователей и направлять их на профессиональную помощь. Последние обновления ChatGPT включают родительский контроль, советы по профессиональной помощи, напоминания о перерывах и отказ от поддержки вредных убеждений пользователей. Однако новое исследование показало, что ChatGPT-5 может выдавать опасные ответы чаще, чем предыдущая версия, особенно по вопросам, связанным с психическим здоровьем. Ответ OpenAI отметил, что исследование не учло последних обновлений безопасности компании.
Читайте также

