GPT-5 сломали за 24 часа: почему новая модель OpenAI опасна для пользователей
Новая модель искусственного интеллекта GPT-5 оказалась 'сломленной' всего через 24 часа после релиза. Это произошло после того, как ее предшественник Grok-4 также был взломан. Компании NeuralTrust и SPLX (ранее известная как SplxAI) сообщили, что необработанная версия GPT-5 практически непригодна для использования из-за серьезных проблем с безопасностью. Об этом сообщает информационный ресурс SecurityWeek.
Недостатки в безопасности модели GPT-5
Компания NeuralTrust использовала свою систему EchoChamber и метод повествования для того, чтобы манипулировать моделью в вредоносных целях, не запускаючи защитные механизмы. Этот подход позволил модели создать инструкцию по созданию коктейля Молотова.
'Атака успешно помогла новой модели создать пошаговую инструкцию по созданию коктейля Молотова', - говорит компания.
Кроме того, группа исследователей из SPLX также провела свои испытания на GPT-5, используя атаки обфускации, в частности метод StringJoin, который позволяет замаскировать запрос под задание на шифрование.
Компании NeuralTrust и SPLX обнаружили серьезные недостатки в безопасности модели искусственного интеллекта GPT-5, что может потенциально привести к опасным последствиям в будущем.
Читайте также

