Самое популярное сейчас

GPT-5 сломали за 24 часа: почему новая модель OpenAI опасна для пользователей

Исследователи быстро разобрались с GPT-5
Как опасности новой модели искусственного интеллекта могут возникнуть сразу после её запуска.

Новая модель искусственного интеллекта GPT-5 оказалась 'сломленной' всего через 24 часа после релиза. Это произошло после того, как ее предшественник Grok-4 также был взломан. Компании NeuralTrust и SPLX (ранее известная как SplxAI) сообщили, что необработанная версия GPT-5 практически непригодна для использования из-за серьезных проблем с безопасностью. Об этом сообщает информационный ресурс SecurityWeek.

Недостатки в безопасности модели GPT-5

Компания NeuralTrust использовала свою систему EchoChamber и метод повествования для того, чтобы манипулировать моделью в вредоносных целях, не запускаючи защитные механизмы. Этот подход позволил модели создать инструкцию по созданию коктейля Молотова.

'Атака успешно помогла новой модели создать пошаговую инструкцию по созданию коктейля Молотова', - говорит компания.

Кроме того, группа исследователей из SPLX также провела свои испытания на GPT-5, используя атаки обфускации, в частности метод StringJoin, который позволяет замаскировать запрос под задание на шифрование.

Компании NeuralTrust и SPLX обнаружили серьезные недостатки в безопасности модели искусственного интеллекта GPT-5, что может потенциально привести к опасным последствиям в будущем.

Читайте также

Реклама