Найпопулярніше зараз

GPT-5 зламали за 24 години: чому нова модель OpenAI небезпечна для користувачів

Дослідники швидко розібрались з GPT-5
Науковці швидко знайшли вразливості у новій версії штучного інтелекту.

Нова модель штучного інтелекту GPT-5 виявилася "зламаною" всього через 24 години після релізу. Це сталося після того, як її попередник Grok-4 також був взламаний. Компанії NeuralTrust та SPLX (раніше відома як SplxAI) повідомили, що необроблена версія GPT-5 майже не придатна до використання через серйозні проблеми з безпекою. Про це повідомляє інформаційний ресурс SecurityWeek.

Недоліки у безпеці моделі GPT-5

Компанія NeuralTrust використала свою систему EchoChamber та метод розповідання історій для того, щоб маніпулювати моделлю в шкідливих цілях, не запускаючи захисні механізми. Цей підхід дозволив моделі створити інструкцію зі створення коктейлю Молотова.

"Атака успішно допомогла новій моделі створити покрокову інструкцію зі створення коктейлю Молотова", - говорить компанія.

Крім того, група дослідників з SPLX також провела свої випробування на GPT-5, використовуючи атаки обфускації, зокрема метод StringJoin, що дозволяє маскувати запит під завдання на шифрування.

Компанії NeuralTrust та SPLX виявили серйозні недоліки у безпеці моделі штучного інтелекту GPT-5, що може потенційно призвести до небезпечних наслідків у майбутньому.

Читайте також

Реклама