Die Tests basieren auf tatsächlich existierenden Sicherheitslücken. GPT-4 erreicht eine Erfolgsquote von 87 Prozent. Alle anderen getesteten LLMs scheitern an der Aufgabe.
Quelle: ZDNet.de – Forscher entwickeln Exploits per GPT-4 aus Sicherheitswarnungen