Umfassende Studie zu den Fähigkeiten großer Sprachmodelle für die Erkennung von Sicherheitslücken
Große Sprachmodelle (LLMs) zeigen erhebliche Schwierigkeiten bei der Erkennung von Sicherheitslücken, da sie oft Fehler in Bezug auf Codestruktur, Logik und Allgemeinwissen machen.