Generalisierte Verschlüsselungsprompts können große Sprachmodelle leicht täuschen
Generalisierte Verschlüsselungsprompts, die als "Jailbreaks" bekannt sind, können die Sicherheitsmaßnahmen von Sprachmodellen umgehen und potenziell schädliche Inhalte erzeugen.