Linnk AI herunterladen
•
Autonomer Forschungsassistent
>
Anmelden
Einblick
-
Prompt-Hacking
Enthüllung systemischer Schwachstellen von LLMs durch einen globalen Wettbewerb zum Hacken von Anweisungen
LLMs sind anfällig für Manipulation durch prompt hacking, wie ein globaler Wettbewerb zeigt.
1