Systematische Überprüfung offener Datensätze zur Bewertung und Verbesserung der Sicherheit großer Sprachmodelle
In den letzten zwei Jahren ist die Sorge um die Sicherheit großer Sprachmodelle (LLMs) stark gewachsen. Forscher und Praktiker haben darauf mit der Einführung einer Vielzahl neuer Datensätze zur Bewertung und Verbesserung der LLM-Sicherheit reagiert. Diese Arbeit bietet einen ersten systematischen Überblick über 102 offene Datensätze, die zwischen Juni 2018 und Februar 2024 veröffentlicht wurden.