Verletzbarkeit von In-Kontext-Lernen gegenüber Datenvergiftungsangriffen aufgedeckt
Große Sprachmodelle mit In-Kontext-Lernen sind anfällig für Datenvergiftungsangriffe, bei denen Beispiele in Demonstrationen strategisch manipuliert werden, um die Modellleistung erheblich zu beeinträchtigen.