Conceitos essenciais
Große Sprachmodelle (LLMs) können aufgrund ihrer Fähigkeit, verschiedene Rollen und Personen zu simulieren, zu sozialen Fehlzuschreibungen durch Nutzer führen. Dies birgt Risiken wie emotionale Manipulation, Fälle epistemischer Ungerechtigkeit und ungerechtfertigtes Vertrauen. Um diese Probleme anzugehen, schlagen wir eine Erweiterung des Soziale Transparenz-Frameworks vor, um die vom Entwickler zugewiesenen und vom Nutzer zugeschriebenen sozialen Eigenschaften von LLMs zu klären.
Resumo
Der Artikel diskutiert die Risiken sozialer Fehlzuschreibungen von Großen Sprachmodellen (LLMs) und schlägt einen Ansatz zur Adressierung dieser Probleme vor.
Zunächst wird erläutert, dass LLMs zwei Funktionen erfüllen: eine technische Funktion (Textgenerierung) und eine soziale Funktion (Rollenspiel). Letztere ermöglicht es Nutzern, LLMs verschiedene Rollen und Personen zuzuschreiben.
Das Hauptproblem sind dabei divergierende Zuschreibungen zwischen Entwicklern und Nutzern. Entwickler weisen LLMs bestimmte Rollen und Personen zu, die Nutzer jedoch können andere, unangemessene Zuschreibungen vornehmen. Dies kann zu Risiken wie emotionaler Manipulation, epistemischer Ungerechtigkeit und ungerechtfertigtem Vertrauen führen.
Als Beispiel wird ein Fall aus dem Bereich der psychischen Gesundheit diskutiert, in dem ein Nutzer einem LLM-basierten System fälschlicherweise die Rolle eines "digitalen Psychiaters" zuschreibt, obwohl es dafür nicht ausgelegt ist.
Um diese Probleme anzugehen, schlagen die Autoren eine Erweiterung des Soziale Transparenz-Frameworks vor. Neben den bestehenden 4 "W-Fragen" (Wer, Was, Wann, Warum) soll eine 5. Frage hinzugefügt werden, die klärt, welche sozialen Zuschreibungen vom Entwickler intendiert sind und welche der Nutzer vornimmt. Zwei mögliche Methoden werden skizziert: die Entwicklung einer Taxonomie angemessener und unangemessener sozialer Zuschreibungen sowie die Implementierung von Techniken zur Erkennung und Prävention von Fehlzuschreibungen.
Estatísticas
Keine relevanten Statistiken oder Kennzahlen im Text enthalten.
Citações
"LLMs serve different functions. To elaborate on this point, following Crilly [5], we promote a separation between technical and non-technical functions of AI technology."
"Social attributions have a normative component: an LLM endowed with a given role and persona is expected to perform as such."
"Simply, those assigned by the user in our example constitute a case of social misattribution."