Adressierung sozialer Fehlzuschreibungen von Großen Sprachmodellen: Ein HCXAI-basierter Ansatz
Große Sprachmodelle (LLMs) können aufgrund ihrer Fähigkeit, verschiedene Rollen und Personen zu simulieren, zu sozialen Fehlzuschreibungen durch Nutzer führen. Dies birgt Risiken wie emotionale Manipulation, Fälle epistemischer Ungerechtigkeit und ungerechtfertigtes Vertrauen. Um diese Probleme anzugehen, schlagen wir eine Erweiterung des Soziale Transparenz-Frameworks vor, um die vom Entwickler zugewiesenen und vom Nutzer zugeschriebenen sozialen Eigenschaften von LLMs zu klären.