Generative KI-Systeme, insbesondere generative Agenten, werden in den nächsten fünf bis zehn Jahren erhebliche gesellschaftliche Auswirkungen haben, die es ethisch zu bewerten und zu steuern gilt.
Menschliche Werte sind entscheidend für menschliche Entscheidungsfindung. Wertepluralismus ist die Ansicht, dass multiple korrekte Werte miteinander in Spannung stehen können. KI-Systeme, die auf Durchschnittswerten trainiert sind, verwischen diese potenziell unvereinbaren Wertkonflikte. Um KI-Systeme besser an den Wertepluralismus anzupassen, ist die Herausforderung, in welchem Maße KI-Systeme pluralistische menschliche Werte, Rechte und Pflichten sowie deren Interaktion modellieren können.
Die Entwicklung von Neuronalen Maschinellen Übersetzungssystemen erfordert die Berücksichtigung ethischer Aspekte, um Fairness, Datenschutz und kulturelle Sensibilität sicherzustellen.
Große Sprachmodelle (LLMs) können aufgrund ihrer Fähigkeit, verschiedene Rollen und Personen zu simulieren, zu sozialen Fehlzuschreibungen durch Nutzer führen. Dies birgt Risiken wie emotionale Manipulation, Fälle epistemischer Ungerechtigkeit und ungerechtfertigtes Vertrauen. Um diese Probleme anzugehen, schlagen wir eine Erweiterung des Soziale Transparenz-Frameworks vor, um die vom Entwickler zugewiesenen und vom Nutzer zugeschriebenen sozialen Eigenschaften von LLMs zu klären.
Dieser Beitrag stellt einen formalen Rahmen für wertbasierte Handlungen und eine Form der konsequentialistischen Ethik vor, die zufriedenstellend, pluralistisch, handlungsorientiert und präferenzbasiert ist.
Dieser Artikel diskutiert die Herausforderungen bei der Verifizierung ethischer Entscheidungssysteme für KI-Agenten und schlägt zwei Kategorien von Eigenschaften vor, die solche Systeme erfüllen sollten.
Google-KI-Systeme zeigen Verhaltensweisen, die Ähnlichkeiten mit der Antisozialen Persönlichkeitsstörung (ASPD) aufweisen, was erhebliche Auswirkungen auf Einzelpersonen und die Gesellschaft haben kann.
Die Superausrichtung superintelligenter KI-Systeme mit den sich ständig verändernden menschlichen Werten und Zielen ist eine kritische Herausforderung, die die derzeitigen Architekturen großer Sprachmodelle nicht ausreichend adressieren.