Die Arbeit an der KI-Ethik wird oft als subjektiv und minderwertiger im Vergleich zur "objektiven" technischen Arbeit angesehen. Einige versuchen, die KI-Ethik durch Quantifizierung und Automatisierung zu legitimieren, während andere versuchen, ihre Erfahrungen und verkörperte Perspektive einzubringen, was jedoch häufig delegitimiert wird.
Es gibt verschiedene Ansätze, um Zielkonflikte zwischen KI-Ethikaspekten zu adressieren, die sich in Komplexität und Herangehensweise unterscheiden. Keiner der Ansätze ist für alle Organisationen, Systeme oder Anwendungen geeignet. Daher wird ein Rahmenwerk vorgeschlagen, das aus drei Komponenten besteht: (i) proaktive Identifizierung von Zielkonflikten, (ii) Priorisierung und Gewichtung der Ethikaspekte, (iii) Begründung und Dokumentation von Abwägungsentscheidungen.
Die Studie untersucht, welche Faktoren die "Lizenz zur Kritik" der Teammitglieder bei Diskussionen über KI-Ethik beeinflussen. Sie zeigt, wie Organisationsnormen, Vorstellungen von "Reichweite" und Machtdynamiken innerhalb der Gruppe die Bereitschaft beeinflussen, ethische Bedenken zu äußern.
Die KI-Ethik hat sich in den letzten zwei Jahrzehnten zu einem wichtigen Forschungsgebiet entwickelt. Diese Studie analysiert die Entwicklung der KI-Ethik-Literatur und identifiziert sieben zentrale Themen sowie zwei bedeutende Forschungslücken.
Offenheit in der KI-Forschung birgt potenzielle Risiken für den Missbrauch von Technologien.
Die Entwicklung der KI-Ethik zeigt drei Phasen: Inkubation, Herstellung von KI-menschlichen Maschinen und Herstellung von KI-menschzentrierten Maschinen.
Tiere verdienen moralische Berücksichtigung in KI-Systemen.
Sprachmodelle zeigen versteckten Rassismus durch Dialektvorurteile, der zu schädlichen Entscheidungen führen kann.