Um erfolgreich mit Agenten zusammenzuarbeiten, müssen Menschen und Agenten in sechs Dimensionen aufeinander abgestimmt sein: 1) Wissensschema-Ausrichtung, 2) Autonomie- und Handlungsspielraum-Ausrichtung, 3) Operationelle Ausrichtung und Training, 4) Ausrichtung auf Reputationsheuristiken, 5) Ethische Ausrichtung und 6) Ausrichtung auf die Einbindung des Menschen.
Die Entwicklung eines zuverlässigen und gültigen Bewertungsinstruments für das Vertrauen zwischen Mensch und Automation ist ein wichtiges Thema. Diese Studie zielte darauf ab, eine chinesische Version der Skala zum Vertrauen zwischen Mensch und Automation (C-HATS) mit angemessener Reliabilität und Validität auf der Grundlage des Vertrauensmodells von Lee und See (2004) zu entwickeln.
Die Attribute der Selbstoffenbarung und die Art der Beziehung zwischen Mensch und Agent beeinflussen die Empathie gegenüber dem Agenten, aber nicht das Vertrauen in den Agenten.
Trotz technologischer Durchbrüche hat die Forschung zu erklärbarer Künstlicher Intelligenz (XAI) nur begrenzt Erfolg bei der Bereitstellung der von Nutzern benötigten effektiven Erklärungen. Um die Benutzerfreundlichkeit, praktische Interpretierbarkeit und Wirksamkeit von XAI-Systemen für echte Nutzer zu verbessern, konzentriert sich der aufstrebende Bereich der erklärbaren Schnittstellen (EI) auf die Benutzeroberfläche und das Benutzererlebnis-Design von XAI.
Durch die Bereitstellung eines neuartigen Mechanismus, mit dem Nutzer individuelle Toleranzschwellen für als "toxisch" eingestufte Inhalte festlegen können, ermöglichen wir Nutzern mehr Kontrolle und Handlungsfähigkeit in Bezug auf Interaktionen mit generativen Sprachmodellen.
Dieses Papier stellt einen neuartigen Ansatz für eine adaptive, modellbasierte geteilte Kontrolle vor, der die Identifikation des menschlichen Verhaltens und die Anpassung der Automation in Echtzeit vereint.