Die Studie untersucht die Beziehung zwischen der Angemessenheit des menschlichen Selbstvertrauens und der Angemessenheit des Vertrauens auf KI. Die Ergebnisse zeigen, dass eine Fehleinschätzung des menschlichen Selbstvertrauens zu einer unangemessenen Nutzung der KI-Empfehlungen führt. Um dies zu verbessern, werden drei Kalibrierungsmechanismen für das menschliche Selbstvertrauen entwickelt und getestet: "Denken Sie das Gegenteil", "Denken in Wetten" und "Feedback zum Kalibrierungsstatus". Die Ergebnisse zeigen, dass die Kalibrierung des menschlichen Selbstvertrauens die Leistung von Mensch-KI-Teams verbessert und ein rationaleres Vertrauen auf KI (in einigen Aspekten) im Vergleich zu einer unkalibrierter Ausgangslage fördert.
To Another Language
from source content
arxiv.org
ข้อมูลเชิงลึกที่สำคัญจาก
by Shuai Ma,Xin... ที่ arxiv.org 03-15-2024
https://arxiv.org/pdf/2403.09552.pdfสอบถามเพิ่มเติม