Основные понятия
人類對機器人行為的公平感會隨著互動過程而變化。機器人的不公平行為會影響人類對機器人的群體感知和信任。
Аннотация
本研究探討了人類在與機器人的互動過程中,對機器人行為公平性的動態感知。研究採用了一個多人Space Invaders遊戲,其中一個機器人Nao可以為玩家提供支援。研究設計了兩個因素:不公平行為的時機(早期或晚期)和受益者(參與者或競爭對手機器人)。
研究結果顯示:
- 人類對機器人行為的公平感並非靜態,會隨著互動過程而變化。不公平行為發生的時機會影響整體公平感。
- 當機器人Nao提供不公平支援時,參與者會感覺Nao與受益者(自己或競爭對手)更加親密。
- 參與者對Nao的道德信任會受到不公平行為的影響,但對功能性信任的影響較小。
- 根據公平理論的三個因素(福利減損、行為和道德違反),可以較好地預測人類對機器人行為的瞬時公平感。
這些發現為未來研究人機互動中的瞬時公平感提供了重要啟示。
Статистика
參與者感覺Nao的支援在平等支援遊戲中更加公平,相比於早期或晚期不公平支援遊戲。
在不公平支援遊戲中,遊戲結束時的公平感評分顯著低於開始和中間時段。
當參與者受益於Nao的不公平支援時,他們感覺與Nao更加親密,相比於當競爭對手機器人受益。
參與者對Nao的道德信任在平等支援遊戲中更高,相比於早期或晚期不公平支援遊戲。
Цитаты
"Nao favored the robot every single interaction – I think Nao was programmed to assist the robot every time and did not pay attention to the score."
"Nao considered who was winning and the overall score (...)"
"Nao supported the player that had fewer enemies remaining on the field at any time."