인간과 에이전트가 성공적으로 협업하기 위해서는 지식 스키마 정렬, 자율성 및 대리권 정렬, 운영 정렬 및 교육, 평판 휴리스틱 정렬, 윤리 정렬, 인간 참여 정렬 등 6가지 차원에서 정렬이 필요하다.
에이전트가 다양한 성격을 가지고 외부 정보에 따라 지속적으로 성격이 진화하는 시뮬레이션 시스템을 구현하였다.
시각화는 인간 중심 AI 도구를 구축하는 핵심 기술이 될 수 있다. 시각화는 AI 모델의 복잡성과 대규모 데이터를 사용자에게 통찰력 있게 전달할 수 있으며, 사용자와 AI 간의 상호작용을 지원할 수 있다.
AI 에이전트의 자기 노출 속성과 관계 유형에 따라 인간의 공감은 변화하지만, 신뢰는 변화하지 않는다. 또한 관계 유형에 따라 인간이 지각하는 AI 에이전트의 공감 능력이 달라진다.
사용자의 요구사항을 이해하고 이를 바탕으로 설명 가능한 AI 인터페이스를 설계하며, 사용자 평가를 통해 개선하는 것이 중요하다.
사용자의 요구사항을 이해하고 이를 바탕으로 설명 가능한 AI 인터페이스를 설계하며, 사용자 평가를 통해 개선하는 것이 중요하다.
사용자의 요구사항을 이해하고 이를 바탕으로 설명 가능한 AI 인터페이스를 설계하며, 사용자 평가를 통해 개선해 나가는 것이 중요하다.
인간 참여를 통해 설명 가능한 AI 시스템의 사용성, 실용적 해석 가능성, 효과성을 높이기 위한 현재 동향과 유망한 방향을 파악한다.
AI 설명서는 인간의 공정성 인식에 영향을 미치며, 이는 다시 AI 권장사항에 대한 의존도와 관련이 있다. 그러나 설명서는 인간이 올바른 및 잘못된 AI 권장사항을 구분하는 능력을 높이지 않는다. 대신 설명서는 AI 권장사항의 정확성과 무관하게 의존도에 영향을 미칠 수 있다. 설명서에 강조된 특징에 따라 이는 분배적 공정성을 촉진하거나 저해할 수 있다.
AI 설명은 공정성 인식에 영향을 미치며, 이는 다시 AI 권고에 대한 사람들의 의존도와 관련된다. 그러나 설명은 사람들이 AI 권고의 정확성을 구별하는 데 도움이 되지 않는다. 대신 설명은 AI 권고의 정확성과 무관하게 의존도에 영향을 미칠 수 있다. 설명이 과제와 무관한 민감한 특성을 강조할 경우 성 고정관념에 반하는 AI 권고를 무시하게 만들지만, 과제 관련 특성을 강조할 경우 성 고정관념에 부합하는 오류를 강화한다. 이러한 결과는 특징 기반 설명이 공정성 향상을 위한 신뢰할 수 있는 메커니즘이 아님을 시사한다.