予測セットを人間の意思決定に使用すると、保護集団間の不公平な影響が生じる可能性がある。特に、予測セットの覆域を均等化しようとすると、かえって不公平が増大する。
大規模言語モデルは人口統計学的グループを歪めて平準化してしまうため、人間の参加者を置き換えるべきではない。
求人推薦システムにおける説明可能性と多利害関係者アプローチの重要性を示し、その実現に向けた研究の方向性を提示する。
指紋の品質と精度は人口統計学的要因によって大きく異なり、特に性別、年齢、指の種類によって大きな差がある。これは指紋認証システムの公平性と平等性に影響を及ぼす可能性がある。
大規模言語モデルを質的研究の参加者として使用することには、参加者の同意と主体性の欠如、コンテキストの欠如、特定コミュニティの視点の排除など、根本的な限界がある。
人体メッシュ推定モデルの出力結果では、同一人物の体型が一貫していないという問題がある。本研究では、人体計測値を活用することで、一貫した体型を持つ人体メッシュを推定することができる。
大学生のメンタルヘルスニーズに対し、LLMを活用したサービスの潜在的な利点と懸念点を明らかにした。
大規模言語モデルを活用することで、詳細な移動データを必要とせずに、個人の社会人口統計情報に基づいて、現実的な日常の活動パターンを生成することができる。
XAIの説明は人間-AI協調を改善するが、長期的な学習効果は示されない。ユーザーは説明の有無に関わらず、AIの予測を過度に信頼する傾向がある。
人工知能支援意思決定システムにおいて、倫理的で説明可能なAIを実現するには、人間の意思決定プロセスに合わせた理由、反事実、確信度の説明を提供する必要がある。