本論文は、人間の戦略的行動の下でのアルゴリズム的意思決定を研究している。意思決定者は人間の代理人に関する決定をアルゴリズムを使って行い、代理人はアルゴリズムに関する情報を持ち、徐々に努力を重ねて有利な決定を受けるよう行動する。
従来の研究では、代理人の努力が即時的に利益をもたらすと仮定していたが、本研究では現実的な状況を考慮し、努力の影響が持続的で漸進的であると仮定する。
まず、持続的な改善を特徴づける動的モデルを開発し、それに基づいてスタッケルバーグゲームを構築して、代理人と意思決定者の相互作用をモデル化する。均衡戦略を解析的に特徴づけ、代理人に改善のインセンティブがある条件を特定する。
動的モデルに基づいて、意思決定者が代理人集団全体での最大の改善を促すための最適な政策を研究する。
さらに、1)代理人が不正直で、アルゴリズムを有利な誤った決定に操作する可能性、2)誠実な努力が忘れられ、持続的な改善を保証しない可能性を考慮した拡張モデルを提案する。これらの拡張モデルを用いて、代理人が誠実な努力と不正直な行動のどちらを好むか、忘れられる努力の影響を検討する。
Para outro idioma
do conteúdo fonte
arxiv.org
Principais Insights Extraídos De
by Tian Xie,Xuw... às arxiv.org 05-06-2024
https://arxiv.org/pdf/2405.01807.pdfPerguntas Mais Profundas