Kernkonzepte
AI regulations and generative AI advancements pose new challenges for Human-Centered Responsible Artificial Intelligence, requiring collaborative efforts to address ethical, legal, and sustainability issues.
Zusammenfassung
人間中心の責任ある人工知能(HCR-AI)におけるAI規制と生成AIの進展は、意思決定権、人間の監督、責任、持続可能性、倫理的および法的責任などに関する新たな課題を提起しています。これらの問題に対処するためには、さまざまな分野の利害関係者を巻き込む協力的アプローチが必要です。CHI 2024で開催されるHCR-AI特別興味グループ(SIG)第2版では、規制がHCI研究に及ぼす影響について議論し、新しい理論や評価フレームワーク、方法を開発し、AI倫理の複雑な性質を航行することを目指しています。
欧州連合(EU)AI法案や米国バイデン大統領が発行したAIの安全・安全・信頼性向上に関する大統領令など、AI規制とガバナンスの風景は変化し続けており、市場導入されるAIシステムが安全であり、人権を尊重し法令遵守していることを確保する共通のテーマが存在します。また、持続可能な大規模言語モデルのトレーニングに伴う大きな炭素排出量も懸念されており、公正で透明性の高いAI開発と展開が求められています。
さらに、「Fairlearn」や「InterpretML」などのツールやフレームワークが提案されており、これらは広範囲な社会技術的課題への技術的解決策を提供することを目指しています。しかし、これらのツールキットはしばしば広範囲な社会技術的課題への技術的解決策を提供するため設計されています。これらの研究はHCI実務家のニーズと公平性研究者が提供するツールとの間に不一致があることを明らかにしており、「InterpretML」や「SHAP」などから得られる可視化内容を理解することで苦労しているデータサイエンティストも多いことが示唆されています。
Statistiken
EU AI Act in the European Union [3]
Executive Order issued by US President Biden on October 30, 2023 [18]
G7’s establishment of a Code of Conduct for entities creating advanced AI systems [16]
The development of the AI Risk Management Framework by the US National Institute of Standards and Technology (NIST) [24]
ACM Technology Policy Council's statement on principles for responsible algorithmic systems [1]
Principles for the Development, Deployment, and Use of Generative AI Technologies by ACM Technology Policy Council [2]