オープンソースAIの急速な普及に伴い、倫理的な配慮が開発と実践の両面で重要になっている。モデル監査やレポート要件、リスク軽減のためのガバナンスフレームワークの策定が進められているが、重要なインフラを支えるインフォーマルなセクターでの実践には課題がある。モデルの性能評価がモデルの限界、バイアス、その他のリスクの探索を促進または阻害する可能性について検討する。