Belangrijkste concepten
AI 統合システム、特に学習分析におけるAIシステムの監査可能性を確保するためには、設計段階から監査可能性を考慮したフレームワークが必要である。
本稿は、AIシステム、特に教育分野における学習分析(LA)システムの監査と監査可能性について考察している。AIシステムは、教育データの分析、予測、処方に機械学習を用いることで、学習プロセスや学生の行動に関するデータに基づく洞察を提供する。しかし、AIシステムの利用は、倫理的な問題、有効性や成熟度に関する課題も孕んでいる。
AIシステムの正確性、コンプライアンス、公平性を確保するために、技術的、法的、倫理的な理由から監査が義務付けられている。監査では、AIシステムが法的規制、組織の基準、倫理的価値観に準拠しているかどうかを分析する。AIシステムの設計と実装の原則は、監査や、主張、実際の動作、監査可能な証拠を評価するプロセスに影響を与える。
監査可能性とは、システムが独立してレビューできる状態を指す。AIシステムの複雑さゆえに、監査、ひいてはシステムの監査可能性には特別な要件が必要となる。監査可能なシステムの基礎となるのは、主張とその検証に適した証拠である。しかし、実際には、これらは容易に入手できない場合が多い。
AI統合システムの監査可能性は、様々な課題や制限により低下する可能性がある。
主張の明確化
監査の最初の課題は、システムの有効性、有用性、倫理に関する検証可能な主張を定義することである。理想的には、これらは定量化、測定可能であり、監査対象のシステムプロバイダーによって提供される。
証拠の収集
AIベースLAの場合、証拠とは、「その実行に関する関連情報」を指し、エラーの分析と追跡を可能にするものである。監査対象組織は、システムの運用を文書化する組織構造とプロセスによって証拠収集を可能にする必要がある。
主張の検証
監査人は、システムへのアクセスと証拠があれば、AI統合システムが導き出された主張を満たしているかどうかを検証できる。しかし、AIベースLAシステムは、テストケースの設計とテストデータの選択において課題がある。