核心概念
大規模言語モデル(LLM)の利用が拡大するにつれて、その倫理的な影響はますます重要になってきており、本ホワイトペーパーは、LLMの研究および開発における倫理的なベストプラクティスに関する包括的なガイドを提供し、責任ある開発と展開を促進することを目的とする。
要約
大規模言語モデルの倫理的な研究に関するホワイトペーパー
本ホワイトペーパーは、大規模言語モデル(LLM)の研究を取り巻く倫理的な考慮事項の概要を示す。LLMは広く普及したアプリケーションにますます統合されるようになり、その社会的影響は増大しており、重要な倫理的問題が前面に出てきている。LLMの倫理的な開発、展開、使用を検証する研究が増えている中、本ホワイトペーパーは、研究者や産業界の人々が業務において最高の倫理基準を維持できるように設計された、ベストプラクティスに関する包括的で実践的なガイドを提供する。
本ホワイトペーパーの動機と対象読者
大規模言語モデル(LLM)はますます強力になり、自然言語理解と生成における進歩は目覚ましいものがある(Min et al. 2023)。しかし、LLMによってもたらされるリスクを軽減することは依然として複雑な課題であり、これらのリスクを分類することは、LLMに関連する倫理的な研究の重要な側面である(Weidinger et al. 2022)。主な懸念事項としては、トレーニングデータに存在する既存のバイアスを永続化させ、増幅させる可能性(Gallegos et al. 2024)、ユーザーのプライバシー保護の課題(Yao et al. 2024)、ハルシネーションや不正確な応答(Abercrombie et al. 2023; Xu, Jain, and Kankanhalli 2024)、強力な機能の悪意のある使用(Cuthbertson 2023)、著作権の侵害(Lucchi 2023)などが挙げられる。これらの倫理的な課題の多くは未解決のままであるため、LLMやLLMベースのアプリケーションの開発に携わる者は、特にこれらのモデルが広く採用されるようになるにつれて、潜在的な危害を考慮することが不可欠である。
AIの倫理と安全に取り組むために、すでにいくつかのフレームワークが開発されている。例えば、米国国立標準技術研究所(NIST)は、AI関連のリスクを管理するための広範なガイドラインを提供するAIリスク管理フレームワーク(RMF)1を策定している。NISTは最近、ジェネレーティブAI2のリスクと推奨される対策を概説した文書も発表している。NISTのガイドラインは広く採用されているが、任意のものである。一方、EUのAI法3は、欧州連合内でのAIの安全かつ倫理的な使用を確保するために設計された、法的拘束力のある規制の枠組みである。これは、透明性、人間の監督、差別的な結果の防止を重視しており、基本的人権を保護し、信頼できるAIを促進することを目的としている。
NIST AI RMFとEU AI法は広範にわたり、産業界全体におけるAIの展開とリスク管理に焦点を当てている。学術的なAI研究における倫理的な考慮事項を導く、より研究に焦点を当てたフレームワークもある。例えば、神経情報処理システム会議(NeurIPS)の倫理ガイドライン4では、論文投稿プロセスの一環として、AI研究の倫理的な懸念事項を評価している。計算言語学会(ACL)も同様の取り組みを行い、倫理チェックリスト5を作成し、倫理的な影響、制限事項、人間の注釈者の適切な扱いなどについて、著者に指針を示している。
AIの倫理的な開発のためのフレームワークは数多く存在するが、LLMに取り組む実務家のニーズに焦点を当てた、実践的なホワイトペーパーが依然として必要とされていると我々は考えている。本ホワイトペーパーは、プロジェクトライフサイクルの各段階に関連する、最も関連性の高い倫理的な研究に関する洞察と指針を提供する。NeurIPSやACLのガイドラインよりも詳細な内容となっているが、NISTのフレームワークやEUのAI法よりも「分かりやすく」、LLMを使った研究に直接適用できるものとなっている。簡潔なベストプラクティスの推奨事項、関連文献のリスト、この分野の論争のいくつかを紹介するなど、すべての実務家にとって価値のあるものとなることを期待している。
この文書は、図1に示す(簡略化された)プロジェクトライフサイクルに基づいて構成されている。
本ホワイトペーパーは、事後的な反省のためではなく、プロジェクト全体を通して参照ガイドとして使用することを目的としている。まず第3章では、倫理の重要性を概説し、開発ライフサイクル全体に関連するテーマについて説明する。第4章では、データ収集と共有に関するベストプラクティスについて考察する。次に、第5章では、クリーニングやラベル付けなど、データ準備の倫理的な側面について説明する。その後、第6章ではモデル開発に移り、モデル設計、社会的バイアスへの対処、モデルの整合性などの問題に焦点を当てる。一般的な開発とテストの構造に従い、第7章では、パフォーマンスと危害の評価に関連する倫理的な問題について考察する。最後に第8章では、展開の場面で生じる倫理的な問題について検討する。もちろん、これらのセクションを参照する順番は、必要に応じて調整する必要がある。例えば、既存のLLMを微調整する場合は、データのコンパイルに関する第4章の前に、モデル開発に関する第6章(モデル選択に関するアドバイスを含む)を参照するとよいだろう。ただし、すべての実務家は、すべてのプロジェクトに不可欠なガイダンスが記載されている第3章から始めることをお勧めする。
各章の最後には、主要なリソース、すなわち、そのプロジェクトの段階に関連する倫理的な研究のための具体的な注意事項、倫理的な作業を導くためのツールを示す。