核心概念
信頼できるAIを実現するには、多様なプログラミングモデルをルールや制約と統合し、論理的推論システムを活用する必要がある。
ワークショップの概要
2024年10月13日にテキサス州ダラスで開催された第40回論理プログラミング国際会議 (ICLP) に併設して開催された、第4回論理とプログラミングの実践に関するワークショップ (LPOP) の議事録の概要です。
ワークショップのテーマ
今回のワークショップは、「信頼できるAIのための推論システムの統合」をテーマに、特に多様なプログラミングモデルとルールや制約の統合に焦点を当てています。
信頼できるAIにおける論理的推論の重要性
信頼できるAIを実現するには、知識集約型の推論や組み合わせ問題を表現・解決するためのルールや制約を用いたプログラミングが不可欠です。本ワークショップでは、古典一階述語論理 (FOL)、演繹データベース、論理プログラミング、回答集合プログラミング (ASP)、制約論理プログラミング (CLP)、制約プログラミング (CP)、数理計画法 (MP) など、幅広いプログラミングモデルが議論されました。
ニューラルネットワークと論理的推論の統合
近年、大規模なデータセットで訓練された大規模ニューラルネットワークを用いたAIシステムが注目されています。しかし、これらのシステムは、信頼性、説明可能性、意図した使用との整合性において課題を抱えています。本ワークショップでは、厳密な知識表現と推論、強力かつ使いやすいルールや制約言語、堅牢な正当化と整合性チェックにより、これらの課題にどのように対処するかについて議論されました。
ワークショップの構成
ワークショップでは、著名な研究者による招待講演、投稿論文の発表、主要な課題や将来の方向性について議論する招待パネルディスカッションが行われました。
招待講演
Luc De Raedt氏 (ルーヴェン・カトリック大学) は、論理を出発点とし、確率的解釈を追加し、ニューラルネットワークを「ニューラル述語」に変えることで、ニューロシンボリックAIを開発する方法について説明しました。
Georg Gottlob氏 (オックスフォード大学) は、大規模言語モデル (LLM) の欠点、LLMの潜在的な失敗の理由、LLMを活用し、落とし穴を軽減するための取り組みについて議論しました。
Henry Kautz氏 (バージニア大学) は、LLMに定理証明器やプランナーなどの形式的推論ツールを使用する能力を与えることで、一般的な知能をさらに研究するための基礎レベルの知能を達成できることを探求しました。
パネルディスカッション
3つの招待パネルディスカッションでは、「信頼できるAIのための論理的推論とLLMの統合」、「AIのための論理システムと最適化」、「AIの倫理、不確実性、ロードマップ」について集中的な議論が行われました。
まとめ
LPOP 2024ワークショップは、異なる推論システムの利点をより活用した信頼できるAIシステムを今後数年間でどのように開発していくかについて、様々なコミュニティの専門家が一堂に会して議論する貴重な機会となりました。
統計
GPT-3は96層、1750億パラメータ、570GBのフィルター済みデータで学習されている。