แนวคิดหลัก
大規模視覚言語モデル(LVLM)の視覚的推論能力を向上させるために、視覚情報抽出とテキストベースの推論を分離した新しいフレームワーク「ProReason」が提案されている。
บทคัดย่อ
ProReason: 視覚と知識の分離によるマルチモーダルな先読み推論
本稿は、大規模視覚言語モデル(LVLM)における視覚的推論の課題と、それを解決するための新しいフレームワーク「ProReason」について論じた研究論文である。
近年のLVLMの発展は目覚ましいものがあるが、視覚的推論タスクにおいては、言語知識に偏重し、画像情報の活用が不十分であるという課題が指摘されている。これは、LVLMの構造的な問題と、学習データの不足に起因すると考えられる。本研究では、この課題を解決し、LVLMの視覚的推論能力を向上させることを目的とする。
ProReasonは、「先読み的な視覚情報抽出」と「視覚と知識の分離」という2つの特徴を持つ、マルチステップのマルチモーダル推論フレームワークである。
先読み的な視覚情報抽出
従来の視覚的推論手法では、画像情報が質問とは無関係に抽出されるため、冗長な情報や不足情報が発生する可能性があった。ProReasonでは、「Dispatcher」「Vision Expert」「Reasoning Expert」「Referee」という4つのサブエージェントが協調動作することで、質問に関連する必要十分な視覚情報を抽出する。
視覚と知識の分離
ProReasonでは、視覚的推論プロセスを「視覚的認識(Eyesight)」と「テキストベースの推論(Wisdom)」の2段階に分割し、それぞれを独立したエージェントが担当する。これにより、各エージェントはそれぞれのタスクに特化することができ、より高精度な推論が可能となる。また、テキストベースの推論には、既存の大規模言語モデル(LLM)を活用することができるため、LVLM単体では実現困難な高度な推論能力を実現できる。