レッドチームゲーム(RTG)は、大規模言語モデル(LLM)の安全性を高めるための新しいゲーム理論的なフレームワークである。RTGは、レッドチームの言語モデル(RLM)とブルーチームの言語モデル(BLM)の多回戦の攻防を通じて、LLMの安全性を自動的に検出し最適化する。