LLMRefineは、大規模言語モデルの出力を細かなフィードバックに基づいて反復的に改善する手法である。学習済みのフィードバックモデルを使って出力の欠陥を特定し、それに基づいて言語モデルを段階的に改善する。