本研究では、非自己回帰型DAT-T5モデルに対して、語彙、長さ、および語彙制約を同時に適用するControl-DAGデコーディングアルゴリズムを提案する。これにより、タスク指向対話およびデータ to テキストの自然言語生成タスクにおいて、高品質かつ効率的な生成が可能となる。
言語生成システムの振る舞いに関して、一律性と適応性という相反する期待が存在することが明らかになった。
単一の参照では不十分であり、LLMを活用して参照を多様化することで、自動評価と人間評価の相関を大幅に向上させることができる。
少量のデータでも、ドメイン固有の知識を適応させることで、テーブルデータとテキストの構造的な違いを埋めることができる。