大規模言語モデルは自然言語処理タスクを大幅に向上させましたが、有害なコンテンツを生成する傾向もあります。LLMSafeGuardは、実時間でLLMの出力を安全に保護するための軽量なフレームワークを提案しています。