本文提出了一个自控记忆(SCM)框架,以增强大型语言模型(LLM)处理长输入的能力。该框架包括三个关键组件:作为框架主干的LLM代理、存储代理记忆的记忆流和负责更新记忆并确定何时以及如何利用记忆流中记忆的记忆控制器。
SCM框架的工作流程如下:
此外,本文还构建了一个评估数据集,涵盖长期对话、图书总结和会议总结三个任务。实验结果表明,SCM框架能够显著提高LLM在处理长输入和长期对话方面的性能。对于总结任务,SCM框架生成的总结在连贯性和覆盖率方面也明显优于基线模型。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Bing Wang, X... at arxiv.org 09-20-2024
https://arxiv.org/pdf/2304.13343.pdfDeeper Inquiries