Core Concepts
대형 언어 모델(LLM)은 지속적으로 변화하는 환경에 적응하기 위해 도구를 활용하는 것이 중요하며, 이를 통해 과거 지식을 잊지 않고 새로운 정보를 효과적으로 학습할 수 있다.
Abstract
이 논문은 대형 언어 모델(LLM)의 지속적 학습 문제를 다룹니다. LLM은 언어 기반 작업에 뛰어난 능력을 보이지만, 정보나 문제 해결 기술이 시간이 지남에 따라 구식이 되는 것을 조정하는 데 어려움이 있습니다. 이는 LLM이 매개변수 내에 직접 저장된 지식을 가지고 있기 때문입니다.
도구 사용은 LLM이 인터페이스를 통해 접근할 수 있는 시스템에 작업을 오프로드함으로써 도움이 됩니다. 그러나 LLM이 도구를 사용하더라도 새로운 도구가 등장하고 기존 도구가 변경되는 등 비정상적인 환경에 적응해야 합니다.
저자들은 도구 사용이 매개변수 메모리에 덜 의존적이므로 지속적 학습(CL)에 더 적합할 것이라고 가정합니다. 이를 검증하기 위해 합성 벤치마크를 개발하고 기존 NLP 작업을 집계하여 더 현실적인 테스트 시나리오를 구축합니다.
저자들은 모델 크기를 늘리는 것이 해결책이 아니라는 것을 보여줍니다. 그러나 지속적 학습 기술을 사용하면 도구 LLM이 더 빨리 적응하고 덜 잊어버릴 수 있음을 보여줍니다.
Stats
대형 언어 모델은 매개변수 내에 저장된 지식으로 인해 정보가 구식이 되는 문제가 있다.
도구 사용은 작업을 외부 시스템에 오프로드하여 이 문제를 완화할 수 있지만, 도구 자체와 사용 가능한 도구 집합이 변경되는 문제가 여전히 존재한다.
모델 크기를 늘리는 것만으로는 지속적 학습 문제를 해결할 수 없다.
지속적 학습 기술을 사용하면 도구 LLM이 더 빨리 적응하고 덜 잊어버릴 수 있다.
Quotes
"LLMs store information directly as parametric knowledge and retrieve them when prompted."
"Tool use helps by offloading work to systems that the LLM can access through an interface, but LLMs that use them still must adapt to non-stationary environments for prolonged use, as new tools can emerge and existing tools can change."
"Nevertheless, tools require less specialized knowledge, therefore we hypothesize they are better suited for continual learning (CL) as they rely less on parametric memory for solving tasks and instead focus on learning when to apply pre-defined tools."