이 논문에서는 TPC(Three-Phase Consolidation)라는 간단하지만 효과적인 지속적 학습 방법을 소개한다. TPC는 각 경험(task)을 세 단계로 나누어 학습하며, 각 단계에서 다른 규칙과 학습 동력학을 적용한다. 이를 통해 클래스 불균형 문제를 해결하고 이전 지식의 망각을 제한한다.
첫 번째 단계에서는 새로운 클래스에 대한 부트스트래핑을 수행한다. 이 단계에서는 새로운 클래스의 가중치가 작기 때문에 다른 클래스의 강한 반응으로 인한 과도한 gradient 수정을 방지한다.
두 번째 단계에서는 모든 클래스를 동시에 업데이트한다. 그러나 미니배치에 클래스 불균형이 존재할 수 있으므로, 온라인 편향 보정과 필요한 경우에만 gradient 역전파를 수행하는 메커니즘을 도입한다.
마지막 세 번째 단계에서는 모든 클래스에 대한 균형을 달성하는 최종 통합이 수행된다.
TPC는 복잡한 데이터셋과 시나리오에서 경쟁 기법들보다 우수한 정확도와 효율성을 보여주었다. 또한 대부분의 하이퍼파라미터가 비중요하여 다양한 상황에 쉽게 적용할 수 있다.
เป็นภาษาอื่น
จากเนื้อหาต้นฉบับ
arxiv.org
ข้อมูลเชิงลึกที่สำคัญจาก
by Davide Malto... ที่ arxiv.org 03-25-2024
https://arxiv.org/pdf/2403.14679.pdfสอบถามเพิ่มเติม