이 논문은 지속적 학습 모델의 보정 문제를 다룬다. 지속적 학습 모델은 비정상적인 데이터 스트림을 학습하면서 이전 지식을 잊어버리는 문제가 있다. 따라서 이러한 모델의 예측 성능은 오프라인 모델에 비해 저하된다. 이 문제를 해결하기 위해 모델의 신뢰성을 높이는 보정 기법이 필요하다.
논문에서는 다음과 같은 내용을 다룬다:
4개의 지속적 학습 벤치마크와 3개의 지속적 학습 전략, 5개의 보정 방법에 대한 광범위한 실험을 수행했다. 이는 지속적 보정에 대한 최초의 종합적인 연구이다.
보정 방법은 비정상적인 데이터 스트림에 부분적으로만 효과적이라는 것을 발견했다. 지속적 학습 전략을 사용해도 모델이 반드시 잘 보정되는 것은 아니며, 특히 전체 데이터 스트림에 대해 오프라인으로 학습한 모델에 비해 성능이 떨어진다.
Replayed Calibration이라는 지속적 보정 방법을 설계했다. 이 방법은 기존의 사후 처리 보정 방법과 호환되며, 큰 폭으로 보정 성능을 향상시킨다.
เป็นภาษาอื่น
จากเนื้อหาต้นฉบับ
arxiv.org
ข้อมูลเชิงลึกที่สำคัญจาก
by Lanpei Li,El... ที่ arxiv.org 04-12-2024
https://arxiv.org/pdf/2404.07817.pdfสอบถามเพิ่มเติม