核心概念
DNNs의 기억과 입력 곡률 사이의 이론적 연결을 탐구하고, 개인 정보와의 관골을 밝힘.
要約
딥 뉴럴 네트워크(DNNs)는 많은 신흥 문제를 해결하는 데 널리 사용되는 도구가 되었습니다.
기억은 일반화, 잡음 학습, 개인 정보와 밀접한 관련이 있습니다.
최근 연구에서 입력 손실 곡률과 기억 사이의 경험적 증거가 제시되었습니다.
입력 손실 곡률은 안정 기반 기억 점수의 계산보다 약 3개의 크기 순서 더 효율적임을 보여줍니다.
이 논문에서는 이 연결을 조사하고, 이론적 결과를 심층 모델을 사용하여 실험적으로 검증합니다.
統計
최근 연구에서 입력 손실 곡률과 기억 사이의 경험적 증거가 제시되었습니다.
입력 손실 곡률은 안정 기반 기억 점수의 계산보다 약 3개의 크기 순서 더 효율적임을 보여줍니다.
引用
"딥 뉴럴 네트워크(DNNs)는 많은 신흥 문제를 해결하는 데 널리 사용되는 도구가 되었습니다."
"입력 손실 곡률은 안정 기반 기억 점수의 계산보다 약 3개의 크기 순서 더 효율적임을 보여줍니다."