BEAR는 마스크 언어 모델과 인과 언어 모델 모두에 적용 가능한 관계적 지식 프로빙 방법론이다. 기존 접근법의 한계를 극복하고 균형 잡힌 데이터셋을 구축하여 언어 모델의 관계적 지식을 효과적으로 평가할 수 있다.