מושגי ליבה
대규모 언어 모델의 신뢰성 향상을 위해 지식 범위 제한과 거부 메커니즘을 활용하여 모델이 자신의 지식 범위를 인식하고 어려운 질문에 대해 답변을 거부할 수 있도록 한다.
תקציר
이 논문은 대규모 언어 모델(LLM)의 신뢰성 향상을 위한 새로운 접근법을 제안한다. 기존 LLM 기반 질문 답변 시스템은 모든 질문에 대해 답변을 제공하지만, 이로 인해 오류와 잘못된 정보가 발생할 수 있다. 이 문제를 해결하기 위해 저자들은 지식 범위 제한과 거부 메커니즘을 도입한 L2R(Learn to Refuse) 시스템을 제안한다.
L2R 시스템은 독립적이고 제한적이며 구조화된 지식베이스를 활용한다. 이를 통해 LLM의 지식 범위를 명확히 정의하고, 어려운 질문에 대해서는 답변을 거부할 수 있다. 또한 자동 지식 확장 방법을 통해 지식베이스를 효율적으로 구축한다.
실험 결과, L2R 시스템은 기존 LLM 기반 질문 답변 시스템에 비해 정확도가 크게 향상되었다. 이는 지식 범위 제한과 거부 메커니즘이 LLM의 제어 가능성과 신뢰성을 높이는 데 효과적임을 보여준다.
סטטיסטיקה
레오나르도 다 빈치가 모나리자를 그렸다.
미국의 수도는 워싱턴 D.C.이다.
지구상에서 가장 큰 바다는 태평양이다.