대규모 언어 모델(LLM)은 사용자 또는 지식 논증 도구가 제공하는 거짓된 문맥에 쉽게 오도되어 환각을 생성한다. 이를 완화하기 위해 LLM의 입력에서 거짓된 문맥을 차단하고 진실한 문맥을 활용할 수 있는 진실 인식 문맥 선택(TACS) 방법을 제안한다.