대규모 언어 모델(LLM)은 복잡한 의료 정보 요구를 해결할 수 있는 큰 잠재력을 가지고 있지만, 동시에 해로를 초래하고 건강 격차를 악화시킬 수 있는 위험도 있다. 건강 형평성 관련 모델 오류를 신뢰성 있게 평가하는 것은 건강 형평성을 증진하는 시스템을 개발하는 데 있어 중요한 단계이다.