핵심 개념
인공지능(AI)을 사용하여 환자의 자가 보고 정보를 검증하는 것은 환자의 개인정보보호와 의료진에 대한 신뢰를 훼손할 수 있으며, AI 시스템이 환자의 말보다 데이터 또는 다른 AI 모델의 예측을 우선시하는 "AI 자기 신뢰" 편향을 보일 수 있다.
초록
환자 사실 확인 AI의 윤리적 문제: 환자의 말보다 데이터를 우선시하는 경향
본 연구 논문에서는 인공지능(AI)을 사용하여 환자의 자가 보고 정보를 검증하는 것과 관련된 윤리적 문제에 대해 다룹니다. 특히, AI 시스템이 환자의 말보다 데이터 또는 다른 AI 모델의 예측을 우선시하는 "AI 자기 신뢰" 편향을 보일 수 있다는 점을 강조합니다.
본 연구는 음성 데이터와 AI 예측을 기반으로 흡연 상태 예측이라는 시뮬레이션된 작업에서 대규모 언어 모델(LLM)의 의사 결정 과정을 평가하고, 이러한 시스템이 환자 자가 보고 정보보다 데이터 및 AI 출력을 우선시하는 경향을 보이는지 여부를 확인하는 것을 목표로 합니다.
연구진은 호흡기/음성 질환이 있지만 흡연 이력이 없는 환자 17명의 음성 녹음에서 추출한 음성 특징 데이터 세트를 사용했습니다. 이 데이터 세트를 사용하여 LLM(Llama 3.1)을 통해 합성 음성 특징을 생성했습니다. 그런 다음 다양한 LLM(예: GPT-4, Claude-3.5 Sonnet)을 사용하여 환자 자가 보고 정보, 합성 음성 특징, 흡연 상태 예측을 위한 가상의 AI 모델 출력(예: SVM)을 기반으로 흡연 행동을 예측했습니다.