Core Concepts
대형 언어 모델은 인간만큼 설득력이 있으며, 이는 더 높은 인지적 노력과 도덕-감정적 언어 사용에 기인한다.
Abstract
이 연구는 대형 언어 모델(LLM)과 인간이 작성한 논증의 설득 전략을 비교 분석했다. 1,251명의 참가자를 대상으로 한 실험 데이터를 활용하여 인지적 노력(어휘 및 문법 복잡성)과 도덕-감정적 언어(감정 및 도덕 분석)를 측정했다.
연구 결과, LLM이 작성한 논증은 인간이 작성한 논증보다 더 높은 인지적 노력이 필요한 것으로 나타났다. 즉, LLM 논증은 더 복잡한 문법 및 어휘 구조를 가지고 있었다. 또한 LLM은 인간보다 도덕적 언어를 더 많이 사용하는 경향이 있었다. 특히 긍정적 및 부정적 도덕 기반을 더 자주 활용했다. 그러나 감정 내용에서는 LLM과 인간 간 유의미한 차이가 없었다.
이러한 결과는 LLM의 설득 전략이 인간과 다르다는 것을 보여준다. LLM은 더 복잡한 언어를 사용하면서도 도덕적 호소력을 강화하여 설득력을 높이는 것으로 나타났다. 이는 LLM의 설득 능력이 인지적 노력과 도덕-감정적 언어 사용에 기인한다는 것을 시사한다.
Stats
LLM 논증의 평균 Flesch-Kincaid 점수는 13.26으로, 인간 논증의 12.16보다 높아 더 높은 인지적 노력이 필요했다.
LLM 논증의 평균 perplexity 점수는 111.39로, 인간 논증의 102.69보다 높아 더 높은 어휘 복잡성을 보였다.
LLM 논증의 평균 도덕 점수는 12.09로, 인간 논증의 9.91보다 높았다.
LLM 논증은 긍정적 도덕 기반(평균 8.66)과 부정적 도덕 기반(평균 3.43)을 모두 인간 논증(각각 평균 7.32, 2.60)보다 더 많이 사용했다.
Quotes
"LLM이 작성한 논증은 인간이 작성한 논증보다 더 높은 인지적 노력이 필요한 것으로 나타났다."
"LLM은 인간보다 도덕적 언어를 더 많이 사용하는 경향이 있었다."