대형 언어 모델은 인간과 유사한 행동을 보이지만, 그 근본적인 메커니즘은 데이터 기반의 통계적 접근이며 인간의 인지 과정과는 다르다.
OpenAI-o1 모델은 기능주의, 의식 이론, 능동 추론, AI 아키텍처의 통합을 통해 의식 유사 특성을 보일 수 있다.
공장 운영자와 관리자는 인지 보조 도구를 통한 지식 공유에 대해 다양한 기회, 과제 및 위험을 인식하고 있다.
LLM을 통한 연구 참여자 시뮬레이션은 참여자의 동의와 주체성을 침해하고, 지역사회 관점의 배제를 초래할 수 있으며, 질적 연구 방법론의 근간을 위협할 수 있다.
의도 인식 정책 그래프를 통해 에이전트의 행동을 설명하고 이해할 수 있는 방법을 제안한다. 이를 통해 에이전트의 행동을 설명할 수 있는 "무엇을", "어떻게", "왜"에 대한 답변을 제공한다.
LLM 에이전트의 환각 속성을 활용하여 인간의 인지 편향을 반영함으로써 LLM 에이전트의 사회 지능을 이해할 수 있다.
시각적 작업 공간을 활용하면 LLM 요약 생성 결과를 사용자의 의도와 더 잘 일치시킬 수 있다.
HAICOSYSTEM은 AI 에이전트와 인간 사용자 간 다양한 상호작용 시나리오에서 AI 에이전트의 안전성 위험을 종합적으로 평가하는 프레임워크이다.
9세 아동이 ChatGPT보다 중국어 작문에서 감정 표현이 더 강력하다는 것을 보여주었다.
대형 언어 모델은 인간 유아와 유사한 수준의 억제 통제 능력을 가지고 있어, 이전에 학습한 단순한 패턴에 의해 영향을 받아 새로운 상황에서 올바른 추론을 하지 못한다.