Основные понятия
LLM의 창의적 사고 능력을 평가하기 위해 다양한 프롬프팅 방법을 활용하여 SemEval-2024 Task 9에 참여했으며, 이를 통해 LLM의 창의적 사고 능력을 향상시킬 수 있는 방법을 제시하였다.
Аннотация
이 연구는 LLM의 창의적 사고 능력을 평가하기 위해 SemEval-2024 Task 9에 참여하였다. 연구팀은 세 가지 방법을 사용하여 LLM의 창의적 사고 능력을 평가하였다:
- 사고 과정(Chain of Thoughts, CoT) 기반 전략
- 정보가 풍부한 프롬프트를 통한 성능 향상
- 동적 인-컨텍스트 학습 능력 활용
실험 결과, 압축된 정보가 풍부한 프롬프트가 LLM의 성능을 향상시키는 것으로 나타났다. 또한 동적 인-컨텍스트 학습이 모델 성능을 크게 향상시켰다.
추가적으로, 연구팀은 창의적 사고 데이터셋을 활용하여 Zephyr 모델을 fine-tuning하였고, 이를 통해 다른 상식 이해 데이터셋에서의 성능도 향상되는 것을 확인하였다. 이는 창의적 사고 능력이 일반적인 상식 이해에도 긍정적인 영향을 미칠 수 있음을 시사한다.
Статистика
문제 당 평균 토큰 수는 34.88개이며, 답변 당 평균 토큰 수는 9.11개이다.
문장 퍼즐 데이터셋에는 총 627개의 샘플이 포함되어 있다.
Цитаты
"인간의 인지 과정은 LLM 개발을 위한 근본적인 틀을 제공한다. 수직적 사고와 창의적 사고의 통합은 LLM의 인지 잠재력을 극대화하는 데 필수적이다."
"적절한 프롬프팅과 비전형적인 패턴 도입은 LLM의 창의적 사고 능력을 향상시킬 수 있다."
"모델은 길이가 더 긴 프롬프트보다 간결하고 정보가 풍부한 프롬프트를 선호한다."