핵심 개념
SMoA는 기존 다중 에이전트 LLM의 효율성과 다양성을 향상시키기 위해 SMoE에서 영감을 받은 희소성 개념을 활용한 새로운 아키텍처입니다.
초록
SMoA: 희소 혼합 에이전트 방식을 사용한 다중 에이전트 대형 언어 모델 개선 (연구 논문 요약)
Dawei Li, Zhen Tan, Peijia Qian, Yifan Li, Kumar Satvik Chaudhary, Lijie Hu, & Jiayi Shen. (2024). SMoA: Improving Multi-agent Large Language Models with Sparse Mixture-of-Agents. arXiv preprint arXiv:2411.03284.
본 연구는 다중 에이전트 대형 언어 모델 (LLM) 시스템의 효율성과 다양성을 향상시키기 위해 SMoA (Sparse Mixture-of-Agents) 아키텍처를 제안합니다.