일반 대중의 의견을 반영한 규범적 목표와 이를 달성하기 위한 전문가 기반 규칙을 결합하여 언어 모델의 행동을 대중의 의지에 효과적으로 정렬하는 새로운 방법론을 제시합니다.
구글에서 새롭게 출시한 실험적 대규모 언어 모델인 제미나이-exp-1114가 LMArena 벤치마크에서 ChatGPT-4.0를 능가하며 최상위 순위를 차지했지만, 아직 실험 단계인 모델이기에 최종적인 성능 평가를 위해서는 추가적인 검증이 필요하다.
대규모 팟캐스트 데이터셋인 SPoRC를 통해 팟캐스트 생태계의 콘텐츠, 구조, 반응성을 분석하고 이를 통해 사회 과학 및 언어학 연구의 새로운 지평을 열 수 있다.
본 논문에서는 전통적인 수치형 지표의 한계를 극복하기 위해 텍스트 데이터를 활용하여 포트폴리오 다각화를 측정하는 새로운 지표인 어휘 비율(LR)을 제시합니다.
본 연구 논문에서는 고급 딥러닝 모델, 특히 Qwen 2.5 시리즈를 활용하여 벵골어로 된 수학 문제를 효과적으로 해석하고 해결하는 혁신적인 접근 방식을 제시합니다.
대규모 언어 모델의 '기능 엔지니어링' 연구는 모델을 특정 방식으로 조작하여 검열 도구로 악용될 수 있는 가능성을 시사하며, 이는 사회적 양극화를 심화시킬 수 있는 심각한 윤리적 문제를 제기한다.
본 논문에서는 저자원 언어에서 교차 언어 요약 작업을 수행하는 대규모 언어 모델(LLM)의 잠재력을 입증하고, 이를 위한 새로운 제로샷 메타 생성 기반 접근 방식인 SITR(Summarization, Improvement, Translation, and Refinement)을 제안합니다.
대규모 언어 모델(LM)이 사실 정보를 처리하는 방식에 대한 명확한 이해가 부족하며, 정확한 사실 회상, 추론, 단순 추측 등 다양한 예측 시나리오를 구분하여 분석해야 한다.
본 논문에서는 BERT 모델의 적대적 강건성을 향상시키기 위해 유니터리 가중치와 멀티 마진 손실을 결합한 새로운 방식인 UniBERT를 제안합니다.
대규모 언어 모델은 귀납적 추론 과정에서 규칙 기반 추론 능력은 부족하지만, 주어진 예시와 유사한 특징을 가진 이웃 사례를 활용하는 이웃 기반 추론에는 뛰어난 성능을 보인다.