언어 모델이 자신의 예측에 대한 불확실성을 언어적으로 표현할 수 있도록 미세 조정하는 방법을 제안한다.
Möbius 변환을 트랜스포머 모델의 주의 메커니즘에 통합하여 복잡한 언어 관계를 더 잘 포착할 수 있게 한다.
BERT-VBD는 추출적 요약과 생성적 요약을 결합한 새로운 베트남어 다문서 요약 프레임워크이다. 이를 통해 핵심 정보를 보존하면서도 읽기 쉬운 요약문을 생성할 수 있다.
PARAPHRASUS는 문장 유사도 탐지 모델의 다차원적 평가와 정교한 모델 선택을 위해 설계된 벤치마크이다.
대규모 언어 모델은 사고와 추론 메커니즘이 부족하지만, 본 연구에서 제안한 TaS 모델은 언어 모델이 먼저 생각하고 그에 따라 응답을 생성할 수 있도록 한다.
사용자 피드백 처리에서 카테고리와 감정 특징 대신 Shannon 엔트로피 특징을 사용하면 더 나은 성능을 얻을 수 있다.
대규모 언어 모델을 활용하여 생성한 합성 데이터는 단순한 자연어 처리 작업에서는 실제 데이터와 유사한 성능을 보이지만, 복잡한 작업에서는 그렇지 않다. 또한 모델 크기에 따라 자신이 생성한 데이터에 대한 편향성이 다르게 나타난다.
다단계 및 다규모 검색 보강 기법인 M2R-Whisper를 제안하여 Whisper 모델의 음성 인식 성능을 향상시킴
추출적 요약 모델의 핵심 정보를 활용하여 추상적 요약 성능을 향상시키는 단일 인코더-디코더 프레임워크를 제안한다.
대규모 언어 모델의 역할 수행 시 캐릭터의 알려진 지식 오류(KKE)와 알려지지 않은 지식 오류(UKE)를 효과적으로 탐지하는 것이 어려운 과제이다.