본 연구는 자연어 요약 기술과 소프트 프롬프트 압축 기법을 융합하여 대형 언어 모델의 문맥 처리 효율성과 성능을 향상시키는 혁신적인 프레임워크를 제안한다.
대화 요약문 생성 시 발생할 수 있는 허구를 자동으로 식별하고 이를 통해 요약문의 신뢰성을 높이는 기법을 제안한다.
대규모 언어 모델은 소수의 레이블링된 학습 예제를 활용하여 문맥 학습을 수행할 수 있으며, 이 과정에서 사실적 지식이 핵심적인 역할을 한다. 이 연구는 사실적 지식을 모델 사전 학습, 문맥 예제 선택, 예측 보정 등 다양한 단계에 활용하여 문맥 학습 성능을 크게 향상시킨다.
기존 텍스트 증강 방법들은 특징 공간 이동 문제로 인해 성능 저하가 발생하는 문제를 해결하기 위해, 사전 훈련된 언어 모델을 활용한 하이브리드 인스턴스 필터링 프레임워크를 제안한다.
LLM을 활용하여 인간 작성 텍스트와 기계 생성 텍스트의 경계를 정확하게 탐지하는 기술을 개발하고, 이를 SemEval-2024 Task 8에서 최고 성능으로 달성하였다.
다양한 클라이언트의 요구사항에 맞는 가장 효과적인 임베딩 모델을 선택하기 위한 체계적인 접근법을 제안한다.
온라인 공간에서 확산되는 혐오 발언에 대응하기 위해 자연어 처리 기술을 활용한 다양한 접근법이 제안되고 있다. 이 논문은 혐오 발언 대응을 위한 NLP 기술의 현황과 실천 방안을 종합적으로 소개한다.
개체명 인식과 관계 분류는 비정형 텍스트에서 정보를 추출하고 기계 판독 가능한 형식으로 변환하는 중요한 단계이다. 이 조사에서는 소수 샘플 학습 성능에 초점을 맞춘 최근 딥러닝 모델을 소개한다.
BERT 언어 모델을 활용한 문장 분류 작업에서 단일 출력층 이외의 다양한 분류 헤드 구조를 자동으로 탐색하여 성능을 향상시킬 수 있다.
지역 방언 정보를 활용하여 벵골어 텍스트를 IPA로 효과적으로 전사할 수 있는 방법을 제안한다.