사용자 지시사항의 제약사항을 자동으로 확인하여 언어모델을 조정하는 효율적인 방법을 제안합니다.
토큰화의 압축 능력은 모델 성능과 밀접한 관련이 있음을 보여줌
현재의 의도 인코더 모델은 부정과 함축에 대한 의미 이해가 부족하며, 이를 개선하기 위해 LLM 생성 데이터를 활용한 세밀한 튜닝 방법을 제안합니다.