대규모 언어 모델(LLM)은 DL-Lite 온톨로지의 구문과 일부 의미론적 개념을 이해하는 데 유능함을 보여주지만, TBox NI 전이성 규칙 이해 및 대규모 ABox 처리에는 어려움을 겪는다.
기존 지식 그래프 개체 정렬 방법의 한계를 극복하기 위해 대규모 언어 모델(LLM)의 배경 지식과 추론 능력을 활용하는 ChatEA 프레임워크를 소개합니다. ChatEA는 KG-코드 변환 모듈을 통해 LLM이 지식 그래프를 이해하고 풍부한 외부 지식을 활용하여 개체 정렬의 정확도를 향상시킵니다.
LLaMP는 대규모 언어 모델(LLM)의 고질적인 문제인 할루시네이션을 완화하고, 재료 과학 분야의 복잡한 작업을 효율적으로 수행하기 위해 고안된 다중 모드 검색 기반 생성(RAG) 프레임워크입니다.
본 논문에서는 사전 훈련된 언어 모델의 활성화를 미세 조정하여 모델 출력을 조정하는 새로운 방법론인 활성화 엔지니어링을 소개하며, 특히 ActAdd 기술을 통해 기존 방법 대비 뛰어난 성능과 효율성을 보여줍니다.
AI 생성 텍스트 탐지에서 도메인 및 모델 변화에 대한 강력성을 향상시키기 위해 Transformer 기반 텍스트 인코더의 임베딩 공간에서 유해한 선형 하위 공간을 제거하는 방법을 제안합니다.
대규모 언어 모델(LLM)이 산술 연산 작업에서 어려움을 겪는 근본적인 문제를 해결하기 위해 튜링 머신을 모방하여 단계별 계산을 실행하도록 LLM을 미세 조정하는 새로운 프레임워크인 CAEF(Composable Arithmetic Execution Framework)를 제안합니다.
윤리적으로 모호한 상황에서 언어 모델의 인간 윤리 판단 일치도를 향상시키기 위해서는 미세 조정이 중요하지만, 여전히 인간의 미묘한 윤리적 추론 능력을 따라잡기에는 한계가 있다.
본 논문에서는 다양한 품질 측면에서 콘텐츠를 평가하는 데 효과적인 '다면적 반사실적 학습(MOLE)' 프레임워크를 제안하고, 대규모 언어 모델을 활용하여 반사실적 콘텐츠를 생성하여 다양한 품질 측면을 학습하고, 더 나아가 인간의 판단과 더욱 일치하는 평가 결과를 도출합니다.
소량의 학습 데이터만으로도 효과적인 개체 연결을 수행할 수 있는 OneNet이라는 새로운 프레임워크를 소개합니다. OneNet은 대규모 언어 모델(LLM)의 퓨샷 학습 능력을 활용하며, 특히 fine-tuning 없이도 뛰어난 성능을 달성합니다.
본 논문에서는 방송 뉴스에서 질문 답변 쌍 데이터 세트를 수집하고 이를 활용하여 사전 훈련된 대규모 언어 모델을 미세 조정하여 뉴스 관련 질문에 대한 정확하고 검증 가능한 답변을 생성하는 방법을 제시합니다.