본 연구는 질적 연구에서 대규모 언어 모델(LLM)의 적용 가능성과 과제, 미래 방향을 체계적으로 분석하여 LLM이 전통적인 질적 분석 방법의 한계를 극복하고 연구 효율성을 향상시킬 수 있는 잠재력을 제시한다.
본 논문에서는 제한된 계산 예산 내에서 최적의 성능을 내는 텍스트 임베딩 모델을 만들기 위해 사전 훈련된 디코더 전용 언어 모델을 활용하여 계산 비용을 최소화하면서 효율적으로 임베딩 모델을 미세 조정하는 방법을 연구합니다.
대규모 언어 모델(LLM)의 안전성을 높이기 위해 BERT 임베딩을 활 leveraging하여 가볍고 효율적인 안전 가드레일을 개발했습니다. 이 방법은 기존 LLM 기반 가드레일에 비해 레이턴시를 줄이고 유지 관리 비용을 절감하면서도 뛰어난 성능을 제공합니다.
본 논문에서는 BERT 학습 전이를 사용하여 텍스트에 부분 주석을 적용하는 모델을 개발하는 과정과 데이터 준비 및 결과 평가 과정을 설명하며, 제안된 방법이 텍스트에 태그를 지정하는 데 좋은 결과를 얻을 수 있음을 보여줍니다.
GASP는 LLM의 취약성을 악용하여 유해한 응답을 유도하는 적대적 접미사를 생성하는 효율적이고 확장 가능한 프레임워크이며, 특히 블랙박스 환경에서 높은 성공률과 자연스러운 문장 생성을 자랑합니다.
AEN은 런타임에 조정 가능한 분류 기준을 사용하여 저자원 환경에서 효율적인 텍스트 분류를 가능하게 하는 새로운 듀얼 인코더 아키텍처입니다.
비정상적인 주소 문제를 해결하기 위해 검색 증강 대규모 언어 모델(LLM) 기반 주소 재작성 프레임워크인 AddrLLM을 소개하며, 실제 물류 시스템에서 뛰어난 성능과 효율성을 보여줍니다.
자동 회귀 언어 모델과 자동 인코더 언어 모델을 결합한 CAALM-TC는 특히 데이터 세트가 작고 분류 작업이 추상적인 경우 텍스트 분류 성능을 향상시키는 효과적인 방법이다.
MRAG(Multi-Head RAG)는 다양한 측면의 정보를 요구하는 복잡한 질문에 대한 검색 증강 생성(RAG)의 정확도를 향상시키기 위해 Transformer의 멀티 헤드 어텐션 레이어를 활용하는 새로운 RAG 방식입니다.
대규모 언어 모델(LLM)은 자연어 처리 분야에 혁신을 가져왔지만, 그럴듯하지만 사실이 아닌 내용을 생성하는 환각 현상을 일으키기도 합니다. 본 연구는 LLM 환각 현상의 원인, 유형, 탐지 방법, 완화 전략, 벤치마크, 그리고 앞으로의 연구 방향을 제시하며, LLM의 신뢰성과 안전성을 향상시키기 위한 포괄적인 분석을 제공합니다.