대규모 언어 모델(LLM)을 사용하여 체계적 문헌 고찰(SLR)을 위한 질의를 생성할 때 ChatGPT와 같은 모델의 성능이 기존 방법보다 우수하지만, 재현성 및 일반화 가능성 측면에서 여전히 개선의 여지가 있다.
본 논문에서는 대화형 시나리오에서 챗 오디오 공격에 대한 대규모 언어 모델(LLM)의 취약성을 평가하기 위한 벤치마크인 CAA(Chat-Audio Attacks)를 제시하고, 표준 평가, GPT-4o 기반 평가, 인간 평가라는 세 가지 평가 방법을 통해 6개의 최첨단 LLM을 비교 분석하여 각 모델의 강점과 약점을 분석합니다.
대규모 언어 모델(LLM)의 보안 취약점을 파악하고 이에 대한 방어 메커니즘 개발을 촉진하기 위해 AI Singapore와 CyberSG R&D 프로그램 오피스가 주최한 "안전하고 신뢰할 수 있는 LLM을 위한 글로벌 챌린지" 트랙 1에서 자동화된 탈옥 공격 기법의 발전과 LLM 보안 테스트의 중요성이 강조되었습니다.
대규모 언어 모델(LLM)은 인간의 인지 및 행동을 모방하는 능력이 급격히 발전하면서 인간 중심 분야에서 혁신적인 가능성을 제시하지만, 실제 환경 적응력, 감정 지능, 문화적 민감성 등 극복해야 할 과제 또한 존재한다.
본 연구는 질적 연구에서 대규모 언어 모델(LLM)의 적용 가능성과 과제, 미래 방향을 체계적으로 분석하여 LLM이 전통적인 질적 분석 방법의 한계를 극복하고 연구 효율성을 향상시킬 수 있는 잠재력을 제시한다.
LLaSA는 다양한 형태의 구조화된 데이터를 하이퍼그래프로 변환하고, 이를 사전 학습된 하이퍼그래프 인코더를 통해 대규모 언어 모델(LLM)에 통합하여 LLM의 구조화된 데이터 이해 및 처리 능력을 향상시키는 프레임워크입니다.
본 논문에서는 대규모 언어 모델(LLM)을 활용하여 이전에 접하지 못한 전력 시스템 시뮬레이션 도구를 사용하여 시뮬레이션을 수행할 수 있도록 하는 모듈식 프레임워크를 제안하고, 이를 DALINE 툴박스를 통해 검증합니다.
대규모 언어 모델의 추론 성능을 향상하기 위한 다양한 추론 시간 알고리즘들을 소개하고, 토큰 레벨 생성 알고리즘부터 메타 생성 알고리즘, 효율적인 생성 기법까지 포괄적으로 다루면서 각 방법의 작동 방식과 장단점을 분석합니다.
대규모 언어 모델(LLM)은 익명의 텍스트 저자를 식별하는 데 악용될 수 있으며, 이는 익명성을 기반으로 하는 시스템의 무결성을 위협하는 심각한 개인 정보 보호 위험을 초래합니다.
대규모 언어 모델(LLM)을 인과 관계 발견에 활용할 때 발생하는 환각 현상을 완화하기 위해 검색 증강 생성(RAG) 및 다중 LLM 토론 기반의 새로운 접근 방식을 제시한다.