ERM(Exemplar-Guided Reflection with Memory) 메커니즘을 통해 LLM의 프롬프트 최적화를 효율적이고 정확하게 수행할 수 있다.
대규모 언어 모델(LLM)의 인컨텍스트 학습 성능을 향상하기 위해서는 프롬프트에 포함될 예제의 순서를 고려한 효율적인 자동 선택 방법이 중요하며, 본 논문에서는 이를 위한 새로운 알고리즘인 EASE를 제안합니다.
SCULPT는 복잡하고 긴 프롬프트를 체계적으로 개선하여 대규모 언어 모델(LLM)의 성능을 향상시키는 새로운 프레임워크입니다.
MAPO는 기존 프롬프트 최적화 기법인 ProTeGi를 개선하여 자연어 "긍정 그라디언트"와 모멘텀 기반 접근 방식을 사용하여 LLM 프롬프트 개선의 효율성과 효과를 향상시키는 새로운 기법이다.
사전 훈련된 언어 모델의 도메인 일반화 능력을 향상시키기 위해서는 프롬프트에 대한 모델의 관심 집중도와 그 안정성을 높이는 것이 중요하다.
LLM 성능 향상에만 집중하는 기존 프롬프트 최적화 방식의 보안 취약성을 해결하기 위해 성능과 보안을 동시에 개선하는 새로운 다목표 프롬프트 최적화 프레임워크인 SoS(Survival of the Safest)를 소개합니다.
PromptWizard는 LLM의 성능을 향상시키기 위해 프롬프트 지침과 맥락 내 학습 예제를 자동으로 생성하고 개선하는 프레임워크입니다.
대형 언어 모델의 성능을 향상시키기 위해 고품질 초기 프롬프트 생성과 경험 기반 최적화 과정을 통해 프롬프트 최적화 과정을 가속화한다.
언어 모델의 생성 능력을 활용한 프롬프트 최적화 기법에서 무작위로 선택한 구분자가 인간이 작성한 프롬프트와 견줄만한 성능을 보인다.
NeuroPrompts는 사용자가 제공한 프롬프트를 자동으로 최적화하여 텍스트-이미지 생성 모델의 이미지 품질을 향상시킵니다.