Der Artikel stellt ein neues Konzept namens "Themenrelevanz" vor, das darauf abzielt, Sprachmodelle (LLMs) dabei zu unterstützen, in Dialogen beim vorgegebenen Thema zu bleiben und nicht von Ablenkungen abgelenkt zu werden. Dies ist besonders wichtig für den Einsatz von Chatbots in praxisnahen Anwendungen.
Dafür wurde der CANTTALKABOUTTHIS-Datensatz entwickelt, der synthetische Dialoge zu verschiedenen Themen aus unterschiedlichen Domänen enthält. Diese Dialoge sind mit absichtlichen Ablenkungen durchsetzt, um die Fähigkeit der Sprachmodelle zu testen, beim Thema zu bleiben.
Die Ergebnisse zeigen, dass selbst leistungsstarke LLMs wie GPT-4-TURBO und MIXTRAL-INSTRUCT Schwierigkeiten haben, Ablenkungen zu erkennen und zu ignorieren. Durch Feintunning auf dem CANTTALKABOUTTHIS-Datensatz konnten die Autoren jedoch ein deutlich verbessertes Themenfolge-Verhalten erreichen.
Darüber hinaus zeigen die Experimente, dass Modelle, die auf Themenrelevanz trainiert wurden, auch in Bezug auf Instruktionsfolge und Sicherheitsausrichtung bessere Ergebnisse erzielen.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문