Diese Arbeit bietet einen umfassenden Überblick und eine einheitliche Perspektive, um die jüngsten Fortschritte sowie aufkommende Trends in der Forschung zu mehrsprachigen großen Sprachmodellen (MLLMs) zusammenzufassen.
Zunächst werden die weit verbreiteten Datenressourcen für das Vortraining, das überwachte Feintuning (SFT) und das Reinforcement Learning mit menschlicher Rückmeldung (RLHF) von MLLMs beschrieben.
Darüber hinaus wird eine neuartige Taxonomie eingeführt, die MLLMs in zwei Ausrichtungstypen unterteilt: parameterbasierte Ausrichtung und parameterfreie Ausrichtung. Die parameterbasierte Ausrichtung umfasst eine Reihe von aufeinander aufbauenden Trainings- und Ausrichtungsstrategien, darunter Vortrainingsausrichtung, SFT-Ausrichtung, RLHF-Ausrichtung und Feinabstimmungsausrichtung auf Downstream-Aufgaben. Die parameterfreie Ausrichtung konzentriert sich auf vier Prompt-Strategien: Direktes Prompting, Code-Switching-Prompting, Übersetzungsausrichtungs-Prompting und Retrieval-gestütztes Ausrichtungs-Prompting.
Schließlich werden einige aufkommende Forschungsfelder und die damit verbundenen Herausforderungen hervorgehoben, darunter Halluzination, Wissensbearbeitung, Sicherheit, Fairness, Spracherweiterung und Multimodalität.
Ke Bahasa Lain
dari konten sumber
arxiv.org
Wawasan Utama Disaring Dari
by Libo Qin,Qig... pada arxiv.org 04-09-2024
https://arxiv.org/pdf/2404.04925.pdfPertanyaan yang Lebih Dalam