Diese Arbeit bietet einen umfassenden Überblick und eine einheitliche Perspektive, um die jüngsten Fortschritte sowie aufkommende Trends in der Forschung zu mehrsprachigen großen Sprachmodellen (MLLMs) zusammenzufassen.
Zunächst werden die weit verbreiteten Datenressourcen für das Vortraining, das überwachte Feintuning (SFT) und das Reinforcement Learning mit menschlicher Rückmeldung (RLHF) von MLLMs beschrieben.
Darüber hinaus wird eine neuartige Taxonomie eingeführt, die MLLMs in zwei Ausrichtungstypen unterteilt: parameterbasierte Ausrichtung und parameterfreie Ausrichtung. Die parameterbasierte Ausrichtung umfasst eine Reihe von aufeinander aufbauenden Trainings- und Ausrichtungsstrategien, darunter Vortrainingsausrichtung, SFT-Ausrichtung, RLHF-Ausrichtung und Feinabstimmungsausrichtung auf Downstream-Aufgaben. Die parameterfreie Ausrichtung konzentriert sich auf vier Prompt-Strategien: Direktes Prompting, Code-Switching-Prompting, Übersetzungsausrichtungs-Prompting und Retrieval-gestütztes Ausrichtungs-Prompting.
Schließlich werden einige aufkommende Forschungsfelder und die damit verbundenen Herausforderungen hervorgehoben, darunter Halluzination, Wissensbearbeitung, Sicherheit, Fairness, Spracherweiterung und Multimodalität.
На другой язык
из исходного контента
arxiv.org
Дополнительные вопросы