In diesem Bericht werden die Stabiler Code und Stabiler Code Instruktion Modelle vorgestellt, zwei kompakte Decoder-only-Sprachmodelle, die für verschiedene Anwendungsfälle in der Softwareentwicklung entwickelt wurden.
Der Bericht beginnt mit einer detaillierten Beschreibung des Trainingsdatensatzes, der eine Vielzahl von Quellen umfasst, darunter Programmiersprachen, technische Dokumente, mathematische Texte und allgemeine Webinhalte. Dieser vielfältige Datensatz soll die Fähigkeiten der Modelle in Bereichen wie mathematisches Verständnis, logisches Denken und Verarbeitung komplexer technischer Texte erweitern.
Anschließend werden die Architektur und der Trainingsprozess der Modelle erläutert. Es wird ein mehrstufiger Trainingsansatz verwendet, der eine Vortrainingsphase mit anschließender Feinabstimmung umfasst. Dabei wird auch die Verwendung des "Fill-in-the-Middle"-Trainingsziels diskutiert, das die Modelle befähigt, sowohl vorherige als auch nachfolgende Kontextinformationen zu nutzen.
Der Bericht präsentiert dann eine umfassende Evaluierung der Modelle auf verschiedenen Benchmarks, darunter Code-Vervollständigung, "Fill-in-the-Middle"-Aufgaben und Multi-Turn-Dialogfähigkeiten. Die Ergebnisse zeigen, dass Stabiler Code und Stabiler Code Instruktion trotz ihrer relativ geringen Größe im Vergleich zu größeren Modellen eine beeindruckende Leistung erzielen.
Abschließend werden Möglichkeiten zur Beschleunigung der Inferenz, wie Quantisierung und Durchsatzoptimierung, diskutiert. Insgesamt bietet dieser Bericht einen detaillierten Einblick in die Entwicklung und Leistungsfähigkeit dieser neuen Sprachmodelle für die Softwareentwicklung.
Egy másik nyelvre
a forrásanyagból
arxiv.org
Mélyebb kérdések