Core Concepts
Code Language Models können robuste semantische Repräsentationen von Code erlernen, die über oberflächliche Merkmale hinausgehen.
Abstract
Pre-trained Language Models (PLMs) wie BERT und GPT-3 sind leistungsstarke Verarbeiter natürlicher Sprache.
PLMs zeigen Fähigkeiten im Transferlernen und kodieren syntaktische, semantische und weltliche Kenntnisse.
Untersuchungen zeigen, dass PLMs die semantischen Beziehungen von Code erfassen können.
Experimente mit Codefragmenten zeigen, dass PLMs die Bedeutung des Codes verstehen können.
Die Modelle lernen eine robuste Repräsentation der Bedeutung des Codes, die über die Form hinausgeht.
Die Modelle können die Semantik von Code erfassen, auch bei manipulierten Formen.
Die Ergebnisse deuten darauf hin, dass PLMs ein tieferes Verständnis der Bedeutung des Codes haben.
Stats
"PLMs lernen eine robuste Repräsentation der Bedeutung des Codes."
"Die Modelle können die Semantik von Code erfassen, auch bei manipulierten Formen."
Quotes
"PLMs lernen eine robuste Repräsentation der Bedeutung des Codes."
"Die Modelle können die Semantik von Code erfassen, auch bei manipulierten Formen."