핵심 개념
Dieser Artikel untersucht die Leistungsfähigkeit verschiedener Repräsentationsmodelle für Stack Overflow-Beiträge und schlägt ein verbessertes Modell namens SOBERT vor, das die Leistung in mehreren Downstream-Aufgaben deutlich steigert.
초록
Der Artikel beginnt mit einer Einführung in die Bedeutung von Stack Overflow als wichtige Wissensquelle für Softwareentwickler und die Notwendigkeit, geeignete Repräsentationsmodelle für die Beiträge zu entwickeln.
Es werden zwei bestehende, speziell für Stack Overflow entwickelte Repräsentationsmodelle (Post2Vec und BERTOverflow) sowie neun weitere transformer-basierte Sprachmodelle aus dem allgemeinen und dem Software-Entwicklungsbereich untersucht. Die Modelle werden in drei Downstream-Aufgaben (Tag-Empfehlung, API-Empfehlung und Verwandtschaftsvorhersage) evaluiert.
Die Ergebnisse zeigen, dass die bestehenden Stack Overflow-spezifischen Modelle die State-of-the-Art-Leistung nicht verbessern können. Keines der untersuchten Modelle ist in allen Aufgaben am besten. Daher schlagen die Autoren SOBERT vor, ein verbessertes Modell, das durch Weitertraining auf Stack Overflow-Daten entsteht. SOBERT erzielt konsistent die besten Ergebnisse in allen drei Downstream-Aufgaben und übertrifft die bisherigen Spitzenleistungen deutlich.
통계
Die Stack Overflow-Plattform hat bis August 2023 mehr als 23 Millionen Fragen und 35 Millionen Antworten angesammelt.
Das für die Tag-Empfehlung verwendete Dateset enthält 527.717 Beiträge und 3.207 Tags.
Das für die API-Empfehlung verwendete BIKER-Dateset enthält 33.000 Fragen mit zugehörigen relevanten APIs.
Das für die Verwandtschaftsvorhersage verwendete Dateset enthält 208.423 Paare von Wissenseinheiten für das Training, 34.737 für die Validierung und 104.211 für den Test.
인용구
"Die Leistung solcher Lösungen hängt erheblich von der Auswahl der Repräsentationsmodelle für Stack Overflow-Beiträge ab."
"Trotz ihrer vielversprechenden Ergebnisse wurden diese Repräsentationsmethoden nicht in der gleichen experimentellen Umgebung bewertet."
"Inspiriert von den Erkenntnissen schlagen wir SOBERT vor, das einen einfachen, aber effektiven Ansatz verwendet, um die Repräsentationsmodelle von Stack Overflow-Beiträgen zu verbessern, indem es die Vortrainingsphase mit dem textuellen Artefakt von Stack Overflow fortsetzt."