Core Concepts
Sprachmodelle wie ChatGPT nutzen die Wortstellung, um Bedeutung zu erschließen, auch wenn die genaue Beziehung zwischen Wortstellung und lexikalischer Semantik noch nicht vollständig geklärt ist.
Abstract
Die Studie untersucht die Auswirkungen der Wortstellung auf die Leistung von Sprachmodellen wie ChatGPT. Dafür wurden vier verschiedene Datensätze ausgewählt, die unterschiedliche Kontexte repräsentieren:
RealToxicityPrompt (RTP): Enthält Sätze, die auf Toxizität getestet werden sollen. Die Wortstellung hat hier einen geringeren Einfluss.
Computer Science (CS): Enthält Multiple-Choice-Fragen aus dem Bereich Informatik. Auch hier ist der Einfluss der Wortstellung begrenzt.
Born-first (BF): Enthält Fragen zu Altersvergleichen. Hier hat die Wortstellung einen stärkeren Einfluss, da sie die Bedeutung direkt beeinflusst.
Infiniteloop (Loop): Enthält Codebeispiele, bei denen erkannt werden soll, ob eine Endlosschleife vorliegt. In diesem Fall ist die Wortstellung sehr wichtig, da sie die korrekte Ausführung des Codes bestimmt.
Die Experimente zeigen, dass ChatGPT die Wortstellung nutzt, um Bedeutung zu erschließen. Bei tiefer gehenden Störungen der Wortstellung sinkt die Leistung deutlich, was gegen die Hypothese spricht, dass Sprachmodelle die Wortstellung nicht berücksichtigen. Die Ergebnisse legen nahe, dass der Einfluss der Wortstellung je nach Kontext variiert und weitere Untersuchungen mit vielfältigeren Datensätzen nötig sind, um die genauen Zusammenhänge zu verstehen.
Stats
Die Wortstellung hat einen stärkeren Einfluss auf die Leistung von ChatGPT bei den Datensätzen BF (35% Leistungsrückgang) und Loop (26% Rückgang) als bei RTP (13% Rückgang) und CS (0,1% Rückgang).
Quotes
"Determining whether or not order is considered for a particular task is largely an experimental, empirical endeavor."
"Word order, referring to the sequential order of individual words within a text, is a fundamental concept in natural language."