Dieser Artikel untersucht die Fähigkeit von Large Language Models (LLMs), Grenzen in Texten zu erkennen, die sowohl von Menschen geschrieben als auch von Maschinen generiert wurden. Durch die Umwandlung der Aufgabe in ein Tokenklassifikationsproblem und den Einsatz von LLMs, die lange Abhängigkeiten gut erfassen können, erreicht das vorgestellte Ensemble-Modell den ersten Platz in der entsprechenden Teilaufgabe des SemEval'24-Wettbewerbs.
Die Erkennung von Grenzen zwischen menschlich geschriebenem und maschinell generiertem Text in Texten, die beides enthalten, ist eine herausfordernde Aufgabe, die bisher wenig Aufmerksamkeit in der Literatur erhalten hat. Die Autoren untersuchen mehrere Ansätze, um den Stand der Technik bei der Erkennung von künstlichem Text an diese komplexere Einstellungseinstellung anzupassen, und analysieren die Vor- und Nachteile dieser Ansätze eingehend.