Effiziente Verarbeitung und Analyse von Inhalten durch Token-Level Prompt-Zerlegung für mehrsprachige Sequenzmarkierungsaufgaben
Die vorgeschlagene TOPRO-Methode zerlegt eine Eingabesatzsequenz in einzelne Token und wendet eine Prompt-Vorlage auf jeden Token an, um die Leistung von mehrsprachigen Sprachmodellen bei Nullshot-Kreuzsprachentransfer für Sequenzmarkierungsaufgaben wie Named Entity Recognition und Part-of-Speech-Tagging zu verbessern.