Generative Pretrained Strukturierte Transformatoren: Unüberwachte syntaktische Sprachmodelle in großem Maßstab
Generative Pretrained Structured Transformers (GPST) ist ein unüberwachtes syntaktisches Sprachmodell, das in großem Maßstab ohne Verwendung von Goldstandard-Syntaxbäumen trainiert werden kann.