Divergente Tokenmetriken: Messung der Degradation zur Optimierung der Quantisierung und Ausdünnung von Großen Sprachmodellen
Divergente Tokenmetriken (DTMs) sind ein neuartiger Ansatz zur Bewertung komprimierter Großer Sprachmodelle, der die Einschränkungen traditioneller Perplexitäts- oder Genauigkeitsmaße überwindet, die die Qualität der Textgenerierung nicht genau widerspiegeln.