Überlegene Leistung von Transformer-Modellen bei der Lösung von Lateral-Denk-Rätseln
Transformer-basierte Sprachmodelle können Lateral-Denk-Rätsel deutlich besser lösen als der aktuelle Stand der Technik, insbesondere wenn sie mit einer kleinen Menge domänenspezifischer Daten feinabgestimmt werden.