Mansformer: Effiziente Transformer-Architektur mit gemischter Aufmerksamkeit für Bildentschleierung und darüber hinaus
Die Mansformer-Architektur kombiniert mehrere Formen der Selbstaufmerksamkeit, um sowohl lokale als auch globale Zusammenhänge effizient zu erfassen, und ersetzt die zweistufige Transformer-Architektur durch ein effizienteres einstufiges Design.