Einfache Softmax-freie Aufmerksamkeit für Vision-Transformatoren
Wir stellen SimA vor, einen einfachen und effektiven Softmax-freien Aufmerksamkeitsblock, der die Leistung von Vision-Transformatoren verbessert, ohne die Genauigkeit zu beeinträchtigen.