Ein effizientes und echtzeitfähiges Aufmerksamkeitsmodul für selbstüberwachtes Sprachrepräsentationslernen
Das vorgeschlagene effiziente und echtzeitfähige Aufmerksamkeitsmodul ermöglicht das Training von Sprachrepräsentationsarchitekturen mit geringen Rechenleistungs- und Speicheranforderungen, während es eine Echtzeitinferenz mit geringer und fester Latenz ermöglicht.