Selbstüberwachtes Lernen für medizinische Bilddaten mit anatomieorientierten Bildgebungsebenen
Selbstüberwachtes Lernen hat sich als leistungsfähiges Werkzeug zum Vortraining tiefer Netzwerke auf unmarkierten Daten erwiesen, bevor das Zielaufgabenlernen mit begrenzter Annotation erfolgt. Die Relevanz zwischen dem Vortraining und den Zielaufgaben ist entscheidend für den Erfolg des Transferlernens. In dieser Arbeit schlagen wir zwei komplementäre Vortext-Aufgaben für medizinische Bilddaten mit anatomieorientierten Bildgebungsebenen vor, die auf den räumlichen Beziehungen zwischen den Bildgebungsebenen basieren.