Core Concepts
Durch den Einsatz von "Human-in-the-Loop"-Strategien bei der Entwicklung von Maschinenlernen-Modellen können die Leistungen bei der Segmentierung, Klassifizierung und Interpretation von Brustkrebs-Bildgebungsdaten verbessert werden.
Abstract
Die Studie untersucht den Einsatz von "Human-in-the-Loop"-Strategien (HITL) bei der Entwicklung von Maschinenlernen-Modellen für die Analyse von Brustkrebs-Bildgebungsdaten.
Segmentierung:
Ein Deep-Learning-Modell (DMMN) wurde verwendet, um die verschiedenen Gewebekomponenten in den Ganzkörper-Bildgebungsaufnahmen (WSI) zu erkennen und zu markieren.
Ein Pathologe überprüfte die Segmentierungsergebnisse sorgfältig und korrigierte Fehler, um eine genauere Abgrenzung der relevanten Strukturen zu erreichen.
Klassifizierung:
Verschiedene Vortrainierte Modelle (Xception, Resnet50) wurden für die Klassifizierung der Krebstypen (Basal, Her2, Luminal A, Luminal B) getestet.
Die Klassifizierungsergebnisse waren suboptimal, da es sich um ein komplexes Problem handelt und nicht genügend Daten für bestimmte Krebstypen vorhanden waren.
Interpretation:
Um die Interpretierbarkeit der Modelle zu verbessern, wurden verschiedene Erklärungsverfahren (LIME, SHAP, Grad-CAM) eingesetzt.
LIME lieferte die besten Ergebnisse und wurde in einem iterativen Prozess mit Rückmeldung des Pathologen optimiert.
Die Optimierung der Interpretierbarkeit führte zu einer Verbesserung der Modellleistung, zeigte aber auch die Grenzen des HITL-Ansatzes auf, da selbst Experten bei komplexen Problemen Schwierigkeiten haben können.
Stats
Brustkrebs ist für etwa 1 von 6 Todesfällen weltweit verantwortlich.
Brustkrebs ist der häufigste Krebs bei Frauen und macht 32% aller Krebsfälle aus.
Die Inzidenzraten für Brustkrebs bei Frauen sind seit Mitte der 2000er Jahre um etwa 0,6% pro Jahr gestiegen.
Quotes
"Trotz des Einbezugs von Experten können komplexe Domänen immer noch Herausforderungen darstellen, und ein HITL-Ansatz ist möglicherweise nicht immer effektiv."
"Die Ergebnisse der verschiedenen Erklärbarkeitsalgorithmen waren sehr unterschiedlich, was die Frage aufwirft, inwieweit diese Algorithmen wirklich zuverlässig sind und wirklich anzeigen, was das ML-Modell gelernt hat."