Diese Studie untersucht den Einsatz verschiedener Gradient Boosting-Algorithmen zur Vorhersage und Diagnose von Brustkrebs. Der Fokus liegt dabei auf der Optimierung des Recall-Metrics, um die Zahl der Falsch-Negativen zu reduzieren.
Zunächst wurden Baseline-Modelle für AdaBoost, XGBoost, CatBoost und LightGBM erstellt und deren Leistung anhand von Metriken wie AUC, Recall, Genauigkeit und F1-Score evaluiert. Anschließend wurden die Modelle mithilfe von Optuna hyperparameter-optimiert, um den Fβ-Wert zu maximieren.
Die optimierten Modelle zeigten deutliche Verbesserungen gegenüber den Baseline-Modellen. So konnte der AUC-Wert auf über 99,41% und der Recall auf bis zu 100% gesteigert werden. Insbesondere bei AdaBoost und LightGBM gelang eine signifikante Reduktion der Falsch-Negativen.
Darüber hinaus wurde die Erklärbarkeit der Modelle mithilfe von SHAP untersucht. Dadurch konnten die Beiträge der einzelnen Eingabevariablen zur Vorhersage transparent dargestellt werden, was die Interpretierbarkeit der Modelle erhöht.
Insgesamt zeigt die Studie, dass der Einsatz von Gradient Boosting-Algorithmen in Kombination mit Hyperparameter-Optimierung und SHAP-Erklärbarkeit vielversprechende Ergebnisse für die Brustkrebs-Klassifizierung liefert, mit besonderem Fokus auf der Reduzierung von Falsch-Negativen.
To Another Language
from source content
arxiv.org
Deeper Inquiries