Dieses Werk untersucht Methoden aus der Forschung zum maschinellen Lernen, die darauf abzielen, die Robustheit und Zuverlässigkeit von Deep Learning-Systemen zu verifizieren, und bewertet diese Methoden hinsichtlich ihrer Anwendbarkeit auf Probleme in der realen Welt. Anschließend wird ein neues Rahmenwerk für die Zertifizierung von Deep Learning entwickelt.
Für die inhärent sichere Auslegung wird untersucht, wie Regressionsvorhersagen durch die numerische Darstellung semantischer Variablen, die den Datenerzeugungsprozess steuern, modelliert werden können, und wie Repräsentationslernen verwendet werden kann, um diese Darstellungen wiederzugewinnen.
Für die Laufzeit-Fehlererkennung werden verschiedene Methoden behandelt, darunter (a) Quantifizierung der Unsicherheit, (b) Erkennung von Daten außerhalb der Verteilung, (c) Vermeidung von Merkmalseinbrüchen und (d) Risiken von Angriffen und Verteidigungen gegen adversarische Angriffe. Für jede dieser Aspekte werden Anforderungen formuliert und Verfahren zur empirischen Validierung vorgestellt.
Schließlich wird eine neuartige Deep Learning-Methode vorgeschlagen, die alle in dieser Arbeit etablierten Zertifizierungsprinzipien erfüllen soll.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Romeo Valent... at arxiv.org 03-25-2024
https://arxiv.org/pdf/2403.14678.pdfDeeper Inquiries