Durch die Umwandlung von Regression in ein Klassifizierungsproblem und die Verwendung von konformen Vorhersagetechniken für Klassifizierung können wir die Herausforderungen bei der konformen Vorhersage für Regression umgehen und anpassungsfähige Vorhersageintervalle für verschiedene Arten von Ausgabeverteilungen erstellen.
Die Minimierung des erwarteten Verlusts ignoriert Modellspezifikationsfehler, was zu einer erheblichen Unterschätzung der Parameterunsicherheiten im Grenzfall großer Datensätze oder unterspezifizierter Modelle führt. Wir analysieren den Generalisierungsfehler von nahezu deterministischen, fehlspezifizierten und unterspezifizierten Ersatzmodellen und leiten eine effiziente Ensemble-Methode ab, die diese Beschränkungen berücksichtigt.
Symbolische Regression kann eine interessante Alternative zu Black-Box-Methoden sein, da sie in der Lage ist, genaue Modelle mit angemessenen Erklärungen zurückzugeben.