Основні поняття
In dieser Arbeit betrachten wir die Probleme der Schätzung und Optimierung des nutzungsbasierten Ausfallrisikos (UBSR), eines beliebten Risikomaßes in der Finanzwirtschaft. Für die UBSR-Schätzung leiten wir eine nicht-asymptotische Schranke für den mittleren quadratischen Fehler der klassischen Stichprobenmittelwertapproximation (SAA) von UBSR her. Für die UBSR-Optimierung leiten wir einen Ausdruck für den UBSR-Gradienten unter einer glatten Parametrisierung her. Dieser Ausdruck ist ein Verhältnis von Erwartungswerten, die beide den UBSR beinhalten. Wir verwenden SAA sowohl für den Zähler als auch für den Nenner im UBSR-Gradientenausdruck, um zu einem verzerrten Gradientenschätzer zu gelangen. Wir leiten nicht-asymptotische Schranken für den Schätzfehler her, die zeigen, dass unser Gradientenschätzer asymptotisch erwartungstreu ist. Wir integrieren den oben genannten Gradientenschätzer in einen stochastischen Gradientenalgorithmus (SG) für die UBSR-Optimierung. Schließlich leiten wir nicht-asymptotische Schranken her, die die Konvergenzrate unseres SG-Algorithmus für die UBSR-Optimierung quantifizieren.
Анотація
Die Arbeit befasst sich mit der Schätzung und Optimierung des nutzungsbasierten Ausfallrisikos (UBSR), einem beliebten Risikomaß in der Finanzwirtschaft.
Für die UBSR-Schätzung:
- Es wird eine Stichprobenmittelwertapproximation (SAA) verwendet, um UBSR zu schätzen.
- Es werden nicht-asymptotische Schranken für den mittleren quadratischen Fehler der SAA-basierten UBSR-Schätzung hergeleitet.
Für die UBSR-Optimierung:
- Es wird ein Ausdruck für den UBSR-Gradienten unter einer glatten Parametrisierung hergeleitet.
- Dieser Gradientenausdruck ist ein Verhältnis von Erwartungswerten, die beide den UBSR beinhalten.
- Es wird ein verzerrter Gradientenschätzer vorgeschlagen, der SAA sowohl für den Zähler als auch für den Nenner verwendet.
- Nicht-asymptotische Schranken für den Schätzfehler des Gradientenschätzers werden hergeleitet, die zeigen, dass der Schätzer asymptotisch erwartungstreu ist.
- Der Gradientenschätzer wird in einen stochastischen Gradientenalgorithmus (SG) für die UBSR-Optimierung integriert.
- Nicht-asymptotische Schranken, die die Konvergenzrate des SG-Algorithmus für die UBSR-Optimierung quantifizieren, werden hergeleitet.
Статистика
E[|SRl,λ(X) - SRm(Z)|] ≤ C1 / √m
E[|SRl,λ(X) - SRm(Z)|^2] ≤ C2 / m
E[|ˆtm - SRλ,l(X)|] ≤ d1 + C1 / √m
E[|ˆtm - SRλ,l(X)|^2] ≤ 2(d1^2 + C2) / m
Цитати
Keine relevanten Zitate identifiziert.