Extremwerte: Grenzerfahrungen


Manche Ereignisse – wie etwa schwere Naturkatastrophen – sind selten, kommen meist überraschend und sind mit einfachen Methoden kaum kalkulierbar. Es gibt aber raffinierte Ansätze, Wahrscheinlichkeiten selbst für noch nie aufgetretene Situationen abzuleiten.

In unserem Beispiel mit fiktiven Daten nehmen wir an, dass wir zehn Jahre lang kontinuierlich seismographische Messungen durchgeführt und für jeden Tag jeweils die maximale Aktivität festgehalten haben. Der Tag mit der maximalen Aktivität eines ganzen Jahres ist in der folgenden Grafik jeweils grün markiert (bitte klicken Sie auf die Grafik für eine vergrößerte Darstellung!):

Seismographische MessungenSeismographische Messungen

Offensichtlich wurde ein extrem großes Erdbeben mit einer Stärke von mehr als 9 in keinem dieser zehn Jahre beobachtet. Wir sind nun an der Frage interessiert, mit welcher Wahrscheinlichkeit ein solcher Fall im nächsten Jahr eintreten könnte.

Die nahe liegende Variante, einfach den Anteil der Jahre zu nehmen, in denen das seltene Ereignis auftrat, versagt im vorliegenden Fall, da 0 „Erfolge“ von 10 zu einem Schätzer 0 führen würden. Auch die Wahrscheinlichkeit, an einem einzelnen Tag ein extrem großes Erdbeben zu beobachten, würde mit 0 geschätzt werden, obwohl hier bereits etwa 3650 Messungen vorliegen.

Was können wir tun, wenn wir uns nicht mit der einfachen Antwort abspeisen lassen wollen, dass keine Gefahr bestehe?

Hier kommt uns nun die Extremwerttheorie in Form der Block-Maxima-Methode zu Hilfe. Der Name der Block-Maxima-Methode rührt daher, dass die ursprünglich täglich gemessenen Daten in Jahr-Blöcke aufgeteilt werden und die jeweiligen Jahresmaxima von Interesse sind.

Verlassen wir für einen Moment das konkrete Erdbebenbeispiel und nehmen an, dass wir n unabhängig und identisch verteilte Zufallszahlen mit bekannter Verteilung haben. Wenn F(x) die Wahrscheinlichkeit ist, dass eine Zufallszahl kleiner oder gleich x ist, dann ist die Wahrscheinlichkeit, dass alle n Zufallszahlen und somit auch das Maximum dieser Zahlen kleiner oder gleich x sind, mit (F(x))^n gegeben. Aus diesem Ausdruck lässt sich durch Ableiten nach x auch die Dichtefunktion für das Maximum gewinnen.

Die folgende Grafik zeigt in der ersten Spalte die Verteilungsfunktion und in der zweiten Spalte die Dichtefunktion des Maximums von jeweils n standardnormalverteilten Zufallszahlen, In der ersten Zeile ist n = 10, dann 100, 1000 und schließlich 10000:

Eigenschaften des Maximums von normalverteilten ZufallszahlenEigenschaften des Maximums von normalverteilten Zufallszahlen

Es ist nun aus den ersten beiden Spalten abzulesen, dass mit wachsender Stichprobengröße sowohl Verteilungs-, als auch Dichtefunktion des Maximums von n Werten zwar langsam, aber durchaus beharrlich nach rechts wandern. Die Verteilungsfunktion wird dabei immer steiler, die Dichtefunktion immer schmaler.

Aus den Erkenntnissen der Extremwerttheorie ergibt sich nun, dass man diesem Abwandern mit einer linearen Koordinatentransformation z = ax + b entgegenwirken kann, deren Parameter a = a(n) und b = b(n) von der vorliegenden Verteilung und von n abhängen. Die Funktionen werden dabei sozusagen wieder nach links geschoben und in x-Richtung gestreckt.

Erstaunlicherweise strebt eine solchermaßen definierte Verteilungsfunktion G(x) := F(a x + b) bei passender Wahl der Parameter gegen eine Grenzverteilungsfunktion und zwar gegen die der sogenannten Gumbelverteilung. Diese Grenzverteilungs- und die hiervon abgeleitete Grenzdichtefunktion sind in roter Farbe eingezeichnet.

Noch gibt es keinen Grund, verwundert zu sein. Nehmen wir nun einmal anstelle einer Normalverteilung eine Exponentialverteilung. Hier sehen die wandernden Verteilungs- und Dichtefunktionen (Spalten 1 und 2) folgendermaßen aus:

Eigenschaften des Maximums von exponentialverteilten ZufallszahlenEigenschaften des Maximums von exponentialverteilten Zufallszahlen

Der Clou liegt nun darin begründet, dass die standardisierten Versionen in den Spalten 3 und 4 im Grenzwert wieder exakt dieselben Funktionen der Gumbelverteilung ergeben. Die Konvergenz gegen die Grenzfunktionen ist hier sogar schneller. Die Berechnung der von n abhängigen Koeffizienten a = a(n) und b = b(n) weicht zwar von derjenigen der Normalverteilung ab, aber das standardisierte Ergebnis ist identisch.

Es lässt sich nun zeigen, dass überhaupt nur drei Verteilungstypen als Grenzverteilungen in Frage kommen – die bereits vorgestellte Gumbelverteilung, die Fréchetverteilung und die Weibullverteilung. Welche Verteilung als Grenzverteilung entsteht, hängt von Eigenschaften der Dichtefunktion der Ausgangsverteilung für große x ab. Die Gleichverteilung, bei der nur auf einem beschränkten Intervall Werte generiert werden können, führt beispielsweise zur Weibullverteilung als Grenzverteilung (genauer gesagt entsteht sogar eine Exponentialverteilung, die ihrerseits aber einen Spezialfall der Weibullverteilung darstellt!).

Es lässt sich nun die verallgemeinerte Extremwertverteilung ableiten, die alle drei möglichen Verteilungstypen als Spezialfälle enthält. Auch die Verteilungsfunktionen, die durch lineare Transformationen aus einer der drei Verteilungen entstehen können, sind darstellbar. Die Formel für die verallgemeinerte Extremwertverteilung (Generalized Extreme-Value Distribution) lautet:

Formel der verallgemeinerten ExtremwertverteilungFormel der verallgemeinerten Extremwertverteilung

D. h., falls eine Verteilung zu den Verteilungen gehört, bei denen Transformationen der Verteilungsfunktion des Maximums zu einer standardisierten Grenzverteilung führen, sollte sich die Verteilungsfunktion des Maximums mit dieser Formel bei geeigneter Wahl der drei Parameter gut darstellen lassen.

Der Parameter Gamma zeigt durch das Vorzeichen an, welcher der drei möglichen Typen gewählt wird, z. B. gehört die 0 zur Gumbelverteilung. Mit den anderen beiden Parametern können Lage und Skalierung der Verteilungsfunktion gesteuert werden.

Kehren wir zu unserem Beispiel der Erdbebenstärken zurück. Unsere Stichprobe besteht nun aus den 10 Werten, die jeweils das Maximum eines Jahres darstellen.

Wir haben keine konkreten Annahmen über die Verteilung einer einzelnen Tagesmessung. Hätten wir hier mehr Informationen, könnten wir möglicherweise die gewünschte Anpassung direkt herleiten.

Im günstigsten Fall können wir annehmen, dass alle Tagesmessungen unabhängig sind. Aber selbst dann, wenn Korrelationen aufeinanderfolgender Tage vorliegen sollten, könnte die Anwendung statthaft sein, da wir das n = 365 in unserer Modellanpassung nicht explizit verwenden. Wir berufen uns ja nicht auf die Annahme einer konkreten Verteilung eines Tageswertes, sondern nutzen asymptotische Ergebnisse, die für eine Vielzahl von sich gutmütig verhaltenden Verteilungen zutreffen.

Letztendlich kann nun eine Anpassung der Parameter der verallgemeinerten Extremwertverteilung durchgeführt werden. Die zehn beobachteten Maximalwerte werden durch die empirische Verteilungsfunktion repräsentiert. Die rote Kurve zeigt die Verteilungsfunktion der angepassten Extremwertverteilung:

Angepasste ExtremwertverteilungAngepasste Extremwertverteilung

Diese angepasste Verteilung kann nun benutzt werden, um die Gefahr einzuschätzen, in einem Jahr den Wert von 9 zu überschreiten. Hier ergibt sich eine Wahrscheinlichkeit von 4.1%, ein extrem großes Erdbeben zu erleben.

Da wir die Daten selbst erzeugt haben und somit den Generierungsmechanismus kennen, lässt sich die Wahrscheinlichkeit auch exakt berechnen. Diese beträgt 4.4%, liegt also relativ dicht an unserer Schätzung.

Die geringe Abweichung kann aufgrund der relativ kleinen Anzahl von 10 Jahren noch mit einer glücklichen Fügung zusammenhängen, aber an dieser Stelle verzichten wir auf Abschätzungen der Genauigkeit unserer Vorhersage. Grob gesprochen gilt die Faustregel, dass eine große Anzahl von Beobachtungen pro Block die Existenz einer guten Approximation sichert und eine große Anzahl von Blöcken dafür sorgt, dass man diese gute Approximation auch findet.

Es sollte aber zumindest klar sein, dass unsere Vorhersage, die eine positive Wahrscheinlichkeit für eine Katastrophe vorsieht, der Verkündung einer scheinbar absolut sicheren Lage vorzuziehen ist.

Der genannte Ansatz ist natürlich nicht auf die Erdbebenforschung beschränkt. Vor allem in der Versicherungsbranche sind ähnlich gelagerte Problemstellungen der Predictive Analytics häufig anzutreffen. Beispielsweise kann die Vorgehensweise der Modellierung bei der Abschätzung der Wahrscheinlichkeiten extremer Schäden angewandt werden.

Es gibt darüberhinaus noch die Peaks-over-Threshold-Methode, die nicht nur mit dem Maximum, sondern mit allen Werten über einer hoch gewählten Schwelle arbeitet. Diese Methode sollte aber lieber Thema eines gesonderten Blogbeitrags sein.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.