fdd-Konvergenz

Die fdd-Konvergenz ist eine spezielle Konvergenzart in der Wahrscheinlichkeitstheorie für die Verteilungen von Zufallsvariablen oder für Wahrscheinlichkeitsmaße. Bei ihr handelt es sich um eine Abschwächung der Konvergenz in Verteilung speziell für Zufallsvariablen, die als Werte stetige Funktionen annehmen. Dabei wird die Konvergenz über die Konvergenz der endlichdimensionalen Verteilungen definiert (fdd steht für englisch finite-dimensional distributions, deutsch endlichdimensionale Verteilungen).

Anwendung findet die fdd-Konvergenz beispielsweise bei funktionalen zentralen Grenzwertsätzen wie dem Donsker’schen Invarianzprinzip.

Definition

Seien für stetige stochastische Prozesse bzw. Zufallsvariablen mit Werten in , dem Raum der stetigen Funktionen auf den positiven reellen Zahlen.

Es bezeichne die k-te Komponente der Zufallsvariable .

Dann konvergieren die endlichdimensionalen Verteilungen der gegen , wenn für alle und alle aus gilt, dass

in Verteilung gegen konvergiert.

Dies wird als oder als notiert.

Eigenschaften

Die fdd-Konvergenz ist eindeutig, das heißt, ist und , so ist .

Dies folgt direkt aus dem Erweiterungssatz von Kolmogorov, da die Randverteilungen eines Wahrscheinlichkeitsmaßes das Maß eindeutig bestimmen.

Außerdem ist die fdd-Konvergenz schwächer als die schwache Konvergenz/Konvergenz in Verteilung. Das bedeutet, dass aus der schwachen Konvergenz immer die fdd-Konvergenz folgt, der Umkehrschluss gilt aber im Allgemeinen nur, wenn man zusätzlich noch die Straffheit der Folge voraussetzt.

Literatur

  • Achim Klenke: Wahrscheinlichkeitstheorie. 3. Auflage. Springer-Verlag, Berlin Heidelberg 2013, ISBN 978-3-642-36017-6, doi:10.1007/978-3-642-36018-3.