Markow-Ungleichung (Stochastik)

Die Markow-Ungleichung,[1] auch Markow'sche Ungleichung[2] oder Ungleichung von Markow[3] genannt, ist eine Ungleichung in der Stochastik, einem Teilgebiet der Mathematik. Sie ist nach Andrei Andrejewitsch Markow benannt. Sein Name und der der Ungleichung ist in der Literatur auch in den Schreibungen Markoff[4] oder Markov[5] zu finden. Die Ungleichung gibt eine obere Schranke für die Wahrscheinlichkeit an, dass eine Zufallsvariable eine vorgegebene reelle Zahl überschreitet.

Satz

Es seien ein Wahrscheinlichkeitsraum, eine reellwertige Zufallsvariable, eine reelle Konstante und ferner eine monoton wachsende Funktion gegeben. Die Definitionsmenge von enthalte außerdem die Bildmenge von . Die allgemeine Markow-Ungleichung besagt dann:

was man für zu

umschreiben kann.

Beweis

Sei die Indikatorfunktion der Menge . Dann gilt:

Varianten

  • Setzt man für und betrachtet die reelle Zufallsvariable , so erhält man für den bekannten Spezialfall der Markow-Ungleichung
Wie man diese Ungleichung mit schulgemäßen Mitteln aus einem unmittelbar einsichtigen Flächen­vergleich folgern und dann daraus eine Version der Ungleichung von Tschebyschew herleiten kann, findet man in[6].
  • Betrachtet man für ein , so folgt der bekannte Spezialfall der Markow-Ungleichung, welcher die Wahrscheinlichkeit für das -fache Übertreffen des Erwartungswertes begrenzt:
  • Ist und wendet man die Markow-Ungleichung auf eine Zufallsvariable an, so erhält man für eine Version der Tschebyscheff-Ungleichung:
  • Für beschränkte Zufallsvariablen existiert die folgende Markow-artige Schranke für die Wahrscheinlichkeit, dass eine Zufallsvariable ihren Erwartungswert um den Faktor unterbietet. D.h., seien und sei eine Zufallsvariable mit und . Dann gilt für alle :
Der Beweis dieser Aussage ist ähnlich dem Beweis der Markow-Ungleichung.[7]
  • Wählt man , erhält man für geeignetes eine sehr gute Abschätzung, siehe auch Chernoff-Ungleichung. Man kann zeigen, dass diese Abschätzung unter gewissen Voraussetzungen sogar optimal ist.

Einzelnachweise

  1. Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, S. 121–122, doi:10.1515/9783110215274.
  2. Achim Klenke: Wahrscheinlichkeitstheorie. 3. Auflage. Springer-Verlag, Berlin Heidelberg 2013, ISBN 978-3-642-36017-6, S. 110, doi:10.1007/978-3-642-36018-3.
  3. Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2., durchgesehene Auflage. Springer-Verlag, Heidelberg Dordrecht London New York 2011, ISBN 978-3-642-21025-9, S. 119, doi:10.1007/978-3-642-21026-6.
  4. Norbert Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. Eine Einführung. 2., überarbeitete und erweiterte Auflage. Springer-Verlag, Berlin Heidelberg 2014, ISBN 978-3-642-45386-1, S. 210, doi:10.1007/978-3-642-45387-8.
  5. Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, S. 121–122, doi:10.1515/9783110215274.
  6. H. Wirths: Der Erwartungswert – Skizzen zur Begriffsentwicklung von Klasse 8 bis 13. In: Mathematik in der Schule 1995/Heft 6, S. 330–343.
  7. Piotr Indyk, Sublinear Time Algorithms for Metric Space Problems. Proceedings of the 31st Symposium on Theory of Computing (STOC'99), 428–434, 1999.