Simple markov chain
Relevante Bilder
Relevante Artikel
Markow-KetteEine Markow-Kette ist ein stochastischer Prozess. Ziel bei der Anwendung von Markow-Ketten ist es, Wahrscheinlichkeiten für das Eintreten zukünftiger Ereignisse anzugeben. Eine Markow-Kette ist darüber definiert, dass durch Kenntnis einer nur begrenzten Vorgeschichte ebenso gute Prognosen über die zukünftige Entwicklung möglich sind wie bei Kenntnis der gesamten Vorgeschichte des Prozesses. .. weiterlesen
Stationäre VerteilungEine invariante Verteilung oder stationäre Verteilung ist ein Begriff aus der Theorie der Markow-Ketten; diese wiederum sind spezielle stochastische Prozesse und damit Untersuchungsobjekte der Stochastik. .. weiterlesen