„Übergangsmatrix“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
[gesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
K Link, RS
Zeile 15: Zeile 15:
== Eigenwerten und Eigenvektoren ==
== Eigenwerten und Eigenvektoren ==
Den [[Eigenwertproblem|Eigenwerte und Eigenvektoren]] einer stochastischen Matrix kommt in der Stochastik eine besondere Rolle zu. Ist <math> v </math> Eigenvektor zum Eigenwert <math> \lambda=1 </math> und hat der Eigenraum Dimension 1, so entspricht dies der stationären Verteilung der Markow-Kette (vgl. unten). Generell besitzt jede stochastische Matrix den Eigenwert 1. Ist z.B. <math> A </math> zeilenstochastisch, so folgt mit der [[Zeilensummennorm]], dass <math> \Vert A \Vert_\infty = 1</math>. Da aber der [[Spektralradius]] einer Matrix immer kleiner als ihre Norm ist, müssen alle Eigenwerte betragsmäßig kleiner oder gleich 1 sein. Ist nun <math> \mathbf{1} </math> ein Vektor, der nur 1 als Einträge hat, so gilt <math> A\mathbf{1}=\mathbf{1} </math> und 1 ist Eigenwert von <math> A </math>. Der Beweis für spaltenstochastische Matrizen läuft analog, aber mit der [[Spaltensummennorm]] anstelle der Zeilensummennorm und der transponierten Matrix. Daraus folgt direkt, dass 1 auch immer betragsgrößter Eigenwert ist. Die Dimension des Eigenraumes lässt sich etwas schwerer berechnen. Mit dem [[Satz von Perron-Frobenius]] folgt
Den [[Eigenwertproblem|Eigenwerte und Eigenvektoren]] einer stochastischen Matrix kommt in der Stochastik eine besondere Rolle zu. Ist <math> v </math> Eigenvektor zum Eigenwert <math> \lambda=1 </math> und hat der Eigenraum Dimension 1, so entspricht dies der stationären Verteilung der Markow-Kette (vgl. unten). Generell besitzt jede stochastische Matrix den Eigenwert 1. Ist z.B. <math> A </math> zeilenstochastisch, so folgt mit der [[Zeilensummennorm]], dass <math> \Vert A \Vert_\infty = 1</math>. Da aber der [[Spektralradius]] einer Matrix immer kleiner als ihre Norm ist, müssen alle Eigenwerte betragsmäßig kleiner oder gleich 1 sein. Ist nun <math> \mathbf{1} </math> ein Vektor, der nur 1 als Einträge hat, so gilt <math> A\mathbf{1}=\mathbf{1} </math> und 1 ist Eigenwert von <math> A </math>. Der Beweis für spaltenstochastische Matrizen läuft analog, aber mit der [[Spaltensummennorm]] anstelle der Zeilensummennorm und der transponierten Matrix. Daraus folgt direkt, dass 1 auch immer betragsgrößter Eigenwert ist. Die Dimension des Eigenraumes lässt sich etwas schwerer berechnen. Mit dem [[Satz von Perron-Frobenius]] folgt
* Sind alle Einträge einer stochastischen Matrix echt größer als 0, so ist die Dimension des zum Eigenwert 1 gehörenden Eigenraumes gleich 1.
* Sind alle Einträge einer stochastischen Matrix echt größer als 0, so ist die Dimension des zum Eigenwert 1 gehörenden [[Eigenraum|Eigenraumes]] gleich 1.


* Ist die stochastische Matrix [[Irreduzible Matrix|irreduzibel]], so ist die Dimension des zum Eigenwert 1 gehörenden Eigenraumes gleich 1.
* Ist die stochastische Matrix [[Irreduzible Matrix|irreduzibel]], so ist die Dimension des zum Eigenwert 1 gehörenden Eigenraumes gleich 1.
Zeile 41: Zeile 41:
Ist <math>A</math> eine zeilenstochastische Matrix, so lässt sich damit auf folgende Weise eine zeitinvariante [[Markow-Kette]] mit endlichem Zustandsraum charakterisieren:
Ist <math>A</math> eine zeilenstochastische Matrix, so lässt sich damit auf folgende Weise eine zeitinvariante [[Markow-Kette]] mit endlichem Zustandsraum charakterisieren:


Die Einträge <math>a_{ij}</math> der Matrix <math>A</math> sind genau die Übergangswahrscheinlichkeiten vom Zustand <math>i</math> in den Zustand <math>j</math>. Ist nun <math>x_0</math> ein stochastischer Vektor (also ein Vektor mit Einträgen zwischen 0 und 1, die such zu 1 aufsummieren), dann beschreibt <math>x_0</math> den Zustand des Systems zum Zeitpunkt 0 (dabei ist der <math>i</math>te Eintrag von <math>x_0</math> die Aufenthaltswahrscheinlichkeit zum Zeitpunkt 0 im Zustand <math>i</math>). Die Aufenthaltswahrscheinlichkeiten zum Zeitpunkt 1 ergeben sich durch Linksmultiplikation von <math>A</math> mit <math>x_0</math>:
Die Einträge <math>a_{ij}</math> der Matrix <math>A</math> sind genau die Übergangswahrscheinlichkeiten vom Zustand <math>i</math> in den Zustand <math>j</math>. Ist nun <math>x_0</math> ein stochastischer Vektor (also ein Vektor mit Einträgen zwischen 0 und 1, die sich zu 1 aufsummieren), dann beschreibt <math>x_0</math> den Zustand des Systems zum Zeitpunkt 0 (dabei ist der <math>i</math>te Eintrag von <math>x_0</math> die Aufenthaltswahrscheinlichkeit zum Zeitpunkt 0 im Zustand <math>i</math>). Die Aufenthaltswahrscheinlichkeiten zum Zeitpunkt 1 ergeben sich durch Linksmultiplikation von <math>A</math> mit <math>x_0</math>:


:<math>x_0^TA=x_1^T</math>
:<math>x_0^TA=x_1^T</math>
Zeile 116: Zeile 116:


* Hans-Otto Georgii: ''Stochastik: Einführung in die Wahrscheinlichkeitstheorie und Statistik.'' 4. Auflage. de Gruyter Lehrbuch, Berlin 2009, ISBN 978-3-11-021526-7, Kap. 6.
* Hans-Otto Georgii: ''Stochastik: Einführung in die Wahrscheinlichkeitstheorie und Statistik.'' 4. Auflage. de Gruyter Lehrbuch, Berlin 2009, ISBN 978-3-11-021526-7, Kap. 6.
* Peter Knabner, Wolf Barth: ''Lineare Algebra: Grundlagen und Anwendungen.'' 1. Auflage. Springer Spektrum, Berlin Heidelberg 2012, ISBN 978-3-642-32185-6.
* Peter Knabner, [[Wolf Barth]]: ''Lineare Algebra: Grundlagen und Anwendungen.'' 1. Auflage. Springer Spektrum, Berlin Heidelberg 2012, ISBN 978-3-642-32185-6.


[[Kategorie:Stochastik|Ubergangsmatrix]]
[[Kategorie:Stochastik|Ubergangsmatrix]]

Version vom 3. Januar 2013, 22:15 Uhr

In der Mathematik, besonders der Wahrscheinlichkeitstheorie und Statistik, bezeichnet eine Übergangsmatrix (auch Prozess- oder manchmal Stochastische Matrix) eine quadratische Matrix, deren Zeilen- oder Spaltensummen Eins betragen und deren Elemente zwischen Null und Eins liegen. Die Übergangswahrscheinlichkeiten einer diskreten Markow-Kette können durch eine Übergangsmatrix ausgedrückt werden.

Weitere Unterscheidung

  • Eine Übergangsmatrix heißt zeilenstochastisch, wenn alle Einträge der Matrix zwischen 0 und 1 liegen und die Zeilensummen 1 ergeben.
  • Eine Übergangsmatrix heißt spaltenstochastisch, wenn alle Einträge der Matrix zwischen 0 und 1 liegen und die Spaltensummen 1 ergeben.
  • Eine Übergangsmatrix heißt doppelt-stochastisch, wenn sie sowohl zeilen- als auch spaltenstochastisch ist.

Teilweise werden Matrizen mit Einträgen zwischen 0 und 1, deren Zeilensummen (bzw. Spaltensummen) kleiner als 1 sind, auch als 'substochastisch' bezeichnet. In der Stochastik sind fast ausschließlich zeilenstochastische Matrizen gebräuchlich. Die Unterscheidung ist aber i. A. wenig gebräuchlich, da die Matrizen durch Transponierung ineinander übergehen.

Eigenwerten und Eigenvektoren

Den Eigenwerte und Eigenvektoren einer stochastischen Matrix kommt in der Stochastik eine besondere Rolle zu. Ist Eigenvektor zum Eigenwert und hat der Eigenraum Dimension 1, so entspricht dies der stationären Verteilung der Markow-Kette (vgl. unten). Generell besitzt jede stochastische Matrix den Eigenwert 1. Ist z.B. zeilenstochastisch, so folgt mit der Zeilensummennorm, dass . Da aber der Spektralradius einer Matrix immer kleiner als ihre Norm ist, müssen alle Eigenwerte betragsmäßig kleiner oder gleich 1 sein. Ist nun ein Vektor, der nur 1 als Einträge hat, so gilt und 1 ist Eigenwert von . Der Beweis für spaltenstochastische Matrizen läuft analog, aber mit der Spaltensummennorm anstelle der Zeilensummennorm und der transponierten Matrix. Daraus folgt direkt, dass 1 auch immer betragsgrößter Eigenwert ist. Die Dimension des Eigenraumes lässt sich etwas schwerer berechnen. Mit dem Satz von Perron-Frobenius folgt

  • Sind alle Einträge einer stochastischen Matrix echt größer als 0, so ist die Dimension des zum Eigenwert 1 gehörenden Eigenraumes gleich 1.
  • Ist die stochastische Matrix irreduzibel, so ist die Dimension des zum Eigenwert 1 gehörenden Eigenraumes gleich 1.

Beispiel für eine Übergangsmatrix P

Das charakteristische Polynom einer -Übergangsmatrix lässt sich sehr leicht berechnen.

Mit der Spur und der Determinante gilt:

Aus der letzten Zeile ergibt sich, dass stets Eigenwert der Matrix P ist, d.h. unabhängig von der Wahl der Koeffizienten von P, die anderen beiden Eigenwerte lassen sich dann gegebenenfalls bequem über die p-q-Formel errechnen.

Hieraus folgt wiederum, dass die Matrix P zumindest einen stationären Zustand hat, sowie – falls dieser eindeutig ist – eine Grenzverteilung.

Anwendung zur Charakterisierung diskreter Markow-Ketten

Ist eine zeilenstochastische Matrix, so lässt sich damit auf folgende Weise eine zeitinvariante Markow-Kette mit endlichem Zustandsraum charakterisieren:

Die Einträge der Matrix sind genau die Übergangswahrscheinlichkeiten vom Zustand in den Zustand . Ist nun ein stochastischer Vektor (also ein Vektor mit Einträgen zwischen 0 und 1, die sich zu 1 aufsummieren), dann beschreibt den Zustand des Systems zum Zeitpunkt 0 (dabei ist der te Eintrag von die Aufenthaltswahrscheinlichkeit zum Zeitpunkt 0 im Zustand ). Die Aufenthaltswahrscheinlichkeiten zum Zeitpunkt 1 ergeben sich durch Linksmultiplikation von mit :

Die Aufenthaltswahrscheinlichkeiten zu einem beliebigen Zeitpunkt in Abhängigkeit vom Startzustand sind dann

Eine besondere Rolle kommt den Linkseigenvektoren der Matrix zum Eigenwert zu, denn diese stellen die Grenzverteilung der Markow-Kette nach langer Zeit dar, wenn diese eine vom Anfangszustand unabhängige ergodische Verteilung besitzt.

Für spaltenstochastische Matrizen kann man analog vorgehen, bloß dass die Vektormultiplikation von rechts durchgeführt wird und der gewöhnliche Eigenvektor zum Eigenwert 1 berechnet wird. Alternativ kann man auch die Matrix transponieren und das oben skizzierte Vorgehen nutzen.

Beispiele

Die Ratte im Zimmer

Peter besitzt eine Ratte. Ist die Ratte nicht im Käfig eingesperrt, so befindet sie sich entweder unter dem Schreibtisch (Zustand 3), hinter dem Schrank (Zustand 2) oder ist im Käfig, um zu fressen (Zustand 1). Die Ratte wechselt alle 5 Minuten ihren Ort. Ist sie gerade im Käfig, so bleibt sie mit Wahrscheinlichkeit 0.05 dort, mit Wahrscheinlichkeit 0.4 geht sie hinter den Schrank und mit Wahrscheinlichkeit 0.55 unter den Schreibtisch. Ist sie hinter dem Schrank, so bleibt sie mit Wahrscheinlichkeit 0.7 dort, mit Wahrscheinlichkeit 0.2 geht sie unter den Schreibtisch und mit Wahrscheinlichkeit 0.1 geht sie in den Käfig. Ist sie unter dem Schreibtisch, so bleibt sie mit Wahrscheinlichkeit 0.1 dort, mit Wahrscheinlichkeit 0.1 geht sie in den Käfig und mit Wahrscheinlichkeit 0.8 flüchtet sie hinter den Schrank. Das Verhalten der Ratte wird durch die zeilenstochastische Matrix beschrieben:

Peter lässt nun seine Ratte frei und will wissen, mit welcher Wahrscheinlichkeit sich die Ratte nach 20 Minuten im Käfig befindet. Der Startzustand des Systems ist

(die Ratte befindet sich mit Wahrscheinlichkeit 1 im Käfig). Der Zustand nach 20 Minuten (nach 4 Zeitschritten) ist dann

Die Ratte befindet sich also mit Wahrscheinlichkeit 0.0952 im Käfig.

Peter fährt über das Wochenende in den Urlaub und will danach seine Ratte wieder einfangen. Nun stellt sich die Frage, wo er am besten suchen soll. Da viel Zeit vergangen ist, seit die Ratte freigelassen wurde ist die Annahme gerechtfertigt, das sich das System im Gleichgewicht befindet. Gesucht ist daher ein Linkseigenvektor von bzw. ein Rechtseigenvektor von zum Eigenwert 1. Durch Nachrechnen ergibt sich für den Eigenvektor

Peter sollte also zuerst hinter dem Schrank suchen.

Die Katze und die Maus

Wir stellen uns vor, wir hätten fünf nebeneinander liegende Boxen, durchnummeriert von eins bis fünf, und in der ersten Box möge sich die Katze und in der letzten die Maus befinden. Nach einer festen Rundenzeit wechseln die Tiere zufällig in eine Nachbarbox. Das makabre Spiel hat ein Ende, wenn die Katze in einer Box auf die Maus trifft. Wir bezeichnen die möglichen Zustände mit (i,j), d. h. die Katze ist in der i-ten und die Maus in der j-ten Box. Wir sehen sofort, dass wenn i gerade (ungerade) ist, j ebenfalls gerade (ungerade) sein muss. Sofort ist auch klar, dass gelten muss. Die Markow-Kette, die dieses Spiel beschreibt, hat also die folgenden fünf Zustände:

  • (1,3)
  • (1,5)
  • (2,4)
  • (3,5)
  • Spielende (2,2), (3,3) und (4,4).

Der Vektor gebe an, welcher dieser fünf Zustände vorliegt. Beispielsweise steht für den ersten Zustand unserer Auflistung, also , und für den letzten, also das Spielende (egal, in welcher Box).

Die Übergangsmatrix A dazu ist nun

Wenn wir beispielsweise wie zu Beginn im 2. Zustand sind, dann wechseln wir mit Sicherheit in den 3. Zustand , also Katze in der zweiten und Maus in der vierten Box. Daher ist in der Übergangsmatrix die Position in der 2. Spalte und 3. Zeile gleich eins.

Von diesem Zustand ausgehend kommen wir nun aber mit 25 % Wahrscheinlichkeit in einen der anderen vier Zustände, daher sind alle Zeilen in der 3. Spalte gleich 1/4 (außer die 3. Zeile – der Zustand kann nicht derselbe bleiben).

Siehe auch

Literatur

  • Hans-Otto Georgii: Stochastik: Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. de Gruyter Lehrbuch, Berlin 2009, ISBN 978-3-11-021526-7, Kap. 6.
  • Peter Knabner, Wolf Barth: Lineare Algebra: Grundlagen und Anwendungen. 1. Auflage. Springer Spektrum, Berlin Heidelberg 2012, ISBN 978-3-642-32185-6.