Wissen: Eigenwert und Eigenvektoren

Autor: Dr. Volkmar Naumburger ❤️ Bedanken

Einführung Eigenvektor

Gibt es einen Vektor X, der mit einer gegebenen Matrix A multipliziert, bis auf einen konstanten Faktor sich selbst ergibt?

\(A \cdot X = \lambda \cdot X\) Gl. 247

Existiert ein solcher Vektor, heißt er Eigenvektor vonA. l wird Eigenwert zu A genannt.

Zur Lösung dieser Aufgabe wird Gl. 247 umgestellt:

\(A \cdot X - \lambda \cdot X = \left( {A - \lambda \cdot I} \right) \cdot X = 0\) Gl. 248

Wenn der Vektor X von Null verschieden ist (nichttriviale Lösung), muss

\(A - \lambda \cdot I = 0\) Gl. 249

sein. Daraus folgt:

\(\begin{array}{l}A - \lambda · I & = \left( {\begin{array}{*{20}{c} } { {a_{11} } }&{ {a_{12} } }&{...}&{ {a_{1K} } } \\ { {a_{21} } }&{ {a_{22} } }&{...}&{ {a_{2K} } } \\ {...}&{...}&{ {a_{ik} } }&{...} \\ { {a_{I1} } }&{ {a_{I2} } }&{...}&{ {a_{IK} } } \end{array} } \right) - \left( {\begin{array}{*{20}{c} }\lambda &0&{...}&0\\0&\lambda &{...}&0\\{...}&{...}&\lambda &{...}\\0&0&{...}&\lambda \end{array} } \right)\\\\ & = \left( {\begin{array}{*{20}{c} }{ {a_{11} } - \lambda }&{ {a_{12} } }&{...}&{ {a_{1K} } }\\{ {a_{21} } }&{ {a_{22} } - \lambda }&{...}&{ {a_{2K} } }\\{...}&{...}&{ {a_{ik} } - \lambda }&{...}\\{ {a_{I1} } }&{ {a_{I2} } }&{...}&{ {a_{IK} } - \lambda }\end{array} } \right)\end{array}\) Gl. 250

Diese Matrix verschwindet, wenn auch ihre Determinante verschwindet:

\(\det (A - \lambda \cdot I) = \left| {\begin{array}{*{20}{c} }{ {a_{11} } - \lambda }&{ {a_{12} } }&{...}&{ {a_{1K} } }\\{ {a_{21} } }&{ {a_{22} } - \lambda }&{...}&{ {a_{2K} } }\\{...}&{...}&{ {a_{ik} } - \lambda }&{...}\\{ {a_{I1} } }&{ {a_{I2} } }&{...}&{ {a_{IK} } - \lambda }\end{array} } \right| = 0\) Gl. 251

Nach dem Auflösen der Determinante entsteht ein Polynom in l - das charakteristische Polynom – dessen Grad mit dem Rang der Matrix übereinstimmt:

\({\lambda ^R} + {c_{R - 1} }{\lambda ^{R - 1} } + \,\,....\,\, + {c_1}\lambda + {c_0} = 0\) Gl. 252

Nach dem Fundamentalsatz der Algebra gibt es für ein Polynom des Grades R auch R Lösungen für l. Dabei können mehrfache, aber auch komplexe Lösungen auftreten! Für jedes gefundene l kann nun Gl. 248 gelöst werden:

\( \left( {A - {\lambda _k} \cdot I} \right) \cdot X = 0 \quad k = 1...K \) Gl. 253

Im Ergebnis wird je ein Eigenvektor Xk zum Eigenwert lk gefunden.

\(\begin{array}{l}\left( { {a_{11} } - {\lambda _k} } \right) \cdot {x_1} + {a_{12} }{x_2} + .... + {a_{1K} }{x_K} = 0\\{a_{21} }{x_1} + \left( { {a_{22} } - {\lambda _k} } \right) \cdot {x_2} + .... + {a_{2K} }{x_K} = 0\\....\\{a_{I1} }{x_1} + {a_{I2} }{x_2} + .... + \left( { {a_{IK} } - {\lambda _k} } \right) \cdot {x_K} = 0\end{array}\) Gl. 254

Alle Störungsterme verschwinden (homogenes Gleichungssystem), folglich ist das Gleichungssystem überbestimmt. Zur Lösung darf also eine Gleichung gestrichen und ein xk frei gewählt werden. Mit x1 = 1 ergibt Gl. 254:

\(\begin{array}{l}\left( { {a_{22} } - {\lambda _k} } \right) \cdot {x_2} + .... + {a_{2K} }{x_x} = - {a_{21} }\\....\\{a_{I2} }{x_2} + .... + \left( { {a_{IK} } - {\lambda _k} } \right) \cdot {x_x} = - {a_{I1} }\end{array}\) Gl. 255

Dieses Gleichungssystem ist lösbar und liefert den gesuchten Eigenvektor Xk zum Eigenwert lk.

Beispiel:

Gegeben sei die Matrix \(A = \left( {\begin{array}{*{20}{c} }1&2\\2&5\end{array} } \right)\). Gesucht sind die Eigenwerte und die dazu gehörenden Eigenvektoren.

Lösung

Das charakteristische Polynom wird aus dem Bestimmungsgleichungssystem nach Gl. 250 abgeleitet:

\( A - \lambda · I = \left( {\begin{array}{*{20}{c} }{1 - \lambda }&2\\2&{5 - \lambda }\end{array} } \right) = 0 \quad \Rightarrow \quad \left( {1 - \lambda } \right) · \left( {5 - \lambda } \right) - 2 · 2 = 0 \)

Ausmultiplizieren ergibt eine quadratische Gleichung in l:

\({\lambda ^2} - 6\lambda + 5 - 4 = 0\)

Der Wurzelsatz von Vieta liefert die beiden gesuchten Eigenwerte der Matrix A:

\( {\lambda _{1,2} } = 3 \pm \sqrt {9 - 1} = 3 \pm 2\sqrt 2 \)

Mit diesen Werten kann das Gleichungssystem nach Gl. 255 gelöst werden, wobei \({x_1} = 1\) gewählt wird.

\( \begin{array}{l}\left( {5 - 3 \mp 2\sqrt 2 } \right) \cdot {x_2} = - 2 \quad \\ \Rightarrow \quad \text{1. Eigenvektor } {x_1} = 1; \quad {x_2} = - \frac{2}{ {2 - 2\sqrt 2 } } = - \frac{1}{ {1 - \sqrt 2 } } = {\rm{2} }{\rm{,41421} } \\ \quad \\ \Rightarrow \quad \text{2.Eigenvektor } {x_1} = 1; \quad {x_2} = - \frac{2}{ {2 + 2\sqrt 2 } } = - \frac{1}{ {1 + \sqrt 2 } } = - {\rm{0} }{\rm{,41421} }\end{array} \)

Also lauten die Eigenvektoren

\( {X_1} = \left( {\begin{array}{*{20}{c} }1\\{2,41421}\end{array} } \right); \quad {X_2} = \left( {\begin{array}{*{20}{c} }1 \\ {-0,41421}\end{array} } \right) \)

Die Bestimmung der Eigenwerte aus dem charakteristischen Polynom ist elementar nur für Matrizen mit einem Rang bis max. 3 sinnvoll möglich. In der Numerischen Mathematik gibt es elegante Verfahren zur Bestimmung der Eigenwerte von Matrizen mit höheren Rängen.

Eigenvektoren

Ist X ein Eigenvektor der MatrixA, dann sind auch beliebige Vielfache von X Eigenvektoren von A. Das Verhältnis der Komponenten der Eigenvektoren untereinander bleibt von einer Multiplikation mit einer Konstanten unberührt.

Beweis:

Es sei ein Eigenvektor X zum Eigenwert l einer Matrix A gegeben. Dann gilt für jeden reellen Faktor \(k \ne 0\):

\(A \cdot kX = kA \cdot X\) Gl. 256

Nach der Bestimmungsgleichung für Eigenwerte Gl. 247 kann die rechte Seite ersetzt werden

\(kA \cdot X = k\lambda X\) Gl. 257

Einsetzen in Gl. 256

\(A \cdot kX = k\lambda X = \lambda (kX)\) Gl. 258

Das Vertauschen der Faktoren auf der rechten Seite ändert den Wert nicht! Damit liegt wieder die Bestimmungsgleichung des Eigenwertes Gl. 247, allerdings für den Eigenvektor kX vor. Also istkX ebenso Eigenvektor von A wie X selbst.

Von dieser Eigenschaft wird Gebrauch gemacht, um Eigenvektoren auf ihren Betrag zu normieren. Der normierte Eigenvektor \(\overline X \) wird entsprechend Gl. 259

\(\overline X = \frac{X}{ {\left| X \right|} } = \frac{X}{ {\sqrt {\sum {x_i^2} } } }\) Gl. 259

Beispiel:

Die im vorangegangenen Beispiel gefundenen Eigenvektoren

\( {X_1} = \left( { \begin{array}{*{20}{c} } 1 \\ {2,41421} \end{array} } \right); \quad {X_2} = \left( { \begin{array}{*{20}{c} } 1 \\ {-0,41421} \end{array} } \right) \)

werden normiert zu

\( {\overline X _1} = \frac{1}{ {\sqrt {1 + {\rm{5} }{\rm{,828} } } } } \left( {\begin{array}{*{20}{c} }1\\{2,41421}\end{array} } \right) = \left( {\begin{array}{*{20}{c} }{ {\rm{0} }{\rm{,3827} } }\\{ {\rm{0} }{\rm{,9239} } }\end{array} } \right); \\ {\overline X _2} = \frac{1}{ {\sqrt {1 + {\rm{0} }{\rm{,171} } } } }\left( {\begin{array}{*{20}{c} }1\\{ - 0,41421}\end{array} } \right) = \left( {\begin{array}{*{20}{c} }{ {\rm{0} }{\rm{,9239} } }\\{ {\rm{ - 0} }{\rm{,3827} } }\end{array} } \right) \)

Die Beträge der Vektoren sind gleich

\({\left| { { {\overline X }_1} } \right|^2} = {\left| { { {\overline X }_2} } \right|^2} = {\rm{0} }{\rm{,923} }{ {\rm{9} }^{\rm{2} } } + {( \pm {\rm{0} }{\rm{,3827)} }^{\rm{2} } } = 1\)

Weitere Eigenschaften von Eigenwerten und Eigenvektoren

a) Die Summe aller Eigenwerte einer Matrix ist gleich der Spur der Matrix

\(Spur(A) = \sum \lambda \) Gl. 260

b) Das Produkt aller Eigenwerte einer Matrix ist gleich dem Wert der Matrix

\(\det (A) = \prod \lambda \) Gl. 261

Beispiel:

Die Matrix \(A = \left( {\begin{array}{*{20}{c} }1&2\\4&5\end{array} } \right)\) hat die Eigenwerte \({\lambda _1} = 6,464\) und \({\lambda _2} = - 0,464\).

a) \(Spur(A) = 1 + 5 = 6 \quad \text{ und } \sum {\lambda = 6,464 - 0,464 = 6} \)

b) \(\left| A \right| = 5 - 8 = - 3 \quad \text{ und } \quad \prod {\lambda = 6,464 \cdot ( - 0,464)} = - 3\)

c) Verschiebungssatz: Wird einer Matrix A eine Verschiebungsmatrix s×I hinzuaddiert, dann verschieben sich auch die Eigenwerte um diese Verschiebung.

\( \begin{array}{l} A \to A + s · I \quad \Rightarrow \quad \lambda \to \lambda + s \end{array} \) Gl. 262

d) Die Eigenvektoren von A sind orthogonal zueinander, wenn A symmetrisch ist.

e) Alle Eigenvektoren von A sind auch Eigenvektoren von A-1, vorausgesetzt det(A)¹0. Die Eigenwerte der Kehrwertmatrix hingegen sind identisch zu den Kehrwerten der Eigenwerte der Ausgangsmatrix.

Beispiel:

Die Matrix \(A = \left( {\begin{array}{*{20}{c} }1&2\\4&5\end{array} } \right)\) hat die Eigenwerte \({\lambda _1} = 6,464\) und \({\lambda _2} = - 0,464\). Die dazugehörige Eigenvektormatrix lautet \(V = \left( {\begin{array}{*{20}{c} }{0,344}&{0,807}\\{0,939}&{ - 0,591}\end{array} } \right)\).

Lösung:

\({A^{ - 1} } = \left( {\begin{array}{*{20}{c} }{ - 1,667}&{0,667}\\{1,333}&{ - 0,333}\end{array} } \right)\) die Eigenwerte bestimmen sich zu \({\lambda _1} = 0,155\) und \({\lambda _2} = - 2,155\), was genau den Kehrwerten der Eigenwerte der Ausgangsmatrix entspricht. Die Eigenvektormatrix der reziproken Matrix A lautet:

\( V = \left( {\begin{array}{*{20}{c} }{0,344}&{0,807}\\{0.939}&{ - 0,591}\end{array} } \right) \) und entspricht damit der Originalmatrix der Eigenvektoren!

f) Die Eigenwerte einer Diagonalmatrix oder einer Dreiecksmatrix sind gleich den Elementen auf der Hauptdiagonalen.

Beweis:

Die Bestimmungsgleichung für die Eigenwerte im Falle von Diagonal- oder Dreiecksmatrizen ist besonders einfach:

\( D - \lambda · I = \left( { \begin{array}{*{20}{c} } { {d_{11} } - \lambda } & { {d_{12} } } & {...} & { {d_{1K} } } \\ 0 & { {d_{22} } - \lambda } & {...} & { {d_{2K} } } \\ {...} & {...} & { {d_{ik} } - \lambda } & {...} \\ 0 & 0 & {...} & { {d_{IK} } - \lambda } \end{array} } \right) = 0 \) Gl. 263

D steht hier für eine Dreiecksmatrix (aber auch eine Diagonalmatrix zeigt gleiches Verhalten).

Die Lösung der Determinante zeigt, dass nur das Produkt der Elemente der Hauptdiagonalen übrig bleibt, alle anderen Produkte verschwinden.

\( \det (D - \lambda \cdot I) = \left( { {d_{11} } - \lambda } \right) \cdot \left( { {d_{22} } - \lambda } \right) \cdot \,....\, \cdot \left( { {d_{IK} } - \lambda } \right) = 0 \) Gl. 264

Gl. 264 wird immer dann verschwinden, wenn einer der Faktoren verschwindet. Daher sind die dkk identisch zu den Eigenwerten lk.

g) Sind A und B nichtsinguläre, ranggleiche Matrizen, dann habenA und B-1 ×A×B identische Eigenwerte. Die Transformation B-1 ×A×B wird Ähnlichkeitstransformation genannt, weil aus der allgemeinen Transformationsaufgabe

\(X' = M \cdot X\) Gl. 265

die spezielle Transformationsaufgabe

\( X' = {B^{ - 1} } \cdot A \cdot B \cdot X \quad \Rightarrow \quad M = {B^{ - 1} } \cdot A \cdot B \) Gl. 266

folgt. Dabei bewirkt die erste (rechte!) Multiplikation eine erste Transformation des Eingangsvektors X, die Multiplikation mit A eine zweite Transformation. Die letzte Multiplikation mit der reziproken der ersten Multiplikation (B-1) bewirkt die Rücknahme der Wirkung der ersten Transformation (Multiplikation mit B). Folglich bleiben in M die Eigenschaften von A erhalten.

Matrizen von Eigenwerten und Eigenvektoren

Der Ausdruck l×I führt auf eine Diagonalmatrix L, die aus den Eigenwerten der Matrix A besteht.

\(\Lambda = \left( {\begin{array}{*{20}{c} }{ {\lambda _1} }&0&{...}&0\\0&{ {\lambda _2} }&{...}&0\\{...}&{...}&{ {\lambda _k} }&{...}\\0&0&{...}&{ {\lambda _K} }\end{array} } \right)\) Gl. 267

Auf die Eigenwertmatrix L treffen die Aussagen 4.6.2 a) und b) ebenfalls zu.

Eine weitere Matrix kann durch Zusammenfassung aller normierten Eigenvektoren zu einer Matrix gebildet werden:

\(V = \left( {\begin{array}{*{20}{c} }{\overline { {x_{11} } } }&{\overline { {x_{12} } } }&{...}&{\overline { {x_{1K} } } }\\{\overline { {x_{21} } } }&{\overline { {x_{22} } } }&{...}&{\overline { {x_{2K} } } }\\{...}&{...}&{\overline { {x_{ik} } } }&{...}\\{\overline { {x_{I1} } } }&{\overline { {x_{I2} } } }&{...}&{\overline { {x_{IK} } } }\end{array} } \right)\) Gl. 268

In der Aufreihung wird zweckmäßiger Weise so vorgegangen, dass der Eigenvektor zum betragsgrößten Eigenwert am weitesten links eingeordnet wird, die weiteren Vektoren folgen dem Betrag ihres Eigenwertes nach an den folgenden Plätzen.

Sonderfall symmetrische Matrix

Eine Reihe physikalischer Aufgabenstellungen führt auf symmetrische Matrizen (z.B. Korrelations- oder Kovarianzmatrizen). Für symmetrische Matrizen gibt es weitere wichtige Eigenschaften:

a) Alle Eigenwerte symmetrischer Matrizen sind reell.

Der Beweis soll am Beispiel einer symmetrischen Matrix zweiten Ranges geführt werden. Ausgehend von Gl. 250 lautet das charakteristische Polynom:

\(\left( { {a_{11} } - \lambda } \right)\left( { {a_{22} } - \lambda } \right) - {a_{12} } \cdot {a_{21} } = 0\)

Auflösen

\( {\lambda ^2} - \left( { {a_{11} } + {a_{22} } } \right)\lambda + {a_{11} } \cdot {a_{22} } - {a_{12} } \cdot {a_{21} } = 0 \)

Der Wurzelsatz von Vieta ergibt

\( {\lambda _{1,2} } = \frac{ { {a_{11} } + {a_{22} } } }{2} \pm \sqrt { { {\left( {\frac{ { {a_{11} } + {a_{22} } } }{2} } \right)}^2} - \left( { {a_{11} } \cdot {a_{22} } - {a_{12} } \cdot {a_{21} } } \right)} \)

Vereinfachen (2. binomische Formel)

\({\lambda _{1,2} } = \frac{ { {a_{11} } + {a_{22} } } }{2} \pm \sqrt { { {\left( { {a_{11} } - {a_{22} } } \right)}^2} + 4 \cdot {a_{12} } \cdot {a_{21} } } \)

Der Wurzelausdruck ist immer > 0, wenn a12 und a21 wenigstens gleiche Vorzeichen haben, bei symmetrischen Matrizen ist diese Bedingung immer erfüllt!

b) Alle Eigenvektoren sind reell.

c) Eigenvektoren sind zueinander orthogonal

\( {X_i}^T · {X_j} = 0 \text{ bzw. } {V_i}^T \cdot {V_j} = 0 \) Gl. 269

Beispiel:

Die im vorangegangenen Beispiel gefundenen Eigenvektoren

\( {X_1} = \left( {\begin{array}{*{20}{c} }1\\{2,41421}\end{array} } \right); \quad {X_2} = \left( {\begin{array}{*{20}{c} } 1 \\ {-0,41421}\end{array} } \right) \)

bzw. ihre normierten

\({\overline X _1} = \left( {\begin{array}{*{20}{c} }{ {\rm{0} }{\rm{,3827} } }\\{ {\rm{0} }{\rm{,9239} } }\end{array} } \right); \quad {\overline X _2} = \left( {\begin{array}{*{20}{c} }{ {\rm{0} }{\rm{,9239} } }\\{ {\rm{ - 0} }{\rm{,3827} } }\end{array} } \right) \)

werden miteinander multipliziert

\({\left( {\begin{array}{*{20}{c} }1\\{2,41421}\end{array} } \right)^T} \cdot \left( {\begin{array}{*{20}{c} }1\\{ - 0,41421}\end{array} } \right) = 1 - 0,41421 \cdot 2,41421 = 1 - 1 = 0\)

bzw.

\({\left( {\begin{array}{*{20}{c} }{ {\rm{0} }{\rm{,3827} } }\\{ {\rm{0} }{\rm{,9239} } }\end{array} } \right)^T} \cdot \left( {\begin{array}{*{20}{c} }{ {\rm{0} }{\rm{,9239} } }\\{ {\rm{ - 0} }{\rm{,3827} } }\end{array} } \right) = {\rm{0} }{\rm{,3536 - 0} }{\rm{,3536} } = {\rm{0} }\)

d) Weil die Eigenvektoren orthogonal sind, ist auch die Matrix der Eigenvektoren eine orthogonale Matrix (siehe auch Orthogonale Matrizen).

\({V^T} \cdot V = I\) Gl. 270

Das Produkt führt auf die Einheitsmatrix I ohne Proportionalitätsfaktor, weil die Eigenvektormatrix aus normierten Vektoren gebildet wird.

Aus Gl. 270 folgt auch

\({V^T} = {V^{ - 1} }\) Gl. 271

Kanonische Form symmetrischer Matrizen

Eine symmetrische Matrix A kann durch ihre Eigenwertmatrix und ihre Eigenvektormatrix ausgedrückt werden (kanonische Darstellung):

\(A = V \cdot \Lambda \cdot {V^T}\) Gl. 272

Beispiel:

Die gegebene Matrix \(A = \left( {\begin{array}{*{20}{c} }1&2\\2&5\end{array} } \right)\) hat die Eigenwerte \({\lambda _{1,2} } = 3 \pm \sqrt {9 - 1} = 3 \pm {\rm{2} }{\rm{,8284} }\)

bzw. die zugehörigen normierten Eigenvektoren

\({\overline X _1} = \left( {\begin{array}{*{20}{c} }{ {\rm{0} }{\rm{,3827} } }\\{ {\rm{0} }{\rm{,9239} } }\end{array} } \right); \quad {\overline X _2} = \left( {\begin{array}{*{20}{c} }{ {\rm{0} }{\rm{,9239} } }\\{ {\rm{ -0} }{\rm{,3827} } }\end{array} } \right)\).

Damit kann die kanonische Darstellung angegeben werden:

\( \left( {\begin{array}{*{20}{c} } 1 & 2 \\ 2 & 5 \end{array} } \right) = \left( {\begin{array}{*{20}{c} }{0,3827} & {0,9239} \\ {0,9239} & {-0,3827} \end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} }{ {\rm{5} }{\rm{,8284} } } & 0 \\ 0 &{ {\rm{0} }{\rm{,1716} } }\end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} } {0,3827} & {0,9239} \\ {0,9239} & {-0,3827} \end{array} } \right) \)

Wegen Eigenschaft Symmetrische Matrix d) kann durch geeignete Multiplikation eine Separierung der Eigenwertematrix aus Gl. 272 erreicht werden:

\(A = V \cdot \Lambda \cdot {V^T}\) Gl. 273

Multiplikation mit V von rechts und VT von links

\({V^T} \cdot A \cdot V = \left( { {V^T} \cdot V} \right) \cdot \Lambda \cdot \left( { {V^T} \cdot V} \right) = I \cdot \Lambda \cdot I\) Gl. 274

Sind die Eigenvektoren bekannt, kann auf diese Weise die zugehörige Eigenwertmatrix bestimmt werden:

\({V^T} \cdot A \cdot V = \Lambda \) Gl. 275

Geometrische Deutung

Gl. 276 ist die implizite Darstellung eines Kegelschnittes. Unter Wahrung bestimmter Verhältnisse kann hiermit eine Ellipse, deren Achsen beliebig in der Fläche orientiert sind, dargestellt werden.

\(a \cdot {x^2} + b \cdot {y^2} + 2 \cdot c \cdot x \cdot y = R\) Gl. 276

Nach den Gesetzen der Matrix-Multiplikation kann Gl. 276 auch so geschrieben werden:

\(\left( {\begin{array}{*{20}{c} }x&y\end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} }a&c\\c&b\end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} }x\\y\end{array} } \right) = R\) Gl. 277

oder

\({X^T} \cdot A \cdot X = R\) Gl. 278

Der Kern der Gleichung, die Matrix A, ist quadratisch und zudem symmetrisch, so dass die Matrix A in ihre kanonische Form gebracht werden kann:

\(A = U \cdot \Lambda \cdot {U^T}\) Gl. 279

worin U die Matrix der normierten Eigenvektoren und Λ die Matrix der Eigenwerte darstellen. Einsetzen in Gl. 278 ergibt

\({X^T} \cdot U \cdot \Lambda \cdot {U^T} \cdot X = R\) Gl. 280

nach geeigneter Zusammenfassung und Beachtung der Regeln der Matrizentransponierung

\({\left( { {U^T} \cdot X} \right)^T} \cdot \Lambda \cdot \left( { {U^T} \cdot X} \right) = R\) Gl. 281

fällt auf, dass dieses Produkt wieder eine Ellipsengleichung darstellt (vergleiche mit Gl. 280). Allerdings weist jetzt die Kernmatrix Λ nur noch Elemente auf der Hauptdiagonalen aus, die für die Schiefstellung der Ellipse verantwortlichen Koeffizienten verschwinden. Es liegt also bezüglich der neuen Koordinaten \(\left( { {U^T} \cdot X} \right)\) eine Standardellipse vor. Folglich hat die Matrix UT die Funktion einer Rotationsmatrix, die den ursprünglichen Vektor X so dreht, dass der neue Vektor

\(X' = \left( { {U^T} \cdot X} \right)\) Gl. 282

genau mit den Achsen der Ellipse übereinstimmt. Dabei zeigt der Eigenvektor zum größeren der beiden Eigenwerte in Richtung der Hauptachse, der kleinere hingegen in Richtung der Nebenachse der Ellipse.

Beispiel

Mit a=b=3, c=2 und R=9 ergibt sich die in Abbildung 29 gezeigte Ellipse.

Abbildung 29
Ellipse, Eigenvektor, Eigenwerte
Abbildung 29: Ellipse, Eigenvektor, Eigenwerte

Aus \(A = \left( {\begin{array}{*{20}{c} }3&2\\2&3\end{array} } \right)\) folgen \(\Lambda = \left( {\begin{array}{*{20}{c} }5&0\\0&1\end{array} } \right)\) und \(U = \frac{1}{ {\sqrt 2 } }\left( {\begin{array}{*{20}{c} }1&1\\1&{ - 1}\end{array} } \right)\).

Es ist zu sehen, dass die Matrix U aus zwei orthogonalen Vektoren besteht, die das neue (gedrehte) Koordinatensystem darstellen. Die Eigenwertmatrix L hingegen liefert die Größen a und b (c = 0!) der Haupt- bzw. Nebenachse der Ellipse im gedrehten Koordinatensystem, so dass Gl. 276 in

\(5 \cdot {x^2} + 1 \cdot {y^2} = 9\) übergeht.

Singulärwertzerlegung

Auch für unsymmetrische und nichtquadratische Matrizen kann eine kanonische Darstellung angegeben werden. Die dafür erforderliche Zerlegung wird von der Singulärwertzerlegung geleistet. Hierbei wird von folgender Behauptung ausgegangen:

Analog zur kanonischen Zerlegung symmetrischer Matrizen kann eine beliebige Matrix A der Dimension (m Zeilen x n Spalten, n < m) in das Produkt aus orthonormalen Matrizen U (m x m), S (n xn) und V (n x n) zerlegt werden:

\(A = U \cdot S \cdot {V^T}\) Gl. 283

Nach den Gesetzen der Matrizenmultiplikation ergibt das Produkt der quadratischen Matrizen tatsächlich die Dimension der Ausgangsmatrix A:

Abbildung 30
Produkt der quadratischen Matrizen ergibt Dimension der Ausgangsmatrix A
Abbildung 30: Produkt der quadratischen Matrizen ergibt Dimension der Ausgangsmatrix A

Worin U und V Matrizen von Eigenvektoren bzw. S eine Matrix von Eigenwerten der Matrixprodukte AT×A bzw. A×AT sind. Aus diesem Grund sindU und V orthonormal undS ist eine Diagonalmatrix.S wird auch die Singulärwertmatrix genannt.

Beweis:

Die Multiplikation transponierter Matrizen mit sich selbst, z.B.AT×A bzw. A×AT liefert stets quadratische und symmetrische Matrizen als Ergebnis. Folglich können beide Produkte in ihre kanonische Form gewandelt werden. Das Produkt A×AT liefert eine m x m Matrix B:

\(A \cdot {A^T} = B = U \cdot \Lambda \cdot {U^T}\) Gl. 284

und das Produkt AT×A eine n xn Matrix C:

\({A^T} \cdot A = C = V \cdot \Lambda \cdot {V^T}\) Gl. 285

Die Matrix der Eigenwerte L ist in beiden Fällen identisch!

Gemäß Gl. 283 gilt aber

\( A \cdot {A^T} = B = \left( {U \cdot S \cdot {V^T} } \right) \cdot {\left( {U \cdot S \cdot {V^T} } \right)^T} \) Gl. 286

bzw.

\({A^T} \cdot A = C = {\left( {U \cdot S \cdot {V^T} } \right)^T} \cdot \left( {U \cdot S \cdot {V^T} } \right)\) Gl. 287

Folglich sind

\( B = U \cdot S \cdot {V^T} \cdot {\left( { {V^T} } \right)^T} \cdot {S^T} \cdot U; \quad C = {\left( { {V^T} } \right)^T} \cdot {S^T} \cdot {U^T} \cdot U \cdot S \cdot {V^T} \) Gl. 288

Unter Beachtung der Regeln für die Produkte transponierter Matrizen und der Tatsache, dass U und V orthonormal sind, folgt:

a) S ist eine Diagonalmatrix, daher istST = S!

b)(VT)T = V,

c) U bzw. V sind orthonormal, daher ist UT×U = U×UT =VT×V = V×VT = I !

daher

\( B = U \cdot S \cdot {V^T} \cdot V \cdot S \cdot {U^T} = U \cdot S \cdot I \cdot S \cdot {U^T} = U \cdot {S^2} \cdot {U^T} \) Gl. 289

Analog dazu

\(C = V \cdot S \cdot I \cdot S \cdot {V^T} = V \cdot {S^2} \cdot {V^T}\) Gl. 290

Die Gleichungen Gl. 289 und Gl. 290 stellen die kanonischen Formen der Matrizen B und C dar, worin U und V die Eigenvektormatrizen von B bzw.C darstellen und S2 die MatrixL der Eigenvektoren von B oder C.

Um der Definitionsgleichung Gl. 283 gerecht zu werden, muss S aus L bestimmt werden:

\(S = \sqrt \Lambda = \left( {\begin{array}{*{20}{c} }{\sqrt { {\lambda _1} } }&0&0&0\\0&{\sqrt { {\lambda _2} } }&0&0\\{...}&{...}&{...}&{...}\\0&0&0&{\sqrt { {\lambda _n} } }\end{array} } \right)\) Gl. 291

Beispiel:

Die gegebene Matrix \(A = \left( {\begin{array}{*{20}{c} }{ - 1}&{ - 1}\\2&2\\{ - 1}&1\end{array} } \right)\) soll in ihre kanonische Form gebracht werden.

Lösung:

a) Berechnung von B:

\( B = A \cdot {A^T} = \left( {\begin{array}{*{20}{c} }2&{ - 4}&0\\{ - 4}&8&0\\0&0&2\end{array} } \right) \)

und die zugehörige Matrix der Eigenvektoren

\(U = \frac{1}{ {\sqrt 5 } } \cdot \left( {\begin{array}{*{20}{c} }0&{ - 1}&2\\0&2&1\\{\sqrt 5 }&0&0\end{array} } \right)\)

b) Berechnung von C:

\(C = {A^T} \cdot A = \left( {\begin{array}{*{20}{c} }6&4\\4&6\end{array} } \right)\), die Berechnung der Eigenwerte führt auf \( \require{HTML} \style{display:inline-block; transform:rotate(180deg)}{ V } = \begin{pmatrix} 2 & 0 \\ 0 & 10 \end{pmatrix} \)

und die zugehörige Matrix der Eigenvektoren

\( V = \frac{1}{ {\sqrt 2 } } \left( {\begin{array}{*{20}{c} }1&1\\{ - 1}&1\end{array} } \right)\)

Damit lautet die kanonische Zerlegung:

\(\left( {\begin{array}{*{20}{c} }{ - 1}&{ - 1}\\2&2\\{ - 1}&1\end{array} } \right) = \frac{1}{ {\sqrt 5 } } \cdot \left( {\begin{array}{*{20}{c} }0&{ - 1}&2\\0&2&1\\{\sqrt 5 }&0&0\end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} }{\sqrt 2 }&0\\0&{\sqrt {10} }\end{array} } \right) \cdot \frac{1}{ {\sqrt 2 } }{\left( {\begin{array}{*{20}{c} }1&1\\{ - 1}&1\end{array} } \right)^T}\)

Wie das Beispiel zeigt, ist es recht mühevoll, für zwei Matrizen die Eigenvektoren zu berechnen. Insbesondere dann, wennB infolge m xm recht große Ausmaße annehmen kann!

Eine effizientere Methode kann durch Umstellen von Gl. 283 abgeleitet werden:

\( A = U \cdot S \cdot {V^T} \quad \Rightarrow \quad A \cdot {\left( {S \cdot {V^T} } \right)^{ - 1} } = U \) Gl. 292

Unter Beachtung der Regeln für Inverse Matrizen

\(U = A \cdot {\left( {S \cdot {V^T} } \right)^{ - 1} } = A \cdot {\left( { {V^T} } \right)^{ - 1} } \cdot {S^{ - 1} }\) Gl. 293

Da V orthonormal ist, gilt (VT) -1 = V

\( U = A \cdot V \cdot {S^{ - 1} } \) Gl. 294

Sind also die Eigenwerte und die dazugehörigen Eigenvektoren (S2 und V) der Matrix C bekannt, ist die Matrix U nach Gl. 294 berechenbar. Das Berechnen der Matrix B ist damit ebenfalls hinfällig!

Beispiel:

Am vorangegangenen Beispiel wurden für die Matrix \(A = \left( {\begin{array}{*{20}{c} }{ - 1}&{-1} \\ 2 & 2 \\ {-1} & 1 \end{array} } \right)\) über die Berechnung der Matrix C Eigenwerte zu \( \require{HTML} \style{display:inline-block; transform:rotate(180deg)}{ V } = \begin{pmatrix} 2 & 0 \\ 0 & 10 \end{pmatrix} \) und Eigenvektoren zu \(V = \frac{1}{ {\sqrt 2 } }\left( {\begin{array}{*{20}{c} }1&1\\{ - 1}&1\end{array} } \right)\) berechnet.

Für U ergibt sich dann

\(U = \left( {\begin{array}{*{20}{c} }{ - 1}&{ - 1}\\2&2\\{ - 1}&1\end{array} } \right) \cdot \frac{1}{ {\sqrt 2 } }\left( {\begin{array}{*{20}{c} }1&1\\{ - 1}&1\end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} }{\frac{1}{ {\sqrt 2 } } }&0\\0&{\frac{1}{ {\sqrt {10} } } }\end{array} } \right) = \left( {\begin{array}{*{20}{c} }0&{\frac{1}{ {\sqrt 5 } } }\\0&{\frac{2}{ {\sqrt 5 } } }\\1&0\end{array} } \right)\)

Die dritte Spalte der Matrix U ist irrelevant, da diese in der Multiplikation mit S×VT (2 x 2 Matrix) nicht benötigt wird. Diese Spalte kann also bei Bedarf auch mit Nullen aufgefüllt werden.

  Schreib uns deine Hinweise