Wissen: Matrizenmultiplikation

Autor: Dr. Volkmar Naumburger ❤️ Bedanken

Einführung Matrizenmultiplikation

Die Matrizenmultiplikation dient direkt oder indirekt der Lösung linearer Gleichungssysteme. Die linearen Gleichungssysteme von Gl. 122 bzw. Gl. 123 stellen eine multiplikative Verknüpfung eines Variablenvektors X mit einer Eigenschaftenmatrix A in geeigneter Weise dar. Während bei Gl. 122 das Ziel darin besteht, den Vektor X so zu bestimmen, dass die Gleichungen des Gleichungssystems erfüllt werden, wird mit Gl. 123 ein neuer Vektor bestimmt, der sich aus dem Produkt von Vektor X und der Eigenschaftenmatrix A ergibt.

Gl. 139 zeigt dies in allgemeiner Form. Ein Lösungsvektor U wird dadurch bestimmt, dass die Koeffizientenmatrix A mit dem Variablenvektor X multipliziert wird. Mit der Umsetzung eines Gleichungssystems in seine Matrixform wird gleichzeitig die einfachste Form der Matrizenmultiplikation, ja die Matrix selbst definiert:

\( \begin{array}{*{20}{c} }{u = {a_{11} }x + {a_{12} }y + {a_{13} }z}\\{v = {a_{21} }x + {a_{22} }y + {a_{23} }z}\end{array} \Leftrightarrow \left( {\begin{array}{*{20}{c} }u\\v\end{array} } \right) = \left( {\begin{array}{*{20}{c} }{ {a_{11} } }&{ {a_{12} } }&{ {a_{13} } }\\{ {a_{21} } }&{ {a_{22} } }&{ {a_{23} } }\end{array} } \right).\left( {\begin{array}{*{20}{c} }x\\y\\z\end{array} } \right) \Leftrightarrow U = A \cdot X \) Gl. 139

Im Beispiel Gl. 139 wurde mit Absicht ein lineares Gleichungssystem gewählt, das auf eine nichtquadratische Form führt.

Bei der Übersetzung eines LGS in seine Matrixform erfolgt eine Trennung des LGS in Koeffizienten und Variablen. Die Koeffizientenmatrix und der Variablenvektor sind multiplikativ verknüpft. Im Ergebnis dieser Multiplikation entsteht ein Lösungsvektor.

Multiplikation mit einem Spaltenvektor

Eine Matrix kann mit einem Spaltenvektor multipliziert werden, wenn die Anzahl der Spalten der Matrix K mit der Anzahl der Zeilen des Spaltenvektors K übereinstimmen. Ist dies nicht der Fall, müssen die fehlenden Spalten oder Zeilen mit Nullen aufgefüllt werden.

Der Spaltenvektor steht rechts der Matrix!

\( A \cdot X = \left( {\begin{array}{*{20}{c} }{ {a_{11} } }&{ {a_{12} } }&{ {a_{13} } }&{...}&{ {a_{1K} } }\\{ {a_{21} } }&{ {a_{22} } }&{ {a_{23} } }&{...}&{ {a_{2K} } }\\{...}&{...}&{...}&{ {a_{ik} } }&{...}\\{ {a_{I1} } }&{ {a_{I2} } }&{ {a_{I3} } }&{...}&{ {a_{IK} } }\end{array} } \right).\left( {\begin{array}{*{20}{c} }{ {x_1} }\\{ {x_2} }\\{ {x_3} }\\{...}\\{ {x_K} }\end{array} } \right) \) Gl. 140

Die Multiplikation wird ausgeführt, indem zeilenweise das k-te Element der Matrix mit dem k-ten Element des Spaltenvektors multipliziert wird. Alle so entstehenden Teilprodukte der i-ten Zeile werden aufsummiert.

\( \left( {\begin{array}{*{20}{c} }{ {a_{11} } }&{ {a_{12} } }&{ {a_{13} } }&{...}&{ {a_{1K} } }\\{ {a_{21} } }&{ {a_{22} } }&{ {a_{23} } }&{...}&{ {a_{2K} } }\\{...}&{...}&{...}&{ {a_{ik} } }&{...}\\{ {a_{I1} } }&{ {a_{I2} } }&{ {a_{I3} } }&{...}&{ {a_{IK} } }\end{array} } \right).\left( {\begin{array}{*{20}{c} }{ {x_1} }\\{ {x_2} }\\{ {x_3} }\\{...}\\{ {x_K} }\end{array} } \right) = \left( {\begin{array}{*{20}{c} }{ {a_{11} }{x_1} }&{ + {a_{12} }{x_2} }&{ + {a_{13} }{x_3} }&{...}&{ + {a_{1K} }{x_K} }\\{ {a_{21} }{x_1} }&{ + {a_{22} }{x_2} }&{ + {a_{23} }{x_3} }&{...}&{ + {a_{2K} }{x_K} }\\{...}&{...}&{...}&{ + {a_{ik} }{x_k} }&{...}\\{ {a_{I1} }{x_1} }&{ + {a_{I2} }{x_2} }&{ + {a_{I3} }{x_3} }&{...}&{ + {a_{IK} }{x_K} }\end{array} } \right) \) Gl. 141

Das Ergebnis ist wieder ein Spaltenvektor, jetzt allerdings mit I Zeilen:

\(\begin{array}{l}Y = A \cdot X\\\\\left( {\begin{array}{*{20}{c} }{ {y_1} }\\{ {y_2} }\\{...}\\{ {y_I} }\end{array} } \right) = \left( {\begin{array}{*{20}{c} }{ {a_{11} }{x_1} }&{ + {a_{12} }{x_2} }&{ + {a_{13} }{x_3} }&{...}&{ + {a_{1K} }{x_K} }\\{ {a_{21} }{x_1} }&{ + {a_{22} }{x_2} }&{ + {a_{23} }{x_3} }&{...}&{ + {a_{2K} }{x_K} }\\{...}&{...}&{...}&{ + {a_{ik} }{x_k} }&{...}\\{ {a_{I1} }{x_1} }&{ + {a_{I2} }{x_2} }&{ + {a_{I3} }{x_3} }&{...}&{ + {a_{IK} }{x_K} }\end{array} } \right)\end{array}\) Gl. 142

Die Bestimmung der Elemente des neuen Spaltenvektors erfolgt nach

\( {y_i} = \sum\limits_{k = 1}^K { {a_{ik} } } \cdot {x_k} \qquad \forall i, 1 ≤ i ≤ I \) Gl. 143

Auf diese Weise wird ein lineares Gleichungssystem bestehend aus I Zeilen und K Spalten, durch die Multiplikation einer Koeffizientenmatrix mit einem Spaltenvektor, bestehend aus den unabhängigen Variablen, abgebildet.

Damit sind auch die Ausgangsbeziehungen Gl. 122 und Gl. 123 dieses Kapitels in Matrizenschreibweise darstellbar:

\(\left( {\begin{array}{*{20}{c} }{ {c_1} }\\{ {c_2} }\end{array} } \right) = \left( {\begin{array}{*{20}{c} }{ {a_{11} } }&{ {a_{12} } }\\{ {a_{21} } }&{ {a_{22} } }\end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} }x\\y\end{array} } \right)\) Gl. 144

bzw.

\(\left( {\begin{array}{*{20}{c} }{x'}\\{y'}\end{array} } \right) = \left( {\begin{array}{*{20}{c} }{\cos \alpha }&{ - \sin \alpha }\\{\sin \alpha }&{\cos \alpha }\end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} }x\\y\end{array} } \right)\) Gl. 145

Jetzt wird auch ersichtlich, dass auf beide Aufgaben prinzipiell die gleichen Werkzeuge angewendet werden können.

Beispiel 1:

Gesucht ist das Produkt der Matrix A mit dem Spaltenvektor B

\( A = \left( {\begin{array}{*{20}{c} }2&3&{-2}\\4&2&1\\{ - 2}&5&3\end{array} } \right) \quad B = \left( {\begin{array}{*{20}{c} }2\\{-1}\\3\end{array} } \right) \)

\( A \cdot B = \left( {\begin{array}{*{20}{c} }2&3&{ - 2}\\4&2&1\\{ - 2}&5&3\end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} }2\\{ - 1}\\3\end{array} } \right) = \left( {\begin{array}{*{20}{c} }{2 \cdot 2 - 3 \cdot 1 - 2 \cdot 3}\\{4 \cdot 2 - 2 \cdot 1 + 1 \cdot 3}\\{ - 2 \cdot 2 - 5 \cdot 1 + 3 \cdot 3}\end{array} } \right) = \left( {\begin{array}{*{20}{c} }{ - 5}\\9\\0\end{array} } \right) \)

Beispiel 2:

Gesucht ist das Produkt der Matrix A mit dem Spaltenvektor B

\( A = \left( {\begin{array}{*{20}{c} }2&7&1\\4&{17}&3\\{ - 2}&5&3\end{array} } \right) \quad B = \left( {\begin{array}{*{20}{c} }2\\{ - 1}\\3\end{array} } \right) \)

\( A \cdot B = \left( {\begin{array}{*{20}{c} }2&7&1\\4&{17}&3\\{-2}&5&3\end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} }2\\{ - 1}\\3\end{array} } \right) = \left( {\begin{array}{*{20}{c} }0\\0\\0\end{array} } \right) = \left( 0 \right) \)

Fazit: Die Multiplikation von Matrizen mit einem Wert ¹ 0 kann zu einem Produkt = 0 führen!

Multiplikation beliebiger Matrizen

Zur Lösung bestimmter Aufgaben ist die Multiplikation von Matrizen erforderlich. Als Beispiel sei genannt:

\(Y = A \cdot B \cdot X = C \cdot X \Rightarrow C = A \cdot B\,?\) Gl. 146

Voraussetzung für die Ausführbarkeit einer Matrizenmultiplikation ist die Übereinstimmung der Spaltenanzahl der linken Matrix (hier AIL) mit der Zeilenanzahl der rechten Matrix (hier BLK).

Stimmen die Spaltenanzahl der linken und die Zeilenanzahl der rechten Matrix nicht überein, sind entsprechend viele Zeilen oder Spalten mit Nullen aufzufüllen. Dies gilt prinzipiell auch für Matrizen, die in keiner Dimension übereinstimmen.

Die Multiplikationsvorschrift für jedes Element der resultierenden Matrix lautet

\({c_{ik} } = \sum\limits_{l = 1}^L { {a_{il} } } \cdot {b_{lk} }\) \(\left\{ \begin{array}{l}i = 1...I\\k = 1...K\end{array} \right.\) Gl. 147

Schematisch wird dabei so vorgegangen, dass alleL Elemente der i-ten Zeile der linken Matrix (A) elementweise mit allen L Elementen der k-ten Spalte der rechten Matrix (B) multipliziert und addiert werden. Dadurch entsteht ein Skalar, der das Element cik des Matrizenproduktes (C) bildet:

Abbildung 19
Skalar als Element des Matrizenproduktes
Abbildung 19: Skalar als Element des Matrizenproduktes

Beispiel:

Gesucht ist das Produkt der Matrizen A und B

\( A = \left( {\begin{array}{*{20}{c} }2&3&{-2}\\4&2&1\\{ - 2}&5&3\end{array} } \right); \qquad B = \left( {\begin{array}{*{20}{c} }2&3\\{-1}&2\\3&{ - 2}\end{array} } \right) \)

\( A \cdot B = C = \left( {\begin{array}{*{20}{c} }{\left( {2 \cdot 2 + 3 \cdot \left( { - 1} \right) - 2 \cdot 3} \right)}\\{\left( {4 \cdot 2 + 2 \cdot \left( { - 1} \right) + 1 \cdot 3} \right)}\\{\left( { - 2 \cdot 2 + 5 \cdot \left( { - 1} \right) + 3 \cdot 3} \right)\,\,\,\,}\end{array}\begin{array}{*{20}{c} }{\left( {2 \cdot 3 + 3 \cdot 2 - 2 \cdot \left( { - 2} \right)} \right)}\\{\left( {4 \cdot 3 + 2 \cdot 2 + 1 \cdot \left( { - 2} \right)} \right)}\\{\left( { - 2 \cdot 3 + 5 \cdot 2 + 3 \cdot \left( { - 2} \right)} \right)}\end{array} } \right) = \left( {\begin{array}{*{20}{c} }{\left( { - 5} \right)}\\9\\0\end{array}\begin{array}{*{20}{c} }{16}\\{14}\\{\left( { - 2} \right)}\end{array} } \right) \)

Im Idealfall sind Matrizen quadratisch, d.h. Zeilen- und Spaltenzahl sind gleich. Dann liefert das Produkt zweier gleichgroßer quadratischer Matrizen wiederum eine quadratische Matrix, die in Zeilen- und Spaltenzahl mit den Ausgangsmatrizen übereinstimmt.

Verkettung von Matrizenmultiplikationen

Wie das einführende Beispiel (Gl. 123) gezeigt hat, bilden Matrizen auch Transformationsvorschriften, z.B. für die Rotation eines Punktes um einen bestimmten Winkel. In Matrizenschreibweise

\(X' = {R_0} \cdot X\) Gl. 148

wenn R0 die Rotationsmatrix

\( {R_0} = \left( {\begin{array}{*{20}{c} }{\cos \alpha }&{ - \sin \alpha }\\{\sin \alpha }&{\cos \alpha }\end{array} } \right) \) Gl. 149

und

\( X' = \left( {\begin{array}{*{20}{c} }{x'}\\{y'}\end{array} } \right); \quad X = \left( {\begin{array}{*{20}{c} }x\\y\end{array} } \right) \) Gl. 150

die Spaltenvektoren des rotierten Punktes bzw. des Ausgangspunktes sind. Bisweilen kommt es vor, dass nacheinander mehrere Transformationen auszuführen sind. Beispielsweise sei der bereits rotierte Punkt X’ ein weiteres mal zu rotieren, dann gilt

\(X'' = {R_1} \cdot X'\) Gl. 151

Wird nun das Ergebnis von Gl. 148 in Gl. 156 eingesetzt, wird der stufenweisen Rotation des Ausgangspunktes Rechnung getragen:

\( X'' = {R_1} \cdot {R_0} \cdot X \) Gl. 152

Wie leicht zu erkennen ist, schlägt sich die Reihenfolge der einzelnen Transformationen so in der Verkettung der einzelnen Matrizen wieder, dass die später kommenden Transformationen immer links an die schon ausgeführte Transformation angefügt werden. Man spricht von der Multiplikation von links.

Rechenregeln für Matrizenmultiplikation

a) Das Kommutativgesetz gilt im allgemeinen nicht. Nur Spezialfälle bilden eine Ausnahme.

\( A \cdot B \ne B \cdot A \) Gl. 153

Aus diesem Grund erfolgt entsprechend der Definition (Gl. 140) die Multiplikation immer von links.

Beispiel:

Gegeben seien die Matrizen A und B

\( A = \left( {\begin{array}{*{20}{c} }2&3&{-2}\\4&2&1\\{ - 2}&5&3\end{array} } \right); \qquad B = \left( {\begin{array}{*{20}{c} }2&3\\{-1}&2\\3&{ - 2}\end{array} } \right) \)

gesucht sind die Produkte A×B bzw. B×A. Das Produkt A×B ist aus dem vorangegangenen Beispiel schon bekannt:

\( A \cdot B = \left( {\begin{array}{*{20}{c} }{\left( { - 5} \right)}\\9\\0\end{array}\begin{array}{*{20}{c} }{16}\\{14}\\{\left( {-2} \right)}\end{array} } \right) \)

hingegen ist

\( B \cdot A = \left( {\begin{array}{*{20}{c} }2&3&0\\{ - 1}&2&0\\3&{ - 2}&0\end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} }2&3&{ - 2}\\4&2&1\\{ - 2}&5&3\end{array} } \right) = \left( {\begin{array}{*{20}{c} }{4 + 12}&{6 + 6}&{ - 4 + 3}\\{ - 2 + 8}&{ - 3 + 4}&{2 + 2}\\{6 - 8}&{9 - 4}&{ - 6 - 2}\end{array} } \right) = \left( {\begin{array}{*{20}{c} }{16}&{12}&{ - 1}\\6&1&4\\{ - 2}&5&{ - 8}\end{array} } \right) \)

ein völlig anderes Ergebnis!

b) Das Assoziativgesetz gilt!

\(\left[ {A \cdot B} \right] \cdot C = A \cdot \left[ {B \cdot C} \right]\) Gl. 154

c) Das Distributivgesetz gilt!

\(\left[ {A + B} \right] \cdot C = A \cdot C + B \cdot C\) Gl. 155

d) Der Wert eines Matrixproduktes ist gleich dem Produkt der Werte der einzelnen Matrizen.

\(\left| {A \cdot B} \right| = \left| A \right| \cdot \left| B \right|\) Gl. 156

e) Potenzen von Matrizen

\(A \cdot A \cdot A.... \cdot A = {A^p}\) Gl. 157

f) Die Rechenregeln für Potenzen gelten!

\({A^p} \cdot {A^q} = {A^{p + q} }\) Gl. 158

Sonderfälle

Zeilenvektor mal Spaltenvektor

\(\left( {\begin{array}{*{20}{c} }{ {y_1} }&{ {y_2} }&{ {y_3} }&{...}&{ {y_K} }\end{array} } \right).\left( {\begin{array}{*{20}{c} }{ {x_1} }\\{ {x_2} }\\{ {x_3} }\\{...}\\{ {x_K} }\end{array} } \right) = \left( {\begin{array}{*{20}{c} }{ {y_1} }&{ {y_2} }&{ {y_3} }&{...}&{ {y_K} }\\0&0&0&{...}&0\\0&0&0&{...}&0\\{...}&{...}&{...}&0&0\\0&0&0&{...}&0\end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} }{ {x_1} }&0&0&{...}&0\\{ {x_2} }&0&0&{...}&0\\{ {x_3} }&0&0&{...}&0\\{...}&{...}&{...}&0&{...}\\{ {x_K} }&0&0&{...}&0\end{array} } \right) \) Gl. 159

Zur Ausführung der Multiplikation werden die Vektoren durch Auffüllen mit Nullen zu Matrizen geformt.

\( \left( {\begin{array}{*{20}{c} }{ {y_1} }&{ {y_2} }&{ {y_3} }&{...}&{ {y_K} }\\0&0&0&{...}&0\\0&0&0&{...}&0\\{...}&{...}&{...}&0&0\\0&0&0&{...}&0\end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} }{ {x_1} }&0&0&{...}&0\\{ {x_2} }&0&0&{...}&0\\{ {x_3} }&0&0&{...}&0\\{...}&{...}&{...}&0&{...}\\{ {x_K} }&0&0&{...}&0\end{array} } \right) = \left( {\begin{array}{*{20}{c} }{ {y_1}{x_1} + {y_2}{x_2} + {y_3}{x_3} + \,...\, + {y_K}{x_K} }&0&0&{...}&0\\0&0&0&{...}&0\\0&0&0&{...}&0\\{...}&{...}&{...}&{...}&{...}\\0&0&0&{...}&0\end{array} } \right) \) Gl. 160

Alle nullwertigen Zeilen bzw. Spalten dürfen gestrichen werden und es bleibt nur das erste Element der Matrix als einzelner Wert erhalten:

\( \left( { {y_1}{x_1} + {y_2}{x_2} + {y_3}{x_3} + \,...\, + {y_K}{x_K} } \right) = \sum\limits_{k = 1}^K { {y_k}{x_K} } \) Gl. 161

Das Ergebnis ist ein Skalar.

Spaltenvektor mal Zeilenvektor

Die Bedingung, dass die Spaltenanzahl der linken Matrix (hier X) mit der

\(\left( {\begin{array}{*{20}{c} }{ {x_1} }\\{ {x_2} }\\{ {x_3} }\\{...}\\{ {x_K} }\end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} }{ {y_1} }&{ {y_2} }&{ {y_3} }&{...}&{ {y_K} }\end{array} } \right) = \left( {\begin{array}{*{20}{c} }{ {x_1} }&0&0&0&0\\{ {x_2} }&0&0&0&0\\{ {x_3} }&0&0&0&0\\{...}&{...}&{...}&{...}&{...}\\{ {x_K} }&0&0&0&0\end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} }{ {y_1} }&{ {y_2} }&{ {y_3} }&{...}&{ {y_K} }\\0&0&0&{...}&0\\0&0&0&{...}&0\\0&0&0&{...}&0\\0&0&0&{...}&0\end{array} } \right)\) Gl. 162

Zeilezahl der rechten Matrix (hier Y) übereinstimmen muss, ist nicht erfüllt. Daher werden zunächst die fehlenden Spalten bzw. Zeilen mit Nullen gefüllt (Gl. 162).

Nun kann die Multiplikation gemäß Gl. 147 ausgeführt werden:

\( \left( {\begin{array}{*{20}{c} }{ {x_1} }\\{ {x_2} }\\{ {x_3} }\\{...}\\{ {x_K} }\end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} }{ {y_1} }&{ {y_2} }&{ {y_3} }&{...}&{ {y_K} }\end{array} } \right) = \left( {\begin{array}{*{20}{c} }{ {x_1}{y_1} }&{ {x_1}{y_2} }&{ {x_1}{y_3} }&{...}&{ {x_1}{y_K} }\\{ {x_2}{y_1} }&{ {x_2}{y_2} }&{ {x_2}{y_3} }&{...}&{ {x_2}{y_K} }\\{ {x_3}{y_1} }&{ {x_3}{y_2} }&{ {x_3}{y_3} }&{...}&{ {x_3}{y_K} }\\{...}&{...}&{...}&{...}&{...}\\{ {x_K}{y_1} }&{ {x_K}{y_2} }&{ {x_K}{y_3} }&{...}&{ {x_K}{y_K} }\end{array} } \right) \) Gl. 163

Das Ergebnis ist eine Matrix.

Achtung! Beim Auffüllen mit Nullen nach rechts bzw. nach unten vorgehen!

Multiplikation einer Matrix mit der Einheitsmatrix

\(A \cdot I = \left( {\begin{array}{*{20}{c} }{ {a_{11} } }&{ {a_{12} } }&{...}&{ {a_{1K} } }\\{ {a_{21} } }&{ {a_{22} } }&{...}&{ {a_{2K} } }\\{...}&{...}&{ {a_{ik} } }&{...}\\{ {a_{I1} } }&{ {a_{I2} } }&{...}&{ {a_{IK} } }\end{array} } \right).\left( {\begin{array}{*{20}{c} }1&0&{...}&0\\0&1&{...}&0\\{...}&{...}&1&{...}\\0&0&{...}&1\end{array} } \right) = \left( {\begin{array}{*{20}{c} }{ {a_{11} } }&{ {a_{12} } }&{...}&{ {a_{1K} } }\\{ {a_{21} } }&{ {a_{22} } }&{...}&{ {a_{2K} } }\\{...}&{...}&{ {a_{ik} } }&{...}\\{ {a_{I1} } }&{ {a_{I2} } }&{...}&{ {a_{IK} } }\end{array} } \right) = \left( A \right)\) Gl. 164

Indice I = K!

Die Multiplikation mit der Einheitsmatrix verändert die Matrix nicht!

Weiterhin gilt:

\(A \cdot I = I \cdot A \) Gl. 165

Transponiertes Matrizenprodukt

Das transponierte Matrizenprodukt, entspricht dem Produkt der transponierten Matrizen in vertauschter Reihenfolge:

\( {\left[ {A \cdot B} \right]^T} = {B^T} \cdot {A^T} \) Gl. 166

Wird das Produkt mehrerer Matrizen transponiert, entspricht dies dem Produkt der transponierten Matrizen in umgekehrter Reihenfolge:

\({\left[ {A \cdot B \cdot C} \right]^{\,T} } = {C^T} \cdot {B^T} · {A^T}\) Gl. 167

Matrizen mit besonderen Eigenschaften

Orthogonale Matrizen

Sind S1 und S2 Spaltenvektoren, für die

\({S_1}^{\,T} \cdot {S_2} = 0\) Gl. 168

gilt, dann sind S1 und S2 zueinander orthogonal. (Die Bezeichnung orthogonal (rechtwinklig) rührt aus der Vektorrechnung. Sie gilt für das Skalarprodukt von rechtwinklig zueinander orientierte Vektoren.)

Beispiel:

Gegeben sind \({S_1} = \left( {\begin{array}{*{20}{c} }1\\1\end{array} } \right)\)und \({S_2} = \left( {\begin{array}{*{20}{c} }1\\{ - 1}\end{array} } \right)\). Das Produkt ergibt

\({S_1}^{\,T} \cdot {S_2} = \left( {\begin{array}{*{20}{c} }1&1\end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} }1\\{ - 1}\end{array} } \right) = 1 - 1 = 0\)

Eine Matrix A heißt orthogonal, wenn

\({A^T} \cdot A = \lambda \cdot I\) Gl. 169

gilt.

Nach Gl. 168 bedeutet dies, dass alle Spalten(vektoren), aus denen die Matrix A besteht, orthogonal zueinander sind. Der Faktor l kann als eine Normierungsgröße verstanden werden.

Beispiel:

Gegeben ist \(A = \left( {\begin{array}{*{20}{c} }1&{ - 2}\\2&1\end{array} } \right)\). Das Produkt ergibt

\({A^{\,T} } \cdot A = \left( {\begin{array}{*{20}{c} }1&2\\{ - 2}&1\end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} }1&{ - 2}\\2&1\end{array} } \right) = \left( {\begin{array}{*{20}{c} }5&0\\0&5\end{array} } \right) = 5 \cdot \left( {\begin{array}{*{20}{c} }1&0\\0&1\end{array} } \right)\)

Dreiecksmatrizen

Jede quadratische Matrix A kann durch das Produkt zweier Dreiecksmatrizen L undR ausgedrückt werden. Dieser Vorgang wird auch Faktorisierung genannt. Wobei L nur im linken unteren Dreieck und R nur im oberen rechten Dreieck besetzt ist:

\( L = \left( {\begin{array}{*{20}{c} }1&0&0&0\\{ {l_{21} } }&1&0&0\\{ {l_{i1} } }&{...}&1&0\\{ {l_{I1} } }&{ {l_{I2} } }&{...}&1\end{array} } \right); \qquad R = \left( {\begin{array}{*{20}{c} }{ {r_{11} } }&{ {r_{12} } }&{...}&{ {r_{1K} } }\\0&{ {r_{22} } }&{...}&{ {r_{2K} } }\\0&0&{ {r_{ii} } }&{...}\\0&0&0&{ {r_{II} } }\end{array} } \right) \) Gl. 170

Es gilt also

\( A = L \cdot R = \left( {\begin{array}{*{20}{c} }1&0&0&0\\{ {l_{21} } }&1&0&0\\{ {l_{i1} } }&{...}&1&0\\{ {l_{I1} } }&{ {l_{I2} } }&{...}&1\end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} }{ {r_{11} } }&{ {r_{12} } }&{...}&{ {r_{1K} } }\\0&{ {r_{22} } }&{...}&{ {r_{2K} } }\\0&0&{ {r_{ii} } }&{...}\\0&0&0&{ {r_{II} } }\end{array} } \right) \) Gl. 171

Um die Zerlegung der Matrix A rechnerisch vornehmen zu können, ist eine Bildungsregel für die Elemente der linken bzw. der rechten Dreiecksmatrix erforderlich. Diese soll am Beispiel einer Matrix vom Rang R=3 abgeleitet werden. Dazu wird zunächst die Multiplikation in Gl. 171 ausgeführt.

\(\left( {\begin{array}{*{20}{c} }{ {a_{11} } }&{ {a_{12} } }&{ {a_{13} } }\\{ {a_{21} } }&{ {a_{22} } }&{ {a_{23} } }\\{ {a_{31} } }&{ {a_{32} } }&{ {a_{33} } }\end{array} } \right) = \left( {\begin{array}{*{20}{c} }1&0&0\\{ {l_{21} } }&1&0\\{ {l_{31} } }&{ {l_{32} } }&1\end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} }{ {r_{11} } }&{ {r_{12} } }&{ {r_{13} } }\\0&{ {r_{22} } }&{ {r_{23} } }\\0&0&{ {r_{33} } }\end{array} } \right) = \left( {\begin{array}{*{20}{c} }{ {r_{11} } }&{ {r_{12} } }&{ {r_{13} } }\\{ {l_{21} }{r_{11} } }&{ {l_{21} }{r_{12} } + {r_{22} } }&{ {l_{21} }{r_{13} } + {r_{23} } }\\{ {l_{31} }{r_{11} } }&{ {l_{31} }{r_{12} } + {l_{32} }{r_{22} } }&{ {l_{31} }{r_{13} } + {l_{32} }{r_{23} } + {r_{33} } }\end{array} } \right) \) Gl. 172

Durch Gleichsetzen der Koeffizienten der Matrix A mit denen des Produktes auf der rechten Seite von Gl. 172 wird eine Rekursionsvorschrift für die lik und rik erhalten:

1. Schritt

\( {r_{11} } = {a_{11} }; \quad {r_{12} } = {a_{12} }; \quad {r_{13} } = {a_{13} } \)

2. Schritt

\( {l_{21} } = \frac{ { {a_{21} } } }{ { {r_{11} } } }; \quad {r_{22} } = {a_{22} } - {l_{21} }{r_{12} }; \quad {r_{23} } = {a_{23} } - {l_{21} }{r_{13} } \)

3. Schritt

\( {l_{31} } = \frac{ { {a_{31} } } }{ { {r_{11} } } }; \quad {l_{32} } = \frac{ { {a_{32} } - {l_{31} }{r_{12} } } }{ { {r_{22} } } }; \quad {r_{33} } = {a_{33} } - {l_{31} }{r_{13} } - {l_{32} }{r_{23} } \)

Die Ausführung der Rekursion setzt allerdings voraus, dass Divisionen durch Null nicht auftreten.

Eigenschaften:

Ist R zu einer Matrix A gegeben, dann ist das Produkt der Elemente auf der Hauptdiagonalen gleich dem Wert der Matrix A.

Beweis:

\( \det (A) = \det (L \cdot R) = \det \left( {\begin{array}{*{20}{c} }1&0&0&0\\{ {l_{21} } }&1&0&0\\{ {l_{i1} } }&{...}&1&0\\{ {l_{I1} } }&{ {l_{I2} } }&{...}&1\end{array} } \right) \cdot \det \left( {\begin{array}{*{20}{c} }{ {r_{11} } }&{ {r_{12} } }&{...}&{ {r_{1K} } }\\0&{ {r_{22} } }&{...}&{ {r_{2K} } }\\0&0&{ {r_{ii} } }&{...}\\0&0&0&{ {r_{II} } }\end{array} } \right) = 1 \cdot \det (R) = \prod\limits_{i = 1}^I { {r_{ii} } } \) Gl. 173

Vertauschungsmatrix

Die Multiplikation einer gegebenen Matrix mit einer Vertauschungsmatrix

- von links führt zu einer gezielten Vertauschung der Zeilen

- von rechts führt zu einer gezielten Vertauschung der Spalten

der gegebenen Matrix.

Eine Vertauschungsmatrix ist dadurch gekennzeichnet, dass in jeder Zeile und jeder Spalte nur ein Element mit dem Wert 1 belegt ist. Alle übrigen Elemente haben den Wert 0:

\( V = \left( {\begin{array}{*{20}{c} }1&0&{...}&0\\0&0&{...}&1\\{...}&{...}&1&{...}\\0&1&{...}&0\end{array} } \right) \) Gl. 174

\( V \cdot A = \left( {\begin{array}{*{20}{c} }1&0&{...}&0\\0&0&{...}&1\\{...}&{...}&1&{...}\\0&1&{...}&0\end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} }{ {a_{11} } }&{ {a_{12} } }&{...}&{ {a_{1K} } }\\{ {a_{21} } }&{ {a_{22} } }&{...}&{ {a_{2K} } }\\{...}&{...}&{ {a_{ik} } }&{...}\\{ {a_{I1} } }&{ {a_{I2} } }&{...}&{ {a_{IK} } }\end{array} } \right) = \left( {\begin{array}{*{20}{c} }{ {a_{11} } }&{ {a_{12} } }&{...}&{ {a_{1K} } }\\{ {a_{I1} } }&{ {a_{I2} } }&{...}&{ {a_{IK} } }\\{...}&{...}&{ {a_{ik} } }&{...}\\{ {a_{21} } }&{ {a_{22} } }&{...}&{ {a_{2K} } }\end{array} } \right) \) Gl. 175

Die Multiplikation der Vertauschungsmatrix von links hat bewirkt, dass die zweite Zeile mit der i-ten Zeile vertauscht wurde.

\(A \cdot V = \left( {\begin{array}{*{20}{c} }{ {a_{11} } }&{ {a_{12} } }&{...}&{ {a_{1K} } }\\{ {a_{21} } }&{ {a_{22} } }&{...}&{ {a_{2K} } }\\{...}&{...}&{ {a_{ik} } }&{...}\\{ {a_{I1} } }&{ {a_{I2} } }&{...}&{ {a_{IK} } }\end{array} } \right) \cdot \left( {\begin{array}{*{20}{c} }1&0&{...}&0\\0&0&{...}&1\\{...}&{...}&1&{...}\\0&1&{...}&0\end{array} } \right) = \left( {\begin{array}{*{20}{c} }{ {a_{11} } }&{ {a_{1K} } }&{...}&{ {a_{12} } }\\{ {a_{21} } }&{ {a_{2K} } }&{...}&{ {a_{22} } }\\{...}&{...}&{ {a_{ik} } }&{...}\\{ {a_{I1} } }&{ {a_{IK} } }&{...}&{ {a_{I2} } }\end{array} } \right)\) Gl. 176

Die Multiplikation der Vertauschungsmatrix von rechts hat bewirkt, dass die zweite Spalte mit der k-ten Spalte vertauscht wurde.

Alle Elemente in der Diagonalen der Vertauschungsmatrix haben zu keiner Vertauschung geführt.

  Schreib uns deine Hinweise