Die Elementarmatrizen
Wir zeigen nun, dass der Invertierungsalgorithmus korrekt ist: Er eignet sich als Test auf Invertierbarkeit und er produziert im invertierbaren Fall das Inverse der Ausgangsmatrix. Hierzu führen wir spezielle Matrizen ein, mit deren Hilfe wir die elementaren Zeilenoperationen als Matrizenmultiplikation von links darstellen können.
Definition (Elementarmatrix, Additionstyp, Multiplikationstyp)
Seien 1 ≤ i, j ≤ 3 und λ ∈ ℝ. Dann ist Wij(λ) ∈ ℝ3 × 3 definiert als die Matrix, die mit der Einheitsmatrix E3 übereinstimmt, aber an der Stelle (i, j) den Eintrag λ besitzt. Eine solche Matrix W heißt eine Elementarmatrix, falls
W = Wij(λ) mit λ ∈ ℝ, i ≠ j, oder (Additionstyp)
W = Wij(λ) mit λ ∈ ℝ*, i = j.(Multiplikationstyp)
Die Matrix Wij(λ) entsteht, indem wir den Eintrag der Einheitsmatrix an der Stelle (i, j) mit dem Skalar λ überschreiben. Befindet sich der neue Eintrag außerhalb der Hauptdiagonalen, so erhalten wir einen Additionstyp. Wird eine Eins der Diagonale durch λ ≠ 0 ersetzt, so erhalten wir einen Multiplikationstyp. Die Namensgebung wird erklärt durch:
(1) | Ist A ∈ ℝ3 × 3 und W = Wij(λ) ein Additionstyp, so ist WA die Matrix, die entsteht, wenn wir das λ-Fache der j-ten Zeile zur i-ten Zeile von A addieren. |
(2) | Ist A ∈ ℝ3 × 3 und W = Wii(λ) ein Multiplikationstyp, so ist WA die Matrix, die entsteht, wenn wir die i-te Zeile von A mit λ multiplizieren. |
Beispiel
W23(5) = , W23(5) =
W32(5) = , W32(5) =
Für die Multiplikation AW einer Matrix A mit einer Elementarmatrix W von rechts gelten analoge Aussagen für die Spalten von A. Für einen Additionstyp W vertauschen sich dabei die Indizes, sodass AW entsteht, indem wir das λ-Fache der i-ten Spalte zur j-ten Spalte von A addieren.
Eine Elementarmatrix ist invertierbar und ihr Inverses ist wieder eine Elementarmatrix:
(1) | Das Inverse eines Additionstyps Wij(λ) ist Wij(−λ). |
(2) | Das Inverse eines Multiplikationstyps Wii(λ) ist Wii(1/λ). |
Den Invertierungsalgorithmus können wir nun so beschreiben: Gegeben A, versuchen wir, Elementarmatrizen L1, …, Lk zu finden, sodass
(+) Lk … L1 A = E3.
Gelingt dies, so ist
B = Lk … L1 = A−1.
Denn es gilt B A = Lk … L1 A = E3 nach (+), und aus B A B = E3 B = B und der Invertierbarkeit von B folgt A B = B−1 B A B = B−1 B = E3. Wegen
B = B E3 = Lk … L1 E3
erzeugt unser Algorithmus im invertierbaren Fall also das Inverse von A in der parallel ausgeführten Zeilenmanipulation von E3. Mit obigen Notationen gilt
A0 = A, A1 = L1 A0, A2 = L2 A1 = L2 L1 A, …
B0 = E3, B1 = L1 B0 = L1, B2 = L2 B1 = L2 L1, …
Wird eine Nullzeile oder Nullspalte erzeugt, so ist die Matrix
Ak = Lk … L1 A
nicht invertierbar. Da alle Li invertierbar sind, ist notwendig A singulär. Damit ist die Korrektheit des Algorithmus vollständig bewiesen.
Unsere Überlegungen zeigen (angewendet auf B = A−1), dass jede invertierbare Matrix A als ein Produkt von Elementarmatrizen dargestellt werden kann:
Satz (Zerlegung einer invertierbaren Matrix in Elementarmatrizen)
Sei A ∈ ℝ3 × 3 invertierbar. Dann gibt es ein k ≥ 1 und Elementarmatrizen L1, …, Lk mit A = Lk … L1.
Dieser bemerkenswerte Satz gilt analog auch für höhere Dimensionen.
Bemerkung: Deterministische Version des Invertierungs-Algorithmus
Wir haben bei unserer Formulierung des Algorithmus keine Strategie vorgegeben, wie der Versuch der Umwandlung von A in E3 durchzuführen ist. Es gibt verschiedene Möglichkeiten, dies zu organisieren. Eine deterministische Version erhalten wir zum Beispiel, indem wir solange wie möglich (1) A Spalte für Spalte unterhalb der Hauptdiagonalen ausräumen, (2) A Spalte für Spalte oberhalb der Hauptdiagonalen ausräumen, (3) die Diagonale normieren. Alternativ können wir die Spalten von A auch gleich unter- und oberhalb der Diagonale ausräumen und dabei auch die Normierung der Diagonaleinträge durchführen.