25. Vorlesung (3 × 3)-Matrizen
1. Übertragung der Begriffe
Eine reelle 3 × 3-Matrix hat die Form
A = = (aij)1 ≤ i,j ≤ 3
mit den Einträgen A(i, j) = aij ∈ ℝ. Wir können zahlreiche Begriffe von 2 × 2-Matrizen übernehmen: Diagonalmatrix, Zeilenvektoren, Spaltenvektoren, transponierte Matrix. Wir setzen:
ℝ3 × 3 = { A | A ist eine reelle 3 × 3-Matrix }.
Sind A, B ∈ ℝ3 × 3, v ∈ ℝ3 und λ ∈ ℝ, so setzen wir
A + B = (aij + bij)1 ≤ i,j ≤ 3,(Matrizenaddition)
λA = (λaij)1 ≤ i,j ≤ 3,(Skalarmultiplikation)
A v = (ai1 v1 + ai2 v2 + ai3 v3)1 ≤ i ≤ 3,(Matrix-Vektor-Produkt)
AB = (ai1 b1j + ai2 b2j + ai3 b3j)1 ≤ i,j ≤ 3,(Matrizenprodukt)
−A = (−1)A, A − B = A + (−B),
0 = „die Matrix A mit aij = 0 für alle i,j“,(Nullmatrix)
E3 = (e1, e2, e3),(Einheitsmatrix)
mit den kanonischen Einheitsvektoren
e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1).
Es gilt Av ∈ ℝ3 und AB ∈ ℝ3 × 3. Nützlich ist die Darstellung
AB = C mit cij = ∑1 ≤ k ≤ 3 aik bkj für alle 1 ≤ i, j ≤ 3.
Für alle A, B, C gilt A(BC) = (AB)C (Assoziativität), während die Kommutativität AB = BA im Allgemeinen verletzt ist.
2. Matrizen und lineare Abbildungen
Definition (zugeordnete Abbildung)
Sei A ∈ ℝ3 × 3. Dann ist die A zugeordnete Abbildung fA : ℝ3 → ℝ3 definiert durch fA(v) = A v für alle v ∈ ℝ3.
Es gilt wieder fA B = fA ∘ fB für alle A, B ∈ ℝ3 × 3.
Definition (lineare Abbildung)
Eine Abbildung f : ℝ3 → ℝ3 heißt linear, falls für alle v, w ∈ ℝ3 und alle λ, μ ∈ ℝ gilt:
f(λ v + μ w) = λ f (v) + μ f (w).(Linearitätsbedingung)
Jede Abbildung fA : ℝ3 → ℝ3 ist linear und umgekehrt lässt sich jede lineare Abbildung f : ℝ3 → ℝ3 eindeutig durch eine Matrix Af darstellen (Beweis wie für die Ebene). Die darstellende Matrix Af erhalten wir, indem wir die Bilder der kanonischen Basisvektoren unter f als Spalten in eine Matrix schreiben:
Af = (f (e1); f (e2); f (e3)).
Projektion auf eine Gerade
Sei G = G(u) die von einen normierten Vektor u ∈ ℝ3 aufgespannte Gerade. Dann ist die orthogonale Projektion prG : ℝ3 → ℝ3 auf G definiert durch
prG(v) = 〈 u, v 〉 u für alle v ∈ ℝ3.
Die darstellende Matrix AG von prG hat die Spalten
prG(ei) = 〈 u, ei 〉 u = ui u für i = 1, 2, 3,
sodass
AG = = .
Rotationsmatrizen
Sei φ ∈ ℝ. Dann stellt die Matrix
Aφ =
die Rotation im ℝ3 um den Winkel φ (gegen den Uhrzeigersinn) mit der x-Achse als Drehachse dar. In den Spalten stehen die Bilder von e1, e2, e3 unter der Rotation. Analog beschreiben
Bψ = , Cχ =
die Rotationen um die Winkel φ um die y-Achse bzw. χ um die z-Achse.
3. Invertierung
Definition (invertierbar, invers, singulär)
Sei A ∈ ℝ3 × 3. Gibt es ein B ∈ ℝ3 × 3 mit BA = E3 = BA, so heißt A invertierbar und B invers zu A. Andernfalls heißt A singulär.
Wir bezeichnen das (im Fall der Existenz eindeutig bestimmte) Inverse von A wieder mit A−1. Es gelten wieder die Invertierungsregeln
(A−1)−1 = A, (A B)−1 = B−1 A−1.
Ein Gleichungssystem
(+) | a1 x + b1 y + c1 z = u1 |
a2 x + b2 y + c2 z = u2 | |
a3 x + b3 y + c3 z = u3 |
können wir wieder kompakt in der Form
A (x, y, z) = u
notieren, mit der Koeffizientenmatrix A = (a; b; c) ∈ ℝ3 × 3. Erneut gilt:
Lösung durch Invertierung
Ist A invertierbar, so wird für alle rechten Seiten u ∈ ℝ3 das Gleichungssystem A (x, y, z) = u eindeutig durch den Vektor A−1u gelöst.
Die eindeutige Lösbarkeit von Av = u ist äquivalent zu det(A) ≠ 0. Damit ist A genau dann invertierbar, wenn det(A) ≠ 0. Zur Berechnung von A−1 verwenden wir einen Algorithmus, der sich auf beliebige (n × n)-Matrizen verallgemeinern lässt.
Invertierungsalgorithmus
Gegeben ist eine beliebige Matrix A ∈ ℝ3 × 3. Wir versuchen, A durch schrittweise elementare Zeilenoperationen in die Einheitsmatrix E3 zu überführen. Dadurch entsteht eine endliche Folge A = A0, …, Ak von 3 × 3-Matrizen. An Zeilenoperationen sind dabei erlaubt:
(a) | Multiplikation einer Zeile mit λ ≠ 0. |
(b) | Addition des λ-fachen einer Zeile zu einer anderen Zeile. |
Parallel hierzu führen wir die Zeilenoperationen an der Einheitsmatrix E3 durch, sodass eine zweite endliche Folge von 3 × 3-Matrizen E3 = B0, …, Bk entsteht. Wird beim Versuch, A in E3 zu überführen eine Nullzeile oder Nullspalte produziert, so stoppen wir das Verfahren mit dem Ergebnis „A ist singulär“. Andernfalls geben wir die Matrix Bk als Ergebnis aus.
Beispiel: Überführung in die Einheitsmatrix
A0 = B0 =
A1 = B1 =
A2 = B2 =
A3 = B3 =
A4 = B4 =
A5 = B5 =
A6 = B6 =
A7 = B7 =
Die ersten fünf Operationen sind Zeilenadditionen, die beiden letzten Zeilenmultiplikationen. Es gilt A7 = E3. Das Ergebnis der Berechnung ist also B = B7. Nachrechnen zeigt, dass BA = E3, sodass B = A−1.
4. Die Elementarmatrizen
Um die Korrektheit des Invertierungsalgorithmus zu zeigen, definieren wir:
Definition (Elementarmatrix, Additionstyp, Multiplikationstyp)
Seien 1 ≤ i, j ≤ 3 und λ ∈ ℝ. Dann ist Wij(λ) ∈ ℝ3 × 3 definiert als die Matrix, die mit der Einheitsmatrix E3 übereinstimmt, aber an der Stelle (i, j) den Eintrag λ besitzt. Eine solche Matrix W heißt eine Elementarmatrix, falls
W = Wij(λ) mit λ ∈ ℝ, i ≠ j, oder (Additionstyp)
W = Wij(λ) mit λ ∈ ℝ*, i = j.(Multiplikationstyp)
Wirkung der Elementarmatrizen
(1) | Ist W = Wij(λ) ein Additionstyp, so ist WA die Matrix, die entsteht, wenn wir das λ-Fache der j-ten Zeile zur i-ten Zeile von A addieren. |
(2) | Ist W = Wii(λ) ein Multiplikationstyp, so ist WA die Matrix, die entsteht, wenn wir die i-te Zeile von A mit λ multiplizieren. |
Eine Elementarmatrix ist invertierbar: Das Inverse eines Additionstyps Wij(λ) ist Wij(−λ) und das Inverse eines Multiplikationstyps Wii(λ) ist Wii(1/λ).
Den Invertierungsalgorithmus können wir nun so beschreiben: Gegeben A, versuchen wir, Elementarmatrizen L1, …, Lk zu finden, sodass
(+) Lk … L1 A = E3.
Gelingt dies, so ist B = Lk… L1 = A−1, da B A = Lk … L1 A = E3 nach (+). Wegen B = B E3 = Lk … L1 E3 erzeugt der Algorithmus im invertierbaren Fall also das Inverse von A in der parallel ausgeführten Zeilenmanipulation von E3. Mit obigen Notationen gilt
A0 = A, A1 = L1 A0, A2 = L2 A1 = L2 L1 A, …
B0 = E3, B1 = L1 B0 = L1, B2 = L2 B1 = L2 L1, …
Wird eine Nullzeile oder Nullspalte erzeugt, so ist die Matrix
Ak = Lk … L1 A
nicht invertierbar. Da alle Li invertierbar sind, ist notwendig A singulär. Damit ist die Korrektheit des Algorithmus vollständig bewiesen.
Unsere Überlegungen zeigen (angewendet auf B = A−1):
Satz (Zerlegung einer invertierbaren Matrix in Elementarmatrizen)
Sei A ∈ ℝ3 × 3 invertierbar. Dann gibt es ein k ≥ 1 und Elementarmatrizen L1, …, Lk mit A = Lk … L1.
5. Eigenwerte und Eigenvektoren
Definition (Eigenwerte und Eigenvektoren)
Seien A ∈ ℝ3 × 3, λ ∈ ℝ und v ∈ ℝ2 mit v ≠ 0. Dann heißt λ ein Eigenwert und v ein zu λ gehöriger Eigenvektor von A, falls Av = λv.
Erneut gilt für alle A ∈ ℝ3 × 3, λ ∈ ℝ und v ∈ ℝ3 die Äquivalenz:
A v = λ genau dann, wenn (A − λE2) v = 0.
Mit Aλ = A − λ E3, ist also λ genau dann ein Eigenwert von A, wenn das homogene Gleichungssystem Aλ v = 0 eine vom Nullvektor verschiedene Lösung v besitzt. Dies ist genau dann der Fall, wenn det(Aλ) = 0. Wir definieren:
Definition (charakteristisches Polynom)
Sei A ∈ ℝ3 × 3. Dann heißt das Polynom pA : ℝ → ℝ dritten Grades mit
pA(λ) = det(Aλ) = det(A − λE3) für alle λ ∈ ℝ
das charakteristische Polynom von A.
Die Eigenwerte von A sind genau die reellen Nullstellen von pλ. Eine Berechnung der Determinante ergibt
pA(λ) = −λ3 + spur(A) λ2 − (det(A′11) + det(A′22) + det(A′33)) λ + det(A)
für alle λ ∈ ℝ, wobei A′ij die (2 × 2)-Matrix ist, die aus A durch Streichen der i-ten Zeile und j-ten Spalte hervorgeht.
Beispiel
Für die obere Dreiecksmatrix A = ((1, 2, 3), (0, 1, 1), (0, 0, 1)) gilt
A′11 = , A′22 = , A′33 = ,
pA(λ) = −λ3 + 3λ2 − 3λ + 1 = − (λ − 1)3 für alle λ ∈ ℝ.
Damit ist λ = 1 eine dreifache Nullstelle von A. Lösen von (A − E3) v = 0 zeigt, dass genau die Vektoren μe1 mit μ ∈ ℝ* Eigenvektoren von A zum Eigenwert 1 sind. Die Matrix A ist ein Beispiel dafür, dass zu einem mehrfachen Eigenwert nicht notwendig zwei oder mehr linear unabhängige Eigenvektoren gehören müssen.
Das charakteristische Polynom einer (3 × 3) Matrix hat stets den Grad 3. Da ein reelles Polynom ungeraden Grades eine reelle Nullstelle besitzt, erhalten wir:
Satz (Existenz von Eigenwerten)
Jede reelle (3 × 3)-Matrix besitzt mindestens einen reellen Eigenwert.
Beschreibt zum Beispiel A eine Rotation des dreidimensionalen Raumes, so sind die von Null verschiedenen Vektoren der Drehachse Eingenvektoren von A zum Eigenwert 1.
Erneut gilt (mit einem etwas komplizierteren Beweis):
Satz (Spektralsatz)
Sei A ∈ ℝ3 × 3. Dann sind äquivalent:
(a) | A ist symmetrisch. |
(b) | Es gibt paarweise zueinander orthogonale Eigenvektoren v, w, u von A. |
Hieraus ergibt sich die Diagonalisierung A = S−1 D S einer symmetrischen Matrix A und die Singulärwertzerlegung A = S−1 D1/2 T einer beliebigen Matrix A, mit D diagonal und S, T orthogonal, d. h. S−1 = St, T−1 = Tt. Die Einheitssphäre S = { v ∈ ℝ3 | ∥v∥ = 1 } wird durch A in ein Ellipsoid E transformiert (das degeneriert ist, wenn A singulär ist). Die Singulärwerte von A sind die Halbachsen von E und die Spalten von S−1 sind normierte Halbachsenrichtungen.