25. Vorlesung (3 × 3)-Matrizen

1. Übertragung der Begriffe

 Eine reelle 3 × 3-Matrix hat die Form

A  =  a11a12a13a21a22a23a31a32a33 =  (aij)1 ≤ i,j ≤ 3

mit den Einträgen A(i, j) = aij  ∈  . Wir können zahlreiche Begriffe von 2 × 2-Matrizen übernehmen: Diagonalmatrix, Zeilenvektoren, Spaltenvektoren, transponierte Matrix. Wir setzen:

3 × 3  =  { A | A ist eine reelle 3 × 3-Matrix }.

Sind A, B  ∈  3 × 3, v  ∈  3 und λ  ∈  , so setzen wir

A + B  =  (aij + bij)1 ≤ i,j ≤ 3,(Matrizenaddition)

λA  =  (λaij)1 ≤ i,j ≤ 3,(Skalarmultiplikation)

A v  =  (ai1 v1 + ai2 v2 + ai3 v3)1 ≤ i ≤ 3,(Matrix-Vektor-Produkt)

AB  =  (ai1 b1j + ai2 b2j + ai3 b3j)1 ≤ i,j ≤ 3,(Matrizenprodukt)

−A  =  (−1)A,  A − B  =  A + (−B),

0  =  „die Matrix A mit aij = 0 für alle i,j“,(Nullmatrix)

E3  =  (e1, e2, e3),(Einheitsmatrix)

mit den kanonischen Einheitsvektoren

e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1).

 Es gilt Av  ∈  3 und AB  ∈  3 × 3. Nützlich ist die Darstellung

AB  =  C  mit  cij  =  1 ≤ k ≤ 3 aik bkj  für alle 1 ≤ i, j ≤ 3.

 Für alle A, B, C gilt A(BC) = (AB)C (Assoziativität), während die Kommutativität AB = BA im Allgemeinen verletzt ist.

2. Matrizen und lineare Abbildungen

Definition (zugeordnete Abbildung)

Sei A  ∈  3 × 3. Dann ist die A zugeordnete Abbildung fA : 3  3 definiert durch fA(v) = A v für alle v  ∈  3.

Es gilt wieder fA B = fA ∘ fB für alle A, B  ∈  3 × 3.

Definition (lineare Abbildung)

Eine Abbildung f : 3  3 heißt linear, falls für alle v, w  ∈  3 und alle λ, μ  ∈   gilt:

f(λ v + μ w)  =  λ f (v)  +  μ f (w).(Linearitätsbedingung)

 Jede Abbildung fA : 3  3 ist linear und umgekehrt lässt sich jede lineare Abbildung f : 3  3 eindeutig durch eine Matrix Af darstellen (Beweis wie für die Ebene). Die darstellende Matrix Af erhalten wir, indem wir die Bilder der kanonischen Basisvektoren unter f als Spalten in eine Matrix schreiben:

Af  =  (f (e1);  f (e2);  f (e3)).

Projektion auf eine Gerade

Sei G = G(u) die von einen normierten Vektor u  ∈  3 aufgespannte Gerade. Dann ist die orthogonale Projektion prG : 3  3 auf G definiert durch

prG(v)  =  〈 u, v 〉 u  für alle v  ∈  3.

Die darstellende Matrix AG von prG hat die Spalten

prG(ei)  =  〈 u, ei 〉 u  =  ui u  für i = 1, 2, 3,

sodass

AG  =  u1u1u2u1u3u1u1u2u2u2u3u2u1u3u2u3u3u3  =  u12u1u2u1u3u1u2u22u2u3u1u3u2u3u32.

Rotationsmatrizen

Sei φ  ∈  . Dann stellt die Matrix

Aφ  =  1000cosφsinφ0sinφcosφ

die Rotation im 3 um den Winkel φ (gegen den Uhrzeigersinn) mit der x-Achse als Drehachse dar. In den Spalten stehen die Bilder von e1, e2, e3 unter der Rotation. Analog beschreiben

Bψ  =  cosψ0sinψ010sinψ0cosψ,  Cχ  =  cosχsinχ0sinχcosχ0001

die Rotationen um die Winkel φ um die y-Achse bzw. χ um die z-Achse.

3. Invertierung

Definition (invertierbar, invers, singulär)

Sei A  ∈  3 × 3. Gibt es ein B  ∈  3 × 3 mit BA = E3 = BA, so heißt A invertierbar und B invers zu A. Andernfalls heißt A singulär.

 Wir bezeichnen das (im Fall der Existenz eindeutig bestimmte) Inverse von A wieder mit A−1. Es gelten wieder die Invertierungsregeln

(A−1)−1  =  A,  (A B)−1  =  B−1 A−1.

 Ein Gleichungssystem

(+)  a1 x  +  b1 y  +  c1 z  =  u1
a2 x  +  b2 y  +  c2 z  =  u2
a3 x  +  b3 y  +  c3 z  =  u3

können wir wieder kompakt in der Form

A (x, y, z)  =  u

notieren, mit der Koeffizientenmatrix A = (a; b; c)  ∈  3 × 3. Erneut gilt:

Lösung durch Invertierung

Ist A invertierbar, so wird für alle rechten Seiten u  ∈  3 das Gleichungssystem A (x, y, z) = u eindeutig durch den Vektor A−1u gelöst.

 Die eindeutige Lösbarkeit von Av = u ist äquivalent zu det(A) ≠ 0. Damit ist A genau dann invertierbar, wenn det(A) ≠ 0. Zur Berechnung von A−1 verwenden wir einen Algorithmus, der sich auf beliebige (n × n)-Matrizen verallgemeinern lässt.

Invertierungsalgorithmus

Gegeben ist eine beliebige Matrix A  ∈  3 × 3. Wir versuchen, A durch schrittweise elementare Zeilenoperationen in die Einheitsmatrix E3 zu überführen. Dadurch entsteht eine endliche Folge A = A0, …, Ak von 3 × 3-Matrizen. An Zeilenoperationen sind dabei erlaubt:

(a)

Multiplikation einer Zeile mit λ ≠ 0.

(b)

Addition des λ-fachen einer Zeile zu einer anderen Zeile.

Parallel hierzu führen wir die Zeilenoperationen an der Einheitsmatrix E3 durch, sodass eine zweite endliche Folge von 3 × 3-Matrizen E3 = B0, …, Bk entsteht. Wird beim Versuch, A in E3 zu überführen eine Nullzeile oder Nullspalte produziert, so stoppen wir das Verfahren mit dem Ergebnis „A ist singulär“. Andernfalls geben wir die Matrix Bk als Ergebnis aus.

Beispiel:  Überführung in die Einheitsmatrix

A0  =  110101111   B0  =  100010001

A1  =  110011111   B1  = 100110001

A2  =  110011021   B2  = 100110101

A3  =  110011001   B3  = 100110121

A4  =  110010001   B4  = 100011121

A5  =  100010001   B5  = 111011121

A6  =  100010001   B6  = 111011121

A7  =  100010001   B7  = 111011121

Die ersten fünf Operationen sind Zeilenadditionen, die beiden letzten Zeilenmultiplikationen. Es gilt A7 = E3. Das Ergebnis der Berechnung ist also B = B7. Nachrechnen zeigt, dass BA = E3, sodass B = A−1.

4. Die Elementarmatrizen

 Um die Korrektheit des Invertierungsalgorithmus zu zeigen, definieren wir:

Definition (Elementarmatrix, Additionstyp, Multiplikationstyp)

Seien 1 ≤ i, j ≤ 3 und λ  ∈  . Dann ist Wij(λ)  ∈  3 × 3 definiert als die Matrix, die mit der Einheitsmatrix E3 übereinstimmt, aber an der Stelle (i, j) den Eintrag λ besitzt. Eine solche Matrix W heißt eine Elementarmatrix, falls

W = Wij(λ)  mit λ  ∈  , i ≠ j,  oder (Additionstyp)

W = Wij(λ)  mit λ  ∈  *, i = j.(Multiplikationstyp)

Wirkung der Elementarmatrizen

(1)

Ist W = Wij(λ) ein Additionstyp, so ist WA die Matrix, die entsteht, wenn wir das λ-Fache der j-ten Zeile zur i-ten Zeile von A addieren.

(2)

Ist W = Wii(λ) ein Multiplikationstyp, so ist WA die Matrix, die entsteht, wenn wir die i-te Zeile von A mit λ multiplizieren.

 Eine Elementarmatrix ist invertierbar: Das Inverse eines Additionstyps Wij(λ) ist Wij(−λ) und das Inverse eines Multiplikationstyps Wii(λ) ist Wii(1/λ).

 Den Invertierungsalgorithmus können wir nun so beschreiben: Gegeben A, versuchen wir, Elementarmatrizen L1, …, Lk zu finden, sodass

(+)  Lk … L1 A  =  E3.

Gelingt dies, so ist B = Lk… L1  =  A−1, da B A = Lk … L1 A = E3 nach (+). Wegen B  =  B E3  =  Lk … L1 E3 erzeugt der Algorithmus im invertierbaren Fall also das Inverse von A in der parallel ausgeführten Zeilenmanipulation von E3. Mit obigen Notationen gilt

A0  =  A,  A1  =  L1 A0,  A2  =  L2 A1  =  L2 L1 A,  …

B0  =  E3,  B1  =  L1 B0  =  L1,  B2  =  L2 B1  =  L2 L1,  …

Wird eine Nullzeile oder Nullspalte erzeugt, so ist die Matrix

Ak  =  Lk … L1 A

nicht invertierbar. Da alle Li invertierbar sind, ist notwendig A singulär. Damit ist die Korrektheit des Algorithmus vollständig bewiesen.

 Unsere Überlegungen zeigen (angewendet auf B = A−1):

Satz (Zerlegung einer invertierbaren Matrix in Elementarmatrizen)

Sei A  ∈  3 × 3 invertierbar. Dann gibt es ein k ≥ 1 und Elementarmatrizen L1, …, Lk mit A = Lk … L1.

5. Eigenwerte und Eigenvektoren

Definition (Eigenwerte und Eigenvektoren)

Seien A  ∈  3 × 3, λ  ∈   und v  ∈  2 mit v ≠ 0. Dann heißt λ ein Eigenwert und v ein zu λ gehöriger Eigenvektor von A, falls Av = λv.

 Erneut gilt für alle A  ∈  3 × 3, λ  ∈   und v  ∈  3 die Äquivalenz:

A v  =  λ  genau dann, wenn(A − λE2) v  =  0.

Mit Aλ = A − λ E3, ist also λ genau dann ein Eigenwert von A, wenn das homogene Gleichungssystem Aλ v = 0 eine vom Nullvektor verschiedene Lösung v besitzt. Dies ist genau dann der Fall, wenn det(Aλ) = 0. Wir definieren:

Definition (charakteristisches Polynom)

Sei A  ∈  3 × 3. Dann heißt das Polynom pA :    dritten Grades mit

pA(λ)  =  det(Aλ)  =  det(A − λE3)  für alle λ  ∈ 

das charakteristische Polynom von A.

 Die Eigenwerte von A sind genau die reellen Nullstellen von pλ. Eine Berechnung der Determinante ergibt

pA(λ)  =  −λ3  +  spur(A) λ2  −  (det(A′11) + det(A′22) + det(A′33)) λ  +  det(A)

für alle λ  ∈  , wobei A′ij die (2 × 2)-Matrix ist, die aus A durch Streichen der i-ten Zeile und j-ten Spalte hervorgeht.

Beispiel

Für die obere Dreiecksmatrix A = ((1, 2, 3), (0, 1, 1), (0, 0, 1)) gilt

A′11  =  1101,  A′22  =  1301,  A′33  =  1201,

pA(λ)  =  −λ3  +  3λ2  −  3λ  +  1  =  − (λ − 1)3  für alle λ  ∈  .

Damit ist λ = 1 eine dreifache Nullstelle von A. Lösen von (A − E3) v = 0 zeigt, dass genau die Vektoren μe1 mit μ  ∈  * Eigenvektoren von A zum Eigenwert 1 sind. Die Matrix A ist ein Beispiel dafür, dass zu einem mehrfachen Eigenwert nicht notwendig zwei oder mehr linear unabhängige Eigenvektoren gehören müssen.

 Das charakteristische Polynom einer (3 × 3) Matrix hat stets den Grad 3. Da ein reelles Polynom ungeraden Grades eine reelle Nullstelle besitzt, erhalten wir:

Satz (Existenz von Eigenwerten)

Jede reelle (3 × 3)-Matrix besitzt mindestens einen reellen Eigenwert.

 Beschreibt zum Beispiel A eine Rotation des dreidimensionalen Raumes, so sind die von Null verschiedenen Vektoren der Drehachse Eingenvektoren von A zum Eigenwert 1.

 Erneut gilt (mit einem etwas komplizierteren Beweis):

Satz (Spektralsatz)

Sei A  ∈  3 × 3. Dann sind äquivalent:

(a)

A ist symmetrisch.

(b)

Es gibt paarweise zueinander orthogonale Eigenvektoren v, w, u von A.

 Hieraus ergibt sich die Diagonalisierung A = S−1 D S einer symmetrischen Matrix A und die Singulärwertzerlegung A = S−1 D1/2 T einer beliebigen Matrix A, mit D diagonal und S, T orthogonal, d. h. S−1 = St, T−1 = Tt. Die Einheitssphäre S = { v  ∈  3 | ∥v∥ = 1 } wird durch A in ein Ellipsoid E transformiert (das degeneriert ist, wenn A singulär ist). Die Singulärwerte von A sind die Halbachsen von E und die Spalten von S−1 sind normierte Halbachsenrichtungen.