22. Vorlesung Invertierung und Orthogonalität

1. Das Inverse einer Matrix

Definition (invertierbar, invers, singulär)

Sei A  ∈  2 × 2. Gibt es ein B  ∈  2 × 2 mit B A = E2 = B A, so heißt A invertierbar und B invers zu A. Andernfalls heißt A singulär.

Notation

Ist A invertierbar, so bezeichnen wir das (eindeutige) Inverse von A mit A−1.

Satz (Inversenregeln)

Seien A, B  ∈  2 × 2 invertierbar. Dann sind A−1 und AB invertierbar und es gilt

(A−1)−1  =  A,  (A B)−1  =  B−1 A−1.

Beweis

Es gilt AA−1 = E2 = A−1A, sodass nach Definition des Inversen A invers zu A−1 ist, d. h. (A−1)−1 = A. Zur zweiten Regel berechnen wir

(B−1 A−1) (AB)  =  B−1 A−1 A B  =  B−1 E2 B  =  B−1 B  =  E2.

Ebenso zeigt man, dass (AB)(B−1 A−1) = E2. Damit ist B−1A−1 invers zu AB.

Lösen eines linearen Gleichungssystems durch Invertierung

Ist A invertierbar, so wird für alle rechten Seiten u das System A (x, y) = u eindeutig durch den Vektor A−1u gelöst.

Definition (Komplementärmatrix)

Sei A  ∈  2 × 2. Dann ist die Komplementärmatrix A# von A definiert durch

A#  =  dbca,  wobei  A  =  abcd.

Satz (Komplementärmatrix und Determinante)

Sei A  ∈  2 × 2. Dann gilt:

(a)

A# A  =  A A#  =  det(A) E2.

(b)

A ist genau dann invertierbar, wenn det(A) ≠ 0. In diesem Fall ist

A−1  =  det(A)−1 A#.

Beweis

Es gilt

A A#  =  abcddbca = adbcababcdcdadbc =  det(A) E2.

Analog ist A# A = det(A) E2. Ist det(A) ≠ 0, so ist det(A)−1A# das Inverse von A nach (a). Ist det(A) = 0, so ist A nicht invertierbar. Dies zeigt (b).

2. Charakterisierungen der Invertierbarkeit

Satz (Äquivalenzen zur Invertierbarkeit)

Sei A  ∈  2 × 2. Dann sind äquivalent:

(a)

A ist invertierbar.

(b)

det(A) ≠ 0.

(c)

Die Spalten von A sind nicht kollinear.

(d)

Die Zeilen von A sind nicht kollinear.

(e)

Für alle u ist das System Av = u eindeutig lösbar in v.

(f)

Für alle u ist das System Av = u lösbar in v.

(g)

Das homogene System Av = 0 ist eindeutig lösbar (durch den Nullvektor).

(h)

Der Nullvektor ist der einzige Vektor, der durch fA : 2  2 auf den Nullvektor abgebildet wird.

(i)

fA : 2  2 ist injektiv.

(j)

fA : 2  2 ist surjektiv.

(k)

fA : 2  2 ist bijektiv.

Satz (einseitige Inverse genügen)

Sei A  ∈  2 × 2. Es gebe ein B  ∈  2 × 2 mit AB = E2. Dann ist A invertierbar und es gilt B = A−1. Eine analoge Aussage gilt, wenn ein C  ∈  2 × 2 existiert mit CA = E2.

Beweis

Nach dem Multiplikationssatz für Determinanten gilt

1  =  det(E2)  =  det(AB)  =  det(A) det(B),

sodass det(A) ≠ 0. Folglich ist A invertierbar. Weiter folgt aus der Voraussetzung AB = E2, dass

B  =  E2 B  =  A−1 A B  =  A−1 E2  =  A−1.

Die Behauptung über linksseitige Inverse C wird analog bewiesen.

3. Orthogonale Matrizen

Definition (orthogonal)

Eine Matrix A  ∈  2 × 2 heißt orthogonal, wenn die Spaltenvektoren von A orthogonal zueinander und normiert sind.

 Eine Matrix A = (v1, v2) ist also genau dann orthogonal, wenn 〈 vi, vj 〉 = δij für alle 1 ≤ i, j ≤ 2. Dabei ist δij wieder das Kronecker-Delta, also δij = 0 falls i ≠ j und δij = 1, falls i = j.

Satz (Charakterisierungen der Orthogonalität)

Sei A  ∈  2 × 2. Dann sind äquivalent:

(a)

A ist orthogonal.

(b)

A−1 = At, d. h. A und At sind invers zueinander.

(c)

At ist orthogonal, d. h. die Zeilenvektoren von A sind orthogonal und normiert.

(d)

Für alle v  ∈  2 gilt ∥ A v ∥ = ∥v∥.(Erhalt der Länge)

(e)

Für alle v, w  ∈  2 gilt 〈 A v, A w 〉 = 〈 v, w 〉.(Erhalt des Skalarprodukts)

Beweis

Die Äquivalenz von (a) und (b) folgt aus der Definition der Orthogonalität. Damit ist At genau dann orthogonal, wenn At und (At)t = A invers zueinander sind, d. h. wenn A orthogonal ist.

(b) impliziert (d):

Es gelte A−1 = At. Dann gilt für alle v  ∈  2.

∥ Av ∥2  =  〈 Av, Av 〉  =  〈 v, At A v 〉  =  〈 v, E2 v 〉  =  〈 v, v 〉  =  ∥v∥2.

(d) impliziert (e):

Es gelte ∥ A v ∥ = ∥v∥ für alle v  ∈  2. Dann gilt für alle v, w  ∈  2 unter zweimaliger Verwendung der Polarisationsformel:

4 〈 v, w 〉 =  ∥ v + w ∥2 − ∥ v − w ∥2  =  ∥ A(v + w) ∥2 − ∥ A(v − w) ∥2
=  ∥ A v + A w ∥2 − ∥ A v − A w ∥2  =  4 〈 Av, Aw 〉.

(e) impliziert (a):

Gilt (e), so gilt 〈 A ei, A ej 〉 = 〈 ei, ej 〉 = δij für 1 ≤ i, j ≤ 2. Damit sind die Spalten A e1 und A e2 von A orthogonal und normiert.

4. Klassifikation der orthogonalen Matrizen

 Ist A = (v; w) orthogonal, so ist v normiert und folglich gibt es ein φ  ∈  [ 0, 2π [ mit v = (cos φ, sin φ). Da w ebenfalls normiert ist und senkrecht auf v steht, gilt

w  =  rotπ/2(v)  oder  w  =  rot−π/2(v).

Damit ist

w  =  (−sin φ, cos φ)  oder  w  =  (sin φ, −cos φ).

Die Überlegung zeigt:

Satz (Klassifikation der orthogonalen Matrizen)

Sei A  ∈  2 × 2 orthogonal. Dann gibt es ein φ  ∈  [ 0, 2π [ mit

A  =  cosφsinφsinφcosφ oder  A  =  cosφsinφsinφcosφ.

Im ersten Fall gilt det(A) = 1, im zweiten det(A) = −1.

 Ist A orthogonal und det(A) = 1, so ist A v für alle v  ∈  2 der um den Winkel φ gedrehte Vektor v. Im Fall det(A) = −1 ist A v für alle v  ∈  2 der an der Geraden durch 0 mit Winkel φ/2 gespiegelte Vektor v. Wir nennen die Matrix A entsprechend eine Rotationsmatrix oder Spiegelungsmatrix. Spiegelungsmatrizen sind symmetrisch. Eine Rotationsmatrix ist nur dann symmetrisch, wenn φ  ∈  { 0, π }.

5. Matrizen und Ellipsen

Satz (Bild des Einheitskreises unter einer Matrix)

Sei A = ((a, c); (b, d)) = (u1, u2)  ∈  2 × 2 invertierbar, und sei K der Einheitskreis. Dann ist E = A[ K ] = { A v | ∥v∥ = 1 } eine Ellipse. Es gilt die Kegelschnittdarstellung

(+)  E  =  { (x, y)  ∈  2 | (c2 + d2)x2  −  2(ac + bd) x y  +  (a2 + b2)y2  =  det(A)2 }.

Beweis

Sei A−1 = det(A)−1 A#, mit A# = ((d, −b), (−c, a)). Dann gilt

E  =  { Av | v  ∈  K }  =  { v | A−1v  ∈  K }  =  { v | ∥ A−1 v ∥ = 1 }.

Für alle v = (x, y)  ∈  2 gilt

det(A)2 ∥ A−1 v ∥2 =  ∥ A# v ∥2
=  (dx − by)2 + (−cx + ay)2
=  (c2 + d2)x2  −  2(ac + bd) x y  +  (a2 + b2)y2.

Damit ist die Darstellung (+) von E gezeigt. Als ein in ein Parallelogramm einbeschriebener Kegelschnitt ist E notwendig eine Ellipse.