22. Vorlesung Invertierung und Orthogonalität
1. Das Inverse einer Matrix
Definition (invertierbar, invers, singulär)
Sei A ∈ ℝ2 × 2. Gibt es ein B ∈ ℝ2 × 2 mit B A = E2 = B A, so heißt A invertierbar und B invers zu A. Andernfalls heißt A singulär.
Notation
Ist A invertierbar, so bezeichnen wir das (eindeutige) Inverse von A mit A−1.
Satz (Inversenregeln)
Seien A, B ∈ ℝ2 × 2 invertierbar. Dann sind A−1 und AB invertierbar und es gilt
(A−1)−1 = A, (A B)−1 = B−1 A−1.
Beweis
Es gilt AA−1 = E2 = A−1A, sodass nach Definition des Inversen A invers zu A−1 ist, d. h. (A−1)−1 = A. Zur zweiten Regel berechnen wir
(B−1 A−1) (AB) = B−1 A−1 A B = B−1 E2 B = B−1 B = E2.
Ebenso zeigt man, dass (AB)(B−1 A−1) = E2. Damit ist B−1A−1 invers zu AB.
Lösen eines linearen Gleichungssystems durch Invertierung
Ist A invertierbar, so wird für alle rechten Seiten u das System A (x, y) = u eindeutig durch den Vektor A−1u gelöst.
Definition (Komplementärmatrix)
Sei A ∈ ℝ2 × 2. Dann ist die Komplementärmatrix A# von A definiert durch
A# = , wobei A = .
Satz (Komplementärmatrix und Determinante)
Sei A ∈ ℝ2 × 2. Dann gilt:
(a) | A# A = A A# = det(A) E2. |
(b) | A ist genau dann invertierbar, wenn det(A) ≠ 0. In diesem Fall ist A−1 = det(A)−1 A#. |
Beweis
Es gilt
A A# = = = det(A) E2.
Analog ist A# A = det(A) E2. Ist det(A) ≠ 0, so ist det(A)−1A# das Inverse von A nach (a). Ist det(A) = 0, so ist A nicht invertierbar. Dies zeigt (b).
2. Charakterisierungen der Invertierbarkeit
Satz (Äquivalenzen zur Invertierbarkeit)
Sei A ∈ ℝ2 × 2. Dann sind äquivalent:
(a) | A ist invertierbar. |
(b) | det(A) ≠ 0. |
(c) | Die Spalten von A sind nicht kollinear. |
(d) | Die Zeilen von A sind nicht kollinear. |
(e) | Für alle u ist das System Av = u eindeutig lösbar in v. |
(f) | Für alle u ist das System Av = u lösbar in v. |
(g) | Das homogene System Av = 0 ist eindeutig lösbar (durch den Nullvektor). |
(h) | Der Nullvektor ist der einzige Vektor, der durch fA : ℝ2 → ℝ2 auf den Nullvektor abgebildet wird. |
(i) | fA : ℝ2 → ℝ2 ist injektiv. |
(j) | fA : ℝ2 → ℝ2 ist surjektiv. |
(k) | fA : ℝ2 → ℝ2 ist bijektiv. |
Satz (einseitige Inverse genügen)
Sei A ∈ ℝ2 × 2. Es gebe ein B ∈ ℝ2 × 2 mit AB = E2. Dann ist A invertierbar und es gilt B = A−1. Eine analoge Aussage gilt, wenn ein C ∈ ℝ2 × 2 existiert mit CA = E2.
Beweis
Nach dem Multiplikationssatz für Determinanten gilt
1 = det(E2) = det(AB) = det(A) det(B),
sodass det(A) ≠ 0. Folglich ist A invertierbar. Weiter folgt aus der Voraussetzung AB = E2, dass
B = E2 B = A−1 A B = A−1 E2 = A−1.
Die Behauptung über linksseitige Inverse C wird analog bewiesen.
3. Orthogonale Matrizen
Definition (orthogonal)
Eine Matrix A ∈ ℝ2 × 2 heißt orthogonal, wenn die Spaltenvektoren von A orthogonal zueinander und normiert sind.
Eine Matrix A = (v1, v2) ist also genau dann orthogonal, wenn 〈 vi, vj 〉 = δij für alle 1 ≤ i, j ≤ 2. Dabei ist δij wieder das Kronecker-Delta, also δij = 0 falls i ≠ j und δij = 1, falls i = j.
Satz (Charakterisierungen der Orthogonalität)
Sei A ∈ ℝ2 × 2. Dann sind äquivalent:
(a) | A ist orthogonal. |
(b) | A−1 = At, d. h. A und At sind invers zueinander. |
(c) | At ist orthogonal, d. h. die Zeilenvektoren von A sind orthogonal und normiert. |
(d) | Für alle v ∈ ℝ2 gilt ∥ A v ∥ = ∥v∥.(Erhalt der Länge) |
(e) | Für alle v, w ∈ ℝ2 gilt 〈 A v, A w 〉 = 〈 v, w 〉.(Erhalt des Skalarprodukts) |
Beweis
Die Äquivalenz von (a) und (b) folgt aus der Definition der Orthogonalität. Damit ist At genau dann orthogonal, wenn At und (At)t = A invers zueinander sind, d. h. wenn A orthogonal ist.
(b) impliziert (d):
Es gelte A−1 = At. Dann gilt für alle v ∈ ℝ2.
∥ Av ∥2 = 〈 Av, Av 〉 = 〈 v, At A v 〉 = 〈 v, E2 v 〉 = 〈 v, v 〉 = ∥v∥2.
(d) impliziert (e):
Es gelte ∥ A v ∥ = ∥v∥ für alle v ∈ ℝ2. Dann gilt für alle v, w ∈ ℝ2 unter zweimaliger Verwendung der Polarisationsformel:
4 〈 v, w 〉 | = ∥ v + w ∥2 − ∥ v − w ∥2 = ∥ A(v + w) ∥2 − ∥ A(v − w) ∥2 |
= ∥ A v + A w ∥2 − ∥ A v − A w ∥2 = 4 〈 Av, Aw 〉. |
(e) impliziert (a):
Gilt (e), so gilt 〈 A ei, A ej 〉 = 〈 ei, ej 〉 = δij für 1 ≤ i, j ≤ 2. Damit sind die Spalten A e1 und A e2 von A orthogonal und normiert.
4. Klassifikation der orthogonalen Matrizen
Ist A = (v; w) orthogonal, so ist v normiert und folglich gibt es ein φ ∈ [ 0, 2π [ mit v = (cos φ, sin φ). Da w ebenfalls normiert ist und senkrecht auf v steht, gilt
w = rotπ/2(v) oder w = rot−π/2(v).
Damit ist
w = (−sin φ, cos φ) oder w = (sin φ, −cos φ).
Die Überlegung zeigt:
Satz (Klassifikation der orthogonalen Matrizen)
Sei A ∈ ℝ2 × 2 orthogonal. Dann gibt es ein φ ∈ [ 0, 2π [ mit
A = oder A = .
Im ersten Fall gilt det(A) = 1, im zweiten det(A) = −1.
Ist A orthogonal und det(A) = 1, so ist A v für alle v ∈ ℝ2 der um den Winkel φ gedrehte Vektor v. Im Fall det(A) = −1 ist A v für alle v ∈ ℝ2 der an der Geraden durch 0 mit Winkel φ/2 gespiegelte Vektor v. Wir nennen die Matrix A entsprechend eine Rotationsmatrix oder Spiegelungsmatrix. Spiegelungsmatrizen sind symmetrisch. Eine Rotationsmatrix ist nur dann symmetrisch, wenn φ ∈ { 0, π }.
5. Matrizen und Ellipsen
Satz (Bild des Einheitskreises unter einer Matrix)
Sei A = ((a, c); (b, d)) = (u1, u2) ∈ ℝ2 × 2 invertierbar, und sei K der Einheitskreis. Dann ist E = A[ K ] = { A v | ∥v∥ = 1 } eine Ellipse. Es gilt die Kegelschnittdarstellung
(+) E = { (x, y) ∈ ℝ2 | (c2 + d2)x2 − 2(ac + bd) x y + (a2 + b2)y2 = det(A)2 }.
Beweis
Sei A−1 = det(A)−1 A#, mit A# = ((d, −b), (−c, a)). Dann gilt
E = { Av | v ∈ K } = { v | A−1v ∈ K } = { v | ∥ A−1 v ∥ = 1 }.
Für alle v = (x, y) ∈ ℝ2 gilt
det(A)2 ∥ A−1 v ∥2 | = ∥ A# v ∥2 |
= (dx − by)2 + (−cx + ay)2 | |
= (c2 + d2)x2 − 2(ac + bd) x y + (a2 + b2)y2. |
Damit ist die Darstellung (+) von E gezeigt. Als ein in ein Parallelogramm einbeschriebener Kegelschnitt ist E notwendig eine Ellipse.