21. Vorlesung (2 × 2)-Matrizen
1. (2 × 2)-Matrizen
Definition (2×2-Matrizen)
Eine doppelt indizierte Folge reeller Zahlen der Form (a1,1, a1,2, a2,1, a2,2) heißt eine reelle 2 × 2-Matrix. Wir notieren eine Matrix A in den Formen
A = = = (aij)1 ≤ i,j ≤ 2 = (aij)i, j.
Die Elemente a11, a12, a21, a22 heißen die Einträge der Matrix A. Weiter heißen a11 und a22 die Diagonaleinträge, (a11, a22) die (Haupt-) Diagonale und a11 + a22 die Spur von A. Ist a12 = a21 = 0, so heißt A eine Diagonalmatrix. Wir setzen
A(i, j) = aij für alle 1 ≤ i, j ≤ 2.
Die Vektoren (a11, a12), (a21, a22) ∈ ℝ2 heißen die Zeilenvektoren von A, die Vektoren (a11, a21), (a12, a22) ∈ ℝ2 die Spaltenvektoren von A. Wir setzen
ℝ2 × 2 = { A | A ist eine reelle 2 × 2-Matrix }.
Konvention: Strichpunkt und Komma
Jedes Paar von Vektoren der Ebene lässt sich als 2 × 2-Matrix auffassen. Sind v, w ∈ ℝ2, so ist A = (v, w) die 2 × 2 Matrix mit den Zeilenvektoren v und w und B = (v; w) die 2 × 2-Matrix mit den Spaltenvektoren v und w.
Definition (Transposition, symmetrisch)
Sei A ∈ ℝ2 × 2. Dann ist die zu A transponierte Matrix At definiert durch
At(i, j) = A(j, i) für alle 1 ≤ i, j ≤ 2.
Gilt A = At, so heißt A symmetrisch.
Definition (Nullmatrix, Einheitsmatrix)
Die Nullmatrix 0 ∈ ℝ2 × 2 und die Einheitsmatrix E2 ∈ ℝ2 × 2 sind definiert durch
0 = ((0, 0); (0, 0)) = , E2 = ((1, 0); (0, 1)) = .
Notation: Kronecker-Delta
Für zwei Indizes i, j ist das Kronecker-Delta δij definiert durch
Die Einheitsmatrix E2 ∈ ℝ2 × 2 lässt sich mit Hilfe des Kronecker-Deltas nun definieren durch E2(i, j) = δij für alle 1 ≤ i, j ≤ 2.
Notation
Für alle d1, d2 ∈ ℝ setzen wir diag(d1, d2) = .
2. Addition und Skalierung von Matrizen
Definition (Addition von Matrizen)
Seien A, B ∈ ℝ2 × 2. Dann setzen wir
A + B = + = .
Die Matrix A + B ∈ ℝ2 × 2 heißt die Summe der Matrizen A und B.
Definition (Subtraktion von Matrizen)
Seien A, B ∈ ℝ2 × 2. Dann setzen wir
− A = ,
A − B = A + (−B).
Die Matrix A − B ∈ ℝ2 × 2 heißt die Differenz der Matrizen A und B.
Definition (Skalierung von Matrizen)
Seien A ∈ ℝ2 × 2 und λ ∈ ℝ. Dann setzen wir
λ A = λ = .
Die Matrix λ A ∈ ℝ2 × 2 heißt das Produkt der Matrix A mit dem Skalar λ.
Satz (Rechenregeln für Matrizen)
Für alle A, B, C ∈ ℝ2 × 2 und λ, μ ∈ ℝ gilt:
(a) | A + (B + C) = (A + B) + C, |
(b) | A + 0 = 0 + A = A, |
(c) | A + (− A) = (− A) + A = 0, |
(d) | A + B = B + A, |
(e) | 1 A = A, − A = (− 1) A, |
(f) | λ (A + B) = λ A + λ B, |
(g) | λ (μ A) = (λ μ) A = μ (λ A). |
3. Das Matrix-Vektor-Produkt
Definition (Matrix-Vektor-Produkt)
Seien A ∈ ℝ2 × 2 und v = (x, y) ∈ ℝ2. Dann setzen wir
A v = A (x, y) = = ∈ ℝ2.
Der Vektor A v ∈ ℝ2 heißt das Matrix-Vektor-Produkt von A mit v.
Matrizen als Abbildungen
Sei A ∈ ℝ2 × 2. Dann können wir das Matrix-Vektor-Produkt als Abbildung von ℝ2 nach ℝ2 auffassen: Jedem v ∈ ℝ2 wird der Vektor
fA(v) = Av ∈ ℝ2
zugeordnet. Wir werden den Sichtweise „Matrizen als Abbildungen“ und die Abbildungen fA : ℝ2 → ℝ2 später genauer untersuchen. Für jetzt genügt es, den funktionalen Zusammenhang zwischen v und Av bei festgehaltener Matrix A wahrzunehmen. So können wir zum Beispiel sagen, dass v auf Av abgebildet wird, oder dass A gewisse Abbildungseigenschaften besitzt.
Satz (Linearität des Matrix-Vektor-Produkts)
Sei A ∈ ℝ2 × 2. Dann gilt für alle v, w ∈ ℝ2 und λ, μ ∈ ℝ:
A(λ v + μ w) = λ A v + μ A w.
Das Matrix-Vektor-Produkt lässt sich durch lineare Gleichungssysteme illustrieren. Ein System
(+) | a x + b y = u1 |
c x + d y = u2 |
können wir mit Hilfe des Produkts notieren als
= = u.
Ist A die Koeffizientenmatrix des Systems, so gilt
L = { v ∈ ℝ2 | A v = u }.
Das System (+) selbst können wir damit sehr kompakt angeben als
A (x, y) = u.(Matrix-Form eines linearen Gleichungssystems)
4. Die Matrizen-Multiplikation
Definition (Produkt zweier Matrizen)
Seien A, B ∈ ℝ2 × 2, und sei B = (b1; b2). Dann setzen wir
A · B = (A b1; A b2).
Die Matrix A · B ∈ ℝ2 × 2 heißt das Produkt der Matrizen A und B. Wir schreiben auch kurz A B statt A · B.
In Langform notiert ergibt sich
A · B | = · |
= . |
Die Berechnung lässt sich kompakt als Zeile mal Spalte zusammenfassen.
Komposition von Gleichungssystemen
Seien A, B ∈ ℝ2 × 2, u ∈ ℝ2. Das kombinierte Gleichungssystem
B (x, y) = (x′, y′), A (x′, y′) = u
wird von (x, y) ∈ ℝ2 genau dann gelöst, wenn
(A B) (x, y) = u.
Satz (Eigenschaften der Matrizenmultiplikation)
Für alle A, B, C ∈ ℝ2 × 2 und alle v = (x, y) ∈ ℝ2 gilt:
(a) | A (B v) = (A B) v, |
(b) | A (B C) = (A B) C,(Assoziativität) |
(c) | A E2 = E2 A = A,(Neutralität von E2) |
(d) | A (B + C) = A B + A C, (A + B) C = A C + B C.(Distributivität) |
Satz (Multiplikationssatz für Determinanten)
Seien A, B ∈ ℝ2 × 2. Dann gilt det(AB) = det(A) det(B).
Definition (Potenzen für Matrizen)
Sei A ∈ ℝ2 × 2. Dann setzen wir:
A0 = E2, A1 = A, A2 = A A, A3 = A2 A, …
5. Matrizen und lineare Abbildungen
Definition (zugeordnete Abbildung)
Sei A ∈ ℝ2 × 2. Dann ist die Abbildung fA : ℝ2 → ℝ2 definiert durch
fA(v) = A v für alle v ∈ ℝ2.
Die Abbildung fA heißt die der Matrix A zugeordnete Abbildung.
Satz (Matrizenmultiplikation als Komposition)
Für alle A, B ∈ ℝ2 × 2 gilt fA B = fA ∘ fB.
Definition (lineare Abbildung)
Eine Abbildung f : ℝ2 → ℝ2 heißt linear, falls für alle v, w ∈ ℝ2 und alle λ, μ ∈ ℝ gilt:
f(λ v + μ w) = λ f (v) + μ f (w).(Linearitätsbedingung)
Alle Abbildungen der Form fA : ℝ2 → ℝ2 sind linear. Der folgende grundlegende Satz besagt, dass es keine weiteren Beispiele gibt:
Satz (Hauptsatz über lineare Abbildungen und Matrizen)
Sei f : ℝ2 → ℝ2 linear. Dann gibt es genau ein A ∈ ℝ2 × 2 mit f = fA.
Beweis
zur Existenz:
Wir setzen A = (f (e1); f (e2)), d. h. die Spalten von A sind die Bilder der kanonischen Basisvektoren e1 und e2 unter f. Dann gilt A e1 = f (e1) und A e2 = f (e2). Folglich gilt für alle v = (x, y) ∈ ℝ2:
fA(v) | = fA(x e1 + y e2) = x fA(e1) + y fA(e2) |
= x f (e1) + y f (e2) = f (x e1 + y e2) = f (v). |
zur Eindeutigkeit:
Seien A, B ∈ ℝ2 × 2 mit fA = f = fB. Dann gilt
A e1 = fA(e1) = fB(e1) = B e1,
sodass die erste Spalte von A mit der ersten Spalte von B übereinstimmt. Anlog zeigt eine Multiplikation mit e2, dass die zweiten Spalten der Matrizen A und B übereinstimmen. Damit gilt A = B.
Wir betrachten zwei wichtige Beispiele.
Projektionsmatrizen
Sei u ∈ ℝ2 mit u ≠ 0. Dann ist die orthogonale Projektion pru : ℝ2 → ℝ2, die einen Vektor v auf pru(v) = 〈 û, v 〉 û abbildet, linear. Wir nehmen zur Vereinfachung der Notation an, dass u normiert ist. Dann gilt
pru(e1) = 〈 u, e1 〉 u = u1 u = (u12, u1u2),
pru(e2) = 〈 u, e2 〉 u = u2 u = (u1u2, u22).
Damit erhalten wir die symmetrische Matrix
Au =
als darstellende Matrix. Matrizen dieser Form heißen Projektionsmatrizen. Wir können diese Matrizen auch anders gewinnen, indem wir schreiben
pru(v) = 〈 u, v 〉 u = (u1 v1 + u2 v2) = .
Eine Projektionsmatrix Au besitzt die Determinante 0. Alle Vektoren der Ebene werden durch Au auf die von u erzeugte Gerade abgebildet.
Rotationsmatrizen
Sei φ ∈ ℝ. Die Abbildung rotφ : ℝ2 → ℝ2, die einen Vektor v ∈ ℝ2 um einen Winkel φ gegen den Uhrzeigersinn dreht, ist linear. Es gilt
f (e1) = (cos φ, sin φ), f (e2) = rotπ/2(f (e1)) = (−sin φ, cos φ).
Für die darstellende Matrix Aφ = Arotφ gilt also
Aφ = .
Durch den Übergang von A zu fA können wir die Determinante einer Matrix A anschaulich interpretieren: In den Spalten von A stehen die Bilder der kanonischen Basisvektoren. Die Basisvektoren e1 und e2 spannen ein Parallelogramm der Fläche 1 auf (ein Quadrat). Ihre Bilder fA(e1) und fA(e2) unter fA spannen ein Parallelogramm der signierten Fläche det(A) auf, wobei wir eine negative Fläche als negative Orientierung der Bildvektoren interpretieren. Damit gilt:
Die Determinante einer Matrix A ist ein Maß für die von der linearen Abbildung fA bewirkte Flächenverzerrung.
Diese Verzerrung kann durch die Skalierung der Basisvektoren, durch die Veränderung des eingeschlossenen rechten Winkels und durch die Umkehr der Orientierung entstehen.