Matrizen
Eine reelle (2 × 2)-Matrix A schreiben wir in den Formen
A = ((a, b), (c, d)) = ((a, c); (b, d)) =
Bei dieser Konvention gilt also:
Ein Komma trennt die Zeilen und ein Strichpunkt die Spalten.
Die Vektoren (a, b), (c, d) sind die Zeilenvektoren oder kurz Zeilen der Matrix A. Analog sind (a, c), (b, d) die Spaltenvektoren oder kurz Spalten von A. Ist
A = (v; w), B = (v, w)
so hat A die Spaltenvektoren v und w, während B die Zeilenvektoren v und w besitzt.
Ist A = ((a, b), (c, d)), so ist (a, d) die (Haupt-)Diagonale und (b, c) die Gegendiagonale von A. Die Menge aller reellen (2 × 2)-Matrizen bezeichnen wir mit ℝ2 × 2. Weiter definieren wir
det(A) = ad − bc(Determinante von A)
spur(A) = a + d(Spur von A)
Spezielle Matrizen sind:
0 = ((0, 0), (0, 0))(Nullmatrix)
E2 = ((1, 0), (0, 1))(Einheitsmatrix)
diag(d1, d2) = ((d1, 0), (0, d2)) für d1, d2 ∈ ℝ(Diagonalmatrix)
Matrizen können wir wie Vektoren addieren und mit einem Skalar multiplizieren: Für A = ((a, b), (c, d)), B = ((e, f), (g, h)) und λ ∈ ℝ setzen wir
A + B = ((a + e, b + f), (c + g, d + h))(Addition)
λ A = ((λa, λb), (λc, λd))(Skalarmultiplikation)
Die Transposition
Für eine Matrix A = (v; w) ist
At = (v, w)(Transposition, transponierte Matrix)
die Spiegelung von A an der Diagonale. Gilt A = At, so heißt A symmetrisch. Eine symmetrische Matrix hat die Form ((a, b), (b, d)) = ((a, b); (b, d)).
Das Matrix-Vektor-Produkt
Für eine Matrix A ∈ ℝ2 × 2 und einen Vektor v ∈ ℝ2 ist das Matrix-Vektor-Produkt (gemäß „Zeile mal Spalte“) definiert durch
A v = = ∈ ℝ2 × 2
Für die kanonischen Basisvektoren e1 = (1, 0) und e2 = (0, 1) gilt:
A e1 = (a, c), A e2 = (b, d)(Spaltenextraktion)
Matrizen als lineare Abbildungen
Eine Abbildung f : ℝ2 → ℝ2 heißt linear, falls
f(λv + μw) = λ f (v) + μ f (w) für alle v, w ∈ ℝ2, λ, μ ∈ ℝ
Durch das Matrix-Vektor-Produkt können wir A als Abbildung von ℝ2 nach ℝ2 auffassen und entsprechend A : ℝ2 → ℝ2 schreiben. Die Abbildung ist linear, da
A (λv + μw) = λ A(v) + μ B(w) für alle v, w ∈ ℝ2, λ, μ ∈ ℝ
Ist umgekehrt f : ℝ2 → ℝ2 linear und A = (f (e1); f (e2)), so gilt für alle v = (x, y)
A v = A(x e1 + y e2) = x A e1 + y A e2 = x f (e1) + y f (e2) = f (x e1 + ye2) = f (v),
sodass A (als Abbildung) identisch mit f ist. Die Matrix A heißt die darstellende Matrix von f (bzgl. e1, e2). Um A zu berechnen, schreiben wir einfach die Bilder f (e1) und f (e2) der Basisvektoren e1 und e2 als Spalten in eine Matrix.
Zusammenfassend gilt:
Die linearen Abbildungen sind genau die Matrizen
Die Situation ist vergleichbar mit dem eindimensionalen Fall: Jede Steigung a definiert eine Gerade g : ℝ → ℝ durch g(x) = a x für alle x ∈ ℝ. Ist umgekehrt g : ℝ → ℝ eine Gerade durch 0, so ist a = g(1) ihre Steigung.
Für jede Matrix A und jede Punktmenge P ⊆ ℝ2 setzen wir:
A[ P ] = { Av | v ∈ P }(Bild von P unter A)
A−1[ P ] = { v | Av ∈ P }(Urbild von P unter A)
Das Matrizenprodukt
Das Produkt zweier Matrizen A, B ∈ ℝ2 × 2 ist definiert durch
A B = = ∈ ℝ2 × 2
Ist B = (v; w) mit v, w ∈ ℝ2, so gilt
A B = A (v; w) = (A v; A w)(Spaltenanwendung von links)
Für alle A, B gilt die sehr bedeutsame Regel
(A B)t = Bt At(Transpositionsregel)
mit Vertauschung der Reihenfolge. Ist A = (v, w), so gilt
(v, w) B = (Bt (v; w))t = (Bt v; Bt w)t = (Bt v, Bt w)(Zeilenanwendung von rechts)
Die Transposition taucht auch im Zusammenspiel mit dem Skalarprodukt auf. Für alle A, v, w gilt:
〈 v, A w 〉 = 〈 At v, w 〉, 〈 A v, w 〉 = 〈 v, At w 〉(Verschiebungsregel)
Invertierbare Matrizen
Sei A ∈ ℝ2 × 2. Im Fall der Existenz heißt die eindeutige Matrix A−1 mit
A A−1 = E2 = A−1 A
das Inverse von A, und A selbst heißt dann invertierbar. Ist A invertierbar, so auch At. Wir setzen A−t = (At)−1. Es gilt A−t = (At)−1 = (A−1)t, sodass die Notation zu keinen Fehlern führt. Eine Matrix A ist genau dann invertierbar, wenn det(A) ≠ 0. In diesem Fall gilt für A = ((a, b), (c, d)), dass
A−1 = 1det(A) (Invertierungsformel)
Normformeln für Matrizen
Für jede Matrix A und jeden Vektor v gelten die folgenden sehr nützlichen Normformeln, die sich durch Ausrechnen beweisen lassen:
∥ Av ∥2 = 〈 Av, Av 〉 = 〈 v, AtAv 〉 = (a2 + c2)x2 + 2(ab + cd)xy + (b2 + d2)y2
∥ A−1v ∥2 = 〈 v, A−tA−1v 〉 = 1det(A)2 ((c2 + d2)x2 − 2(ac + bd)xy + (a2 + b2)y2)
In der zweiten Formel setzen wir die Invertierbarkeit der Matrix A voraus, sodass det(A) ≠ 0).
Eigenwerte und Eigenvektoren
Gilt A v = λ v für einen Vektor v ≠ 0 und ein λ ∈ ℝ, so heißt λ ein Eigenwert und v ein zugehöriger Eigenvektor von A. Weiter heißt { v ∈ ℝ2 | A v = λ v } der Eigenraum des Eigenwerts λ von A. Gilt Av = λ v und Aw = μw für nicht kollineare Vektoren v, w, so verhält sich A bzgl. v, w wie die Diagonalmatrix diag(λ, μ) bzgl. e1, e2. Im durch v, w definierten Koordinatensystem ist A einfach eine Skalierung entlang der Achsen.
Rotationen und Spiegelungen
Für alle φ ∈ ℝ sind die Rotationsmatrix rotφ und die Spiegelungsmatrix mirφ definiert durch
rotφ = , mirφ =
Für alle v ∈ ℝ2 ist rotφ v die Rotation von v um den Winkel φ (gegen den Uhrzeigersinn) und mirφ v die Spiegelung von v an der Geraden G durch 0 mit dem Winkel φ/2 zur positiven x-Achse. Die Matrizen lassen sich durch die Regel
Die Spalten sind die Bilder der Basisvektoren
leicht angeben:
e1 wird bei Rotation um φ zu v1 = (cos φ, sin φ)
e2 wird bei Rotation um φ zu v2 = rotπ/2(v1) = (− sin φ, cos φ)
e1 wird bei Spiegelung an Gφ/2 zu w1 = rotφ e1 = (cos φ, sin φ)
e2 wird bei Spiegelung an Gφ/2 zu w2 = rot−π/2(v1) = (sin φ, −cos φ)
Die Bilder der Basisvektoren e1, e2 unter der Rotation rotφ mit φ = 5π/8
Die Bilder der Basisvektoren e1, e2 unter der Spiegelung mirφ mit φ = 5π/8. Es gilt
mirφ e1 = rotφ e1, mirφ e2 = − rotφ e2
Eine Rotationsmatrix hat nur dann reelle Eigenwerte, wenn φ ein Vielfaches von π ist. Eine Spiegelungsmatrix ist symmetrisch und hat die Spur 0. Ihre Eigenwerte sind 1 und −1. Die Spiegelungsgerade ist der Eigenraum zum Eigenwert 1, die dazu orthogonale Gerade der Eigenraum zum Eigenwert −1.
Orthogonale Matrizen
Eine Matrix A heißt orthogonal, falls die Spalten von A orthogonal und zudem normiert sind („orthonormal“ wäre eine konsequentere Bezeichnung, die leider nicht üblich ist).
Die Matrizen rotφ und mirφ sind orthogonal. Umgekehrt ist jede orthogonale (2 × 2)-Matrix eine Rotation oder eine Spiegelung. Denn ist A = (v; w) orthogonal, so gibt es wegen ∥v∥ = 1 ein φ mit
v1 = (cos φ, sin φ)
Wegen ∥w∥ = 1 und 〈 v, w 〉 = 0 gilt
w = rotπ/2(v) oder w = rot−π/2(v)
Im ersten Fall gilt A = rotφ, im zweiten A = mirφ. Rotationen haben die Determinante 1, Spiegelungen die Determinante −1. In der Ebene lassen sich orthogonale Matrizen also leicht identifizieren. Wir fassen zusammen:
Die orthogonalen Matrizen der Ebene sind genau die Rotationen und Spiegelungen.
Die Determinante ±1 entscheidet den Typ.
Wir betrachten nun noch einige Abschwächungen der Orthogonalität.
Winkeltreue Matrizen
Eine invertierbare Matrix A heißt winkeltreu, falls
∡(v, w) = ∡(Av, Aw) für alle v, w ≠ 0
Die winkeltreuen Matrizen sind genau die Matrizen der Form r rotφ und r mirφ mit r > 0. Wir geben einen Beweis hierzu in den Anhängen.
Orthogonale Zeilen und Spalten
Eine weitere und für unsere Untersuchungen von Ellipsen sehr wichtige Abschwächung der Orthogonalität erhalten wir, wenn wir invertierbare Matrizen betrachten, deren Zeilen oder Spalten orthogonal sind. Hat eine invertierbare Matrix A = (v, w) orthogonale Zeilen, so gilt
A = (λ v̂, μ ŵ) = diag(λ, μ) (v̂, ŵ)
mit den Zeilenlängen λ = ∥v∥, μ = ∥w∥ und einer orthogonalen Matrix (v̂, ŵ). Folglich gibt es ein φ mit
A = diag(λ, μ) rotφ oder A = diag(λ, μ) mirφ
Das Vorzeichen von det(A) entscheidet den Typ. Analog gilt
A = rotφ diag(λ, μ) oder A = mirφ diag(λ, μ),
falls A = (v; w) orthogonale Spalten v und w der Längen λ bzw. μ besitzt.
Bilder von Mengen unter Matrizen und ihre Gleichungen
Sei M eine durch eine Gleichung t(x, y) = 0 mit einem Term t(x, y) in den Variablen x und y definierte Teilmenge der Ebene ℝ2, sodass
M = { (x, y) ∈ ℝ2 | t(x, y) = 0 }
Ist nun A = ((a, b), (c, d)) ∈ ℝ2 × 2 invertierbar, so gilt
A[ M ] | = { A (x, y) | (x, y) ∈ M } |
= { (x, y) | A−1(x, y) ∈ M } | |
= { (x, y) | t(A−1(x, y)) = 0 } | |
= { (x, y) | t(det(A)−1(d x − b y), det(A)−1(a y − c x)) = 0 } |
Wir erhalten also eine definierende Gleichung
t′(x, y) = 0
für A[ M ], indem wir in der Gleichung t(x, y) = 0 jedes x durch die erste und jedes y durch die zweite Koordinate von A−1(x, y) ersetzen. Durch die Invertierungsformel für A−1 können wir die Gleichung explizit angeben.
Der Vorgang lässt sich auch als Variablen-Substitution notieren. Wir setzen
(x′, y′) = A (x, y), (x, y) = A−1(x′, y′), sodass
x′ = a x + b y | y′ = c x + d y |
x = det(A)−1 (d x′ − b y′) | y = det(A)−1 (a y′ − c x′) |
Ersetzen wir nun in t(x, y) = 0 die Variablen x und y durch die rechten Seiten der zweiten Zeile der Tabelle, so erhalten wir eine definierende Gleichung der Form t′(x′, y′) = 0 in x′, y′ für A[ M ]. Wenn wir möchten können wir zu den alten Namen x und y der Variablen übergehen und mit der Gleichung t′(x, y) = 0 für A[ M ] arbeiten.
Beispiele
(1) | Sei G = { (x, y) | 2x + 3y = 0 } (G ist die Ursprungsgerade mit der Steigung −2/3). Für A = mit det(A) = 1, A−1 = wird die definierende Gleichung 2x + 3y = 0 von G zur definierenden Gleichung 2(3 x − 2 y) + 3(1 y − 1 x) = 0 von A[ G ]. Ausrechnen liefert die äquivalente Form 3 x − y = 0 |
(2) | Sei K = { (x, y) | x2 + y2 = 1 } (Einheitskreis). Für die Matrix A wie in Beispiel (1) definiert die Gleichung (3x − 2y)2 + (1 y − 1 x)2 = 1 das Bild A[ K ] des Einheitskreises unter A. Ausrechnen ergibt die äquivalente Form 10 x2 − 14 x y + 5 y2 = 1 |