Matrizen

Eine reelle (2 × 2)-Matrix A schreiben wir in den Formen

A  =  ((a, b), (c, d))  =  ((a, c); (b, d))  =  abcd

Bei dieser Konvention gilt also:

Ein Komma trennt die Zeilen und ein Strichpunkt die Spalten.

Die Vektoren (a, b), (c, d) sind die Zeilenvektoren oder kurz Zeilen der Matrix A. Analog sind (a, c), (b, d) die Spaltenvektoren oder kurz Spalten von A. Ist

A  =  (v; w),  B = (v, w)

so hat A die Spaltenvektoren v und w, während B die Zeilenvektoren v und w besitzt.

Ist A = ((a, b), (c, d)), so ist (a, d) die (Haupt-)Diagonale und (b, c) die Gegendiagonale von A. Die Menge aller reellen (2 × 2)-Matrizen bezeichnen wir mit 2 × 2. Weiter definieren wir

det(A)  =  ad − bc(Determinante von A)

spur(A)  =  a + d(Spur von A)

Spezielle Matrizen sind:

0  =  ((0, 0), (0, 0))(Nullmatrix)

E2  =  ((1, 0), (0, 1))(Einheitsmatrix)

diag(d1, d2)  =  ((d1, 0), (0, d2))  für d1, d2  ∈  (Diagonalmatrix)

Matrizen können wir wie Vektoren addieren und mit einem Skalar multiplizieren: Für A = ((a, b), (c, d)), B = ((e, f), (g, h)) und λ  ∈   setzen wir

A  +  B  =  ((a + e, b + f), (c + g, d + h))(Addition)

λ A  =  ((λa, λb), (λc, λd))(Skalarmultiplikation)

Die Transposition

Für eine Matrix A = (v; w) ist

At  =  (v, w)(Transposition, transponierte Matrix)

die Spiegelung von A an der Diagonale. Gilt A = At, so heißt A symmetrisch. Eine symmetrische Matrix hat die Form ((a, b), (b, d)) = ((a, b); (b, d)).

Das Matrix-Vektor-Produkt

Für eine Matrix A  ∈  2 × 2 und einen Vektor v  ∈  2 ist das Matrix-Vektor-Produkt (gemäß „Zeile mal Spalte“) definiert durch

A v  =  abcd xy =  ax+bycx+dy  ∈  2 × 2

Für die kanonischen Basisvektoren e1 = (1, 0) und e2 = (0, 1) gilt:

A e1  =  (a, c),  A e2  =  (b, d)(Spaltenextraktion)

Matrizen als lineare Abbildungen

Eine Abbildung f : 2  2 heißt linear, falls

f(λv + μw)  =  λ f (v)  +  μ f (w)  für alle v, w  ∈  2, λ, μ  ∈  

Durch das Matrix-Vektor-Produkt können wir A als Abbildung von 2 nach 2 auffassen und entsprechend A : 2  2 schreiben. Die Abbildung ist linear, da

A (λv + μw)  =  λ A(v)  +  μ B(w)  für alle v, w  ∈  2, λ, μ  ∈  

Ist umgekehrt f : 2  2 linear und A = (f (e1); f (e2)), so gilt für alle v = (x, y)

A v  =  A(x e1 + y e2)  =  x A e1 + y A e2  =  x f (e1) + y f (e2)  =  f (x e1 + ye2)  =  f (v),

sodass A (als Abbildung) identisch mit f ist. Die Matrix A heißt die darstellende Matrix von f (bzgl. e1, e2). Um A zu berechnen, schreiben wir einfach die Bilder f (e1) und f (e2) der Basisvektoren e1 und e2 als Spalten in eine Matrix.

 Zusammenfassend gilt:

Die linearen Abbildungen sind genau die Matrizen

Die Situation ist vergleichbar mit dem eindimensionalen Fall: Jede Steigung a definiert eine Gerade g :    durch g(x) = a x für alle x  ∈  . Ist umgekehrt g :    eine Gerade durch 0, so ist a = g(1) ihre Steigung.

Für jede Matrix A und jede Punktmenge P ⊆ 2 setzen wir:

A[ P ]  =  { Av | v  ∈  P }(Bild von P unter A)

A−1[ P ]  =  { v | Av  ∈  P }(Urbild von P unter A)

Das Matrizenprodukt

Das Produkt zweier Matrizen A, B  ∈  2 × 2 ist definiert durch

A B  =  abcdefgh =  ae+bgaf+bhce+dgcf+dh  ∈  2 × 2

Ist B = (v; w) mit v, w  ∈  2, so gilt

A B  =  A (v; w)  =  (A v; A w)(Spaltenanwendung von links)

Für alle A, B gilt die sehr bedeutsame Regel

(A B)t  =  Bt At(Transpositionsregel)

mit Vertauschung der Reihenfolge. Ist A = (v, w), so gilt

(v, w) B  =  (Bt (v; w))t  =  (Bt v; Bt w)t  =  (Bt v, Bt w)(Zeilenanwendung von rechts)

Die Transposition taucht auch im Zusammenspiel mit dem Skalarprodukt auf. Für alle A, v, w gilt:

〈 v, A w 〉  =  〈 At v, w 〉,  〈 A v, w 〉  =  〈 v, At w 〉(Verschiebungsregel)

Invertierbare Matrizen

Sei A  ∈  2 × 2. Im Fall der Existenz heißt die eindeutige Matrix A−1 mit

A A−1  =  E2  =  A−1 A

das Inverse von A, und A selbst heißt dann invertierbar. Ist A invertierbar, so auch At. Wir setzen A−t = (At)−1. Es gilt A−t = (At)−1 = (A−1)t, sodass die Notation zu keinen Fehlern führt. Eine Matrix A ist genau dann invertierbar, wenn det(A) ≠ 0. In diesem Fall gilt für A = ((a, b), (c, d)), dass

A−1  =  1det(A) dbca(Invertierungsformel)

Normformeln für Matrizen

Für jede Matrix A und jeden Vektor v gelten die folgenden sehr nützlichen Normformeln, die sich durch Ausrechnen beweisen lassen:

∥ Av ∥2  =  〈 Av, Av 〉  =  〈 v, AtAv 〉  =  (a2 + c2)x2  +  2(ab + cd)xy  +  (b2 + d2)y2

∥ A−1v ∥2  =  〈 v, A−tA−1v 〉  =  1det(A)2 ((c2 + d2)x2  −  2(ac + bd)xy  +  (a2 + b2)y2)

In der zweiten Formel setzen wir die Invertierbarkeit der Matrix A voraus, sodass det(A) ≠ 0).

Eigenwerte und Eigenvektoren

Gilt A v = λ v für einen Vektor v ≠ 0 und ein λ  ∈  , so heißt λ ein Eigenwert und v ein zugehöriger Eigenvektor von A. Weiter heißt { v  ∈  2 | A v = λ v } der Eigenraum des Eigenwerts λ von A. Gilt Av = λ v und Aw = μw für nicht kollineare Vektoren v, w, so verhält sich A bzgl. v, w wie die Diagonalmatrix diag(λ, μ) bzgl. e1, e2. Im durch v, w definierten Koordinatensystem ist A einfach eine Skalierung entlang der Achsen.

Rotationen und Spiegelungen

Für alle φ  ∈   sind die Rotationsmatrix rotφ und die Spiegelungsmatrix mirφ definiert durch

rotφ  =  cosφsinφsinφcosφ,  mirφ  =  cosφsinφsinφcosφ

Für alle v  ∈  2 ist rotφ v die Rotation von v um den Winkel φ (gegen den Uhrzeigersinn) und mirφ v die Spiegelung von v an der Geraden G durch 0 mit dem Winkel φ/2 zur positiven x-Achse. Die Matrizen lassen sich durch die Regel

Die Spalten sind die Bilder der Basisvektoren

leicht angeben:

e1 wird bei Rotation um φ zu v1 = (cos φ, sin φ)

e2 wird bei Rotation um φ zu v2 = rotπ/2(v1) = (− sin φ, cos φ)

e1 wird bei Spiegelung an Gφ/2 zu w1 = rotφ e1 = (cos φ, sin φ)

e2 wird bei Spiegelung an Gφ/2 zu w2 = rot−π/2(v1) = (sin φ, −cos φ)

ellipsen1-AbbIDbasics_rotmat_1

Die Bilder der Basisvektoren e1, e2 unter der Rotation rotφ mit φ = 5π/8

ellipsen1-AbbIDbasics_mirmat_1

Die Bilder der Basisvektoren e1, e2 unter der Spiegelung mirφ mit φ = 5π/8. Es gilt

mirφ e1  =  rotφ e1,  mirφ e2  =  − rotφ e2

Eine Rotationsmatrix hat nur dann reelle Eigenwerte, wenn φ ein Vielfaches von π ist. Eine Spiegelungsmatrix ist symmetrisch und hat die Spur 0. Ihre Eigenwerte sind 1 und −1. Die Spiegelungsgerade ist der Eigenraum zum Eigenwert 1, die dazu orthogonale Gerade der Eigenraum zum Eigenwert −1.

Orthogonale Matrizen

Eine Matrix A heißt orthogonal, falls die Spalten von A orthogonal und zudem normiert sind („orthonormal“ wäre eine konsequentere Bezeichnung, die leider nicht üblich ist).

Die Matrizen rotφ und mirφ sind orthogonal. Umgekehrt ist jede orthogonale (2 × 2)-Matrix eine Rotation oder eine Spiegelung. Denn ist A = (v; w) orthogonal, so gibt es wegen ∥v∥ = 1 ein φ mit

v1  =  (cos φ,  sin φ)

Wegen ∥w∥ = 1 und 〈 v, w 〉 = 0 gilt

w  =  rotπ/2(v)  oder  w  =  rot−π/2(v)

Im ersten Fall gilt A = rotφ, im zweiten A = mirφ. Rotationen haben die Determinante 1, Spiegelungen die Determinante −1. In der Ebene lassen sich orthogonale Matrizen also leicht identifizieren. Wir fassen zusammen:

Die orthogonalen Matrizen der Ebene sind genau die Rotationen und Spiegelungen.

Die Determinante ±1 entscheidet den Typ.

Wir betrachten nun noch einige Abschwächungen der Orthogonalität.

Winkeltreue Matrizen

Eine invertierbare Matrix A heißt winkeltreu, falls

(v, w)  =  ∡(Av, Aw)  für alle v, w ≠ 0

Die winkeltreuen Matrizen sind genau die Matrizen der Form r rotφ und r mirφ mit r > 0. Wir geben einen Beweis hierzu in den Anhängen.

Orthogonale Zeilen und Spalten

Eine weitere und für unsere Untersuchungen von Ellipsen sehr wichtige Abschwächung der Orthogonalität erhalten wir, wenn wir invertierbare Matrizen betrachten, deren Zeilen oder Spalten orthogonal sind. Hat eine invertierbare Matrix A = (v, w) orthogonale Zeilen, so gilt

A  =  (λ v̂, μ ŵ)  =  diag(λ, μ) (v̂, ŵ)

mit den Zeilenlängen λ = ∥v∥, μ = ∥w∥ und einer orthogonalen Matrix (v̂, ŵ). Folglich gibt es ein φ mit

A  =  diag(λ, μ) rotφ  oder  A  =  diag(λ, μ) mirφ

Das Vorzeichen von det(A) entscheidet den Typ. Analog gilt

A  =  rotφ diag(λ, μ)  oder  A  =  mirφ diag(λ, μ),

falls A = (v; w) orthogonale Spalten v und w der Längen λ bzw. μ besitzt.

Bilder von Mengen unter Matrizen und ihre Gleichungen

Sei M eine durch eine Gleichung t(x, y) = 0 mit einem Term t(x, y) in den Variablen x und y definierte Teilmenge der Ebene 2, sodass

M  =  { (x, y)  ∈  2 | t(x, y)  =  0 }

Ist nun A = ((a, b), (c, d))  ∈  2 × 2 invertierbar, so gilt

A[ M ] =  { A (x, y) | (x, y)  ∈  M }
=  { (x, y) | A−1(x, y)  ∈  M }
=  { (x, y) | t(A−1(x, y)) = 0 }
=  { (x, y) | t(det(A)−1(d x − b y), det(A)−1(a y − c x))  =  0 }

Wir erhalten also eine definierende Gleichung

t′(x, y)  =  0

für A[ M ], indem wir in der Gleichung t(x, y) = 0 jedes x durch die erste und jedes y durch die zweite Koordinate von A−1(x, y) ersetzen. Durch die Invertierungsformel für A−1 können wir die Gleichung explizit angeben.

Der Vorgang lässt sich auch als Variablen-Substitution notieren. Wir setzen

(x′, y′)  =  A (x, y),  (x, y)  =  A−1(x′, y′),  sodass

x′  =  a x  +  b y y′  =  c x  +  d y
x  =  det(A)−1 (d x′  −  b y′) y  =  det(A)−1 (a y′ − c x′)

Ersetzen wir nun in t(x, y) = 0 die Variablen x und y durch die rechten Seiten der zweiten Zeile der Tabelle, so erhalten wir eine definierende Gleichung der Form t′(x′, y′) = 0 in x′, y′ für A[ M ]. Wenn wir möchten können wir zu den alten Namen x und y der Variablen übergehen und mit der Gleichung t′(x, y) = 0 für A[ M ] arbeiten.

Beispiele

(1)

Sei G = { (x, y) | 2x + 3y = 0 } (G ist die Ursprungsgerade mit der Steigung −2/3). Für

A  =  1213  mit  det(A)  =  1,  A−1  =  3211

wird die definierende Gleichung 2x + 3y = 0 von G zur definierenden Gleichung

2(3 x − 2 y)  +  3(1 y − 1 x)  =  0

von A[ G ]. Ausrechnen liefert die äquivalente Form

3 x  −  y  =  0

(2)

Sei K = { (x, y) | x2 + y2 = 1 } (Einheitskreis). Für die Matrix A wie in Beispiel (1) definiert die Gleichung

(3x − 2y)2  +  (1 y − 1 x)2  =  1

das Bild A[ K ] des Einheitskreises unter A. Ausrechnen ergibt die äquivalente Form

10 x2  −  14 x y  +  5 y2  =  1