5. Abschnitt: Matrizen und lineare Gleichungssysteme
Grundlagen
Form einer m × n-Matrix (mit Einträgen aij ∈ ℝ oder aij ∈ ℂ):
A = = (aij)1 ≤ i ≤ m, 1 ≤ j ≤ n = (ai j)i,j.
Der erste Index gibt die Zeile an, der zweite die Spalte. Notation:
A = (v1, …, vm) hat die Zeilenvektoren v1, …, vn ∈ ℝn
A = (w1; …; wn) hat die Spaltenvektoren w1, …, wn ∈ ℝm.
Spezielle Matrizen
Nullmatrix | aij = 0 für alle i,j |
Diagonalmatrix | aij = 0 für alle i ≠ j |
Einheitsmatrix | aii = 1 für alle i, aij = 0 für alle i ≠ j |
untere Dreiecksmatrix | aij = 0 für alle i > j |
obere Dreiecksmatrix | aij = 0 für alle i < j |
symmetrische Matrix | aij = aji für alle i,j |
quadratische Matrix | n = m |
Matrizen als Vektoren
A + B = (aij + bij)i,j(Addition)
λA = (λ aij)i,j(Skalarmultiplikation)
Matrix-Vektor-Produkt
A v = =
Matrizen-Produkt
Für A ∈ ℝm × r, B ∈ ℝr × n mit B = (b1; …; bn):
A B = A · B = (Ab1; Ab2; … ; Abn) ∈ ℝm × n.
Ist C = A B, so gilt
cij = ai1 b1j + … + air brj = ∑1 ≤ k ≤ r aik bk j für alle i, j
Matrizen und lineare Abbildungen
Eine Abbildung f : ℝn → ℝm heißt linear, falls gilt:
f(λ v + μ w) = λ f (v) + μ f (w) für alle v, w ∈ ℝn, λ, μ ∈ ℝ.
Für alle v ∈ ℝn gilt dann
f (v) = f (v1 e1 + … + vn en) = v1 f (e1) + … + vn f (en)
Eine lineare Abbildung ist damit durch ihre Werte für die Basisvektoren e1, …, en eindeutig bestimmt.
Die linearen Abbildungen sind im folgenden Sinne genau die Matrizen:
Matrix als lineare Abbildung
Ist A ∈ ℝm × n, so definiert das Matrix-Vektor-Produkt Av eine lineare Abbildung des ℝn in den ℝm. Wir schreiben entsprechend A : ℝn → ℝm.
Lineare Abbildung als Matrix
Ist f : ℝn → ℝm und A = (f (e1); …; f (en)) ∈ ℝm × n, so gilt f (v) = A v für alle v ∈ ℝn. Die Matrix A stellt f bzgl. der Basis e1, …, en dar: Aufgefasst als Abbildung ist A gleich f. Die Bildung von A wird beschrieben durch:
„Die Spalten von A sind die Bilder der kanonischen Basisvektoren unter f.“
Die Matrizen-Multiplikation entspricht der Komposition: Werden f : ℝn → ℝr und g : ℝr → ℝm durch A bzw. B dargestellt, so ist B A die darstellende Matrix der Verknüpfung g ∘ f.
Wichtige 2 × 2-Matrizen
Rotations-Matrix zum Winkel φ ∈ ℝ
Projektions-Matrix zum normierten Vektor u ∈ ℝ2
Invertierbarkeit
Eine quadratische Matrix A ∈ ℝn × n heißt invertierbar, wenn es eine quadratische Matrix B gibt mit A B = En = BA. Die Matrix B heißt dann invers zu A. Ist A nicht invertierbar, so heißt A singulär.
Ist A invertierbar, so wird das (eindeutig bestimmte) Inverse von A mit A−1 bezeichnet. Für invertierbare Matrizen gelten die Rechenregeln:
(A−1)−1 = A, (AB)−1 = B−1 A−1
Invertierbarkeitskriterien
Sei A ∈ ℝn × n. Dann sind äquivalent:
(a) | A ist invertierbar. |
(b) | A : ℝn → ℝn ist injektiv. |
(c) | A : ℝn → ℝn ist surjektiv. |
(d) | Die Zeilenvektoren von A sind linear unabhängig. |
(e) | Die Spaltenvektoren von A sind linear unabhängig. |
(f) | Die Zeilenvektoren von A sind erzeugend. |
(g) | Die Spaltenvektoren von A sind erzeugend. |
(h) | det(A) ≠ 0 (mit der Determinante det(A) von A, siehe unten) |
Invertierungsverfahren
Wir verwenden die Zeilenoperationen
(Z1) Multiplikation einer Zeile mit einem Skalar λ.
(Z2) Addition des λ-Fachen einer Zeile zu einer anderen Zeile.
Mit Hilfe dieser Operationen versuchen wir, eine Matrix A in die Einheitsmatrix En zu überführen (durch „Ausräumen“ unterhalb und oberhalb der Diagonale. Parallel führen wir die Operationen mit En durch. Gelingt dies, so ist A invertierbar und das Ergebnis der parallelen Durchführung ist A−1 (kurz: A wird in En überführt, En in A−1). Erzeugen wir eine Nullzeile oder Nullspalte, so ist A singulär.
Elementar-Matrizen
Die Zeilenoperationen lassen sich durch Linksmultiplikation mit sog. Elementar-Matrizen beschreiben. Im invertierbaren Fall liefert das Verfahren eine Darstellung
Lk … L1 A = En, A−1 = Lk … L1 = Lk … L1 En
mit Elementar-Matrizen Li.
Lineare Gleichungssysteme
Ein lineares Gleichungssystem mit m Gleichungen, n reellen Unbekannten, reellen Koeffizienten aij ∈ ℝ und rechter Seite b = (b1, …, bm) ∈ ℝm hat die Form
a11 x1 + … + a1n xn = b1(erste Gleichung)
a21 x1 + … + a2n xn = b2(zweite Gleichung)
…
am1 x1 + … + amn xn = bm(m-te Gleichung)
Die Lösungsmenge L des Systems besteht aus den Vektoren x = (x1, …, xn) ∈ ℝn, die alle Gleichungen erfüllen. Wir notieren das System in der Form
Ax = b mit A ∈ ℝm × n, x = (x1, …, xn), b = (b1, …, bm)
Es gilt dann
L = { x ∈ ℝn | Ax = b } = „das Urbild von b unter der linearen Abbildung A“.
Das System ist genau dann lösbar, wenn die rechte Seite b im Spann der Spaltenvektoren von A liegt. Ist b = 0, so heißt das System homogen. Ein homogenes System ist immer lösbar durch den Nullvektor.
Eindeutig lösbare quadratische Systeme
Ein System Ax = b mit A ∈ ℝn × n ist genau dann eindeutig lösbar, wenn A invertierbar ist. In diesem Fall ist A−1b die eindeutige Lösung des Systems (Lösen durch Invertierung). Für alle x ∈ ℝn gilt:
A x = b genau dann, wenn x = A−1b
Allgemeine Struktur der Lösungsmenge
Die Lösungsmenge L von Ax = b mit A ∈ ℝm × n ist ein affiner Unterraum des ℝn. Genauer gilt: Ist v* eine beliebige Lösung und L0 ⊆ ℝn die Lösungsmenge des zugeordneten homogenen Systems Ax = 0, so gilt:
L = v* + L0(spezielle Lösung + homogene Lösung)
Berechnung der Lösungsmenge
Mit Hilfe des Gauß-Jordan-Verfahrens lässt sich ein System effektiv auf Lösbarkeit überprüfen und im positiven Fall die Lösungsmenge in der Form
L = v* + span(u1, …, uk)
berechnen, mit linear unabhängigen Lösungen u1, …, uk des homogenen Systems A x = 0.
Determinanten
Dimension 2
det(A) = v1 w2 − v2 w1 für A = (v; w) ∈ ℝ2 × 2
Die reelle Zahl det(A) ist der signierte Flächeninhalt des von v und w aufgespannten Parallelogramms. Das Vorzeichen entspricht der Orientierung von (v, w). Ist det(A) ≠ 0, so gilt
A−1 = 1det(A) (Invertierungsformel für 2 × 2-Matrizen)
Dimension 3
det(A) = 〈 v × w, u 〉 für A = (v; w; u) ∈ ℝ3 × 3
Die reelle Zahl det(A) ist das signierte Volumen des von v und w aufgespannten Spats. Das Vorzeichen ist positiv (negativ), wenn (u, v, w) ein Rechtssystem (Linkssystem) bildet.
Allgemeine Dimension
det(A) = ∑σ ∈ Sn sgn(σ) aσ(1), 1 … aσ(n), n(Leibniz-Formel)
Dabei ist Sn die Menge der Permutationen von { 1, …, n } und sgn(σ) = (−1)k, mit der Anzahl k = |{ (i, j) | i < j, σ(i) > σ(j) }| der Fehlstände der Permutation σ.
Die Zahl det(A) lässt sich als das signierte Volumen des von den Spaltenvektoren von A erzeugten n-dimensionalen Parallelotops interpretieren.
Axiomatische Charakterisierung
Die Determinanten-Funktion det : ℝn × n → ℝ (und keine andere derartige Funktion) besitzt die folgenden Eigenschaften:
(1) | Es gilt det(En) = 1. |
(2) | Hat A zwei gleiche Spalten, so gilt det(A) = 0. |
(3) | Die Funktion det ist linear in jeder Spalte. |
Wichtige Eigenschaften
(1) | det(A) ≠ 0 genau dann, wenn A ist invertierbar. |
(2) | det(AB) = det(A) det(B) (Multiplikationssatz) |
(3) | det(At) = det(A) (Transpositionssatz) |
Effektive Berechnung
Wir überführen A durch Zeilenadditionen (Typ (Z2)) in eine obere Dreiecksmatrix. Das Produkt der Diagonaleinträge ist gleich det(A).
Eigenwerte und Eigenvektoren
Seien A ∈ ℝn × n, λ ∈ ℝ und v ∈ ℝn − { 0 }. Gilt
Av = λ v
so heißt v ein Eigenvektor von A zum Eigenwert λ. Wir setzen
σ(A) = { λ ∈ ℝ | λ ist ein Eigenwert von A } (Spektrum)
Eig(A, λ) = { v ∈ ℝn | (Av − λEn) v = 0 }(Eigenraum)
Das charakteristische Polynom
Das charakteristische Polynom pA : ℝ → ℝ von A ist definiert durch
pA(λ) = det(A − λEn) für alle λ ∈ ℝ
Die Nullstellen von pA entsprechen genau den Eigenwerten von A. Ist λ ein Eigenwert, so kann der Eigenraum mit Hilfe des Gauß-Jordan-Verfahrens durch Lösen des homogenen Systems (A − λEn)v = 0 berechnet werden. Die Dimension von Eig(λ, A) heißt die geometrische Vielfachheit von λ. Sie ist kleinergleich der algebraischen Vielfachheit von λ (Vielfachheit der Nullstelle von pA).
Dimension 2
pA(λ) = λ2 − spur(A) λ + det(A)
Die Eigenwerte können mit der Lösungsformel für quadratische Gleichungen berechnet werden.
Dimension 3
pA(λ) = −λ3 + spur(A) λ2 − (det(A′11) + det(A′22) + det(A′33)) λ + det(A)
Dabei ist A′ii die (2 × 2)-Matrix, die aus A durch Streichen der i-ten Zeile und Spalte hervorgeht.
Diagonalisierbarkeit
Eine Matrix A ∈ ℝn × n heißt diagonalisierbar, wenn es eine aus Eigenvektoren von A bestehende Basis (v1, …, vn) des ℝn gibt. Dies ist genau dann der Fall, wenn pA in Linearfaktoren zerfällt und alle geometrischen und algebraischen Vielfachheiten übereinstimmen.
Der Spektralsatz
Sei A ∈ ℝn × n. Dann sind äquivalent:
(a) | A ist symmetrisch. |
(b) | Es gibt eine Orthonormalbasis aus Eigenvektoren von A. |