5. Abschnitt:  Matrizen und lineare Gleichungssysteme

Grundlagen

Form einer m × n-Matrix (mit Einträgen aij  ∈   oder aij  ∈  ):

A  =  a11a12a1na21a22a2nam1am2amn =  (aij)1 ≤ i ≤ m, 1 ≤ j ≤ n  =  (ai j)i,j.

Der erste Index gibt die Zeile an, der zweite die Spalte. Notation:

A = (v1, …, vm) hat die Zeilenvektoren v1, …, vn  ∈  n

A = (w1; …; wn) hat die Spaltenvektoren w1, …, wn  ∈  m.

Spezielle Matrizen

Nullmatrixaij = 0 für alle i,j
Diagonalmatrixaij = 0 für alle i ≠ j
Einheitsmatrixaii = 1 für alle i, aij = 0 für alle i ≠ j
untere Dreiecksmatrixaij = 0 für alle i > j
obere Dreiecksmatrixaij = 0 für alle i < j
symmetrische Matrixaij = aji für alle i,j
quadratische Matrixn = m

Matrizen als Vektoren

A + B = (aij + bij)i,j(Addition)

λA = (λ aij)i,j(Skalarmultiplikation)

Matrix-Vektor-Produkt

A v  =  a11a1na21a2nam1amn v1v2vn  =  a11v1++a1nvna21v1++a2nvnam1v1++amnvn

Matrizen-Produkt

Für A  ∈  m × r, B  ∈  r × n mit B = (b1; …; bn):

A B  =   A · B  =  (Ab1;  Ab2;  … ;  Abn)  ∈  m × n.

Ist C = A B, so gilt

cij  =  ai1 b1j  +  …  +  air brj  =  1 ≤ k ≤ r aik bk j  für alle i, j

Matrizen und lineare Abbildungen

Eine Abbildung f : n  m heißt linear, falls gilt:

f(λ v + μ w)  =  λ f (v)  +  μ f (w)  für alle v, w  ∈  n, λ, μ  ∈  .

Für alle v  ∈  n gilt dann

f (v)  =  f (v1 e1 + … + vn en)  =  v1 f (e1) + … + vn f (en)

Eine lineare Abbildung ist damit durch ihre Werte für die Basisvektoren e1, …, en eindeutig bestimmt.

Die linearen Abbildungen sind im folgenden Sinne genau die Matrizen:

Matrix als lineare Abbildung

Ist A  ∈  m × n, so definiert das Matrix-Vektor-Produkt Av eine lineare Abbildung des n in den m. Wir schreiben entsprechend A : n  m.

Lineare Abbildung als Matrix

Ist f : n  m und A = (f (e1); …; f (en))  ∈  m × n, so gilt f (v) = A v für alle v  ∈  n. Die Matrix A stellt f bzgl. der Basis e1, …, en dar: Aufgefasst als Abbildung ist A gleich f. Die Bildung von A wird beschrieben durch:

„Die Spalten von A sind die Bilder der kanonischen Basisvektoren unter f.“

Die Matrizen-Multiplikation entspricht der Komposition: Werden f : n  r und g : r  m durch A bzw. B dargestellt, so ist B A die darstellende Matrix der Verknüpfung g ∘ f.

Wichtige 2 × 2-Matrizen

cosφsinφsinφcosφ  Rotations-Matrix zum Winkel φ  ∈ 

u12u1u2u1u2u22  Projektions-Matrix zum normierten Vektor u  ∈  2

Invertierbarkeit

Eine quadratische Matrix A  ∈  n × n heißt invertierbar, wenn es eine quadratische Matrix B gibt mit A B = En = BA. Die Matrix B heißt dann invers zu A. Ist A nicht invertierbar, so heißt A singulär.

Ist A invertierbar, so wird das (eindeutig bestimmte) Inverse von A mit A−1 bezeichnet. Für invertierbare Matrizen gelten die Rechenregeln:

(A−1)−1  =  A,  (AB)−1  =  B−1 A−1

Invertierbarkeitskriterien

Sei A  ∈  n × n. Dann sind äquivalent:

(a)

A ist invertierbar.

(b)

A : n  n ist injektiv.

(c)

A : n  n ist surjektiv.

(d)

Die Zeilenvektoren von A sind linear unabhängig.

(e)

Die Spaltenvektoren von A sind linear unabhängig.

(f)

Die Zeilenvektoren von A sind erzeugend.

(g)

Die Spaltenvektoren von A sind erzeugend.

(h)

det(A) ≠ 0 (mit der Determinante det(A) von A, siehe unten)

Invertierungsverfahren

Wir verwenden die Zeilenoperationen

(Z1)  Multiplikation einer Zeile mit einem Skalar λ.

(Z2)  Addition des λ-Fachen einer Zeile zu einer anderen Zeile.

Mit Hilfe dieser Operationen versuchen wir, eine Matrix A in die Einheitsmatrix En zu überführen (durch „Ausräumen“ unterhalb und oberhalb der Diagonale. Parallel führen wir die Operationen mit En durch. Gelingt dies, so ist A invertierbar und das Ergebnis der parallelen Durchführung ist A−1 (kurz: A wird in En überführt, En in A−1). Erzeugen wir eine Nullzeile oder Nullspalte, so ist A singulär.

Elementar-Matrizen

Die Zeilenoperationen lassen sich durch Linksmultiplikation mit sog. Elementar-Matrizen beschreiben. Im invertierbaren Fall liefert das Verfahren eine Darstellung

Lk … L1 A  =  En,  A−1  =  Lk … L1  =  Lk … L1 En

mit Elementar-Matrizen Li.

Lineare Gleichungssysteme

Ein lineares Gleichungssystem mit m Gleichungen, n reellen Unbekannten, reellen Koeffizienten aij  ∈   und rechter Seite b = (b1, …, bm)  ∈  m hat die Form

a11 x1 + … + a1n xn  =  b1(erste Gleichung)

a21 x1 + … + a2n xn  =  b2(zweite Gleichung)

am1 x1 + … + amn xn  =  bm(m-te Gleichung)

Die Lösungsmenge L des Systems besteht aus den Vektoren x = (x1, …, xn)  ∈  n, die alle Gleichungen erfüllen. Wir notieren das System in der Form

Ax  =  b  mit A  ∈  m × n,  x = (x1, …, xn),  b = (b1, …, bm)

Es gilt dann

L  =  { x  ∈  n | Ax = b }  =  „das Urbild von b unter der linearen Abbildung A“.

Das System ist genau dann lösbar, wenn die rechte Seite b im Spann der Spaltenvektoren von A liegt. Ist b = 0, so heißt das System homogen. Ein homogenes System ist immer lösbar durch den Nullvektor.

Eindeutig lösbare quadratische Systeme

Ein System Ax = b mit A  ∈  n × n ist genau dann eindeutig lösbar, wenn A invertierbar ist. In diesem Fall ist A−1b die eindeutige Lösung des Systems (Lösen durch Invertierung). Für alle x  ∈  n gilt:

A x  =  b  genau dann, wenn  x  =  A−1b

Allgemeine Struktur der Lösungsmenge

Die Lösungsmenge L von Ax = b mit A  ∈  m × n ist ein affiner Unterraum des n. Genauer gilt: Ist v* eine beliebige Lösung und L0 ⊆ n die Lösungsmenge des zugeordneten homogenen Systems Ax = 0, so gilt:

L  =  v*  +  L0(spezielle Lösung + homogene Lösung)

Berechnung der Lösungsmenge

Mit Hilfe des Gauß-Jordan-Verfahrens lässt sich ein System effektiv auf Lösbarkeit überprüfen und im positiven Fall die Lösungsmenge in der Form

L  =  v*  +  span(u1, …, uk)

berechnen, mit linear unabhängigen Lösungen u1, …, uk des homogenen Systems A x = 0.

Determinanten

Dimension 2

det(A)  =  v1 w2  −  v2 w1  für A = (v; w)  ∈  2 × 2

Die reelle Zahl det(A) ist der signierte Flächeninhalt des von v und w aufgespannten Parallelogramms. Das Vorzeichen entspricht der Orientierung von (v, w). Ist det(A) ≠ 0, so gilt

A−1  =  1det(A) dbca(Invertierungsformel für 2 × 2-Matrizen)

Dimension 3

det(A)  =  〈 v × w, u 〉  für A = (v; w; u)  ∈  3 × 3

Die reelle Zahl det(A) ist das signierte Volumen des von v und w aufgespannten Spats. Das Vorzeichen ist positiv (negativ), wenn (u, v, w) ein Rechtssystem (Linkssystem) bildet.

Allgemeine Dimension

det(A)  =  σ  ∈  Sn sgn(σ) aσ(1), 1 … aσ(n), n(Leibniz-Formel)

Dabei ist Sn die Menge der Permutationen von { 1, …, n } und sgn(σ) = (−1)k, mit der Anzahl k = |{ (i, j) | i < j, σ(i) > σ(j) }| der Fehlstände der Permutation σ.

Die Zahl det(A) lässt sich als das signierte Volumen des von den Spaltenvektoren von A erzeugten n-dimensionalen Parallelotops interpretieren.

Axiomatische Charakterisierung

Die Determinanten-Funktion det : n × n   (und keine andere derartige Funktion) besitzt die folgenden Eigenschaften:

(1)

Es gilt det(En) = 1.

(2)

Hat A zwei gleiche Spalten, so gilt det(A) = 0.

(3)

Die Funktion det ist linear in jeder Spalte.

Wichtige Eigenschaften

(1)

det(A) ≠ 0  genau dann, wenn  A ist invertierbar.

(2)

det(AB)  =  det(A) det(B) (Multiplikationssatz)

(3)

det(At)  =  det(A) (Transpositionssatz)

Effektive Berechnung

Wir überführen A durch Zeilenadditionen (Typ (Z2)) in eine obere Dreiecksmatrix. Das Produkt der Diagonaleinträge ist gleich det(A).

Eigenwerte und Eigenvektoren

Seien A  ∈  n × n, λ  ∈   und v  ∈  n − { 0 }. Gilt

Av  =  λ v

so heißt v ein Eigenvektor von A zum Eigenwert λ. Wir setzen

σ(A)  =  { λ  ∈   | λ ist ein Eigenwert von A } (Spektrum)

Eig(A, λ)  =  { v  ∈  n | (Av  −  λEn) v = 0 }(Eigenraum)

Das charakteristische Polynom

Das charakteristische Polynom pA :    von A ist definiert durch

pA(λ)  =  det(A − λEn)  für alle λ  ∈ 

Die Nullstellen von pA entsprechen genau den Eigenwerten von A. Ist λ ein Eigenwert, so kann der Eigenraum mit Hilfe des Gauß-Jordan-Verfahrens durch Lösen des homogenen Systems (A − λEn)v = 0 berechnet werden. Die Dimension von Eig(λ, A) heißt die geometrische Vielfachheit von λ. Sie ist kleinergleich der algebraischen Vielfachheit von λ (Vielfachheit der Nullstelle von pA).

Dimension 2

pA(λ)  =  λ2  −  spur(A) λ  +  det(A)

Die Eigenwerte können mit der Lösungsformel für quadratische Gleichungen berechnet werden.

Dimension 3

pA(λ)  =  −λ3  +  spur(A) λ2  −  (det(A′11) + det(A′22) + det(A′33)) λ  +  det(A)

Dabei ist A′ii die (2 × 2)-Matrix, die aus A durch Streichen der i-ten Zeile und Spalte hervorgeht.

Diagonalisierbarkeit

Eine Matrix A  ∈  n × n heißt diagonalisierbar, wenn es eine aus Eigenvektoren von A bestehende Basis (v1, …, vn) des n gibt. Dies ist genau dann der Fall, wenn pA in Linearfaktoren zerfällt und alle geometrischen und algebraischen Vielfachheiten übereinstimmen.

Der Spektralsatz

Sei A  ∈  n × n. Dann sind äquivalent:

(a)

A ist symmetrisch.

(b)

Es gibt eine Orthonormalbasis aus Eigenvektoren von A.