Simultane Diagonalisierung
Die Kommutativität zweier Matrizen hat Auswirkungen auf die Struktur der Eigenräume:
Satz (Eigenvektoren kommutierender Matrizen)
Seien A, B ∈ ℂ2 × 2 mit [ A, B ] = 0. Dann gilt:
(a) | Die Eigenräume von A sind abgeschlossen unter B: Ist λ ein Eigenwert von A, so gilt B[ Eig(A, λ) ] ⊆ Eig(A, λ) |
(b) | Die Eigenräume von B sind abgeschlossen unter A. |
(c) | Gilt dim(Eig(A, λ)) = 1, so gilt Eig(A, λ) ⊆ Eig(B, μ) für ein μ. |
(d) | Gilt dim(Eig(B, μ)) = 1, so gilt Eig(B, μ) ⊆ Eig(A, λ) für ein λ. |
(e) | Haben alle Eigenräume von A und B die Dimension 1, so ist jeder Eigenraum von A ein Eigenraum von B und umgekehrt. Insbesondere haben dann A und B dieselben Eigenvektoren. |
Beweis
zu (a) und (b): Aus Symmetriegründen genügt es (a) zu zeigen. Sei also λ ein Eigenwert von A, und sei v ∈ Eig(A, λ). Dann gilt unter Verwendung von A B = B A:
A (B v) = B (A v) = B (λ v) = λ B v
Also gilt B v ∈ Eig(A, λ).
zu (c) und (d): Es genügt wieder (c) zu zeigen. Sei also λ ein Eigenwert von A, und sei v ein zugehöriger Eigenvektor. Dann gilt
B v ∈ Eig(A, λ) = span(v)
nach (a) und Voraussetzung. Folglich existiert ein μ ∈ ℂ mit B v = μ v. Damit ist v ein Eigenvektor von B zum Eigenwert μ.
zu (e): Die Aussage folgt aus (c) und (d).
Eine analoger Satz gilt für reelle Matrizen (und für komplexe und reelle Matrizen höherer Dimension).
Die Dimensionsvoraussetzung in (c) und (d) ist wesentlich. Zwei kommutierende Matrizen haben im Allgemeinen verschiedene Mengen von Eigenvektoren. Ein einfaches Beispiel führt dies vor Augen:
Beispiel
Die Einheitsmatrix E2 ∈ ℂ2 × 2 kommutiert mit jeder Matrix A. Die Menge der Eigenvektoren von E2 ist ℂ2. Ist A ∈ ℂ2 × 2 nicht diagonalisierbar, so ist die Menge der Eigenvektoren von A eine echte Teilmenge des ℂ2 (ein Unterraum der Dimension 1).
Im Reellen ist kann der Unterschied noch größer sein: Die Einheitsmatrix E2 ∈ ℝ2 × 2 kommutiert mit der Rotationsmatrix rotπ/2, die keine Eigenvektoren besitzt.
Die Kommutativität zweier Matrizen lässt sich innerhalb der diagonalisierbaren Matrizen wie folgt charakterisieren:
Satz (simultane Diagonalisierbarkeit)
Sei A, B ∈ ℂ2 × 2. Dann sind äquivalent:
(a) | Es gibt eine invertierbare Matrix P und Diagonalmatrizen D1, D2 mit A = P D1 P−1, B = P D2 P−1. |
(b) | A und B sind diagonalisierbar und es gilt [ A, B ] = 0 |
Die Aussage (a) bedeutet, dass es eine Basis aus Eigenvektoren von A gibt, deren Elemente Eigenvektoren von B sind (und also eine Basis aus Eigenvektoren von B bilden). Die zugehörigen Eigenwerte sind im Allgemeinen verschieden voneinander.
Beweis
(a) impliziert (b): Seien P, D1, D2 wie in (a). Dann sind A, B diagonalisierbar und es gilt
[ A, B ] | = P D1 P−1 P D2 P−1 − P D2 P−1 P D1 P−1 |
= P D1 D2 P−1 − P D2 D1 P−1 | |
= P (D1 D2 − D2 D1) P−1 = P [ D1, D2 ] P−1 = P 0 P−1 = 0 |
(b) impliziert (a): Die Implikation ist klar, wenn A oder B ein Vielfaches von E2 ist. Wir dürfen also annehmen, dass A und B jeweils zwei verschiedene Eigenwerte besitzen, sodass alle Eigenräume die Dimension 1 haben. Nach obigem Satz ist jede Basis aus Eigenvektoren von A eine Basis aus Eigenvektoren von B. Dies zeigt die Behauptung.
Wir erhalten zudem:
Satz (automatische simultane Diagonalisierung)
Seien A, B ∈ ℂ2 × 2 mit [ A, B ] = 0. Weiter sei A diagonalisierbar, aber kein Vielfaches von E2. Ist dann P invertierbar und D diagonal mit A = P D1 P−1, so gibt es eine Diagonalmatrix D2 mit B = P D2 P−1.
Beweis
Nach Voraussetzung hat A zwei verschiedene Eigenwerte, deren Eigenräume die Dimension 1 haben. Nach (c) des Satzes über Eigenvektoren kommutierender Matrizen ist jede Eigenbasis von A eine Eigenbasis von B. Dies zeigt die Behauptung.
Beispiel zur automatischen simultanen Diagonalisierung
Wir betrachten die Matrizen
A = , B =
Es gilt [ A, B ] = 0, da
A B = = B A
Die Matrix A hat die Eigenwerte λ1 = 2 und λ2 = − 3 und zugehörige Eigenvektoren (1, 2) bzw. (3, 5). Sei P = ((1, 2); (3, 5)). Dann gilt
A = P diag(2, −3) P−1 =
Da A und B kommutieren und A kein Vielfaches von E2 ist, sind v1 und v2 auch Eigenvektoren der Matrix B. Die zugehörigen Eigenwerte sind μ1 = 1 und μ2 = −1. Damit gilt also
B = P diag(μ1, μ2) P−1 =
Die Vektoren (1, 2) und (3, 5) bilden also eine gemeinsame Basis aus Eigenvektoren für die kommutierenden Matrizen A und B.
Beispiel: Scherung
Wir betrachten die Scherung B = ((1, 0); (1, 1)). Weiter sei A kein Vielfaches der Einheitsmatrix. Kommutiert A mit B, so ist A nicht diagonalisierbar (da sonst auch B diagonalisierbar wäre). Dies lässt sich auch direkt nachrechnen. Ist A = ((a, b), (c, d)) und [ A, B ] = 0, so gilt
= A B = B A =
Damit ist c = 0 und a = d, sodass A = ((a, 0); (b, a)). Im Fall b = 0 ist A = a E2, im Fall b ≠ 0 ist A nicht diagonalisierbar.
Mit Hilfe der simultanen Diagonalisierbarkeit können wir den allgemeinen Spektralsatz aus dem Spektralsatz für selbstadjungierte Matrizen gewinnen:
Zweiter Beweis des Spektralsatzes für normale Matrizen
Sei A normal, und sei
A = B + i C mit B = *B, C = C*
Dann gilt [ B, C ] = 0 nach dem Zerlegungssatz. Nach dem Spektralsatz für selbstadjungierte Matrizen und dem Satz über simultane Diagonalisierbarkeit gibt es eine unitäre Matrix P und Diagonalmatrizen D1, D2 mit
B = P D1 P*, C = P D2 P*
Sei D = D1 + i D2. Dann ist D diagonal und es gilt
A = B + i C = P D1 P* + i P D2 P* = P (D1 + i D2) P* = P D P*
Also ist A unitär diagonalisierbar.
Die Charakterisierung einer normalen Matrix A = ((a, b), (c, d)) ∈ ℂ2 × 2 über ihre Einträge a, b, c, d wird bei dieser Argumentation weder verwendet noch ans Licht gebracht.