Matrixexponentiale
Eine Differentialgleichung der Form y′(x) = ay(x), a ∈ ℂ, lässt sich mit Hilfe der Exponentialfunktion leicht lösen: Für alle c ∈ ℂ ist
(+) c ea x, x ∈ ℝ
eine auf ganz ℝ definierte komplexwertige Lösung. Ein n-dimensionales homogenes System mit konstanten komplexwertigen Koeffizienten
y′(x) = A y(x), A ∈ ℂn × n
lässt sich, wie wir nun zur Vertiefung der obigen Diskussion zeigen wollen, mit Hilfe der auf Matrizen erweiterten Exponentialfunktion exp : ℂn × n → ℂn × n ganz analog lösen. Die Lösungen des Systems haben die zu (+) analoge Form
(++) ex A c, x ∈ ℝ,
mit komplexen quadratischen Matrizen A, exA ∈ ℂn × n und c = (c1, …, cn) ∈ ℂn. Hier ist es wichtig, dass der Skalar x links der Matrix A und der n-dimensionale Vektor c rechts der Matrix exA steht.
Wir definieren:
Definition (Matrixexponential)
Sei A ∈ ℂn × n. Dann ist das Exponential exp(A) ∈ ℂn × n von A definiert durch
exp(A) = ∑k ≥ 0Akk!.
Statt exp(A) schreiben wir oft auch eA.
Die Reihe ist als Limes der Partialsummen bezüglich einer beliebigen Matrixnorm zu verstehen. Die Konvergenz ist die Konvergenz der Einträge in ℂ:
eA(i, j) = limn → ∞ ∑k ≤ nAk(i, j)k! für alle 1 ≤ i, j ≤ n.
Dabei bezeichnet B(i,j) den Eintrag bij einer Matrix B = (bij)ij.
Beispiele
(1) | Für die Nullmatrix gilt exp(0) = 00 = En. |
(2) | Ist Am = 0 für ein m, so exp(A) das Matrixpolynom ∑k < m Ak/k!. |
(3) | Für A = gilt Ak = 12 für alle k. Damit ist eA = 12 . |
Allgemein führt wie im vertrauten Fall n = 1 der schnelle Abfall der Koeffizienten 1/k! zur Konvergenz der Reihe:
Satz (Konvergenzsatz für exp(A))
Für alle A ∈ ℂn × n konvergiert die Reihe exp(A).
Damit ist eine Abbildung exp : ℂn × n → ℂn × n erklärt. Wichtige Eigenschaften, die wir ohne Beweis angeben, sind:
Satz (Eigenschaften des Matrixexponentials)
Für alle A, B ∈ ℂn × n gilt:
(a) | eA ist invertierbar und es gilt (eA)−1 = e−A, |
(b) | eA + B = eA eB, falls A B = B A, |
(c) | det(eA) = espur(A), |
(d) | eA* = (eA)*, wobei A* = (aji)ij = (A)t die zu A adjungierte Matrix ist. |
Der Beweis des Additionstheorems kann aus dem Reellen übernommen werden. Der dabei verwendete binomische Lehrsatz ist jedoch in Ringen im Allgemeinen nur dann gültig, wenn die beiden beteiligten Elemente kommutieren. Dies erklärt die Bedingung „AB = BA“.
Folgender Satz ermöglicht in wichtigen Fällen die Berechnung von eA durch Diagonalisierung:
Satz (Berechnung des Matrixexponentials)
(a) | Sei A = diag(d1, …, dn) ∈ ℂn × n eine Diagonalmatrix. Dann gilt eA = diag(ed1, …, edn). Insbesondere gilt eλ En = diag(eλ, …, eλ) = eλEn für alle λ ∈ ℂ. |
(b) | Seien A, B ∈ ℂn × n ähnlich, und sei S ∈ ℂn × n invertierbar mit A = S−1 B S. Dann gilt eA = S−1 eB S. |
(c) | Sei A ∈ ℂn × n diagonalisierbar, und sei S ∈ ℂn × n invertierbar mit A = S−1 diag(λ1, …, λn) S, mit den Eigenwerten λ1, …, λn von A. Dann gilt eA = S−1 diag(eλ1, …, eλn) S. |
Dabei bezeichnet diag(d1, …, dn) die Matrix A des ℂn × n mit den Einträgen A(i, i) = di und A(i, j) = 0 für i ≠ j. Nach (b) sind eA, eB ähnlich, wenn A, B ähnlich sind, und nach (c) ist eA diagonalisierbar, wenn A dies ist.
Ist A diagonalisierbar, so kann mit Hilfe von Teil (c) das Matrixexponential eA berechnet werden, wenn die Eigenwerte und eine Basis aus Eigenvektoren von A bekannt sind. Im nichtdiagonalisierbaren Fall kann, wie sich zeigen lässt, die Jordansche Normalform zur Berechnung eingesetzt werden.
Wir betrachten nun für ein festes A ∈ ℂn × n die Funktion f : ℝ → ℂn × n mit f (x) = xA. Wie im eindimensionalen Fall darf gliedweise differenziert werden: Für alle x ∈ ℝ gilt
ddx exA = ∑k ≥ 0ddx xkk! Ak = ∑k ≥ 0xk − 1(k − 1)! Ak = AexA.
Damit ist f ′ = A f und wir erhalten:
Satz (Lösung mit Hilfe von Matrixexponentialen)
Seien A ∈ ℂn × n, x0 ∈ ℝ, y0 ∈ ℂn. Dann hat das lineare AWP
y′(x) = Ay(x), y(x0) = y0, x ∈ ℝ
die eindeutige Lösung f : ℝ → ℂ mit
f (x) = e(x − x0)A y0 für alle x ∈ ℝ.
Damit lassen sich die betrachteten lineare Systeme mit Methoden der Linearen Algebra lösen. Wir betrachten ein einfaches Beispiel.
Beispiel
Gegeben sei das zweidimensionale AWP
y′(x) = Ay(x), y(0) = (0, 1), wobei A = .
Für alle x ∈ ℝ hat x A hat die Eigenwerte ±2x und zugehörige von x unabhängige Eigenvektoren (±1, 2). Ist S−1 die 2 × 2-Matrix mit den Spalten (1, 2) und (−1, 2), so gilt nach (c) des obigen Berechnungssatzes
ex A = S−1 diag(e2x, e−2x) S = =
12 = .
Damit ist f : ℝ → ℝ2 mit
f (x) = ex A (0, 1) = (sinh(2x)2, cosh(2x)) für alle x ∈ ℝ
die Lösung des AWP.