8.2 Die Diagonalisierbarkeit
Definition (diagonalisierbare Endomorphismen und Matrizen)
f (v) = λv
f (w) = λw
f (u) = μu
V = Eig(f, λ) ⊕ Eig(f, μ)
Af = bzgl. 𝒜 = (v, w, u)
Seien V ein n-dimensionaler Vektorraum und f : V → V ein Endomorphismus. Dann heißt f diagonalisierbar, falls eine Basis (v1, …, vn) aus Eigenvektoren existiert. Analog heißt eine Matrix A ∈ Kn × n diagonalisierbar, falls fA : Kn → Kn dies ist.
Die Diagonalisierbarkeit ist die optimale Eigenschaft im Sinne der einfachen Darstellung. Dies (und die Namensgebung) wird illustriert durch:
Charakterisierungen der Diagonalisierbarkeit von f : V → V
Es gibt eine Basis 𝒜 = (v1, …, vn) aus Eigenvektoren von f.
V = ⨁λ ∈ σ(f) Eig(f, λ)
∑λ ∈ σ(f) dim(Eig(f, λ)) = n
Es gibt eine Basis 𝒜 von V, sodass die darstellende Matrix
D = A𝒜, 𝒜f von f bzgl. 𝒜, 𝒜 eine Diagonalmatrix ist.
Charakterisierungen der Diagonalisierbarkeit von A ∈ Kn × n
Es gibt eine Basis 𝒜 = (v1, …, vn) aus Eigenvektoren von A.
Kn = ⨁λ ∈ σ(f) Eig(A, λ)
∑λ ∈ σ(f) dim(Eig(A, λ)) = n
A ist ähnlich zu einer Diagonalmatrix D, d. h.,
es gibt ein S ∈ GL(n, K), sodass D = S A S−1 eine Diagonalmatrix ist.
Für die Diagonalmatrizen der vierten Formulierung gilt zusätzlich:
In der Diagonale von D stehen die Eigenwerte von f. Ist die geometrische Vielfachheit
von λ gleich k, so kommt λ genau k-oft in der Diagonale vor.
Einen Endomorphismus zu diagonalisieren bedeutet, eine Basis von V zu finden, sodass A𝒜, 𝒜f diagonal ist. Wir erinnern hierzu an den in 5. 8 betrachteten Spezialfall der Transformationsformel
A′ = S A S−1.
Im Unterschied zu „SAT−1“ halten wir die Basen 𝒜 und 𝒜′ beim Übergang von links nach rechts fest, sodass nur zwei statt vier Basen im Spiel sind. Gute A𝒜, 𝒜f sind schwieriger zu konstruieren als gute A𝒜, ℬf (vgl. 5. 4). Die Suche nach guten Darstellungen A𝒜f := A𝒜, 𝒜f eines Endomorphismus ist als Normalformproblem bekannt. Die Frage nach der Diagonalisierbarkeit ist die wichtigste Instanz des Problems und der Ausgangspunkt für alle weiteren Fragen, die sich stellen, wenn die Diagonalisierung nicht möglich ist.
Für Matrizen halten wir fest:
Ist 𝒜 eine Basis von V, so besitzen A = A𝒜f und f dieselben Eigenwerte.
Ähnliche Matrizen besitzen dieselben Eigenwerte.
Genauer stimmen für jeden Eigenwert λ auch die geometrischen Vielfachheiten überein. Der Beweis dieser Aussagen folgt aus dem kommutativen Diagramm oben unter Verwendung der Eigenschaft „Φ(λv) = λ Φ(v) für alle λ ∈ K, v ∈ V“, die jeder Koordinatenisomorphismus Φ : V → Kn erfüllt.
Beispiel
Wir betrachten die Matrix
A = ∈ ℝ2 × 2.
Mit w = sind x1 = (w, 1), x2 = (−w, 1) Eigenvektoren zu den Eigenwerten λ1 = 1 + w und λ2 = 1 − w (eine Möglichkeit, Eigenwerte und Eigenvektoren zu finden, diskutieren wir im nächsten Abschnitt). Für die Eigenbasis 𝒜 = (x1, x2) ist die darstellende Matrix von fA bzgl. 𝒜 die Diagonalmatrix D = diag(1 + w, 1 − w) („die Spalten sind die Koordinaten der Bilder der Basisvektoren“). Ist T die Matrix mit den Spalten x1 und x2 (vgl. 5. 8), so gilt für S = T−1:
S A S−1 = 12 = = D.