8.6Der Spektralsatz

Satz (Spektralsatz)

Spektralsatz für selbstadjungierte Endomorphismen

Seien V ein euklidischer oder unitärer n-dimensionaler Vektorraum und f : V  V ein Endomorphismus. Dann sind äquivalent:

(a)

f = f*, d. h., es gilt 〈 f (v), w 〉 = 〈 v, f (w) 〉 für alle v, w  ∈  V.

(b)

σ(f) ⊆  und V besitzt eine Orthonormalbasis aus Eigenvektoren von f.

Spektralsatz für symmetrische bzw. hermitesche Matrizen

Seien n ≥ 1 und A  ∈  n × n bzw. A  ∈  n × n. Dann sind äquivalent:

(a)

A  =  A*  (im Fall K =  also A = At).

(b)

σ(f) ⊆  und es gibt eine orthogonale bzw. unitäre Matrix S derart, dass S A S−1 diagonal ist.

 Selbstadjungierte Endomorphismen sind also nicht nur diagonalisierbar, sondern sogar orthogonal diagonalisierbar: Es gibt eine Eigenbasis, die eine Orthonormalbasis von V ist. In der Sprache der Matrizen bedeutet dies: Eine hermitesche Matrix A ist nicht nur ähnlich zu einer Diagonalmatrix D = diag1, …, λn), sondern der Übergang D = SAS−1 kann sogar mit einer orthogonalen bzw. unitären Matrix S erreicht werden, sodass S−1 = S*.

Beweis des Spektralsatzes für K = 

Ist f selbstadjungiert, λ  ∈  σ(f) und v ein Eigenvektor von f zum Eigenwert λ, so gilt

λ 〈 v, v 〉  =  〈 v, λv 〉  =  〈 v, f (v) 〉  =  〈 f (v), v 〉  =  〈 λv, v 〉  =  λ 〈 v, v 〉  mit  〈 v, v 〉 ≠ 0,

sodass λ = λ und damit λ  ∈  . Das Polynom pf hat in  eine Nullstelle, und diese ist nach dem Gezeigten reell. Mit diesen Beobachtungen kann durch Induktion nach n bewiesen werden, dass V eine Orthonormalbasis aus Eigenvektoren besitzt. Im Induktionsschritt von n − 1 nach n betrachten wir λ und v ≠ 0 mit f (v) = λv und setzen

U  =  span(v)  =  { u  ∈  V | 〈 u, v 〉  =  0 }.

Für alle u  ∈  U gilt

〈 f (u), v 〉  =  〈 u, f (v) 〉  =  〈 u, λv 〉  =  λ 〈 u, v 〉  =  0,

sodass f[ U ] ⊆ U. Damit ist f|U : U  U ein selbstadjungierter Endomorphismus, der nach Induktionsvoraussetzung eine Orthonormalbasis aus Eigenvektoren besitzt. Ergänzen wir eine solche Basis um v, so erhalten wir wegen V = U ⊕ span(v) eine Orthonormalbasis aus Eigenvektoren von f für ganz V.

Ist umgekehrt (v1, …, vn) eine Orthonormalbasis von V aus Eigenvektoren von f, so ist

〈 f (vi), vj 〉  =  〈 λivi, vj 〉  =  λi 〈 vi, vj 〉  =  λi δij  =  〈 vi, λjvj 〉  =  〈 vi, f (vj) 〉  für alle i, j.

Hieraus ergibt sich, dass f selbstadjungiert ist.

Beispiel

Seien a, b  ∈   mit a2 + b2 = 1. Weiter sei α der von (a, b) und (1, 0) eingeschlossene Winkel. Dann beschreibt die symmetrische Matrix

A  =  abba =  cosαsinαsinαcosα  ∈  O(2),  det(A)  =  −1,

ela1-AbbID394

die Spiegelung an der Geraden G durch 0 mit dem Winkel β = α/2 (vgl. 7. 8). Damit hat A die Eigenwerte λ1, 2 = ±1 und zugehörige normierte Eigenvektoren

v1  =  N(a + 1, b)  =  (cos β, sin β), 

v2  =  N(−b, a + 1)  =  (− sin β, cos β), 

mit N(v) = v/∥v∥. Ist T die Matrix mit den Spalten v1 und v2, so ist T die Drehmatrix in SO(2) um den Winkel β. Für S = T−1 = Tt gilt also

S A S−1  =  cosβsinβsinβcosβabbacosβsinβsinβcosβ =  1001.

Schreibt man eine beliebige symmetrische Matrix B  ∈  2 × 2 als

B  =  diag(d, d)  +  r A,  mit  d  =  spur(B)/2,  r  =  ∥ (b11 − b22)/2, b21) ∥,

so hat A die gerade untersuchte Form. Man kann nun ablesen, dass B die Eigenwerte d ± r und die Eigenvektoren v1, v2 wie oben besitzt.

Der Spektralsatz für normale Endomorphismen und Matrizen

Für K =  ist σ(f) ⊆  immer richtig, sodass die Existenz einer orthonormalen Eigenbasis äquivalent zur Selbstadjungiertheit von f ist. Für K =  liefert das Streichen von „σ(f) ⊆ “ in (b) eine echte Abschwächung, die sich ebenfalls durch eine Adjungiertheits-Bedingung einfangen lässt. Zur Motivation beobachten wir: Für alle f  ∈  End(V) sind f ∘ f* und f* ∘ f selbstadjungiert. Im Allgemeinen ist aber f ∘ f* ≠ f* ∘ f. Man nennt f normal, falls f ∘ f* = f* ∘ f. Gleichwertig dazu ist, dass 〈 f (v), f (w) 〉 = 〈 f*(v), f*(w) 〉 für alle v, w  ∈  V. Wichtige Beispiele neben den selbstadjungierten Endomorphismen sind unitäre f, da dann f ∘ f* = f ∘ f −1 = f −1 ∘ f = f* ∘ f. Äquivalent sind nun:

(a)  f ist normal.  (b)  V besitzt eine Orthonormalbasis aus Eigenvektoren von f.

Analog nennt man eine Matrix A  ∈  n × n normal, falls A A* = A* A. Die Normalität von A  ∈  n × n ist äquivalent zur Existenz einer unitären Matrix S, für die SAS−1 diagonal ist. Normalität für reelle Matrizen diskutieren wir im Überblick 10.