Komplexe Matrizen

 Die Eigenwert-Theorie lässt auf komplexe Matrize erweitern: Sind A  ∈  n × n, v  ∈  n, λ  ∈  , so heißt v ein Eigenvektor und λ ein zugehöriger Eigenwert von A, falls v ≠ 0 und Av = λv. Eigenpaare, Spektrum und Eigenräume sind wie früher definiert. Die Eigenwerte von A sind wieder genau die Nullstellen des charakteristischen Polynoms pA :    mit

pA(λ)  =  det(A − λEn)  für alle λ  ∈  .

Aufgrund des Fundamentalsatzes der Algebra hat jede komplexe Matrix einen Eigenwert. Das charakteristische Polynom zerfällt stets in Linearfaktoren, wobei die geometrische Vielfachheit wieder kleiner sein kann als die algebraische. Das Diagonalisierbarkeitskriterium bleibt gültig. Beim Spektralsatz muss die Bedingung der Symmetrie durch eine komplexe Version ersetzt werden:

Definition (Hermitesche Matrix)

Eine Matrix A = (aij)ij  ∈  n × n heißt Hermitesch, falls aij = aji für alle i,j.

 Eine Hermitesche Matrix bleibt gleich, wenn sie an der Hauptdiagonalen gespiegelt und zusätzlich komplex konjugiert wird. Ihre Diagonaleinträge sind wegen aii = aii reell. Jede reelle symmetrische Matrix ist Hermitesch. Es gilt:

Satz (Spektralsatz)

Sei A  ∈  n × n. Dann sind äquivalent:

(a)

A ist Hermitesch.

(b)

Es gibt eine Orthonormalbasis aus Eigenvektoren von A.

Beispiel

Die Hermitesche Matrix

A = 11+i1i2  ∈  2 × 2

besitzt das charakteristische Polynom pA :    mit

pA(λ)  =  λ2  −  spur(A) λ  +  det(A)  =  λ2 − 3λ + 0  =  λ(λ − 3)  für alle λ  ∈  .

Es gilt σ(A) = { 0, 3 }, Eig(A, 0) = span((−1 − i, 1)), Eig(A, 3) = span((1 + i, 2)). Die Vektoren (−1 − i, 1) und (1 + i, 2) sind orthogonal bzgl. des komplexen Skalarprodukts, da

〈 (−1 − i, 1), (1 + i, 2) 〉  =  (−1 + i)(1 + i) + 1 · 2  =  −2 + 2  =  0.

Durch Normierung erhalten wir eine Orthonormalbasis aus Eigenvektoren.