6.9 Orthogonale Homomorphismen und Matrizen
Definition (orthogonaler Homomorphismus, orthogonale Matrix, unitäre Matrix)
Orthogonale Homomorphismen
Seien V, W euklidische bzw. unitäre Vektorräume. Eine lineare Abbildung
f : V → W heißt ein orthogonaler Homomorphismus, falls
(+) 〈 f (v), f (w) 〉W = 〈 v, w 〉V für alle v, w ∈ V.
Orthogonale und unitäre Matrizen
Eine Matrix Q ∈ ℝn × n heißt orthogonal, falls 〈 Qx, Qy 〉 = 〈 x, y 〉 für alle x, y ∈ ℝn.
Analog heißt eine Matrix U ∈ ℂn × n unitär, falls 〈 Ux, Uy 〉 = 〈 x, y 〉 für alle x, y ∈ ℂn.
Dabei werden die kanonischen Skalarprodukte des ℝn bzw. ℂn verwendet.
Wie für alle algebraischen Strukturen sind strukturerhaltende Abbildungen von Interesse. Eine Abbildung f : V → W zwischen Vektorräumen mit Skalarprodukt erhält die Struktur, wenn f linear ist und das Skalarprodukt von V im Sinne von (+) respektiert.
Orthogonale Homomorphismen sind injektiv, da f (v) = 0 impliziert, dass 〈 f (v), f (v) 〉 = 0 und damit 〈 v, v 〉 = 0. Nach positiver Definitheit ist also Kern(f) = { 0 } und somit f injektiv.
Orthogonaliät und Längentreue sind äquivalent
Ist f : V → W orthogonal, so gilt ∥ f (v) ∥2 = 〈 f (v), f (v) 〉 = 〈 v, v 〉 = ∥ v ∥2 und damit
∥ f (v) ∥ = ∥ v ∥ für alle v ∈ V. (Längentreue)
Ist umgekehrt f : V → W linear und längentreu, so gilt im Fall K = ℝ nach der Polarisationsformel
4 〈 f (x), f (y) 〉 = ∥ f (x) + f (y) ∥2 − ∥ f (x) − f (y) ∥2 =
∥ f(x + y) ∥2 − ∥ f(x − y) ∥2 =
∥ x + y ∥2 − ∥ x − y ∥2 = 4 〈 x, y 〉.
Also ist f orthogonal. Analoges gilt für K = ℂ.
Die Brücke zu den Matrizen ist gegeben durch:
(1) | Ist V ein endlich-dimensionaler euklidischer bzw. unitärer Vektorraum, so ist V orthogonal isomorph zum Kn mit dem kanonischen Skalarprodukt, d. h., es existiert ein Isomorphismus f : V → Kn mit (+). Ist (v1, …, vn) eine Orthonormalbasis von V, so ist das lineare f : V → Kn mit f (vi) = ei für alle i ein solcher Isomorphismus. |
(2) | Eine Matrix Q ∈ ℝn × n ist genau dann orthogonal, wenn fQ : ℝn → ℝn orthogonal ist. Analoges gilt für eine unitäre Matrix U ∈ ℂn × n. |
Dass das Matrix-Vektor-Produkt das kanonische Skalarprodukt nicht verändert, lässt sich durch eine Reihe von äquivalenten Bedingungen zum Ausdruck bringen:
Charakterisierungen der Orthogonalität von Q ∈ ℝn × n |
∥ Qx ∥ = ∥ x ∥ für alle x ∈ ℝn (Längentreue) |
Die Spalten von Q bilden eine Orthonormalbasis. |
Q−1 = Qt (Invertierung durch Transposition) |
Die Zeilen von Q bilden eine Orthonormalbasis. |
zur Eigenschaft Q−1 = Qt
Orthogonale Matrizen sind auch winkeltreu, da sie das Skalarprodukt erhalten. Aus der Winkeltreue folgt im Allgemeinen aber nicht die Orthogonalität, wie etwa eine Streckung λ En zeigt. Typische Argumente, die die Verwendung und das Wechselspiel der Bedingungen illustrieren, sind:
(1) | Ist Q orthogonal, so gilt 〈 Qei, Qej 〉 = 〈 ei, ej 〉 = δij für die Spalten Qe1, …, Qen von Q, sodass die Spalten von Q eine Orthonormalbasis des ℝn bilden. |
(2) | Bilden die Zeilen q1, …, qn von Q eine Orthonormalbasis, so ist Q orthogonal, da 〈 Qx, Qy 〉 = 〈 (〈 q1, x 〉, …, 〈 qn, x 〉), (〈 q1, y 〉, …, 〈 qn, y 〉) 〉 = 〈 q1, x 〉 〈 q1, y 〉 + … + 〈 qn, x 〉 〈 qn, y 〉 = 〈 〈 q1, x 〉 q1 + … + 〈 qn, x 〉 qn, y 〉 = 〈 x, y 〉. |
Für unitäre Matrizen gelten analoge Charakterisierungen, wobei wir hinsichtlich der Inversenbildung alle Einträge der Matrix bei der Transponierung zusätzlich zu konjugieren haben. Definieren wir also für eine beliebige Matrix A ∈ ℂn × n die adjungierte Matrix A* ∈ ℂn × n durch A*(i, j) = aji, so gilt für unitäre Matrizen also
U−1 = U*. (Invertierungsregel für unitäre Matrizen)
Die orthogonalen bzw. unitären Matrizen bilden die Untergruppen O(n) von GL(n, ℝ) bzw. U(n) von GL(n, ℂ). Wir werden sie später noch genauer untersuchen.
Beispiele
(1) | Wir betrachten die Orthonormalbasis (w1, w2, w3) des ℝ3 mit w1 = α(1, 1, 1), w2 = β (1, 1, −2), w3 = γ(1, −1, 0), wobei α = 1/, β = 1/, γ = 1/ (vgl. 6. 7). Ist Q die Matrix mit den Spalten w1, w2, w3, so ist Q orthogonal und Q Qt = = = E3. |
(2) | Die Abbildung f : ℓ2ℝ → ℓ2ℝ mit f (x0, x1, x2, …) = (0, x0, x1, …) ist orthogonal, aber nicht surjektiv. |