Das Inverse einer Matrix
Wir betrachten wieder ein lineares Gleichungssystem
(+) | a x + b y = u1 |
c x + d y = u2 |
das wir mit Hilfe des Matrix-Vektor-Produkts in der Form
(++) A v = u, A = ((a, b), (c, d))
notieren. Es ist verführerisch, durch A zu „dividieren“, sodass wir v = A−1 u erhalten und damit das System durch eine einfache Matrix-Vektor-Multiplikation für beliebige rechte Seiten u lösen können. Wir benötigen hierzu eine Matrix B mit BA = E2 = AB. Dann gilt für alle u, v ∈ ℝ2:
A v = u genau dann, wenn v = B u.
Denn ist A v = u, so ist
v = E2 v = BAv = Bu,
und ist v = Bu, so ist
Av = ABu = E2u = u.
Diese Überlegungen motivieren:
Definition (invertierbar, invers, singulär)
Sei A ∈ ℝ2 × 2. Gibt es ein B ∈ ℝ2 × 2 mit A B = E2 = B A, so heißt A invertierbar und B invers zu A. Andernfalls heißt A singulär.
Eine inverse Matrix ist im Fall der Existenz eindeutig bestimmt, denn sind B und C invers zu A, so gilt
C = CE2 = C(AB) = (CA)B = E2B = B.
Wir können deswegen folgende Notation einführen:
Notation
Ist A ∈ ℝ2 × 2 invertierbar, so bezeichnen wir das eindeutige Inverse von A mit A−1.
Für invertierbare A gilt also A A−1 = A−1A = E2. Während man für reelle und komplexe Zahlen x ≠ 0 neben x−1 auch 1/x schreibt, ist für Matrizen die Bruchnotation 1/A mangels Kommutativität nicht üblich: B/A = B · 1/A ist im Allgemeinen von 1/A · B verschieden, was zu Fehlern führen kann, wenn der Kalkül der Bruchnotation verwendet wird.
Beim Rechnen mit inversen Matrizen sind unentbehrlich:
Satz (Inversenregeln)
Seien A, B ∈ ℝ2 × 2 invertierbar. Dann sind A−1 und AB invertierbar und es gilt
(A−1)−1 = A, (A B)−1 = B−1 A−1.
Beweis
Es gilt AA−1 = E2 = A−1A, sodass nach Definition des Inversen A invers zu A−1 ist, d. h. (A−1)−1 = A. Zur zweiten Regel berechnen wir
(B−1 A−1) (AB) = B−1 A−1 A B = B−1 E2 B = B−1 B = E2.
Ebenso zeigt man, dass (AB)(B−1 A−1) = E2. Damit ist B−1A−1 invers zu AB.
Der Leser beachte, dass sich bei der Invertierung von AB die Reihenfolge umkehrt. Im Allgemeinen ist (AB)−1 ≠ A−1 B−1.
Für Gleichungssysteme zeigt obige Überlegung:
Lösen eines linearen Gleichungssystems durch Invertierung
Ist A invertierbar, so wird für alle rechten Seiten u das System A (x, y) = u eindeutig durch den Vektor A−1u gelöst.
Ist das System nicht eindeutig lösbar (d. h. det(A) = 0), so ist also A singulär. Im eindeutig lösbaren Fall (d. h. det(A) ≠ 0) erweist sich umkehrt A als invertierbar, sodass die eindeutige Lösbarkeit äquivalent zur Invertierbarkeit von A ist. Es gibt verschiedene Möglichkeiten, dies zu zeigen. Eine davon verwendet:
Definition (Komplementärmatrix)
Sei A ∈ ℝ2 × 2. Dann setzen wir
A# = , wobei A = .
Die Matrix A# heißt die Komplementärmatrix von A.
Mit Hilfe der Komplementärmatrix können wir das Inverse einer Matrix im Fall der Existenz leicht ermitteln und einen Zusammenhang zur Determinante herstellen:
Satz (Komplementärmatrix und Determinante)
Sei A ∈ ℝ2 × 2. Dann gilt:
(a) | A# A = A A# = det(A) E2. |
(b) | A ist genau dann invertierbar, wenn det(A) ≠ 0. In diesem Fall ist A−1 = det(A)−1 A#. |
Beweis
Es gilt
A A# = = = det(A) E2.
Analog ist A# A = det(A) E2. Ist det(A) ≠ 0, so ist det(A)−1A# das Inverse von A nach (a). Ist det(A) = 0, so ist A nach obigen Überlegungen nicht invertierbar. Dies zeigt (b).
Zum Beweis von (b) kann man auch den Multiplikationssatz für Determinanten verwenden: Ist A invertierbar, so gilt
det(A) det(A−1) = det(AA−1) = det(E2) = 1,
sodass det(A) ≠ 0. Die Berechnung zeigt auch, dass det(A−1) = det(A)−1.
Beispiel zur Invertierung
Für A = gilt det(A) = 3 und A# = ,
sodass
A−1 = 13.
Die zu A und B = A−1 gehörigen Koordinatensysteme
Beispiel zur Lösung eines Gleichungssystems durch Invertierung
Das Gleichungssystem
(+) | x + y = 1 |
2 x + 3 y = −1 |
besitzt die Koeffizientenmatrix A = ((1, 2); (1, 3)) mit det(A) = 1. Damit ist A invertierbar mit A−1 = det(A)−1 A# = A#, sodass
A−1 = A# = .
Die eindeutige Lösung des Systems ist
A−1 = = .
Der Vektor (4, −3) ist
(1) | der Schnittpunkt der beiden durch die Gleichungen des Systems (+) definierten Geraden, |
(2) | der Koordinatenvektor von (1, −1) bzgl. (Ae1, Ae2), |
(3) | der Vektor mit den Koordinaten (1, −1) bzgl. A−1e1 und A−1e2. |
Mit Hilfe von A−1 lässt sich das System (+) nun auch für beliebige andere rechte Seiten ohne Neuberechnung lösen.
Charakterisierungen der Invertierbarkeit
Wir sammeln die Äquivalenzen, die im Verlauf unserer Untersuchungen aufgetreten sind oder sich aus ihnen mehr oder weniger direkt ergeben:
Satz (Äquivalenzen zur Invertierbarkeit)
Sei A ∈ ℝ2 × 2. Dann sind äquivalent:
(a) | A ist invertierbar. |
(b) | det(A) ≠ 0. |
(c) | Die Spalten von A sind nicht kollinear. |
(d) | Die Zeilen von A sind nicht kollinear. |
(e) | Für alle u ist das System Av = u eindeutig lösbar in v. |
(f) | Für alle u ist das System Av = u lösbar in v. |
(g) | Das homogene System Av = 0 ist eindeutig lösbar (durch den Nullvektor). |
(h) | Der Nullvektor ist der einzige Vektor, der durch fA : ℝ2 → ℝ2 auf den Nullvektor abgebildet wird. |
(i) | fA : ℝ2 → ℝ2 ist injektiv. |
(j) | fA : ℝ2 → ℝ2 ist surjektiv. |
(k) | fA : ℝ2 → ℝ2 ist bijektiv. |
Explizit hervorheben möchten wir noch:
Satz (einseitige Inverse genügen)
Sei A ∈ ℝ2 × 2. Es gebe ein B ∈ ℝ2 × 2 mit AB = E2. Dann ist A invertierbar und es gilt B = A−1. Eine analoge Aussage gilt, wenn ein C ∈ ℝ2 × 2 existiert mit CA = E2.
Beweis
Nach dem Multiplikationssatz für Determinanten gilt
1 = det(E2) = det(AB) = det(A) det(B),
sodass det(A) ≠ 0. Folglich ist A invertierbar. Weiter folgt aus der Voraussetzung AB = E2, dass
B = E2 B = A−1 A B = A−1 E2 = A−1.
Die Behauptung über linksseitige Inverse C wird analog bewiesen.