Trigonometrische Reihen
Im 19. Jahrhundert wurde, angeregt vor allem durch Joseph Fourier, eine Theorie entwickelt, deren Ziel es ist, eine Funktion f mit der Periode 2π als unendliche Überlagerung der „Elementarschwingungen“ 1, cos(x), sin(x), cos(2x), sin(2x), … darzustellen. Aufgabe ist, gegeben f, das Auffinden von Koeffizienten ak und bk, sodass
f (x) ∼ a0 + ∑k ≥ 1 (ak cos(k x) + bk sin(k x)) für alle x ∈ ℝ,
wobei geeignete Präzisierungen von „∼“ anzugeben sind, wenn der Idealfall der punktweisen Konvergenz der Reihe auf der rechten Seite gegen f nicht zu erreichen ist. Das Auffinden der Koeffizienten und die Analyse des Konvergenzverhaltens ist, wie sich zeigt, eine Aufgabe der Integrationstheorie.
Fourier-Reihen sind in mehrfacher Hinsicht bedeutsam. Zu den vielfältigen Anwendungen in den Naturwissenschaften und der Technik kommt eine umfassende historische Dimension. Die Untersuchung der Konvergenzfragen, die diese Reihen aufwerfen, spielte eine wesentliche Rolle in der Präzisierung der Analysis und der Entwicklung der modernen Mathematik.
Wir beginnen mit einigen Begriffen für periodische Funktionen.
Definition (periodische Funktion, Periode, Minimalperiode)
Eine Funktion f auf ℝ (mit Werten in einer beliebigen Menge) heißt periodisch mit der Periode p > 0, falls gilt:
(+) f (x) = f(x + p) für alle x ∈ ℝ.
Gilt (+) für kein p′ ∈ ] 0, p [, so heißt p die Minimalperiode von f.
Die Zahl 2π ist die Minimalperiode der reellwertigen Sinus- und Kosinusfunktion und der komplexwertigen Funktion ei x. Weiter ist 2π auch eine Periode der schneller oszillierenden Funktionen sin(k x) und cos(k x) und der Funktionen ei k x für alle k ∈ ℤ. Diese Funktionen werden im Folgenden im Mittelpunkt stehen. Wir wollen eine gegebene Funktion f mit der Periode 2π so in Bestandteile der Form akcos(kx) und bksin(kx) zerlegen, wie wir sie früher in Bestandteile der Form akxk zerlegen wollten, um sie als Potenzreihe darzustellen. Die Konzentration auf die Periode 2π ist dabei keine Einschränkung, denn hat eine Funktion g : ℝ → ℝ die Periode p, so hat die Funktion f : ℝ → ℝ mit
f (x) = g(p x2π) für alle x
die Periode 2π, da für alle x gilt:
f(x + 2π) = g(p x + p 2π2π) = g(px2π + p) = g(px2π) = f (x).
Eine Analyse der Funktion f mit Hilfe von Sinus- und Kosinusfunktionen der Form sin(k x) und cos(k x) liefert dann durch die Rücktransformation
g(x) = f(2πxp) für alle x
eine Analyse von g mit Sinus- und Kosinusfunktionen der Form sin(kx2π/p) und cos(kx2π/p).
Endliche Linearkombinationen unserer Funktionen cos(k x) und sin(k x) sind als trigonometrische Polynome bekannt, wobei die Frequenz k die Rolle des Exponenten übernimmt:
Definition (trigonometrisches Polynom)
Sind a0, …, an, b1, …, bn reelle Zahlen mit an ≠ 0 oder bn ≠ 0, so heißt
a02 + ∑1 ≤ k ≤ n (ak cos(kx) + bk sin(kx))
das (reelle) trigonometrische Polynom vom Grad n mit den Koeffizienten a0, …, an und b1, …, bn.
f (x) = 12 sin(x) + 23 cos(2x) + 25 sin(2x) + 12 cos(4x)
Weiter definieren wir:
Definition (trigonometrische Reihe)
Sind (ak)k ≥ 0 und (bk)k ≥ 1 Folgen reeller Zahlen, so heißt
a02 + ∑k ≥ 1 (ak cos(kx) + bk sin(kx))
die trigonometrische Reihe mit den Koeffizienten (ak)k ≥ 0 und (bk)k ≥ 1.
Ein trigonometrisches Polynom lässt sich als trigonometrische Reihe ansehen, bei der die Koeffizienten ak und bk schließlich Null sind. Umgekehrt sind die trigonometrischen Polynome die Partialsummen der trigonometrischen Reihen.
Alle trigonometrischen Polynome haben die Periode 2π. Konvergiert also eine trigonometrische Reihe auf einem Intervall der Form [ a, a + 2π [, so konvergiert sie auf ganz ℝ gegen eine Funktion der Periode 2π.
Betrachtet man die Definitionen, so fällt auf, dass ein Koeffizient b0 fehlt und dass der Koeffizient a0 halbiert erscheint. Hierzu beobachten wir, dass
a cos(0 x) + b sin(0 x) = a cos(0) + 0 = a für alle a, b ∈ ℝ.
Damit kann der 0-Anteil als Konstante ausgelagert werden. Ein Koeffizient b0 spielt keine Rolle und wird aus Eindeutigkeitsgründen besser ganz vermieden. Dass nun weiter der 0-Anteil in der Form a0/2 und nicht in der Form a0 angegeben wird, hat Gründe, die erst durch die Berechnungsformeln für ak und bk ans Licht kommen werden.
Unsere erste Frage ist nun:
Wie bestimmt man ak und bk, wenn man weiß,
dass f eine trigonometrische Reihe ist ?
Für Potenzreihen f = ∑k ak(x − p)k hatten wir eine Antwort auf die entsprechende Frage durch gliedweises Differenzieren gefunden hatten. Hier galt
ak = f (k)(p)/k! für alle k.
Während für Potenzreihen die Differentiation und damit die lokale Analyse der Funktion f im Punkt p herangezogen wurde, lassen sich die „verlorenen“ Koeffizienten einer trigonometrischen Reihe bei guten Konvergenzbedingungen durch Integrieren wiederfinden:
Satz (Berechnung der trigonometrischen Koeffizienten)
Sei a0/2 + ∑k ≥ 1 (akcos(k x) + bksin(k x)) eine trigonometrische Reihe, die gleichmäßig gegen f : ℝ → ℝ konvergiert. Dann gilt:
ak = 1π ∫2π0f (x) cos(kx) dx für alle k ≥ 0,
bk = 1π ∫2π0f (x) sin(kx) dx für alle k ≥ 1.
Der Beweis dieser magischen Formeln lässt sich einfacher führen und besser verstehen, wenn wir einige Elemente auslagern. Hierzu führen wir zuerst eine auch andernorts nützliche 0-1-Symbolik ein:
Definition (Kronecker-Symbol)
Für alle Objekte x, y wird das Kronecker-Symbol δx, y definiert durch:
Dem Leser können wir überlassen:
Satz (Orthogonalität von cos(kx), sin(kx))
Für alle k,n ∈ ℕ gilt:
(a) | ∫2π0cos(0x) cos(0x) dx = 2π, ∫2π0sin(0x) sin(0x) dx = 0, |
(b) | ∫2π0cos(kx) cos(nx) dx = ∫2π0sin(kx) sin(nx) dx = δk, n · π, falls n ≠ 0 oder k ≠ 0, |
(c) | ∫2π0cos(kx) sin(nx) dx = 0. |
sin(3x) sin(3x)
sin(3x) sin(7x)
sin(3x) cos(7x)
Für n = 0 in (b) und k = 0 in (c) erhalten wir speziell
∫2π0cos(kx) dx = 0 für alle k ≥ 1, ∫2π0sin(kx) dx = 0 für alle k ≥ 0,
was man natürlich auch leicht mit Hilfe von Stammfunktionen zeigen kann.
Die hier und im Folgenden verwendete Bezeichnung als „Orthogonalität“ werden wir später mit Hilfe eines Skalarprodukts für Funktionen motivieren.
Nach diesen Vorbereitungen können wir nun den Berechnungssatz beweisen.
Beweis des Berechnungssatzes
Sei also, bei gleichmäßiger Konvergenz,
f (x) = a02 + ∑k ≥ 1 (ak cos(kx) + bk sin(kx)) für alle x.
Sei n ∈ ℕ. Dann gilt für alle x:
f (x) cos(nx) = a02 cos(nx) + ∑k ≥ 1 (ak cos(kx) cos(nx) + bk sin(kx)cos(nx)),
und die Konvergenz der Reihe auf der rechten Seite ist immer noch gleichmäßig. Gliedweises Integrieren liefert
∫2π0f (x) cos(nx) dx = ∫2π0a02 cos(nx) dx + ∑k ≥ 1(∫2π0ak cos(kx) cos(nx) dx + ∫2π0bk sin(kx) cos(nx) dx).
Nach Orthogonalität ist die rechte Seite gleich
∫2π0a02 cos(0) dx = a0 π, falls n = 0,
und gleich
∫2π0an cos(nx) cos(nx) dx = an π, falls n > 0.
Die Aussage über die Sinus-Koeffizienten wird analog bewiesen.
Aus dem Satz folgt unmittelbar:
Korollar (Eindeutigkeitssatz)
Die Koeffizienten einer gleichmäßig konvergenten trigonometrischen Reihe sind eindeutig bestimmt: Konvergieren trigonometrische Reihen
a02 + ∑k ≥ 1 (ak cos(k x) + bk sin(k x)) und
c02 + ∑k ≥ 1 (ck cos(k x) + dk sin(k x))
gleichmäßig gegen f : ℝ → ℝ, so gilt ak = ck und bk = dk für alle k.