Gradient, Richtungsableitung und Nabla-Operator

 Ist f : P   eine differenzierbare Funktion mit einer (offenen und nichtleeren) Menge P ⊆ n, so ist für alle p  ∈  P die Jacobi-Matrix Jf(p)  ∈  1 × n eine einzeilige Matrix (ein Zeilenvektor), deren Einträge aus den partiellen Ableitungen von f im Punkt p gebildet werden. Das Matrix-Vektor-Produkt Jf(p)x können wir als kanonisches Skalarprodukt 〈 Jf(p)t, x 〉 im n schreiben, mit Jf(p)t, x  ∈  n. Diese Beobachtung führt zu einer sehr anschaulichen geometrischen Interpretation der Jacobi-Matrix. Wir definieren:

Definition (Gradient, Gradientenfeld)

Sei f : P   differenzierbar. Dann setzen wir für alle p  ∈  P:

grad(f)(p)  =  (1f (p), … , ∂nf (p))  =  (∂f∂x1 (p), …, ∂f∂xn (p))    ∈  n.

Der Vektor grad(f)(p) heißt der Gradient von f im Punkt oder an der Stelle p, und die Funktion grad(f) : P  n heißt das Gradientenfeld von f.

 Ist f : P   differenzierbar in p  ∈  P, so gilt

Jf(p) x  =  1 ≤ j ≤ njf (p) xj  =  〈 grad(f)(p), x 〉  für alle x  ∈  n.

Den Aufbau der Jacobi-Matrix einer differenzierbaren Funktion f : P  m können wir also noch einmal anders beschreiben:

Die m Zeilen der Jacobi-Matrix Jf(p) sind die (zu Zeilenvektoren transponierten) Gradienten der Komponenten f1, …, fm von f an der Stelle p.

 Zur Ermittlung der geometrischen Bedeutung des Gradienten definieren wir eine natürliche Verallgemeinerung der partiellen Ableitung. Während wir bislang Differentialquotienten entlang der Koordinatenachsen untersucht haben, betrachten wir nun Differentialquotienten entlang beliebiger Geraden.

Definition (Richtungsableitung)

Seien f : P  , p  ∈  P und w  ∈  n mit ∥ w ∥ = 1. Dann heißt f im Punkt p in Richtung w differenzierbar, falls

der Grenzwert

a  =  lim 0 f (p + h w) − f (p)h

existiert. Die reelle Zahl a heißt dann die Ableitung von f im Punkt p in Richtung w, und wir schreiben

wf (p)  =  a.

analysis2-AbbID484

p = (1/2, −1),  w = (1, −1)/2

 Da P ⊆ n offen ist, existiert ein ε > 0 mit Uε(p) ⊆ P, sodass

(p − ε w) (p + ε w)  =  { p + t w | t  ∈  ] − ε, ε [ }  ⊆  P.

Damit ist die Frage nach der Existenz des Grenzwerts in der Definition der Richtungsableitung sinnvoll.

 Die Richtungsableitung verallgemeinert die partielle Ableitung, denn für die Einheitsvektoren e1, …, en des n gilt nach Definition:

j f (p)  =  ∂ejf (p)  für alle 1 ≤ j ≤ n.

 Richtungsableitungen lassen sich nun mit Hilfe des Gradienten grad(f)(p) und des kanonischen Skalarprodukts 〈 x, y 〉 = 1 ≤ j ≤ n xj yj überraschend einfach berechnen:

Satz (Berechnung von Richtungsableitungen)

Sei f : P   differenzierbar in p  ∈  P, und sei w  ∈  n mit ∥ w ∥ = 1.

Dann ist f im Punkt p in der Richtung w differenzierbar, und es gilt

wf (p)  =  〈 grad(f)(p), w 〉  =  1 ≤ j ≤ njf (p) wj.

Beweis

Wie im Beweis der Identifikation der Jacobi-Matrix gilt mit A = Jf(p) und der Restfunktion r : P   mit lim p r(x)/∥ x − p ∥ = 0:

wf (p)  =  lim 0 f (p + h w) − f (p)h  =  lim 0 A (hw)  +  r(p + hw)h

 =  lim 0 h A wh  +  lim 0 r(p + hw)h  =  A w  +  0  =  〈 grad(f)(p), w 〉.

 Dieser Beweis benutzt lediglich die Definition der Differenzierbarkeit. Aber auch das Vorschalten eines parametrisierten Geradenstücks bietet sich an, im letzten Kapitel hatten wir diese Methode ja schon mehrfach verwendet:

Zweiter Beweis mit Hilfe der Kettenregel

Sei ε > 0 mit Uε(p) ⊆ P, und sei g : ] − ε, ε [  P mit

g(t)  =  p  +  t w  für alle t  ∈  ] − ε, ε [.

Dann gilt

wf (p) =  lim 0 f (p + h w) − f (p)h  =  lim 0 f (g(h)) − f (g(0))h
=  (f ∘ g)′ (0)  =  Jf(g(0)) g′(0)  =  Jf(p) w  =  〈 grad(f)(p), w 〉.

 Das Skalarprodukt

〈 v, w 〉  =  1 ≤ j ≤ n vj wj  =  ∥ v ∥ ∥ w ∥ cos(φ),  v, w ≠ 0,

mit dem von v und w eingeschlossenen Winkel φ  ∈  [ 0, π ], ist bei festgehaltenem Vektor v unter allen Vektoren w der Länge 1 genau dann am größten, wenn w in die Richtung von v zeigt, d. h., wenn v = αw für ein α > 0 gilt. Die Richtungsableitung ∂w f (p) = 〈 grad(f)(p), w 〉 wird also im Fall grad(f)(p) ≠ 0 genau für

w  =  grad(f)(p)∥ grad(f)(p) ∥   ∈   n,  ∥ w ∥  =  1,

maximal. Damit erhalten wir:

Geometrische Bedeutung des Gradienten

Der Gradient einer differenzierbaren Funktion f an einer Stelle p zeigt in die Richtung des stärksten Anstiegs von f an der Stelle p. Je größer sein Betrag, desto stärker steigt f an der Stelle p in dieser Richtung an.

 Analog zeigt −grad(f)(p) in die Richtung des stärksten Abfalls von f an der Stelle p, denn 〈 v, w 〉 wird minimal, wenn v = − αw für ein α > 0 gilt. Oder man argumentiert so: Für alle w  ∈  n mit ∥ w ∥ = 1 gilt ∂−wf (p) = −∂wf (p).

 Die Sprechweise „er zeigt in die Richtung des stärksten Anstiegs“ birgt, wenn man an Bergwanderungen denkt, die Gefahr der Dimensionsverwechslung. Um dem vorzubeugen halten wir fest:

Die Dimension des Gradienten

Ist f : n   und p  ∈  P, so ist der Gradient grad(f)(p) ein Element des n, nicht des n + 1.

analysis2-AbbID486

Der Gradient als Steigungskompass:

p = (1/2, −1),  w = grad(f)(p)

 Visualisieren wir f : 2   als dreidimensionale Höhenlandschaft, so lebt der Gradient in der Ebene, nicht im Raum. Wir können grad(f)(p)  ∈  2 an den Punkt p anheften. Dieser Vektor zeigt dann wie ein „Steigungs-Kompass“ in die Richtung, in der unsere Höhenlandschaft in (p, f (p)) am steilsten ist. Eine Kugel bei (p, f (p)) rollt in x-y-Richtung −grad(f)(p) auf der Tangentialebene von f im Punkt p ab, vorausgesetzt, der Gradient von f im Punkt p ist ungleich Null (andernfalls ist die Tangentialebene parallel zur x-y-Ebene). Ist f (p) > 0, so trifft die Kugel die x-y-Ebene in einem Punkt auf der Halbgeraden { p − α grad(f)(p) | α > 0 } ⊆ 2.

 Verständnisschwierigkeiten bereitet bei dieser Interpretation zuweilen gerade der einfache Fall n = 1. Ist f :    differenzierbar in p und f ′(p) > 0, so zeigt f ′(p)  ∈  1 auf der x-Achse nach rechts. Ist f ′(p) < 0, so zeigt f ′(p) nach links. In beiden Fällen zeigt also grad(f)(p) = f ′(p) wieder in die Richtung des (stärksten) Anstiegs von f. Der Gradient f ′(p)  ∈   darf nicht mit (1, f ′(p))  ∈  2 verwechselt werden.

analysis2-AbbID488

Für die Dimension n = 1 sind

a  =  grad(f)(p)  =  f ′(p),

b  =  grad(f)(q)  =  f ′(q)

eindimensionale Vektoren.

Heften wir sie an die Punkte p und q der x-Achse an, so zeigen sie in die Richtung des Anstiegs von f.

Der Nabla-Operator

 Oft wird der Gradient einer Funktion auch mit Hilfe des sog. Nabla-Operators notiert. Man schreibt

∇  =  (1, …, ∂n)  =  (∂x1,  …,  ∂xn). (n-dimensionaler Nabla-Operator)

Die Bezeichnung „Nabla“ geht auf das gleichlautende griechische Wort für „Harfe“ zurück, an die das Symbol ∇ vage erinnert. Aus mathematischer Sicht ist der Harfen-Operator eine Funktion, dessen Definitionsbereich aus allen partiell differenzierbaren Funktionen f : P   besteht. Angewendet auf eine solche Funktion liefert der Nabla-Operator das Gradientenfeld von f:

∇ f  =  (∂x1,  …,  ∂xn) f  =  (∂f∂x1,  …,  ∂f∂xn)  =  grad(f).

(Nabla-Formulierung des Gradienten)

Für alle f : P  n und alle p  ∈  P ist also ∇f (p) = grad(f)(p) der Gradient von f an der Stelle p. Obwohl ∇f nur eine andere Schreibweise für grad(f) ist, ist die Notation (∂1, …, ∂n) oft suggestiv und gut zu handhaben. Speziell in der mathematischen Physik wird sie sehr häufig verwendet.