Advent, Advent, 1 Monat weihnachtliche Laufzeit geschenkt.

Nicht bis zur Bescherung warten, Aktion nur gültig bis zum 18.12.2016!

Textversion des Videos

Transkript Totale Differenzierbarkeit – Einführung

Hallo, das Thema von diesem Beitrag ist die totale Differenzierbarkeit. Es handelt sich um Abbildungen von Rl --> Rk. Meistens ist dieses k=1, aber wir behandeln es allgemein. Eine Abbildung, sprich eine Funktion von Rl --> Rk, heißt total differenzierbar im Punkt x0, wenn folgende Bedingungen erfüllt sind. Ich lese es vor und dann erläutern wir das. Sie ist total differenzierbar, wenn es eine Matrix gibt, J(x0), sodass die Funktion in der Nähe des Punktes x0 sich wie folgt darstellen lässt. Wenn wir den Zuwachs der Funktion im Punkt x0 betrachten, das ist das, was auf der linken Seite der Gleichung steht - h muss man sich als kleinen Vektor vorstellen, der zu dem Vektor x0 addiert wird, diese Differenz ist insgesamt der Zuwachs der Funktion f im Punkt x0 in Richtung des Vektors h - wenn sich dieser Zuwachs wie folgt darstellen lässt: Die Matrix × Zuwachsvektor h + irgendeinen Rest r. Wenn diese Darstellung erfüllt ist, mit der zusätzlichen Eigenschaft, dass der Rest hinreichend ständig Richtung 0 geht (?), dann heißt die Funktion f total differenzierbar im Punkt x0. Und ich möchte noch einmal diese Gleichung kommentieren. Sie besagt, dass der Funktionszuwachs im Punkt x0 im Wesentlichen eine lineare Abbildung ist. Man hat die Matrix J(x0), sie ist fest, sie ist nur vom Punkt x0 abhängig, multipliziert mit dem Vektor h. Und wir wissen vielleicht aus der linearen Algebra, dass das die allgemeine Form einer linearen Abbildung von Rl --> Rk ist. Also, Funktionszuwachs in der Nähe des Punktes x0 ist im Wesentlichen eine lineare Abbildung plus ein unbedeutender Restterm. Unbedeutend in dem Sinne, dass er sehr schnell gegen 0 geht, wenn h gegen 0 geht. Sehr schnell bedeutet, dass er in erster Ordnung gegen 0 geht. Das heißt, wenn wir diesen Restterm durch die Norm des Vektors h dividieren und h gegen 0 schicken, dann geht der ganze Ausdruck gegen 0. Hier ist mit der Norm, die ganz normale euklidsche Norm gemeint. Man darf auch mit beliebigen Normen arbeiten, aber meistens arbeitet man mit der euklidschen Norm. Ich erinnere: Hier, die Norm des Vektors h ist einfach nur \sqrt(h12+h22...hn2), wobei der Vektor h wie üblich aus den Komponenten h1,h2,...,hn besteht. Das ist hier mit der Norm gemeint. Und das sieht ein bisschen kompliziert aus, aber das ist im Wesentlichen dieselbe Idee, wie in der Analysis 1. In der Analysis 1 heißt eine Funktion von R --> R differenzierbar, wenn ihr Funktionszuwachs linear im Argumentzuwachs ist. Das hat vielleicht nicht jeder in der Analysis 1 gesehen, aber das ist tatsächlich so. Und man hat diese Idee einfach nur auf die höhere Dimension übertragen. Allgemein sind lineare Abbildungen von Rl --> Rk Matrizen multipliziert mit Vektoren. Gut, das ist die Definition der totalen Differenzierbarkeit. Nun gibt es standardisierte Übungsaufgaben. Eine konkrete Funktion von Rl --> Rk ist vorgelegt und man soll prüfen, ob die Funktion in einem bestimmten Punkt total differenzierbar ist. Und die Grundlage ist diese Definition, man baut sich Schritt für Schritt die Bausteine dieser Definition zusammen und prüft dann die finale Eigenschaft, ob dieser Grenzwert=0 ist und auf Grundlage dieser Definition prüft man dann, ob diese Funktion total differenzierbar ist, oder nicht. Ich will dieses Schema noch mal erläutern. In den nächsten Beiträgen gibt es dann Beispiele, wie man dieses Schema anwendet. Also um zu prüfen, ob eine gegebene Funktion f:DCRn-->Rk im gegebenen Punkt x0 total differenzierbar ist, gehe wie folgt vor. Wichtig ist in der vorgestellten Definition diese gewisse Matrix J(x0). Das ist nichts anderes, als die Jacobi-Matrix, bestehend aus den Parzellen und Ableitungen der Abbildung f. Also wenn es eine Matrix gibt, sodass die Eigenschaft aus der Definition erfüllt ist, so ist das nur die Jacobi-Matrix. Und das erleichtert uns das Leben, also wir wissen sofort, welchen Kandidaten wir für die Matrix nehmen sollen: nur die Jacobi-Matrix. Und wenn es mit der Jacobi-Matrix nicht geht, dann geht es mit keiner Matrix. Das sagt uns die Theorie. Also der erste Punkt von unserem Kochrezept ist: Die Jacobi Matrix von f im Punkt x0 aufstellen. Ich hoffe, jeder weiß, wie die Jacobi-Matrix aussieht, ich erinnere aber sicherheitshalber. Die Funktion bildet nach Rk ab, das heißt, die Funktion f hat k Komponenten. Die erste Komponente bezeichnet man mit f1, die zweite mit f2 usw. Also man nimmt die erste Komponente der Funktion f und bildet die Parzellenableitungen df1 nach dx1 und wertet die Ableitung im Punkt x0 aus. Dann df1 nach dx2 an der Stelle x0 usw., bis zur letzten Variablen df1 und dx0 im Punkt x0. Dasselbe macht man im 2. Teil mit der 2. Komponentenfunktion, usw. bis zur k-ten Komponentenfunktion. dfk, dx1 an der Stelle x0, usw. dfx, dx2 an der Stelle x0, bis dfk/dxn an der Stelle x0. Also, das ist der erste Rechenschritt, man stellt die Jacobi-Matrix auf. Der zweite Rechenschritt: Man soll den Restterm aus der Definition aufstellen. Und man nimmt die zentrale Gleichung aus der Definition der totalen Differenzierbarkeit und stellt sie nach dem Restterm um. Und nach dieser Formel berechnet man den Restterm, ich schreibe dann, was das im einzelnen bedeutet. Also der Restterm r(h)=Funktionszuwachs f(x0+h)-f(x0) - die Jacobimatrix an der Stelle x0×Vektor h. Das ist der Restterm. Also wir sollen erstmal die Terme in eine bequeme Form bringen, damit das ein Spaltenvektor ist, nicht die Summe aus 3 Termen oder so. Der dritte Schritt ist entscheidend. Wir sollen zeigen, dass der Restterm hinreichend schnell gegen 0 geht. Das heißt, wir teilen den Restterm durch die Norm des Vektors h und zeigen, dass das alles gegen 0 geht, wenn h gegen 0 geht. Wenn dieser Grenzwert 0 ist, dann ist die Funktion R an der Stelle x0 total differenzierbar. Wenn dieser Grenzwert von 0 verschieden ist, oder nicht existiert, dann ist die Funktion nicht total differenzierbar. Der dritte Schritt ist also der entscheidende und abschließende dieses Prüfschemas. Die Beispiele gibt es in den nächsten Videobeiträgen.

Informationen zum Video
3 Kommentare
  1. Default

    schon gut is blöd, merk ich selbst..XD

    Von Phillipp, vor fast 5 Jahren
  2. Default

    es muss glaube ich h (klein k) statt h (klein n) heißen, weil der vektor h element R^k sein muss, weil nur so eine multiplikation mit der Jakobimatrix möglich ist, da f element R^k ist und der gradient von f 1 bis n die zeilenvektoren der matrix bilden....

    Von Phillipp, vor fast 5 Jahren
  3. Default

    Sehr, sehr gutes Video! (5|5) Punkte.

    Von Deleted User 2550, vor mehr als 7 Jahren