Advent, Advent, 1 Monat weihnachtliche Laufzeit geschenkt.

Nicht bis zur Bescherung warten, Aktion nur gültig bis zum 18.12.2016!

Textversion des Videos

Transkript Statistik Video 61: Totale Wahrscheinlichkeit

Guten Tag, schön, dass ihr alle wieder zuguckt. Wir sind heute bei unserem Video zur totalen Wahrscheinlichkeit. Was ist die totale Wahrscheinlichkeit? Also, die totale Wahrscheinlichkeit, die Idee der totalen Wahrscheinlichkeit, startet mit einem Problem. Also, wir haben hier 3 Ereignisse A, B und C, von denen kennen wir auch die Wahrscheinlichkeit. Wir haben aber auch noch ein 4. Ereignis, nennen wir es mal D. Und von D kennen wir die Wahrscheinlichkeit nicht. Wir kennen nicht die Wahrscheinlichkeit von D, hätten sie aber gern. Das heißt, gesucht ist hier unser P(D). Da wir diese jetzt aber direkt nicht kriegen, also wir haben sie nicht, kriegen sie auch nicht so einfach, müssen wir uns etwas anderes überlegen. Genau das haben auch findige Leute getan und haben gesagt: Moment, wenn wir die Wahrscheinlichkeit von D nicht direkt kriegen, kriegen wir sie, vielleicht irgendwie zusammengesetzt, durch bedingte Wahrscheinlichkeiten. Ja, das funktioniert auch und wir zeigen heute auch mal wie. Also, was ist notwendig dafür? Naja, wir brauchen bedingte Wahrscheinlichkeiten, die brauchen wir schon mal. Das heißt, wir brauchen die Wahrscheinlichkeit von D unter A, also diesen Teil hier oben, alles, was die Schnittmenge von D und A ist. Und wir brauchen D unter B und wir brauchen D unter C. Also alle bedingten Wahrscheinlichkeiten, aber das reicht noch nicht. Nur aus den bedingten Wahrscheinlichkeiten können wir unsere totale Wahrscheinlichkeit von D, noch nicht rauskriegen. Wir brauchen auch noch die Wahrscheinlichkeiten der bedingenden Ereignisse. Ereignisse kürze ich mal ab. Die Wahrscheinlichkeiten der bedingenden Ereignisse, was bedeutet das genau? Wir brauchen quasi die Einzelwahrscheinlichkeiten von allen Ereignissen, mit denen wir unsere bedingten Wahrscheinlichkeiten ausrechnen. Wir haben ja gesagt, wir brauchen D unter A, das ist unsere bedingte Wahrscheinlichkeit, die wir brauchen. Und die Wahrscheinlichkeit unseres bedingenden Ereignisses wäre dann also die Wahrscheinlichkeit von A. A ist hier das bedingende Ereignis. Gleichzeitig brauchen wir aber auch, wenn wir D unter B benutzen wollen, brauchen wir auch die Wahrscheinlichkeit von B. Und bei D unter C, brauchen wir natürlich auch die Wahrscheinlichkeit von C. Also, wir brauchen die Wahrscheinlichkeit von allen bedingenden Ereignissen, zu den zugehörigen, bedingten Wahrscheinlichkeiten. Also in diesem Fall die Wahrscheinlichkeit von D unter A, die Wahrscheinlichkeit von D unter B, die Wahrscheinlichkeit von D unter C. Und die Wahrscheinlichkeit von A, von B und von C. O. k., das klingst jetzt alles noch ein bisschen kompliziert. Wir machen jetzt einfach mal die formale Herleitung und gucken uns an, wie das funktioniert. Gucken wir uns doch erst einmal die Wahrscheinlichkeiten an. Also, die Wahrscheinlichkeit von D, die haben wir nicht, die suchen wir. Die wollen wir haben, da wollen wir ja die totale Wahrscheinlichkeit berechnen. Die Wahrscheinlichkeit von A, die Wahrscheinlichkeit des bedingenden Ereignisses, haben wir. Die Wahrscheinlichkeit von D unter A, quasi diesen Teil hier oben, haben wir auch. Die Wahrscheinlichkeit D unter B, diesen Teil hier, haben wir auch. Die Wahrscheinlichkeit von B haben wir und die bedingte Wahrscheinlichkeit D unter C und die Wahrscheinlichkeit C, haben wir auch. Bzw. müssen wir haben, um die totale Wahrscheinlichkeit ausrechnen zu können. Wir gehen also davon aus, dass wir diese Wahrscheinlichkeiten tatsächlich auch haben. Und wenn wir das alles haben, können wir auch die totale Wahrscheinlichkeit ausrechnen. So, wie funktioniert das jetzt? Also, wir machen jetzt erst mal eine disjunkte Zerlegung von D, wir haben ja unser D hier. Und das können wir jetzt zerlegen, in verschiedene Einzelteile. Wir können also sagen, unser D=(D?A)u(D?B)u(D?C). Wir sagen quasi, unser D, unser Ereignis D hier, ist dieser Teil, also Schnittmenge D und A, vereinigt mit Schnittmenge D und C, vereinigt mit Schnittmenge D und B. Eine disjunkte Zerlegung, daher, da unsere 3 Ereignisse auch disjunkt sind, paarweise disjunkt und vollständig disjunkt. So haben wir das schon Mal. Was können wir jetzt sagen? Das können wir jetzt quasi bei unserer P(D) auch benutzen. Unsere Wahrscheinlichkeit von D ist jetzt also P(D)=P(D?A)+P(D?B)+P(D?C). Diese + Zeichen, also die Summe der Einzelwahrscheinlichkeiten kommt daher, dass alle Wahrscheinlichkeiten, die wir vereinigen, paarweise disjunkt sind. Daher können wir die Einzelwahrscheinlichkeiten vereinfacht aufaddieren. So, dass war auch schon eine wichtige Regel, die wir gelernt haben. Wenn alle Ereignisse, die wir vereinigen, paarweise disjunkt sind, können wir einfach die Einzelwahrscheinlichkeiten aufaddieren. So haben wir jetzt schon mal die Einzelwahrscheinlichkeiten, die hier stehen. P(D) ist also die Summe aller Einzelwahrscheinlichkeiten von D?A+D?B+D?C. Problem ist, diese Wahrscheinlichkeiten haben wir nicht. Wir haben nur die bedingten Wahrscheinlichkeiten, also P(D/C), das heißt, wir wissen, dass wir in C sind. In diesem Block wissen wir auch, dass es wahrscheinlich ist, dass wir in D sind. Aber wir wissen nicht genau wie groß jetzt dieser Anteil hier, an der Gesamtwahrscheinlichkeit ist. Gucken wir uns doch noch mal die Formel, für die bedingte Wahrscheinlichkeit, an. Also, P(D/C)=P(D?C)/P(C), das ist ja eine Gleichung, können wir also umstellen. Wenn wir jetzt das hier Isolieren wollen, multiplizieren wir einfach mit P(C). Dann haben wir P(D?C)=P(D/C)×P(C). Hier ist also genau der Part, den wir auch hier haben und hier ist das, was wir dafür einsetzen können, also nur bekannte Sachen. Wir haben P(C) und wir haben P(D/C), können wir also alles einsetzen. Ok, ich mache das Mal eben, ihr könnt das ja auch machen. Wir kommen also, wenn wir das alles einsetzen, darauf, dass P(D)=P(D/A)×P(A)+P(D/B)×P(B)+P(D/C)×P(C), also im Prinzip die bedingten Wahrscheinlichkeiten×Einzelwahrscheinlichkeiten der bedingenden Ereignisse. Das geht natürlich auch nicht nur mit 3 bedingenden Ereignissen, sondern im Prinzip mit n, also beliebig viel, solange sie alle paarweise disjunkt sind. So, über diesen Satz der totalen Wahrscheinlichkeit, bekommt man also die Wahrscheinlichkeit eines Ereignisses, an das man sonst nicht drankommt. Bedingung ist halt, man hat die Einzelwahrscheinlichkeiten der bedingenden Ereignisse und hat die bedingten Wahrscheinlichkeiten. Ja, das ist unter Umständen sehr hilfreich. In der nächsten Übung, im nächsten Video, zeige ich euch auch, in welchen Fällen man das braucht, wie man das denn rechnet und warum das praktisch ist. Ja, das war auch schon das Video zur totalen Wahrscheinlichkeit, wie gesagt im nächsten Video gibt es noch eine Übung, bevor wir uns dann im übernächsten Video mit dem Satz von Base widmen. Ich bedanke mich, wie immer, für das Zuschauen, freue mich schon auf das nächste Mal und sage tschüss.

Informationen zum Video