3 Wahrscheinlichkeit
3.1 Lernsteuerung
3.1.1 Position im Modulverlauf
Abbildung 1.1 gibt einen Überblick zum aktuellen Standort im Modulverlauf.
3.1.2 Überblick
Dieses Kapitel hat die Wahrscheinlichkeitstheorie (synonym: Wahrscheinlichkeitsrechnung) bzw. das Konzept der Wahrscheinlichkeit zum Thema.1 Es geht sozusagen um die Mathematik des Zufalls.
3.1.3 Wozu brauche ich dieses Kapitel?
Im wirklichen Leben sind Aussagen (Behauptungen) so gut wie nie sicher.
- “Weil sie so schlau ist, ist sie erfolgreich.”
- “In Elektroautos liegt die Zukunft.”
- “Das klappt sicher, meine Meinung.”
- “Der nächste Präsident wird XYZ.”
Aussagen sind nur mehr oder weniger (graduell) sicher. Wir können die Regeln der Wahrscheinlichkeitslogik verwenden, um den Grad der Sicherheit (von ganz unsicher bis ganz sicher) zu präzisieren. Daher sagt man auch, Wahrscheinlichkeit sei die Logik der Wissenschaft (Jaynes & Bretthorst, 2003).
3.1.4 Lernziele
Nach Absolvieren des jeweiligen Kapitels sollen folgende Lernziele erreicht sein.
Sie können …
- die Grundbegriffe der Wahrscheinlichkeitsrechnung erläuternd definieren
- die drei Arten der direkten Ermittlung von Wahrscheinlichkeit erläutern
- typische Relationen (Operationen) von Ereignissen anhand von Beispielen veranschaulichen
- mit Wahrscheinlichkeiten rechnen
3.1.5 Begleitliteratur
Lesen Sie zur Begleitung dieses Kapitels Bourier (2011), Kap. 2-4.
3.1.6 Eigenstudium
Dieses Kapitel ist selbständig im Eigenstudium vorzubereiten vor dem Unterricht. Lesen Sie dazu die angegebene Literatur.\(\square\)
3.1.7 Prüfungsrelevanter Stoff
Der Stoff dieses Kapitels deckt sich (weitgehend) mit Bourier (2011), Kap. 2-4. Weitere Übungsaufgaben finden Sie im dazugehörigen Übungsbuch, Bourier (2022).
In Ihrer Hochschul-Bibliothek kann das Buch als Ebook verfügbar sein. Prüfen Sie, ob Ihr Dozent Ihnen weitere Hilfen im geschützten Bereich (Moodle) eingestellt hat.\(\square\)
3.1.8 Zentrale Begriffe
3.1.8.1 Grundbegriffe
- Zufallsvorgang (Zufallsexperiment)
- Elementarereignis
- Ereignisraum
- Zufallsereignis (zufälliges Ereignis)
- Sicheres Ereignis
- Unmögliches Ereignis
3.1.8.2 Wahrscheinlichkeitsbegriffe
- Klassische Wahrscheinlichkeit (LaPlace’sche Wahrscheinlichkeit)
- Statistische (empirische) Wahrscheinlichkeitsermittlung
- Subjektive (Bayes) Wahrscheinlichkeitsermittlung
3.1.8.3 Wahrscheinlichkeitsrelationen
- Vereinigung von Ereignissen
- Schnitt(menge) von Ereignissen
- Komplementärereignis
- Vollständiges Ereignissystem
- Anforderungen an eine Definition von Wahrscheinlichkeit
3.1.8.4 Wahrscheinlichkeitsrechnung
- Allgemeiner Additionsssatz
- Disjunkte Ereignisse
- Additionssatz für disjunkte Ereignisse
- Bedingte Wahrscheinlichkeit
- (Stochastische) Unabhängigkeit
- Baumdiagramm für gemeinsame Wahrscheinlichkeit
- Allgemeiner Multiplikationssatz
- Multiplikationssatz für unabhängige Ereignisse
- Totale Wahrscheinlichkeit
- Satz von Bayes
3.1.9 Begleitvideos
3.2 Grundbegriffe
Beispiel 3.1 Klassisches Beispiel für einen Zufallsvorgang ist das (einmalige oder mehrmalige) Werfen einer Münze.\(\square\)
Werfen Sie eine Münze! Diese hier zum Beispiel:
Quelle: By OpenClipartVectors, CC0
Wiederholen Sie den Versuch 10 Mal.
Das reicht Ihnen nicht? Okay, wiederholen Sie den Versuch 100, nein 1000, nein: \(10^6\) Mal.2
Notieren Sie als Ergebnis, wie oft die Seite mit der Zahl oben liegen kommt (“Treffer”).\(\square\)
Oder probieren Sie die App der Brown University, wenn Sie keine Sehnenscheidenentzündung bekommen wollen.
Definition 3.1 (Zufallsvorgang) Ein Zufallsvorgang oder Zufallsexperiment ist eine einigermaßen klar beschriebene Tätigkeit, deren Ergebnis nicht bekannt ist. Allerdings ist die Menge möglicher Ergebnisse sicher und die Wahrscheinlichkeit für die Ergebnisse kann quantifiziert werden.\(\square\)
Übungsaufgabe 3.1 Nennen Sie Beispiele für Zufallsvorgänge!3
Zufall heißt nicht, dass ein Vorgang keine Ursachen hätte. So gehorcht der Fall einer Münze komplett den Gesetzen der Gravitation. Würden wir diese Gesetze und die Ausgangsbedingungen (Luftdruck, Fallhöhe, Oberflächenbeschaffenheit, Gewichtsverteilungen, …) exakt kennen, könnten wir theoretisch sehr genaue Vorhersagen machen. Der “Zufall” würde aus dem Münzwurf verschwinden. Man sollte “Zufall” also besser verstehen als “unbekannt”.\(\square\)
Übungsaufgabe 3.2 Mit dieser App können Sie Würfelwürfe simulieren und die Ausgänge dieses Zufallsexperiments beobachten.\(\square\)
Definition 3.2 (Ereignisraum) Die möglichen Ergebnisse eines Zufallvorgangs fasst man als Menge mit dem Namen Ereignisraum[leider gibt es eine Fülle synonymer Namen: Ereignisraum, Elementarereignisraum, Ergebnisraum oder Grundraum] zusammen. Man verwendet den griechischen Buchstaben \(\Omega\) für diese Menge. Die Elemente \(\omega\) (kleines Omega) von \(\Omega\) nennt man Ergebnisse.\(\square\)
Beispiel 3.2 Beobachtet man beim Würfelwurf (s. Abbildung 3.8) die oben liegende Augenzahl, so ist
\[\Omega = \{ 1,2,3,4,5,6 \} = \{⚀, ⚁, ⚂, ⚃, ⚄, ⚅\}\]
ein natürlicher Grundraum (Henze, 2019).\(\square\)
Die Wahrscheinlichkeitsrechnung baut auf der Mengenlehre auf, daher wird die Notation der Mengenlehre hier verwendet.
Definition 3.3 (Ereignis) Jede Teilmenge4 von \(\Omega\) heißt Ereignis; \(A \subseteq \Omega\) .\(\square\)
Beispiel 3.3 Beim Mensch-ärger-dich-nicht Spielen habe ich eine 6 geworfen.5 Das Nennen wir das Ereignis \(A\): “Augenzahl 6 liegt oben” und schreiben in Kurzform:
\(A= \{6\}\square\)
Beispiel 3.4 Sie werfen eine Münze (Sie haben keinen Grund, an ihrer Fairness zu zweifeln). “Soll ich jetzt lernen für die Klausur (Kopf) oder lieber zur Party gehen (Zahl)?”
Abbildung 3.2 zeigt die möglichen Ausgänge (T wie Treffer (Party) und N (Niete, Lernen)) dieses Zufallexperiments.
Das Ereignis Zahl ist eingetreten! Treffer! Glück gehabt!6\(\square\)
Definition 3.4 (Unmögliches und sicheres Ereignis) Die leere Menge \(\varnothing\) heißt das umögliche, der Grundraum \(\Omega\) heißt das sichere Ereignis. \(\square\)
Beispiel 3.5 (Unmögliches Ereignis) Alois behauptet, er habe mit seinem Würfel eine 7 geworfen. Schorsch ergänzt, sein Würfel liege auf einer Ecke, so dass keine Augenzahl oben liegt. Draco hat seinen Würfel runtergeschluckt. Dracos und Alois’ Ereignisse sind unmögliche Ereignisse, zumindest nach unserer Vorstellung des Zufallsexperiments.\(\square\)
Beispiel 3.6 (Sicheres Ereignis) Nach dem der Würfel geworfen wurde, liegt eine Augenzahl zwischen 1 und 6 oben.\(\square\)
Definition 3.5 (Elementarereignis) Jede einelementige Teilmenge \(\{\omega\}\) von \(\Omega\) heißt Elementarereignis (häufig mit \(A\) bezeichnet). 7 \(\square\)
Beispiel 3.7 (Elementarereignis)
Sie spielen Mensch-ärger-dich-nicht. Und brauchen dringend eine
6
. Sie würfeln. Das Ereignis \(A = \{1\}\) tritt ein.8Sie schreiben eine Statistik-Klausur. Irgendwie haben Sie das Gefühl, das Ergebnis sei ein Zufallsexperiment… Jedenfalls können nach Adam Riese zwei Dinge passieren: \(\Omega= \{\text{bestehen, nicht bestehen}\}\). Das erste der beiden Elementarereignisse tritt ein. Yeah!
Sie führen eine Studie durch zur Wirksamkeit einer Lern-App. Es ist nicht klar, ob die App wirklich was bringt für den Lernerfolg. Vereinfacht gesprochen ist der Grundraum dieses Experiments: \(\Omega = \{\text{schadet, bringt nichts, nützt}\}\). Die Daten sprechen für das Ereignis \(A = \{\text{bringt nichts}\}\).
Definition 3.6 (Vollständiges Ereignissystem) Wird der Grundraum \(\Omega\) vollständig in paarweis disjunkte Ereignisse zerlegt, so bilden diese Ereignisse ein vollständiges Ereignissystem, s. Abbildung 3.3.\(\square\)
Beispiel 3.8 Sei \(\Omega\) der typische Ereignisraum des Würfelwurfs. Wir zerlegen den Grundraum in zwei Ereignisse, \(A\) “gerade Zahlen”, und \(B\) “ungerade Zahlen”. Damit haben wir ein vollständiges Ereignissystem erstellt, s. Abbildung 3.4.
Ein Beispiel für ein vollständiges Ereignissystem
Beispiel 3.9 Sei \(\Omega\) der typische Ereignisraum des Würfelwurfs. Wir zerlegen den Grundraum in zwei Ereignisse, \(A\) “1,2,3”, und \(B\) “4,5,6”. Damit haben wir ein vollständiges Ereignissystem erstellt, s. Abbildung 3.4.
Definition 3.7 (Mächtigkeit) Die Anzahl der Elementarereignisse eines Ereignismraums nennt man die Mächtigkeit (des Ereignisraums).9\(\square\)
Die Mächtigkeit von \(\Omega\) bezeichnet man mit dem Symbol \(|\Omega|\).
Beispiel 3.10 Beim Wurf eines Würfels mit \(\Omega=\{1,2,3,4,5,6\}\) gibt es 6 Elementarereignisse. Die Mächtigkeit ist also 6: \(|\Omega|=6\).\(\square\)
3.3 Direkte Ermittlung von Wahrscheinlichkeiten
Wir haben schon mit Definition 2.6 eine erste Definition von Wahrscheinlichkeit versucht. Jetzt gehen wir die Sache noch etwas näher an.
3.3.1 Formallogische Wahrscheinlichkeit
Die formallogische Konzeption von Wahrscheinlichkeit sieht Wahrscheinlichkeit als Erweiterung der formalen Logik. 10 In der formalen Logik ist ein Ereignis entweder falsch oder wahr. In der formallogischen Konzeption wird der Platz zwischen “falsch” (0) und “richtig” (1 als die (nicht sichere) Wahrscheinlichkeit \(0<p<1\), gesehen (Briggs, 2016), s. Abbildung 3.6.
Nach dieser “Wahrscheinlichkeitslogik” kann man ein Ereignis, von dessen Eintreten man “wenig überzeugt” ist, z.B. mit 0.2 quantifizieren. Hingegen einem Ereignis, von man “recht sicher” ist, mit 0.8 quantifizieren, s. Abbildung 3.7.
Definition 3.8 (Indifferenzprinzip) Das Indifferenzprinzip (synonym: Prinzip des unzureichenden Grundes) besagt, dass in Abwesenheit jeglicher Informationen, die bestimmte Ereignisse bevorzugen oder benachteiligen würden, alle möglichen Ereignisse als gleich wahrscheinlich angesehen werden sollten. \(\square\)
Vor uns liegt ein Würfel. Schlicht, ruhig, unbesonders. Wir haben keinen Grund anzunehmen, dass eine seiner \(n=6\) Seiten bevorzugt nach oben zu liegen kommt. Jedes der sechs Elementarereignisse ist uns gleich plausibel; der Würfel erscheint uns fair. In Ermangelung weiteres Wissens zu unserem Würfel gehen wir schlicht davon aus, dass jedes der \(n\) Elementarereignis gleich wahrscheinlich ist. Es gibt keinerlei Notwendigkeit, den Würfel in die Hand zu nehmen, um zu einer Wahrscheinlichkeitsaussage auf diesem Weg zu kommen. Natürlich könnten wir unsere Auffassung eines fairen Würfels testen, aber auch ohne das Testen können wir eine stringente Aussage (basierend auf dem Indifferenzprinzip (s. Definition 3.8) der \(n\) Elementarereignisse) zur Wahrscheinlichkeit eines bestimmten (Elementar-)Ereignisses \(A\) kommen (Briggs, 2016), s. Gleichung 3.1.
\[Pr(A) = \frac{1}{n}= \frac{1}{|\Omega|} \tag{3.1}\]
Beispiel 3.11 Sei \(A\) = “Der Würfel wird beim nächsten Wurf eine 6 zeigen.” Die Wahrscheinlichkeit für \(A\) ist \(1/6. \square\)
Definition 3.9 (Laplace-Experimt) Ein Zufallsexperiment, bei dem alle Elementarereignisse die selbe Wahrscheinlichkeit haben, nennt man man ein Laplace-Experiment. \(\square\)
In Erweiterung von Gleichung 3.1 können wir für ein Laplace-Experiment schreiben, s. Gleichung 3.2.
\[Pr(A)=\frac{\text{Anzahl Treffer}}{\text{Anzahl möglicher Ergebnisse}} \tag{3.2}\]
3.3.2 Frequentistische Wahrscheinlichkeit
In Ermangelung einer Theorie zum Verhalten eines (uns) unbekannten Zufallsvorgangs und unter der Vermutung, dass die Elementarereignisse nicht gleichwahrscheinlich sind, bleibt uns ein einfacher (aber aufwändiger) Ausweg: Ausprobieren.
Angenommen, ein Statistik-Dozent, bekannt für seine Vorliebe zum Glücksspiel und mit scheinbar endlosen Glückssträhnen (er wirft andauernd eine 6), hat seinen Lieblingswürfel versehentlich liegen gelassen. Das ist die Gelegenheit! Sie greifen sich den Würfel, und … Ja, was jetzt? Nach kurzer Überlegung kommen Sie zum Entschluss, den Würfel einem “Praxistest” zu unterziehen: Sie werfen ihn 1000 Mal (Puh!) und zählen den Anteil der 6
. Falls der Würfel fair ist, müsste gelten \(Pr(A=6)=1/6\approx .17\). Schauen wir mal!
Und hier der Anteil von 6
im Verlauf unserer Würfe, s. Abbildung 3.8.
Hm, auf den ersten Blick ist kein (starkes) Anzeichen für Schummeln bzw. einen gezinkten Würfel zu finden.
3.3.3 Subjektive Wahrscheinlichkeit
Um subjektiv zu einer Wahrscheinlichkeit zu kommen, sagt man einfach seine Meinung. Das hört sich natürlich total plump an. Und tatsächlich besteht die Gefahr, dass die so ermittelten Wahrscheinlichkeiten aus der Luft gegriffen, also haltlos, sind.
Allerdings kann diese Art von Wahrscheinlichkeitsermittlung auch sehr wertvoll sein. In komplizierten Situation im echten Leben11 kommt man oft in die Situation, dass weder die formallogischen noch die frequentistische Variante verwendet werden kann. Dann muss man auf Schätzungen, Vorwissen, Erfahrung, theoretischen Überlegungen etc. zurückgreifen.
3.3.4 Kolmogorovs Wahrscheinlichkeitsdefinition
Wir richten eine Reihe von Forderungen an eine Definition von bzw. an das Rechnen mit Wahrscheinlichkeiten, die direkt plausibel erscheinen:12
- Nichtnegativität: Die Wahrscheinlichkeit eines Ereignisses kann nicht negativ sein.
- Normierung: Das sichere Ereignis hat die Wahrscheinlichkeit 1 bzw. 100%: \(Pr(\Omega)=1\); das unmögliche Ereignis hat die Wahrscheinlichkeit 0: \(Pr(\emptyset)=0\).
- Additivität. Sind \(A\) und \(B\) disjunkt, dann ist die Wahrscheinlichkeit, dass mindestens eines der beiden Ereignisse eintritt (\(A\cup B\)) gleich der Summe der beiden Einzelwahrscheinlichkeiten von \(A\) und \(B\).
3.4 Relationen von Ereignissen
Für das Rechnen mit Wahrscheinlichkeiten ist es hilfreich, ein paar Werkzeuge zu kennen, die wir uns im Folgenden anschauen.
Definition 3.10 (Relation) Eine Relation (zweier Ereignisse) bezeichnet die Beziehung, in der die beiden Ereignisse zueinander stehen. \(\square\)
Typische Relationen sind Gleichheit, Ungleichheit, Vereinigung, Schnitt.
3.4.1 Überblick
Wir gehen von Grundraum \(\Omega\) aus, mit dem Ereignis \(A\) als Teilmenge von \(\Omega\): \(A \subset \Omega\).
Da wir Ereignisse als Mengen auffassen, verwenden wir im Folgenden die beiden Begriffe synonym.
Dabei nutzen wir u.a. Venn-Diagramme. Venn-Diagramme eigenen sich, um typische Operationen (Relationen) auf Mengen zu visualisieren. Die folgenden Venn-Diagramme stammen von Wikipedia (En).
Venn-Diagramme zeigen Kreise und ihre überlappenden Teile; daraus lassen sich Rückschlüsse auf Rechenregeln für Wahrscheinlichkeiten ableiten. Viele Menschen tun sich leichter, Rechenregeln visuell aufzufassen als mit Formeln und Zahlen alleine. Aber entscheiden Sie selbst!\(\square\)
Diese App versinnbildlicht das Rechnen mit Relationen von Ereignissen anhand von Venn-Diagrammen.13
3.4.2 Vereinigung von Ereignissen
Definition 3.11 (Vereinigung von Ereignissen) Vereinigt man zwei Ereignisse \(A\) und \(B\), dann besteht das neue Ereignis \(C\) genau aus den Elementarereignissen der vereinigten Ereignisse. Man schreibt \(C = A \cup B\), lies: “C ist A vereinigt mit B”.\(\square\)
Abbildung 3.9 zeigt ein Venn-Diagramm zur Verdeutlichung der Vereinigung von Ereignissen.
Beispiel 3.12 Um einen (hohen!) Geldpreis zu gewinnen, muss bei ihrem nächsten Wurf mindestens eines der beiden Ereignisse \(A= {1,2}\) oder \(B={2,3}\) eintreten, s. Abbildung 3.10.
Zur besseren Verbildlichung betrachten Sie mal diese Animation zur Vereinigung von Mengen; Quelle.
In R heißt die Vereinigung von Mengen union()
. Praktisch zum Ausprobieren:
3.4.3 (Durch-)Schnitt von Ereignissen
Definition 3.12 (Schnittmenge von Ereignissen) Die Schnittmenge zweier Ereignisse \(A\) und \(B\) umfasst genau die Elementarereignisse, die Teil beider Ereignisse sind. Man schreibt: \(A \cap B.\)14 Lies: “A geschnitten B”. \(\square\)
Abbildung 3.11 zeigt ein Sinnbild zur Schnittmenge zweier Ereignisse.
Beispiel 3.13 Um einen (hohen!) Geldpreis zu gewinnen, muss bei ihrem nächsten Wurf sowohl das Ereignis \(A\) = “gerade Augenzahl” als auch \(B\) = “Augenzahl größer 4”, s. Abbildung 3.12.
Das Zeichen für eine Vereinigung zweier Mengen kann man leicht mit dem Zeichen für einen Schnitt zweier Mengen leicht verwechseln; daher kommt eine Eselbrücke gelesen, s. Abbildung 3.13.
3.4.4 Komplementärereignis
Definition 3.13 (Komplementärereignis) Ein Ereignis \(A\) ist genau dann ein Komplementärereignis zu \(B\), wenn es genau die Elementarereignisse von \(\Omega\) umfasst, die nicht Elementarereignis des anderen Ereignisses sind, s. Abbildung 3.15.\(\square\)
Man schreibt für das Komplementärereignis15 von \(A\) oft \(\bar{A}\) oder \(\neg A\)16; lies “Nicht-A” oder “A-quer”.
Beispiel 3.14 Beim normalen Würfelwurf sei \(A\) das Ereignis “gerade Augenzahl”; das Komplementärereignis17 ist dann \(\neg A\) “ungerade Augenzahl”, s. Abbildung 3.14.
3.4.5 Logische Differenz
Definition 3.14 (Logische Differenz) Die logische Differenz der Ereignisse \(A\) und \(B\) ist das Ereignis, das genau aus den Elementarereignissen besteht von \(A\) besteht, die nicht zugleich Elementarereignis von \(B\) sind, s. Abbildung 3.16.\(\square\)
Die logische Differenz von \(A\) zu \(B\) schreibt man häufig so: \(A \setminus B\); lies “A minus B”.
Beispiel 3.15 Sei \(A\) die Menge “große Zahlen” mit \(A = \{4,5,6 \}\). Sei \(B\) die Menge “gerade Zahlen” mit \(B = \{2,4,6\}\). Wir suchen die logische Differenz, \(A \setminus B\), s. Abbildung 3.17.
In R gibt es die Funktion setdiff()
, die eine Mengendifferenz ausgibt.
🤯 Von der Menge \(A\) die Menge \(B\) abzuziehen, ist etwas anderes, als von \(B\) die Menge \(A\) abzuziehen:
Code
setdiff(B, A)
## [1] 2
\(A \setminus B \ne B \setminus A\).
3.4.6 Disjunkte Ereignisse
Seien \(A= \{1,2,3\}; B= \{4,5,6\}\).
\(A\) und \(B\) sind disjunkt18: ihre Schnittmenge ist leer: \(A \cap B = \emptyset\), s. Abbildung 3.18.
Beispiel 3.16 Das Ereignis \(A\) “Gerade Augenzahl beim Würfelwurf”, \(A={2,4,6}\) und das Ereignis \(B\) “Ungerade Augenzahl beim Würfelwurf”, \(B={1,3,5}\) sind disjunkt, s. Abbildung 3.19.
Die Ereignisse “normaler Wochentag” und “Sonntag” sind disjunkt. \(\square\)
3.4.7 Vertiefung
3.5 Indirekte Ermittlung von Wahrscheinlichkeiten
Die indirekte Ermittlung von Wahrscheinlichkeiten meint das Ableiten von Wahrscheinlichkeitsaussagen, wenn man schon etwas über die Wahrscheinlichkeiten des Grundraums weiß. Dazu greift man auf Rechenregeln der Stochastik zurück: Man rechnet mit Wahrscheinlichkeiten. Das hört sich vielleicht wild an, ist aber oft ganz einfach.
Beispiel 3.17 (Wahrscheinlichkeit für eine gerade Zahl beim Würfelwurf) Ein (normaler) Würfel wird geworfen. Was ist die Wahrscheinlichkeit für eine gerade Zahl, also für das Ereignis \(A=\{2, 4, 6\}\)? Diese Wahrscheinlichkeit beträgt \(Pr(\text{gerade Zahl}) = 1/6 + 1/6 + 1/6 = 3/6 = 1/2\). \(\square\)
Beispiel 3.18 (Gezinkter Würfel) Ein gezinkter Würfel hat eine erhöhte Wahrscheinlichkeit für das Ereignis \(A=\)“6 liegt oben”, und zwar gelte \(Pr(A)=1/3\). Was ist die Wahrscheinlichkeit, keine 6
zu würfeln?\(\square\)19
3.6 Additionssatz
Der Additionssatz wird verwendet, wenn wir an der Wahrscheinlichkeit interessiert sind, dass mindestens eines der Ereignisse A und B eintritt. “Mindestens eines der Ereignisse A und” schreibt man \(A \cup B\) und sagt “A vereinigt B”.
3.6.1 Disjunkte Ereignisse
Gegeben sei \(\Omega = {1,2,3,4,5,6}\) beim normalen Würfelwurf. Als Sinnbild: \(\boxed{1\; 2\; 3\; 4\; 5\; 6}\). Gesucht sei die Wahrscheinlichkeit des Ereignis \(A=\{1,2\}\), das also eine 1 oder
eine 2 geworfen wird. Man beachte, dass die beiden Ergebnisse disjunkt sind, s. Abbildung 3.18.
\(\boxed{\boxed{1\; 2}\; \color{gray}{ 3\; 4\; 5\; 6}}\)
Die Wahrscheinlichkeit für \(A\) ist die Summe der Wahrscheinlichkeiten der einzelnen Ereignisse (1 und 2):
\(P(1 \cup 2) = \frac{1}{6} + \frac{1}{6} = \frac{2}{6}\)
Definition 3.15 (Additionssatz für disjunkte Ereignisse) Die Wahrscheinlichkeit, dass mindestens eines der beiden Ereignisse eintritt, ist die Summe der Einzelwahrscheinlichkeiten, s. Gleichung 3.3.
\[P(A \cup B) = P(A) + P(B) \square \tag{3.3}\] \(\square\)
Beispiel 3.19 Was ist die Wahrscheinlichkeit, an einem Samstag oder Sonntag geboren zu sein? Unter der (vereinfachten) Annahme, dass alle Jahre zu gleichen Teilen aus allen Wochentagen bestehen und dass an allen Tagen gleich viele Babies geworden werden20, ist die Antwort \(Pr(A)=1/7 + 1/7 = 2/7\).\(\square\)
3.6.2 Allgemein (disjunkt oder nicht disjunkt)
Bei der Addition der Wahrscheinlichkeiten für \(A\) und \(B\) wird der Schnitt \(A\cap B\) (der Überlappungsbereich) doppelt erfasst.21 Der Überlappungsbereich muss daher noch abgezogen werden, s. Abbildung 3.20.
Definition 3.16 (Allgemeiner Additionssatz) Die Wahrscheinlichkeit, dass mindestens eines der beiden Ereignisse \(A\) und \(B\) eintritt, ist gleich der Summe ihrer Wahrscheinlichkeiten minus ihrer gemeinsamen Wahrscheinlichkeit, s. Gleichung 3.4 und Abbildung 3.20.
\[P(A \cup B) = P(A) + P(B) - P(A\cap B) \square \tag{3.4}\]
Beispiel 3.20 (Lernen und Klausur bestehen) In einem angewandten Psychologie-Studiengang sind die Studis verdonnert, zwei Statistik-Module (\(S1, S2\)) zu belegen. Die meisten bestehen (\(B\)), einige leider nicht (\(N\)), s. Tabelle 3.1.
Ereignis \(S_1B\) sei “Klausur Statistik 1 bestanden” Ereignis \(S_2B\) ist analog für “Klausur Statistik 2”.
Wir suchen die Wahrscheinlichkeit des Ereignisses A, mindestens eine der beiden Klausuren zu bestehen: \(Pr(A) = Pr(S_1B \cup S_2B)\).
. | S1_B | S1_NB | Summe |
---|---|---|---|
S2_B | 85 | 9 | 94 |
S2_NB | 5 | 1 | 6 |
Summe | 90 | 10 | 100 |
Die Wahrscheinlichkeit, mindestens eine der beiden Klausuren zu bestehen liegt bei 99%. Umgekehrt liegt die Wahrscheinlichkeit, keine der beiden Klausuren zu bestehen, liegt bei \(Pr(\neg A) = 1- Pr(A) = 0.01 = 1\%\); ein Sachverhalt, der sich auch mit einem kurzen Blick in die Datentabelle erkennen lässt.\(\square\)
3.7 Bedingte Wahrscheinlichkeit
3.7.1 Illustration zur bedingten Wahrscheinlichkeit
Definition 3.17 (Bedingte Wahrscheinlichkeit) Die bedingte Wahrscheinlichkeit ist die Wahrscheinlichkeit, dass \(A\) eintritt, gegeben dass \(B\) schon eingetreten ist. \(\square\)
Man schreibt: \(Pr(A|B).\) Lies: “A gegeben B” oder “A wenn B”.
Übungsaufgabe 3.3 Schauen Sie sich mal diese Wahnsinnsanimation von Victor Powell an zu bedingten Wahrscheinlichkeiten. Hammer!
Abbildung 3.21 illustriert unbedingte Wahrscheinlichkeit, \(Pr(A), Pr(B)\), gemeinsame Wahrscheinlichkeit \(P(A \cap B)\), und bedingte Wahrscheinlichkeit, \(P(A|B)\).
Beispiel 3.21 (Bedingte Wahrscheinlichkeit) Sei \(A\) “Schönes Wetter” und \(B\) “Klausur steht an”. Dann meint \(Pr(A|B)\) die Wahrscheinlichkeit, dass das Wetter schön ist, wenn gerade eine Klausur ansteht.\(\square\)
Beispiel 3.22 (Von Päpsten und Männern) Man(n) beachte, dass die Wahrscheinlichkeit, Papst \(P\) zu sein, wenn man Mann \(M\) ist etwas anderes ist, als die Wahrscheinlichkeit, Mann zu sein, wenn man Papst ist: \(Pr(P|M) \ne Pr(M|P)\). Das hört sich erst verwirrend an, aber wenn man darüber nachdenkt, wird es plausibel.\(\square\)
Beispiel 3.23 Gustav Groß-Gütz verkauft eine Tinktur22, die schlau machen soll, “Gützis Gehirn Grütze”.23 Gustav trinkt die Grütze und sagt schlaue Dinge. Was schließen wir daraus? Sei \(H\) (wie Hypothese) “Gützis Grütze macht schlau”; sei \(D\) (wie Daten) die Beobachtung, dass Gustav schlaue Dinge gesagt hat. Ohne exakte Zahlen zu suchen, wie hoch ist wohl \(Pr(D|H)\)? In Worten: “Wie wahrscheinlich ist es, schlaue Dinge gesagt zu haben, wenn die Grütze wirklich schlau macht?”. Vermutlich ist diese Wahrscheinlichkeit sehr hoch. Aber wie hoch ist wohl \(Pr(H|D)\)? In Worten: “Wie wahrscheinlich ist es, dass die Grütze wirklich schlau macht, gegeben, dass wir gesehen hat, dass jemand etwas schlaues gesagt hat, nachdem er besagte Grütze getrunken hat?” Skeptische Geister werden der Meinung sein, \(Pr(H|D)\) ist gering. Das Beispiel zeigt u.a. \(Pr(H|D) \ne Pr(D|H).\square\)
3.7.2 Bedingte Wahrscheinlichkeit als Filtern einer Tabelle
Betrachten wir Tabelle 3.2. Dort sind sind vier Tage aufgelistet, mit jeweils Regen (oder kein Regen) bzw. an denen es kalt ist (oder nicht). Filtern wir z.B. die Tabelle so, dass nur kalte Tage übrig bleiben, dann gibt der Anteil der Zeilen, die “Regen” anzeigen, die bedingte Wahrscheinlichkeit \(Pr(\text{Regen}|\text{kalt})\) an.
Also: Das Berechnen einer bedingten Wahrscheinlichkeit, \(Pr(A|B)\), ist vergleichbar zum Filtern einer Tabelle, s. Tabelle 3.3.
id | kalt | Regen |
---|---|---|
1 | 0 | 0 |
2 | 0 | 1 |
3 | 1 | 0 |
4 | 1 | 1 |
SUMME | 2 | 2 |
Es ergeben sich folgende Wahrscheinlichkeiten:
\(Pr(A) = 2/4; Pr(B) = 2/4; Pr(A \cap B) = 1/4; Pr(A|B) = 1/2\)
Die Wahrscheinlichkeit für \(A\), wenn \(B\) schon eingetreten ist, berechnet sich so, s. Gleichung 3.5 und Abbildung 3.21 (c).
\[Pr(A|B) = \frac{Pr(A \cap B)}{Pr(B)} \tag{3.5}\]
Außerdem gilt analog
\[Pr(B|A) = \frac{Pr(B \cap A)}{Pr(A)} \tag{3.6}\]
Beispiel 3.24 (Lernen und Klausur bestehen) Sie bereiten sich gerade auf die Klausur bei Prof. Süß vor. Das heißt: Sie überlegen, ob Sie sich auf die Klausur vorbereiten sollten. Vielleicht lohnt es sich ja gar nicht? Vielleicht ist die Wahrscheinlichkeit zu bestehen, wenn man nicht gelernt hat, sehr groß? Aber da Sie nun mal auf Fakten stehen, haben Sie sich nach einiger Recherche folgende Zahlen besorgen können, s. Tabelle 3.4. In der Tabelle sind die Daten von 100 Studis ausgewiesen. Ein Teil hat sich vorbereitet, ordentlich gelernt, nenen wir sie die “Lerner”. Ein anderer Teil hat nicht gelernt, \(NL\) bzw. \(\neg L\). Ein Teil hat bestanden, \(B\), ein Teil nicht \(NB\) oder \(\neg B\).
Wir suchen die Wahrscheinlichkeit, zu bestehen, wenn man nicht gelernt hat: \(Pr(B |\neg L)\).
. | L | NL | Summe |
---|---|---|---|
B | 80 | 1 | 81 |
NB | 5 | 14 | 19 |
Summe | 85 | 15 | 100 |
Die Wahrscheinlichkeit, zu bestehen, wenn man nicht gelernt hat, liegt bei 1 von 15, also ca. 7%.24 \(\square\)
Beispiel 3.25 (Kalt und Regen) Die Wahrscheinlichkeit, dass es kalt ist, wenn es regnet, ist gleich der Wahrscheinlichkeit, dass es gleichzeitig kalt ist und regnet, geteilt durch die Wahrscheinlichkeit, dass es regnet.\(\square\)
3.8 Stochastische (Un-)Abhängigkeit
3.8.1 Unabhängigkeit
Stochastische Unabhängigkeit ist ein Spezialfall von Abhängigkeit: Es gibt sehr viele Ausprägungen für Abhängigkeit, aber nur eine für Unabhängigkeit. Können wir Unabhängigkeit nachweisen, haben wir also eine starke Aussage getätigt.
Definition 3.18 (Stochastische Unabhängigkeit) Zwei Ereignisse sind (stochastisch) unabhängig voneinander, wenn die Wahrscheinlichkeit von \(A\) nicht davon abhängt, ob \(B\) der Fall ist, s. Gleichung 3.7. Anders gesagt:25
\[Pr(A|B) = Pr(A) = Pr(A|\neg B). \square \tag{3.7}\]
Die Unabhängigkeit von \(A\) und \(B\) wird manchmal so in Kurzschreibweise ausgedrückt: \(\perp \!\!\! \perp(A, B) \square\).
Setzt man Gleichung 3.6 in Gleichung 3.7 (linke Seite) ein, so folgt26
\[Pr(A \cap B) = Pr(A) \cdot Pr(B). \tag{3.8}\]
Beispiel 3.26 (Augenfarbe und Statistikliebe) Ich vermute, dass die Ereignisse \(A\), “Augenfarbe ist blau”, und \(B\), “Ich liebe Statistik”, voneinander unabhängig sind.\(\square\)27
Beispiel 3.27 (Überleben auf der Titanic) S. Abbildung 3.22, links: Überleben (Ü) auf der Titanic ist offenbar abhängig von der Passagierklasse (\(K_1, K_2, K_3\)). In Abbildung 3.22, links gilt also \(Pr(Ü|K_1) \ne Pr(Ü|K_2) \ne Pr(Ü|K_3) \ne Pr(Ü)\).
Auf der anderen Seite: Das Ereignis Überleben (Ü) auf der Titanic ist unabhängig vom Ereignis Alter ist eine Primzahl (P), s. Abbildung 3.22, rechts. Also: \(Pr(Ü|P) = Pr(Ü|\neg P) = Pr(Ü)\), vgl. Tabelle 3.5.
Age_prime | n | prop |
---|---|---|
0 | ||
non-prime | 96 | 0.17 |
prime | 453 | 0.83 |
1 | ||
non-prime | 58 | 0.17 |
prime | 282 | 0.83 |
3.8.2 Abhängigkeit
Liegt keine Unabhängigkeit vor, so spricht man von (stochatistischer) Abhängigkeit, s. Gleichung 3.9. In diesem Fall verändert sich unser Wissen über die Wahrscheinlihkeit von \(A\), wenn wir wissen, dass \(B\) eingetroffen ist, s. Gleichung 3.9.
\[Pr(A|B) \ne Pr(A) \ne Pr(A|\neg B) \tag{3.9}\]
Gleichung 3.9 gilt natürlich in dieser Form für alle anderen Variablen ebenso, s. z.B. Gleichung 3.10.
\[Pr(B|A) \ne Pr(B) \ne Pr(B|\neg A) \tag{3.10}\]
Beispiel 3.28 Die Ereignisse “Lernen” und “Klausur bestehen” seien voneinander abhängig. Unsere Ansicht zur Wahrscheinlichkeit von K ändert sich, wenn wir wissen, dass L vorliegt. Genauso wird sich unsere Einschätzung zur Wahrschienlichkeit von K ändern, wenn wir wissen, dass L nicht vorliegt. \(\square\)
Beispiel 3.29 (Zusammenhang von Covidsterblichkeit und Impfquote) Sind die Ereignisse Tod durch Covid bzw. Impfquote (\(A\)) und Land28 (\(B\)) voneinander abhängig (s. Abbildung 3.23)?
Ja, die beiden Ereignisse sind abhängig, da in beiden Diagrammen gilt: \(P(A|B) \ne Pr(A) \ne Pr(A|\neg B)\).\(\square\)29
3.8.3 Unabhängigkeit ist symmetrisch
Stochastische Unabhängigkeit ist symmetrisch: Wenn \(A\) unabhängig zu \(B\) ist auch \(B\) unabhängig zu \(A\), s. Gleichung 3.11.
\[Pr(A|B) = Pr(A) \leftrightarrow Pr(B|A) = Pr(B) \tag{3.11}\]
Man beachte, dass stochastische Unabhängigkeit und kausale Unabhängigkeit unterschiedliche Dinge sind (Henze, 2019): Stochastische Unabhängigkeit impliziert nicht kausale Unabhängigkeit.
3.9 Multiplikationssatz
Gegeben seien die Ereignisse \(A\) und \(B\). Der Multiplikationssatz wird verwendet, wenn wir an der Wahrscheinlichkeit interessiert sind, dass beide Ereignisse \(A\) und \(B\) eintreten; s. Abbildung 3.21 (d) verdeutlicht dies für zwei unabhängige Ereignisse. Man schreibt “A und B” als \(A \cap B\) und liest “A geschnitten B”.
Beispiel 3.30 (Wieder kalt und Regen) Es ist eine Sache, zu fragen, wie wahrscheinlich ist ist, dass kalt ist, wenn es regnet (bei Regen): \(Pr(k|R)\). Eine andere Sache ist es, nach der Wahrscheinlichkeit zu fragen, dass es gleichzeitig kalt ist und regnet, dass also beide Ereignisse (kalt und Regen) eintreten: \(Pr(k \cap R)\). \(\square\)
3.9.1 Gemeinsame Wahrscheinlichkeit unabhängiger Ereignisse
Beispiel 3.31 Wir führen das Zufallsexperiment “Wurf einer fairen Münze” zwei Mal aus (Abbildung 3.24). Wie groß ist die Wahrscheinlichkeit, 2 Mal Kopf zu werfen? Dabei vereinbaren wir, dass “Kopf” als “Treffer” zählt (und “Zahl” als “Niete”).\(\square\)
Abbildung 3.24 zeigt ein Baumdiagramm. Jeder Kasten (Knoten) zeigt ein Ergebnis des Zufallexperiments. Die Pfeile (Kanten) symbolisieren die Abfolge des Experiments: Vom “Start” (schwarzer Kreis) führen zwei mögliche Ergebniss ab, jeweils mit Wahrscheinlichkeit 1/2. Die untersten Knoten nennt man auch Blätter (Endknoten), sie zeigen das Endresultat des (in diesem Fall) zweifachen Münzwurfs. Der Weg vom Start zu einem bestimmten Blatt nennt man Pfad. Die Anzahl der Pfade entspricht der Anzahl der Blätter. In diesen Diagramm gibt es vier Pfade (und Blätter).
Den Wurf der ersten Münze nennen wir in gewohnter Manier \(A\); den Wurf der zweiten Münze \(B\).
Die Wahrscheinlichkeiten der resultierenden Ereignisse finden sich in Tabelle 3.6.
Ereignis | Pr |
---|---|
0K | 1/2 * 1/2 = 1/4 |
1K | 1/4 + 1/4 = 1/2 |
2K | 1/2 * 1/2 = 1/4 |
Sei \(K_1\) das Ereignis, mit der 1. Münze Kopf zu werfen; sei \(K_2\) das Ereignis, mit der 2. Münze Kopf zu werfen-
Wir suchen \(Pr(K_1 \cap K_2)\). Aufgrund der stochastischen Unabhängigkeit der beiden Ereignisse gilt: \(Pr(K_1 \cap K_2) = Pr(K_1) \cdot Pr(K_2)\).
Code
Pr_K1K2 <- 1/2 * 1/2
Pr_K1K2
## [1] 0.25
Definition 3.19 (Multiplikationssatz für unabhängige Ereignisse) Die Wahrscheinlichkeit, dass zwei (oder mehr) unabhängige Ereignisse \(A\) und \(B\) gemeinsam eintreten, ist gleich dem Produkt ihrer jeweiligen Wahrscheinlichkeiten, s. Gleichung 3.12. \(\square\)
\[Pr(A \cap B) = Pr(A) \cdot Pr(B) \tag{3.12}\]
Man beachte, dass es egal ist, ob \(A\) gemeinsam mit \(B\) oder \(B\) gemeinsam mit \(A\) eintreten: \(Pr(A \cap B) = Pr(B \cap A)\).30
Mit dieser App können Sie das Baumdiagramm für den zweifachen Münzwurf näher erkunden.
Wir führen das Zufallsexperiment “Wurf einer fairen Münze” drei Mal aus (Abbildung 3.25). Dabei vereinbaren wir wieder, dass “Kopf” (K) als “Treffer” gilt und “Zahl” (Z) als “Niete”.
Beim Wurf von “fairen” Münzen gehen wir davon aus, dass Kenntnis des Ergebnis des 1. Wurfes unsere Einschätzung des Ergebnis des 2. Wurfes nicht verändert etc. Anders gesagt: Wir gehen von (stochastischer) Unabhängigkeit aus.
Für z.B. das Ereignis \(A=\{ZZZ\}\) gilt: \(Pr(A) = 1/2 \cdot 1/2 \cdot 1/2 = (1/2)^3\). Da jeder Endknoten (jedes Blatt) gleichwahrscheinlich ist, ist die Wahrscheinlichkeit jeweils gleich.
Allgemeiner gilt: Für ein Zufallsexpriment, das aus \(k\) Wiederholungen besteht und in jeder Wiederholung die Wahrscheinlichkeit \(Pr(X)=p\) ist, so ist die Wahrscheinlichkeit für einen Endkonten \(Pr(X^k)=p^k\).
Da die Endknoten disjunkte Elementarereignisse sind, kann man ihre Wahrscheinlichkeit addieren, um zu anderen (zusammengesetzten) Ereignissen zu kommen, vgl. Tabelle 3.7.
Abbildung 3.21 versinnbildlicht nicht nur die Bedingtheit zweier Ereignisse, sondern auch die (Un-)Abhängigkeit zweier Ereignisse, \(A\) und \(B\). In diesem Fall ist die Wahrscheinlichkeit von \(A\) gleich \(B\): \(Pr(A)=Pr(B)=.5\). Man sieht, dass die Wahrscheinlichkeit von \(A\) bzw. von \(B\) jeweils die Hälfte der Fläche (der Gesamtfläche, d.h von \(Pr(\Omega)=1\)) ausmacht. Die Schnittmenge der Fläche von \(A\) und \(B\) entspricht einem Viertel der Fläche: \(Pr(AB) = Pr(A) \cdot Pr(B) = 50\% \cdot 50\% = 25\%.\) In diesem Fall sind \(A\) und \(B\) unabhängig. Abbildung 3.21 zeigt weiterhin, dass gilt: \(P(A\cap B) = P(A) \cdot P(B) = P(B) \cdot P(A)\). Man beachte dass diese Formel nur bei Unabhängigkeit (von A und B) gilt.
3.9.2 Gemeinsame Wahrscheinlichkeit abhängiger Ereignisse
Ein Baumdiagramm bietet sich zur Visualisierung abhängiger Ereignisse an, s. Abbildung 3.26. Für unabhängige Ereignisse übrigens auch.
Beispiel 3.32 In einer Urne befinden sich fünf Kugeln, von denen vier rot sind und eine blau ist.
Hier ist unsere Urne:
\[\boxed{\color{red}{R, R, R, R}, \color{blue}B}\]
Wie groß ist die Wahrscheinlichkeit, dass bei zwei Ziehungen ohne Zurücklegen (ZOZ) zwei rote Kugeln gezogen werden (Bourier, 2011), S. 47. Ereignis A: “Kugel im 1. Zug hat die Farbe Rot”. Ereignis B: “Kugel im 2. Zug hat die Farbe Rot”.
Und jetzt ziehen wir. Hier ist das Baumdiagramm, s. Abbildung 3.26.
flowchart LR A[Start] -->|4/5|B[Zug 1 - R] A -->|1/5|C[Zug 1 - B] B -->|3/4|D[Zug 2 - R] B -->|1/4|E[Zug 2 - B] D --- H[Fazit: RR - 4/5*3/4 = 12/20] E --- I[Fazit: RB - 4/5*1/4 = 4/20] C -->|4/4|F[Zug 2 - R] C -->|0/4|G[Zug 2 - B] F --- J[Fazit: BR - 1/5*4/4 = 4/20] G --- K[Fazit: BB - 1/5*0/4 = 0/20]
Wie man in Abbildung 3.26 nachrechnen kann gilt also: \(P(A\cap B) = P(A) \cdot P(B|A) \square\).
Definition 3.20 Die Wahrscheinlichkeit, dass zwei abhängige Ereignisse \(A\) und \(B\) gemeinsam eintreten, ist gleich dem Produkt der Wahrscheinlichkeit von \(A\) und der bedingten Wahrscheinlichkeit von \(B\) gegeben \(A\), s. Gleichung 3.13. \(\square\)
\[Pr(A \cap B) = Pr(A) \cdot Pr(B|A) \tag{3.13}\]
Beispiel 3.33 (Kalt und Regen) Von McElreath (2020) stammt diese Verdeutlichung der gemeinsamen Wahrscheinlichkeit. Was ist die Wahrscheinlichkeit für das gemeinsame Auftreten von kalt ❄ und Regen ⛈️? Die Wahrscheinlichkeit für kalt und Regen ist die Wahrscheinlichkeit von Regen ⛈, wenn’s kalt ❄ ist mal die Wahrscheinlichkeit von Kälte ❄.
Ebenfalls gilt: Die Wahrscheinlichkeit für kalt und Regen ist die Wahrscheinlichkeit von Kälte ❄, wenn’s regnet ⛈️ mal die Wahrscheinlichkeit von Regen ⛈️.
Das Gesagte als Emoji-Gleichung ist in Gleichung 3.14 dargestellt.
\[P(❄️ \text{ und } ⛈️) = P(⛈️ |❄️ ) \cdot P(❄️) = P(❄️ |⛈️ ) \cdot P(⛈️) \tag{3.14}\]
Man kann die “Gleichung drehen”31:
\[P(❄️ \text{ und } ⛈️) = P(⛈️ \text{ und } ❄️) \tag{3.15}\] \(\square\)
Beispiel 3.34 (Bertie Botts Bohnen jeder Geschmacksrichtung)
Sei bloß vorsichtig mit denen. Wenn sie sagen jede Geschmacksrichtung, dann meinen sie es auch - Du kriegst zwar alle gewöhnlichen wie Schokolade und Pfefferminz und Erdbeere, aber auch Spinat und Leber und Kutteln. George meint, er habe mal eine mit Popelgeschmack gehabt.“
— Ron Weasley zu Harry Potter32
In einem Beutel liegen \(n=20\) Bertie Botts Bohnen jeder Geschmacksrichtung. Uns wurde verraten, dass fast alle gut schmecken, also z.B. nach Schokolade, Pfefferminz oder Marmelade. Leider gibt es aber auch \(x=2\) furchtbar scheußliche Bohnen (Ohrenschmalz-Geschmacksrichtung oder Schlimmeres). Sie haben sich nun bereit erklärt, \(k=2\) Bohnen zu ziehen. Und zu essen, und zwar direkt und sofort! Also, jetzt heißt es tapfer sein. Ziehen und runter damit!
Wie groß ist die Wahrscheinlichkeit, genau eine scheußliche Bohne zu erwischen?
Es gibt 2 Pfade für 1 Treffer bei 2 Wiederholungen (Züge aus dem Beutel):
Code
Pfad1 <- 3/20 * 17/19 # scheußliche Bohne im 1. Zug
Pfad2 <- 17/20 * 3/19 # scheußliche Bohne im 2. Zug
Gesamt_Pr <- Pfad1 + Pfad2
Gesamt_Pr
## [1] 0.2684211
Nutzen Sie diese App, um das auszuprobieren. Sie müssen in der App noch die Zahl der Bohnen (\(n\)) und die Zahl der scheußlichen Bohnen (\(x\)) einstellen.\(\square\)
Definition 3.21 (Kettenregel) Allgemein gesagt, spricht man von der Kettenregel der Wahrscheinlichkeitsrechnung, wenn man die gemeinsame Wahrscheinlichkeit auf die bedingte zurückführt, s. Gleichung 3.16.
\[P(A\cap B) = P(A) \cdot P(B|A) = P(B) \cdot P(A|B) \square \tag{3.16}\]
In Worten: Die Wahrscheinlichkeit von \(A\) gegeben \(B\) ist gleich der Wahrscheinlichkeit von \(A\) mal der Wahrscheinlichkeit von \(B\) gegeben \(A\).
Übungsaufgabe 3.4 (Baumdiagramm sucht Problem) Überlegen Sie sich eine Problemstellung (Aufgabenstellung), die mit dieser Baumdiagramm-App gelöst werden kann.\(\square\)
3.10 Totale Wahrscheinlichkeit
Beispiel 3.35 (Gesamter Ausschussanteil) Die folgende Aufgabe bezieht sich auf Bourier (2011), S. 56. Drei Maschinen (\(M_1, M_2, M_3\)) produzieren einen Artikel. Die Maschinen haben einen Anteil an der Produktion von 60, 10 bzw. 30% und eine Ausschussquote von 5,2 bzw. 4%. Sei \(M\) das Ereignis, dass ein Artikel von Maschine \(M\) stammt, und \(S\) (Schrott) das Ereignis, dass ein Artikel Ausschuss (Schrott) ist. Wie groß ist der Ausschussanteil insgesamt (über alle drei Maschinen?) Anders gesagt: Wie hoch ist die Wahrscheinlichkeit, dass ein zufällig gezogener Artikel Ausschuss ist. Abbildung 3.27 zeigt das Baumdiagramm für die Aufgabe. \(\square\)
flowchart LR A[Start] -->|0.6|B[M1] A -->|0.1|C[M2] A -->|0.3|D[M3] B -->|0.05|E[S] B -.->|0.95|F[Nicht-S] C -->|0.02|G[S] C -.->|0.98|H[Nicht-S] D -->|0.04|I[S] D -.->|0.96|J[Nicht-S]
Gesucht ist also die Wahrscheinlichkeit \(P(B)\); \(A\) ist ein vollständiges Ereignissystem.
Dazu addieren wir die Wahrscheinlichkeiten der relevanten Äste. Jeder Ast stellt wiederum das gemeinsame Auftreten der Ereignisse \(A_i\) und \(B\) dar.
Code
W_Ast1 <- 0.6 * 0.05 # Wahrscheinlichkeit für Ast 1
W_Ast2 <- 0.1 * 0.02 # ... Ast 2
W_Ast3 <- 0.3 * 0.04 # ... Ast 3
W_total <- W_Ast1 + W_Ast2 + W_Ast3 # totale W.
W_total
## [1] 0.044
Die totale Wahrscheinlichkeit (für Ausschuss) beträgt in diesem Beispiel also \(P(B) = 4.4\%\).33
Definition 3.22 (Totale Wahrscheinlichkeit) Bilden die Ereignisse \(A_1, A_2, ..., A_n\) ein vollständiges Ereignissystem und ist \(B\) ein beliebiges Ereignis dann gilt Gleichung 3.17.
\[Pr(B) = \sum_{i=1}^n Pr(A_i) \cdot Pr(B|A_i).\square \tag{3.17}\]
Man kann die totale Wahrscheinlichkeit auffassen als die Summe der gewichteten Teil-Wahrscheinlichkeiten.
In Abbildung 3.27 (Beispiel 3.35) gilt \(Pr(B) = 0.6 \cdot 0.05 + 0.1 \cdot 0.02 + 0.3 \cdot 0.04 = 0.03 + 0.002 + 0.012 = 0.04.\square\)
Übungsaufgabe 3.5 (Bertie Botts Bohnen jeder Geschmacksrichtung, Teil 2) Es ist die gleich Aufgabe wie Beispiel 3.34, aber jetzt lautet die Frage: Wie groß ist die Wahrscheinlichkeit, mindestens eine scheußliche Bohne bei 3 Zügen zu erwischen?34 \(\square\)
3.10.1 Baumsammlung
Baumdiagramme sind ein hilfreiches Werkzeug für wiederholte Zufallsexperimente. Daher ist hier eine “Baumsammlung”35 zusammengestellt.
- Sie werfen 1 Münze, Abbildung 3.2.
- Sie werfen 2 Münzen, Abbildung 3.24.
- Sie werfen 3 Münzen, Abbildung 3.25.
- Sie werfen 4 Münzen, Abbildung 4.1.
- Sie werfen 9 Münzen, 🤯 Abbildung 5.7.
3.11 Vertiefung
Bei Henze (2019) findet sich eine anspruchsvollere Einführung in das Rechnen mit Wahrscheinlichkeit; dieses Kapitel behandelt ein Teil des Stoffes der Kapitel 2 und 3 von Henze (2019).
Mit dieser App, die ein zweistufiges Baumdiagramm zeigt, können Sie das Verhalten von verschiedenen Arten von Wahrscheinlichkeiten weiter untersuchen.
Diese App lässt dich herausfinden, ob man wirklich krank ist, wenn der Arzt es bheauptet.
Das Video zu Bayes von 3b1b verdeutlicht das Vorgehen der Bayes-Methode auf einfache und anschauliche Weise.
Mittag & Schüller (2020) stellen in Kap. 11 die Grundlagen der Wahrscheinlichkeitstheorie vor. Ähnliche Darstellungen finden sich in einer großen Zahl an Lehrbüchern.
3.12 Aufgaben
Bearbeiten Sie die Aufgabe in der angegeben Literatur.
Die Webseite datenwerk.netlify.app stellt eine Reihe von einschlägigen Übungsaufgaben bereit. Sie können die Suchfunktion der Webseite nutzen, um die Aufgaben mit den folgenden Namen zu suchen:
3.12.1 Paper-Pencil-Aufgaben
3.12.2 Aufgaben, für die man einen Computer braucht
3.13 —
Die Wahrscheinlichkeitstheorie bildet zusammen mit der Statistik das Fachgebiet der Stochastik.↩︎
\(10^6 = 1000000\)↩︎
Beispiele für Zufallsexperimente sind das Werfen einer Münze, das Ziehen einer Karte aus einem Kartenspiel, das Messen eines Umweltphänomens wie der Temperatur oder die Anzahl der Kunden, die einen Laden betreten. In jedem dieser Fälle sind die möglichen Ergebnisse nicht im Voraus bekannt und hängen von nicht komplett bekannten Faktoren ab.↩︎
\(A\) ist eine Teilmenge von \(B\), wenn alle Elemente von \(A\) auch Teil von \(B\) sind.↩︎
Schon wieder.↩︎
?↩︎
Ein Ergebnis ist ein Element von \(\Omega\). Elementarereignisse sind die einelementigen Teilmengen von \(\Omega\). Konzeptionell sind die beiden Begriffe sehr ähnlich, vgl. https://de.wikipedia.org/wiki/Ergebnis_(Stochastik). Wir werden uns hier auf den Begriff Elementarereignis konzentrieren und den Begriff Ergebnis nicht weiter verwenden.↩︎
Na toll.↩︎
Die Menge aller Teilmengen einer Menge \(A\) nennt man die Potenzmenge \(\mathcal{P}(A)\), vgl. hier.↩︎
Manchmal wird diese Art der Wahrscheinlichkeit auch epistemologische Wahrscheinlichkeit genannt.↩︎
die sog. “Praxis”↩︎
Ein Herr Kolmogorov hat das mal aufgeschrieben.↩︎
Synonym und kürzer: \(AB\) anstelle von \(A \cap B\).↩︎
synonym: Komplement↩︎
manchmal auch \(A^C\); C wie complementary event↩︎
das “Komplement”, nicht zu verwechseln mit “Kompliment”↩︎
engl. disjoint↩︎
Die Wahrscheinlichkeit, keine
6
zu würfeln, liegt bei \(2/3\).↩︎vermutlich gibt es noch mehr Annahmen, die wir uns explizit machen sollten.↩︎
sofern sie nicht disjunkt sind, aber wenn sie disjunkt sind, so ist der Schnitt gleich Null und wir machen auch dann nichts falsch.↩︎
genauer besehen sieht sie eher aus wie eine Grütze oder ein Brei↩︎
Sie schmeckt scheußlich.↩︎
\(Pr(L).85; Pr(\neg L) = .15; Pr(B) =.81; Pr(\neg B) = .19\)↩︎
Exakte Gleichheit ist in dieser Welt empirisch schwer zu finden. Daher kann man vereinbaren, dass Unabhängigkeit erfüllt ist, wenn die Gleichheit “einigermaßen” oder “ziemlich” gilt, die Gleichheit gewissermaßen “praktisch bedeutsam” ist.↩︎
Vgl. Gleichung 3.12↩︎
Wer Daten dazu hat oder eine Theorie, der melde sich bitte bei mir.↩︎
hier mit den zwei Ausprägungen DEU und USA↩︎
Daten von Our World in Data, https://ourworldindata.org/covid-deaths.↩︎
Man spricht auch von Symmetrie der Multiplikation.↩︎
Der Multiplikationssatz ist symmetrisch↩︎
Quelle: https://harrypotter.fandom.com/de/wiki/Bertie_Botts_Bohnen_jeder_Geschmacksrichtung↩︎
Einfacher als das Rechnen mit Wahrscheinlichkeiten ist es in solchen Fällen, wenn man anstelle von Wahrscheinlichkeiten absolute Häufigkeiten zum Rechnen verwendet.↩︎
Die Wahrscheinlichkeit keine scheußliche Bohne zu ziehen ist \(17/20 \cdot 16/19 \cdot 15/18) \approx 0.5964912\). Daher ist die gesuchte Wahrscheinlichkeit (mindestens eine scheußliche Bohne) das Komplement davon: \(0.4\).↩︎
Wald?↩︎