Unbedingte Wahrscheinlichkeit Beispiel Essay

Die Wahrscheinlichkeitstheorie(auch: Wahrscheinlichkeitsrechnung)ist ein Teilgebiet derMathematik, das aus der Formalisierung, Modellierung und UntersuchungzufallsabhängigerEntitätenhervorgegangen ist.Gemeinsam mit der mathematischenStatistikbildet sie das weite Feld derStochastik.

Die Grundbegriffe der Wahrscheinlichkeitstheorie sind Zufall und Wahrscheinlichkeit. Sie lässt dabei offen, wie man diese Begriffe näher, philosophisch interpretiert. Hierzu gibt es verschiedene Auffassungen, die im Prinzip alle mit den Grundsätzen der sehr formalistischen Wahrscheinlichkeitstheorie vereinbar sind. Aber nicht nur in der Mathematik, auch in derLogik,Psychologie,Philosophie,Physiketc. und in denWirtschaftswissenschaftensind die Bezeichnungen Zufall und Wahrscheinlichkeit von großerBedeutung. Und nicht zuletzt auch in der Alltagssprache: „Es ist sehr wahrscheinlich, dass ich die Monopoly-Partie gegen dich gewinne. Jetzt kann dir nur noch der Zufall helfen.“

Solche Würfel-, Münz- und Kartenspiele sind prima geeignet das Kerngebiet der Wahrscheinlichkeitstheorie darzustellen. Wir wollen uns dafür zunächst einen fairen Würfel vorstellen. Ein fairer(oder: idealer)Würfel ist zum Zwecke der mathematischen Handhabbarkeit idealisiert, d.h. alle sechs Ergebnisse werden von ihm mit derselben Wahrscheinlichkeit 1/6 ausgegeben. Er landet weder mal auf einer Kante, noch privilegiert er eine Seite vor einer anderen. Was glaubt ihr, mit welcher Wahrscheinlichkeit wird beim nächsten Wurf eine 1,2,3,4,5 oder 6 gewürfelt? Offenbar mit einer sechsmal so großen wie 1/6, also mit einer Wahrscheinlichkeit von 1.

Und wie groß ist die Wahrscheinlichkeit, dass man beim nächsten Wurf eine 10 würfelt? Auch das ist einfach, die richtige Antwort lautet offensichtlich 0. Natürlich könnte man die Wahrscheinlichkeiten für Ereignisse auch in Prozentzahlen zwischen 0 und 100 angeben, in der Wahrscheinlichkeitstheorie hat sich jedoch die Schreibweise inreellen Zahlenwertenvon 0 bis 1 durchgesetzt. Schlussendlich läuft beides auf dasselbe hinaus und negative Wahrscheinlichkeiten oder Wahrscheinlichkeiten größer 1 bzw. 100% werden jedesmal kategorisch ausgeschlossen.

Wahrscheinlichkeiten lassen sichPropositionenzuordnen. Z.B. der Proposition, dass der nächste Wurf eine 3 ergibt, dass es morgen schneit, dass Bernie Sanders die nächsten US-Wahlen, oder, dass Sebastian Vettel die nächste F1-Weltmeisterschaft gewinnt. Das wird dann so geschrieben:

Wobei "P(p)" für die Wahrscheinlichkeit P der Proposition p steht. "X" steht für den entsprechenden reellen Zahlenwert. P ist folglich eine Funktion, die Propositionen Zahlen- bzw. Wahrscheinlichkeitswerte zuordnet. Bspw. lässt sich sagen P(der nächste Wurf ergibt eine gerade Zahl) = 0,5. Oder: Vorabumfragen besagen, dass Bernie Sanders mit einer 0,25%-Chance US-Präsident wird: P(Bernie Sanders wird US-Präsident) = 0,0025.

Auf diese und ausgeklügeltere Weisen behandelt die Wahrscheinlichkeitstheorie das Phänomen der Wahrscheinlichkeit bzw. des Zufalls. Die W. liefert damit ein präzises, mathematisches Instrumentarium zur Analyse der Eigenschaften und Gesetzmäßigkeiten zufallsabhängiger Ereignisse und zufallsabhängiger Entwicklungen(stochastischer Prozesse). Sie spielt damit eine zentrale Rolle, sobald es irgendwo um die vernünftige Quantifizierung von Wahrscheinlichkeiten und Zufälle geht. 

Wie jedes Teilgebiet der modernen Mathematik wird auch die Wahrscheinlichkeitstheoriemengentheoretisch formuliert und auf eineraxiomatischen Grundlegung aufgebaut.

Die mengentheoretische Formulierung der W.:

#Wahrscheinlichkeitstheorie #Mengentheorie

Zweiteres, die Axiomatisierung der Wahrscheinlichkeitstheorie, wurde in den 1930ern vom russischen MathematikerAndrei Nikolajewitsch Kolmogorow geleistet. In seinem Werk"Grundbegriffe der Wahrscheinlichkeitsrechnung" fordert er drei notwendige Axiome ein, die ein Wahrscheinlichkeitsmaß erfüllen muss. Diese drei konstituierenden Axiome der Wahrscheinlichkeitstheorie und einige interessante, zugehörige Theoreme, die sich aus den Axiomen ableiten lassen, möchte ich Ihnen im Folgenden gerne vorstellen. Und keine Angst, es ist unkomplizierter als es sich anhört.

Das erste Axiom wurde implizit bereits erwähnt:

(1)0≤ P(p)≤ 1.

Für jede Proposition(jedes Ereignis im weitesten Sinne)p beträgt die Wahrscheinlichkeit einennumerischen Wert von 0 bis 1.In vielen Einführungen liest man, Wahrscheinlichkeiten lägen zwischen 0 und 1. Das ist falsch, Wahrscheinlichkeiten reichen (zumindest in der Theorie) von 0 biseinschließlich 1. Steht die Wahrscheinlichkeit für ein Ereignis gleich 0, so wird das Ereignis garantiert nicht eintreten. Man spricht von einem unmöglichen Ereignis. Am anderen Ende ist die Wahrscheinlichkeit für ein sicheres Ereignis gleich 1, es tritt garantiert ein. Wahrscheinlichkeiten von P<0 oder P> 1 sind auf keinen Fall möglich. Eine Proposition kann nicht unwahrscheinlicher sein als unmöglich (0) und auch nicht wahrscheinlicher als sicher (1).

Das zweite Axiom haben wir nun auch schon vorweggenommen:

(2) P(T) = 1.

Die sichere Proposition hat die Wahrscheinlichkeit 1. Je näher eine Wahrscheinlichkeit an der Zahl 1 liegt, desto eher wird die von ihr beschriebene Proposition eintreten und bei einer Wahrscheinlichkeit von 1 ist ihr Eintritt sicher."T" steht hierbei für eine völlig sichere Proposition. Nun kann man sich fragen, ob es überhaupt hundertprozentig sichere Propositionen gibt. Selbst das sehr sichere: P(morgen früh geht wieder die Sonne auf) ist nicht ganz sicher, da rein theoretischAliens kommen und die Erdeoder die Sonnezerstören könnten o.ä. Die Wahrscheinlichkeit für P ist sehr hoch, aber sie ist nicht 1! Gleichwohl gibt es sichere Propositionen mit der Wahrscheinlichkeit 1.

Solche sichere Propositionen sind bspw.logische Tautologien("Wenn es regnet, dann regnet es"), die immer wahr sind, egal welchen Wahrscheinlichkeitswert die einzelnen Aussagen, aus denen sie bestehen, besitzen. Sie sind somit mit einer sicheren Wahrscheinlichkeit von P(T) = 1wahr. Weiterhin sindPropositionen sicher, deren Verneinung ein logischerWiderspruchergeben würde("Alle Frauen sind weiblich"), oder die mit allen möglichen Ergebnissen vereinbar sind ("Der nächste Wurf bringt eine 1,2,3,4,5,6, oder er landet auf einer Kante"). Auch dieerkenntnistheoretischeProposition „Ich existiere in diesem Augenblick“ ist ein guter Kandidat für eine sichere Proposition.

Aus der Umkehrung dieser sicheren Propositionen ergibt sich, dass auch unmögliche Propositionen existent sind: "Wenn es regnet, dann regnet es nicht", ist ein Beispiel für eine unmögliche Proposition. Oder: "Es regnet und es regnet nicht", "Der nächste Wurf bringt eine 0" und "mich gibt es gegenwärtig nicht".

Aus all diesen Beispielen lässt sich Folgendes erkennen: Propositionen mit der Wahrscheinlichkeit 0 sind zwingend falsch und Propositionen mit der Wahrscheinlichkeit 1 sind zwingend wahr. Der umgekehrte Zusammenhang besteht indes nicht: Nur weil sich eine Proposition als wahr oder falsch herausstellt, kann man deshalb noch nicht rückschließen, dass ihre Wahrscheinlichkeit 1 oder 0 beträgt. Ich heiße Johannes, das ist wahr, aber die Wahrscheinlichkeit hierfür ist ungleich 1.

Das dritte Axiom ("Additions-Axiom")kennen wir noch nicht:

(3) P(a1 v a2 v …) = P(a1) + P(a2) …, falls a1, a2 … paarweise disjunkt sind.

Die Wahrscheinlichkeit, dass eine von endlich oderabzählbar unendlichvielen, inkompatiblen Propositionen eintritt, ist gleich der Summe der Wahrscheinlichkeiten dieser Propositionen.Paarweise disjunkt bzw. inkompatibel zu sein heißt in unserem Fall also nicht mehr, als dass a1, a2… sich gegenseitig ausschließen. Diese Eigenschaft wird auch σ-Additivität genannt.

"v" ist dasDisjunktionszeichenund bedeutet ausgelesen so viel wie "oder",und zumindest hier in einem ausschließenden Sinne. Folgerichtig ist unser "a1 v a2" (a1 oder a2) in nur zwei Fällen wahr: Wenn a1 wahr ist, aber nicht a2 und wenn nicht a1, aber a2 wahr ist. Der dritte Fall, dass a1 und a2wahr sind, ist ausgeschlossen, daa1 und a2 sich gegenseitig ausschließen.Axiom (3) besagt nun, dass die Wahrscheinlichkeit, dass eine von den beiden (oder von 3, 4, 5..) Propositionen zutreffen, genauso hoch ist wie die Summe der Wahrscheinlichkeiten der beiden (oder der 3, 4, 5…) Propositionen.

Die Bedeutung dieses Axioms wollen wir uns an einem Würfel-Beispiel verdeutlichen:

P(Der nächste Wurf ergibt eine 4, 5 oder 6)
= P(Der nächste Wurf ergibt eine 4) + P(Der nächste Wurf ergibt eine 5) + P(Der nächste Wurf ergibt eine 6)
= 1/6 + 1/6 + 1/6 = 1/2.

Das waren die drei grundlegenden Axiome der Wahrscheinlichkeitstheorie. Auf diese Axiome lassen sich alle Sätze der Wahrscheinlichkeitstheorie zurückführen. Oder andersherum ausgedrückt: Die drei von Kolmogorowdefinierten Axiome(und die Gesetze der Mengenlehre) ermöglichen es uns, alle weiteren Sätze der Wahrscheinlichkeitstheorie aus ihnen abzuleiten.

Nun können zwar alle Sätze der Wahrscheinlichkeitstheorie aus nur drei Axiomen abgeleitet werden, herleiten lassen sich diese Axiome innerhalb der Wahrscheinlichkeitstheorie indes aber nicht. Das haben Axiome nämlich so an sich, sie ergeben sich nicht aus anderen den Sätzen (desselben Systems), sondern werden zu Beginn festgelegt, um überhaupt erst ein vernünftiges System entwerfen zu können. Jetzt kann man natürlich nicht hingehen und sagen "Das und das sind die Axiome und Basta", das wäre beliebig und so auch das System, das aus jenen Axiomen erwächst. Gute Axiome müssen vielmehrintuitiveinleuchten, sie müssen plausibel sein. Das sind die Axiome (1)-(3) und so auch das von ihnen begründete System – die Wahrscheinlichkeitstheorie. 

Weiter wollen wir uns einigen Theoremen aus der W. widmen, die sich aus den vorhergegangenen Axiomen folgern lassen. Für das nachstehende Theorem gehen wir davon aus, dass jede Proposition entweder wahr oder falsch ist. Es gibt kein "Zwischending". Gemäß "(2) P(T) = 1" muss also gelten:

(A) P(p v¬p) = 1.

"¬" ist dasNegationszeichen und nach unserer oben getroffenen Annahme ist "¬p" genau dann wahr, wenn "p" falsch ist und genau dann falsch, wenn "p" wahr ist. Daraus ergibt sich, dass (A) eine Tautologie ("Entweder die Straße ist nass, oder sie ist nicht nass") ist. Umgeformt ergibt sich aus (A) das folgende Theorem:

(4) P(p) = 1-P(¬p).

Die Wahrscheinlichkeit, dass p, ist gleich die Differenz von 1 minus p. Es ist klar, dass dieser Satz nur richtig sein kann, wenn "p" und "¬p" die einzigen Möglichkeiten darstellen und es bspw. keine nur "angefeuchtete", d.h. weder nasse noch nicht-nasse Straßen geben kann. Die Gültigkeit dieses Theorems lässt sich dann wieder ganz einfach an einem Würfelbeispiel illustrieren: P(Der nächste Wurf ergibt eine 4) = 1 – P(Der nächste Wurf ergibt keine 4). Nachdem man die entsprechenden Werte eingesetzt hat, liest man die folgende mathematische Wahrscheit: 1/6 = 1 – (5x1/6).

Das Gegenteil von Tautologien wie "(A) p v¬p" sindWidersprüche bzw. Kontradiktionen:

(B) P(p∧¬p) = 0.

"∧" ist dasKonjunktionszeichen(ausgelesen: "und") und gemäß unserer Prämisse, dass jede Proposition nur entweder wahr oder falsch sein kann, beträgt die Wahrscheinlichkeit für (B) gleich 0. Denn niemals kann etwas zugleich wahr und falsch sein. Daraus ergibt sich, dass (B) eine Kontradiktion ("Die Straße ist nass und sie ist nicht nass") ist. Ziehen wir nun "(2) P(T) = 1" und "(4) P(p) = 1-P(¬p)" zusammen, so gilt:

(2) sagt uns:
P(T) = P(p v¬p) = 1.
Und (4) und (B), dass:
P(K) = 1 - P(T)
(Kontraktionen sind die Negationen von Tautologien)
ausgerechnet:

(5) P(K) = 0,

Die Wahrscheinlichkeit der Proposition, dass etwas sowohl eintritt, als auch nicht eintritt(bzw. für eine widersprüchliche Proposition) beträgt 0. Die Proposition K steht dabei für bzw. ist eine Kontraktion. Was für eine Kontraktion bzw. eine Negation einer logischen Tautologie gilt, gilt auch für alle anderen Negationen von Propositionen mit der Wahrscheinlichkeit = 1.

Ein drittes Theorem geht so:

(6) P(p)≤ P(q), falls"p" "q" impliziert.

Die Wahrscheinlichkeit für das Ereignis p ist höchstens die Wahrscheinlichkeit für das Ereignis q, gegeben Ereignis p beinhaltet das Ereignis q. Man spricht von einerlogischen Implikation, gdw. einKonditionalaus logischen Gründen wahr gemacht wird. So ein Konditional hat die Form "wenn p, dann q" bzw. "pàq" und drückt aus, dass immer wenn p wahr ist, automatisch auch q wahr ist.

Eine Beispiel für eine logische Implikation ist: (I) Entweder der Gärtner (q) oder der Sohn ist der Mörder (p). (II) Der Sohn ist nicht der Mörder (¬p). (III) Also ist der Gärtner der Mörder (à q).

Nun verstehen wir, was Theorem (6) besagt, sein Beweis aus (1)-(3) steht aber noch aus. Das wollen wir jetzt nachholen. Zunächst gilt, wenn"p" "q" logisch impliziert, dann ist q eine sichere Proposition gemäß (2), immer wenn p. Das lässt sich ausschreiben:

P(p à q) = 1.

Ob andersherum "q" auch "p" logisch impliziert, wird dabei offen gelassen. Dementsprechend können wir über das umgekehrte Konditional auch nur sagen, dass:

P(qà p) ≤ 1.

Erinnern wir uns, was wir über die Wahrheitsbedingungen von "v" und "à" gelernt haben, so können wir "pàq" durch "(¬p) v (q)" bzw. "q àp" durch (¬q) v p" ersetzen. Und sommit ist der obige Ausdruck äquivalent zu:

P ((¬p) v q) = 1,

respektive,
P ((¬q) v p) ≤ 1.

Mit anderen Worten:

P ((¬q) v p)≤ P ((¬p) v q).

Weiterhin wissen wir, dass sich"¬p" und "q" bzw. "¬q" und "p" wechselseitig ausschließen, schließlich impliziert "p" ja "q". Entsprechend Axiom (3) dürfen wir zu Folgendem übergehen:

P(¬q) + P(p)≤ P(¬p) + P(q).

Und (4) erlaubt uns zusätzlich die Umformung in:

1 – P(q) + P(p)≤ 1-P(p) + P(q),

was letztendlich das anfangs angebrachte Theorem (6) bestätigt:

(6) P(p)≤ P(q), falls"p" "q" impliziert.

Es ist kein großer Schritt mehr von (6) auf:

(7) P(p) = P(q), falls "p" und "q" logisch äquivalent sind.

Die Wahrscheinlichkeiten zweier Propositionen sind gleich hoch, wenn sie logisch äquivalent sind. Eine logische Äquivalenz zwischen zwei Propositionen besteht genau dann, wenn jede der beiden Propositionen die jeweils andere impliziert. Es kann also nicht "p", ohne dass "q" und nicht "q", ohne dass "p". Ist dies bei "p" und "q" der Fall, so gilt laut (6) sowohl:

P(p)≤P(q),

als auch

P(q) ≤ P(p).

Daraus ergibt sich, wie leicht zu sehen ist, (7).

Axiom (3) steht ja unter der Prämisse, dass "p" und "q" einander ausschließen müssen. Es gibt aber auch einen allgemeineren Satz, der nicht auf diesen speziellen Fall beschränkt ist und ausnahmslos für alle "p" und "q" gilt. Irrelevant, ob sie sich widersprechen oder nicht. Er lautet:

(8) P(p v q) = P(p) + P(q) - P(p∧ q).

Die Wahrscheinlichkeiten der Propositionen, dass erstens "p" oder "q" - und dass zweitens die Wahrscheinlichkeit von "p" und dann noch der Wahrscheinlichkeit von "q", minus der Wahrscheinlichkeit, dass "p" und q,- sind ebenbürtig. "∧" ist dabei dasKonjunktionszeichen(ausgelesen: "und"), wir haben es bereits unter (B) kennengelernt. Waren Propositionen der Form P(p v q) noch stets wahr, sobald mindestens einer der beiden wahr ist, so entspricht eine Proposition à la P (p∧q) nur der Wahrheit, wenn "p" und "q" beide wahr sind.

(8) ist kein Wunder, wenn man sich vor Augen führt, was das Theorem aussagen will. Die Disjunktion am Anfang "p v q" ist in drei möglichen Fällen wahr:

(a) wenn "p", aber nicht "q" wahr ist,
(b) wenn "q", aber nicht "p" wahr ist und
(c) wenn sowohl "p" als auch "q" wahr sind.

Es bedarf nicht mehr als ein Blick auf Axiom (3), um Folgendes zu sehen: Zieht man jetzt von der Wahrscheinlichkeit von "p", was der Wahrscheinlichkeit von "(p∧¬q) v (p∧q)" bzw. den beiden Fällen (a) und (c) entspricht, die Wahrscheinlichkeit des Falles (c) ab:

(X) P(p) – P(p∧q),

so bleibt die Wahrscheinlichkeit des Falles (a) über. Die Wahrscheinlichkeiten der anderen beiden Fälle ergeben addiert hingegen nichts anders als die Wahrscheinlichkeit von"q". Legt man diese beidenErkenntnissein Reihe, so gelangt man zu der Wahrscheinlichkeit aller drei Fälle (a) bis (c):

P(p) – P(p∧q) + P(q)

Das entspricht dem oben stehenden Fall (X) plus der Wahrscheinlichkeit von (a). Und gleichzeitig dem, was unter (8) nach dem Gleichheitszeichen steht. Die Wahrscheinlichkeit der Fälle (a) – (c) ist nicht mehr als die Wahrscheinlichkeit der Disjunktion "p v q", die vor dem Gleichheitszeichen zu lesen ist. Damit ist die Gültigkeit von (8) bewiesen. Locker formuliert muss man vermeiden, dass der Fall (c) doppelt zählt und daher die Wahrscheinlichkeiten von "p" und von "q" abziehen.

Immer noch zu kompliziert? Stellen Sie sich zur Veranschaulichung ein stinknormales Kartenspiel mit 52 Karten vor. Wie hoch ist hier die Wahrscheinlichkeit, dass man aus einem vollständigen Stapel eine rote Karte oder ein Ass zieht? Nun, es sind 26 rote Karten und 4 Asse im Spiel. Also liegt die Wahrscheinlichkeit, mit der eine rote Karte gezogen wird, bei 26/52 (bzw. 1/2) und die Wahrscheinlichkeit für ein Ass bei 4/52 (bzw. 1/13). Weil genau zwei rote Asse im Spiel sind, ist die Wahrscheinlichkeit ein rotes Ass zu ziehen, 2/52. Wir müssen jetzt aber aufpassen und dürfen die Möglichkeit, ein rotes Ass zu ziehen, nicht doppelt gewichten! Weder bei der Möglichkeit, eine rote Karte zu ziehen, noch bei der ein Ass zu bekommen darf dies vorkommen. Um diesen Fehler zu vermeiden, müssen wir die entsprechende Wahrscheinlichkeiten von der Summe der beiden anderen Wahrscheinlichkeiten (P(rote Karte), P(Ass)) abziehen: 26/52 + 4/52 - 2/52 = 28/52 = 7/13.

Ereignisse von Zufallsexperimenten können von einander abhängig oder unabhängig sein. Schauen wir uns diese beiden Möglichkeiten im Folgenden etwas genauer an. 

Unabhängige Ereignisse bei mehrstufigen Zufallsexperimenten

Wir ziehen zweimal hintereinander eine Kugel aus einer Urne mit vier grünen und sechs lila Kugeln. Nach jedem Zug legen wir die gezogene Kugel zurück.

Die Wahrscheinlichkeit eine Kugel mit einer bestimmten Farbe zu ziehen, lässt sich leicht ausrechnen:

  • P (grün) = $\frac{4}{10} = 0,4 = 40 \%$
  • P (lila) = $\frac{6}{10} = 0,6 = 60 \%$

Da die gezogene Kugel nach dem ersten Zug wieder zurück in die Urne gelegt wird, ändern sich die Wahrscheinlichkeiten beim zweiten Mal Ziehen nicht.

Baumdiagramm MIT Zurücklegen der Kugel.

Bei Zufallsexperimenten mit dem Urnenmodell bleiben die Wahrscheinlichkeiten bei jedem Zug gleich, wenn die Kugeln zurückgelegt werden. 

Hier klicken zum Ausklappen

Zwei Ereignisse A und B heißen voneinander (stochastisch) unabhängig, wenn das Eintreten des einen Ereignisses die Wahrscheinlichkeit des Eintretens des anderen Ereignissess nicht beeinflusst.

Abhängige Ereignisse bei mehrstufigen Zufallsexperimenten

Wir betrachten nochmals unsere Urne mit vier grünen und sechs lila Kugeln. Auch dieses Mal ziehen wir zweimal hintereinander, aber: wir legen die Kugel nach dem ersten Zug nicht zurück.

Die Wahrscheinlichkeiten beim ersten Ziehen sind immer noch dieselben:

1. Zug

  • P (grün) = $\frac{4}{10} = 0,4 = 40 \%$
  • P (lila) = $\frac{6}{10} = 0,6 = 60 \%$

Beim zweiten Ziehen ändern sich allerdings die Bedingungen: wenn wir die Kugel nicht wieder zurück in die Urne legen, ändert sich die Anzahl von Kugeln in der Urne und somit auch der relative Anteil ( = $\frac {Anzahl\ einer\ bestimmten,\ farbigen\ Kugel}{Anzahl\ aller\ Kugeln}$).

Außerdem ändert sich die Anzahl an grünen oder lila Kugeln in Abhängigkeit des Ereignisses des ersten Zuges.

Hier klicken zum Ausklappen

Wir ziehen im ersten Zug eine lila Kugel.

Eine lila Kugeln wird im ersten Zug gezogen.

Im zweiten Versuch sind die Wahrscheinlichkeiten:

  • P (grün) = $\frac{4}{9} = 0,4444 = 44,44 \%$
  • P (lila) = $\frac{5}{9} = 0,5555 = 55,55 \%$

Durch die Abhängigkeit des zweiten Zuges vom ersten ergeben sich auf den jeweiligen Ästen im Baumdiagramm nun völlig unterschiedliche Wahrscheinlichkeiten, die du bei der Berechnung der verschiedenen Ereignisketten beachten musst.

Baumdiagramm OHNE Zurücklegen der Kugel.
Hier klicken zum Ausklappen

Zwei Ereignisse A und B heißen voneinander (stochastisch) abhängig, wenn das Eintreten des einen Ereignisses die Wahrscheinlichkeit des Eintretens des anderen Ereignissess beeinflusst.

Bei Zufallsexperimenten mit stochastischer Abhängigkeit ändern sich die Wahrscheinlichkeiten nach jedem Durchgang.

Teste dein neu erlerntes Wissen mit unseren Übungsaufgaben!

Categories: 1

0 Replies to “Unbedingte Wahrscheinlichkeit Beispiel Essay”

Leave a comment

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *