Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung​ - ein Mathematik Referat

Dieses Referat hat Anna geschrieben. Anna ging in die 11. Klasse. Für dieses Mathematik Referat hat wurde die Note 2 vergeben.
Schulnote.de und alle anderen SchülerInnen, die dieses Referat benutzen, bedanken sich bei Anna herzlichst für die fleißige Unterstützung und Bereitstellung dieser Hausaufgabe.

Ihr könnt die Leistung von Anna würdigen und mit Sternen nach Schulnoten bewerten.

Reden und Vorträge halten.

Bei Vorträgen ist die Vorbereitung und Übung das Wichtigste. Notiere Dir nur Stichpunkte zu Deinem Referat, um nicht in Versuchung zu kommen abzulesen. Vergiss bei Deiner Vorstellung nicht zu erwähnen, wer Du bist – also Deine Vorstellung, und über wen bzw. über was Du Deine Rede hältst. Rede frei und beachte Deine Zuhörer, aber lasse Dich nicht ablenken. Schaue in Deine Klasse und beobachte die Reaktionen. Passe dann Deine Redegeschwindigkeit an. Ein gutes Referat sollte 5-7 Minuten dauern. Verpacke etwas Witz in Deinem Vortrag, um Dein Publikum nicht zu langweilen. Viel Erfolg wünscht Schulnote.de!

Verbessere Deine Anna Note und profitiere mit Geschichten und Referaten bei Vorträgen von dem Wissen hunderter Schüler deutschlandweit. Viele Schüler haben ihre Anna Vorträge bei schulnote.de gefunden und durch unsere Referate, Biographien und Geschichten ihre Leistungen verbessert. Beachte bitte, dass Du diese Arbeiten nur für die Schule verwenden darfst. Du darfst sie nirgendwo posten oder anderweitig verwenden. Wir freuen uns, wenn wir Dir geholfen haben. Berichte uns von Deiner neuen Note! Nutze dafür die Feedback-Funktion.

Dies ist ein Artikel geschrieben von SchülerIn Anna, schulnote.de ist weder für die Richtigkeit noch für die Quelle verantwortlich.

Zufällige Ereignisse und Wahrscheinlichkeiten, Elementare Wahrscheinlichkeitsrechnung -Endliche Wahrscheinlichkeiten, Geometrische Wahrscheinlichkeit, Zufallsgrößen und deren Verteilung, Faltung zweier Verteilungen, Folgen von Zufallsgrößen -Tschebyscheff

Wahrscheinlichkeitsrechnung

0 Vorbemerkungen



· Mitte des 17. Jh. Chevalier de Mèrè,

Blaise Pascal
Spiel mit 3 Würfeln Augensumme 11 öfter als Augensumme 12

Auffassung, daß Ereignisse „11“ oder „12“ gleichwahrscheinlich sind
Überlegung: 6 Möglichkeiten, eine 11 zu würfeln

6-4-1


6-3-2


5-5-1


5-4-2


5-3-3


4-4-3

aber auch 6 Möglichkeiten für die 12:



6-5-1


6-4-2


6-3-3


5-5-2


5-4-3


4-4-4

Briefwechsel zwischen Pascal und Fermat: Anfang der Wahrscheinlichkeitstheorie



· Moderne Theorie

Stochastik à Wahrscheinlichkeitstheorie und Statistik
seit Anfang dieses Jahrhunderts: Anstrengungen zur Formalisierung




1 Zufällige Ereignisse und Wahrscheinlichkeiten
1.1 Elementare Wahrscheinlichkeitsrechnung



Beispiel: Münzwurf



deterministischer Vorgang, Aufgrund unscharfer Anfangsbedingungen

ist Ergebnis nicht exakt vorhersagbar. Zwei einander ausschließende Ergebnisse: Kopf oder Zahl. Jedes Ergebnis ist gleichberechtigt è Kopf oder Zahl treten jeweils mit Wahrscheinlichkeit ½ auf.



Fazit: Experiment, Versuch mit ungewissem Ausgang, zumindest prinzipiell

oder gedanklich unter gleichen Versuchsbedingungen beliebig oft

wiederholbar. Beobachtung: Bei unabhängiger Wiederholung

derartiger Versuche sind Gesetzmäßigkeiten erkennbar.



Spezialfall: Alle endlich vielen Versuchsausgänge schließen einander aus und

sind gleichberechtigt. Versuch wird „auf gut Glück“ durchgeführt.



Unter diesen Voraussetzungen sei A ein Ereignis, das aus verschiedenen Versuchsausgängen zusammengesetzt sein kann.



Wahrscheinlichkeit (von Laplace)



Anzahl der für A günstigen Fälle

P(A) = ¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾

Anzahl aller möglichen Fälle



Beispiel: Münze

Spielwürfel – 6 Ausgänge, A = „6“, A = „gerade Zahl“

zwei Spielwürfel – 36 Ausgänge, A = „gleiche Augenzahl“



Praxis: lange Beobachtungsreihe: mehrmalige unabhängige Durchführung

ein und desselben Experiments, Ereignis A det. Bei n Versuchen trete n(A) – mal das Ereignis A ein. Dann zeigt sich, daß die relative Häufigkeit

n(A)

¾¾ (n = 1, 2, 3, …)

n



für wachsendes n stabil ist. Sie schwankt mehr oder weniger um einen gewissen Wert, nämlich die Wahrscheinlichkeit P(A).



è statistischer Wahrscheinlichkeitsbegriff, begründet Kontakt der (noch zu entwickelnden) Theorie mit der Realität



Problem beim Laplace’schen Wahrscheinlichkeitsbegriff: gleichwahrscheinliche Ereignisse finden, mit deren Hilfe das interessierende Ereignis zusammengesetzt werden kann.


1.2 Berechnung von Wahrscheinlichkeiten durch Kombinatorische Überlegungen



K Mengen A1, A2, … , Ak’

vom Umfang n1, n2, … , nk Elemente



Kombination von Elementen bilden (a1, a2, … , ak) mit ai Î Ai

Wie viele solcher Kombinationen sind möglich ?



Fundamentalprinzip der Kombinatorik:



Anzahl verschiedener geordneter k-Tupel N = n1 · n2 · … · nk





Beispiel: Wie groß ist die Wahrscheinlichkeit für das Ereignis A, beim Spielen

mit 3 Würfeln die maximale Augenzahl zu erreichen ?



Ai (i = 1, 2, 3) gleich, sechselementig



à N = 63 Möglichkeiten

à 1 günstig à P(A) = 1/216


1.2.1 Spezialisierung des Fundamentalprinzips



· geordnete Probe mit Wiederholung

Elemente können mehrfach berücksichtigt werden, „Auswahl mit Zurücklegen“. Eine Menge A mit n Elementen, k Elemente wählen

è Zurückführung auf Fundamentalprinzip:

A1 = A2 = … = Ak = A à N = nk

· geordnete Probe ohne Wiederholung

Eine Menge A mit n Elementen, k £ n Elemente wählen, dabei Zurücklegen verboten

è Zurückführung auf Fundamentalprinzip:

A1 = A Element a1 wählen n Elemente
A2 = A \ {a1} Element a2 wählen n – 1 Elemente
A2 = A \ {a1, a2} Element a3 wählen n – 2 Elemente

Ak = A \ {a1, a2, …, ak – 1} Element ak wählen n – k + 1 Elemente



n!
è N = n (n – 1)(n – 2) … (n – k + 1) = ¾¾¾

(n – k) !





Noch spezieller:



k = n setzen è Anzahl der Permutationen von n Elementen ohne Wiederholung



N = n!





Beispiel: Gruppe von k Studenten sitzt in einem Zug mit n ³ k Wagen. Jeder

Student habe seinen Wagen unabhängig und „auf gut Glück“ gewählt. Gesucht ist die Wahrscheinlichkeit, daß alle Studenten in verschiedenen Wagen sitzen.



Zunächst alle Möglichkeiten:



k Studenten auf n Wagen aufteilen, Problem mit Wiederholung und mit Berücksichtigung der Reihenfolge è insgesamt N = nk Möglichkeiten, Studenten auf die Wagen aufzuteilen.



Ereignis A: „höchstens ein Student pro Wagen“

für A günstige Fälle: Wiederholung verboten, Zahl der Kombinationen (mit Berücksichtigung der Reihenfolge, ohne Wiederholung)

N(A) = Möglichkeiten



è





Jetzt die Berücksichtigung der Reihenfolge aufgeben.

Menge A vom Umfang n, k-elementige Teilmengen {a1, a2, … , ak} bilden. Also ohne Rücklegen, ohne Wiederholung. Gesuchte Anzahl: N

Wir bekommen alle möglichen geordneten Proben aus A vom Umfang k ohne Wiederholung und jede nur einmal, indem wir zunächst eine beliebige k-elementige Teilmenge von A wählen und dann alle ihre Permutationen bilden.

Nach dem Fundamentalprinzip ergibt sich:





Teilmengen · Permutation = Proben (m. R., o. W.)

k-elementig





è Binominalkoeffizient



Zerlegung der Menge A in Teilmengen B1, B2, … , Bs vom

Umfang k1, k2, …, bzw. ks



k1 + k2 + … + ks = n



è Permutation mit Wiederholung



Polynominalkoeefizient





Beispiel: Qualitätskontrolle, Los von 100 Teilen, 10 wurden „auf gut Glück“

gewählt und kontrolliert. Falls kein Ausschuß, Annahme des Loses. Gesucht ist die Wahrscheinlichkeit des Ereignisses A, daß ein Los mit 100 Ausschußteilen nicht beanstandet wird ?



· Anzahl der Möglichkeiten 10 Teile aus 100 zu wählen, Kombinationen ohne Berücksichtigung der Reihenfolge, ohne Wiederholung

· Anzahl der für das Ereignis A günstigen Fälle: 90 gute Teile, davon 10 heraus greifen






Noch offen: Aus n Elementen k herauszugreifen, mit Wiederholung (zurücklegen

erlaubt), ohne Berücksichtigung der Reihenfolge.



Anzahl der möglichen Kombinationen







Beispiel: Auf wieviele Weisen lassen sich k Markstücke auf n Personen aufteilen



A Menge von n Personen, numerieren

Problem: ohne Berücksichtigung der Reihenfolge, mit Wiederholung





Dies gibt Anlaß zu alternativen Interpretationen von Kombinationen:



Gegeben sind n Zellen, auf die k Teilchen aufgeteilt werden sollen.



· Teilchen sind unterscheidbar oder nicht
Problem mit oder ohne Berücksichtigung der Reihenfolge

· Mehrfachbelegung einer Zelle möglich oder nicht
Problem mit oder ohne Wiederholung





Beispiel: Es sind n unterschiedliche Dinge auf N Schubfächer zu verteilen. Jede

Möglichkeit der Verteilung sei gleich wahrscheinlich. Mit welcher Wahrscheinlichkeit gelangen bei der Verteilung in ein Schubfach k Dinge ?



Jedes Ding läßt sich in eines der N Schubfächer legen, N Möglichkeiten ein Ding zu verteilen.



Fundamentalprinzip

è Anzahl aller Möglichkeiten bei der Verteilung ist Nn



Anzahl der günstigen Fälle:



è k von n Dingen auf ein Schubfach verteilen (ohne Wiederholung, ohne Berücksichtigung der Reihenfolge)

Möglichkeiten dafür



è die übrigen n – k Dinge in N – 1 Schubfächer (egal wie) verteilen



(N – 1)n -k



è




1.2.2 Schema zur elementaren Kombinatorik



Proben vom

Umfang k


ohne Berücksichtigung der Reihenfolge


mit Berücksichtigung der Reihenfolge






ohne Wiederholung






keine Mehrfachbelegung

mit Wiederholung






nk


mit Mehrfachbelegung






Teilchen sind nicht unterscheidbar


Teilchen sind unterscheidbar


Verteilung von k Teilchen auf n Zellen




1.3 Endliche Wahrscheinlichkeiten



è nächster Schritt zur Formalisierung des Wahrscheinlichkeitsbegriffes, durch Identifizierung zufälliger Ereignisse mit Mengen



Zufälliger Versuch habe Ausgang w : Realisierung, Stichprobe oder Elementarereignis



Elementarereignis: alle Elementarereignisse (alle Versuchsausgänge) in einer

Menge W zusammenfassen: Raum aller Elementarereignisse. (gewisse) Teilmengen von W bilden dann die zufälligen Ereignisse, W und Æ seien Ereignisse.



Beispiel: Würfelexperiment

W = {1, 2, 3, 4, 5, 6}

Ereignis A: „gerade Zahl würfeln“

A = {2, 4, 6} Í W



W das „sichere Ereignis „ tritt stets ein

Æ das „unmögliche Ereignis“ tritt niemals ein



è Das Eintreten des Elementarereignisses w hat alle Ereignisse A mit w Î A zur Folge. Die Ereignisse A sind Teilmengen des Raumes der Elementarereignisse



w Î A Í W



Damit ist eine sichere Basis für alle näheren Betrachtungen gelegt.

Raum der Elementarereignisse entsprechend den Regeln der Mengenlehre strukturieren.



Definition: Das Ereignis A aus W, ziehe das Ereignis B aus W nach sich, A Í B,

falls w Î A Þ w Î B



Stets gilt: Æ Í A , A Í W



Definition: Zieht A Í W das Ereignis B Í W sowie B das Ereignis A nach sich, so

heißen die Ereignisse A und B gleich.



A = B Û A Í B Ù B Í A



Definition: Die Summe (Vereinigung) A È B der Ereignisse A, B Í W, tritt genau

dann ein, wenn wenigstens eines der Ereignisse A oder B eintritt.



w Î A È B Û w Î A Ú w Î B



Stets gilt: A È Æ = A A Í A È B

A È A = A B Í A È B

A È W = W



Kommutativität: A È B = B È A

Assoziativität: A È (B È C) = (A È B) È C



Allgemein: endliche Summe von Ereignissen







(Ai) i = 1, 2, … Folge von Ereignissen, Ai Í W. Dann bedeutet das Ereignis, das genau dann eintrifft, wenn mindestens eines der Ai eintritt.



Definition: Das Produkt (der Durchschnitt) A Ç B der Ereignisse A, B Î W tritt

genau dann ein, wenn sowohl A als auch B eintreten.



w Î A Ç B Û w Î A Ù w Î B



Stets gilt: A Ç Æ = Æ A Ç B Í A

A Ç A = A A Ç B Í B

A Ç W = A



Außerdem gilt das Kommutativ- und das Assoziativgesetz bezüglich Ç.



Allgemein: endliches Produkt von Ereignissen



Ai Í W



jedes der Ai tritt ein





Definition: Das zu A Í W komplementäre Ereignis tritt genau dann ein, wenn A

nicht eintritt. Es gilt





, d.h. A und zerlegen den Raum der Elementarereignisse







Definition: Sind A und B zufällige Ereignisse, so bezeichnen wir das Ereignis das

genau dann eintritt, wenn A aber nicht B entritt, mit A \ B.



Es gilt: A \ B = A Ç





Bemerkung: Aufgrund der von uns gewählten Konstruktion gelten für Ereignisse

grundsätzlich die Regeln der Mengenlehre, etwa die Distributivgesetze:



A È (B Ç C) = (A È B) Ç (B È C)

A Ç (B È C) = (A Ç B) È (B Ç C)



oder die DeMorgan’sche Regel:



allgemein

allgemein





Beispiel: 4 Geräte seien in der folgenden Weise geschaltet:







Ai bezeichne das zufällige Ereignis: „Das Gerät i fällt aus“

(i = 1, 2, 3, 4)



Ereignis A: „Das System fällt aus“

Ereignis B: „Das System fällt nicht aus“



Definition: Eine Menge M zufälliger Ereignisse heißt Ereignisalgebra, wenn gilt:



E1: W Î M

E2: A Î M , B Î M è A È B Î M ( M ist È-stabil)

E3: A Î M è Î M



Enthält M unendlich viele Elemente, so habe M überdies die

Eigenschaft E4 : Ai Î M (i = 1, 2, …) è M

In diesem Fall ist M eine s-Algebra.



Folgerungen: Eine Ereignisalgebra besitzt die Eigenschaften:



1. Æ Î M

2. A, B Î M è A Ç B Î M, A \ B Î M (M ist Ç-stabil)

3. Ai Î M (i = 1, 2, …) è M





Beispiel: 1. W gegeben, sowie A Í W ; A ¹ W ; A ¹ Æ ;

Ereignisalgebra M mit A Î M konstruieren



M = {A, , Æ, W}



2. Kleinste Algebra: M = {Æ, W}

3. Größte Algebra: M = Ã(W) (Potenzm. aller Teilmeng.)



Sei W = {w1 , w2, … , wN} endlich mit N Elementen. Wieviele Elemente enthält dann die Potenzmenge?



Mengen A Í W konstruieren: Mengenbildungsprinzip

wi Î A oder wi Ï A



Also N „Teilchen“ auf zwei Zellen aufteilen.



è Ã(W) enthält 2N Elemente.





Beispiel: Spiel mit zwei Würfeln: 6 · 6 = 36 Elementarereignisse

W = {(1, 1) , (1, 2) , … , (6, 6)}



Ã(W) enthält 236 = 68.719.476.736 Elemente

Ã(W) enthält qualitativ mehr Elemente als W.

W abzählbar W = {w1, w2, …}



Ã(W) überabzählbar

In diesem Falle lassen sich „gerade noch“ Wahrscheinlichkeiten auf

allen Ereignissen A Ì Ã(W) definieren. Bei überabzählbaren W,

z.B. W = R1 gilt das nicht mehr.





Borel-Mengen



Sei W = R1 die reelle Achse. Nach dem Ereignis {w : w = x} (x Î R) zu fragen ist oft nicht sinnvoll, dagegen nach {w : w Î Intervall} sehr.



è spezielle Teilmengen von W betrachten:



A = (a, b] ; -¥ < a < b < ¥



Bilden diese Mengen eine Algebra ?



(a, b] È (b, c] = (a, c] , = R



Wir müssen Menge hinzunehmen.





Definition: Sei W = R1. Mit L 1 bezeichnen wir die kleinste s-Algebra (Existenz

gesichert), die alle betroffenen Intervalle (a, b], -¥ < a < b < ¥ enthält.



L 1 heißt s-Algebra der Borel-Mengen in R1. Mittels geeigneter Parallelepipede (Rechteck, Quader, …) definiert man die s-Algebra L n der Borel-Mengen im Rn.



Im folgenden setzen wir nun stets voraus, daß der jeweils betrachtete Raum der Elementarereignisse W durch eine geeignete Ereignisalgebra strukturiert sei. Nur die Elemente A Î M wollen wir künftig als Ereignisse zulassen.



Definition: Es sei W ein Elementarereignisraum versehen mit der Ereignisalgebra

M. Zwei Ereignisse A, B Î M heißen unvereinbar oder disjunkt, falls ihr gemeinsames Eintreten unmöglich ist.



A Ç B = Æ



Die Ereignisse A und B schließen einander aus.



Beispiel: 1 Würfel



Ereignis A = „ungerade Zahl würfeln“

Ereignis B = „eine Zahl größer 5 würfeln“





Definition: Eine Menge nicht unmöglich zufälliger Ereignisse {A1, A2, …, An, …} ,

(Æ ¹ A Î M ) heißt vollständiges Ereignissystem wenn gilt:



V1: Ai (i = 1, 2, …) paarweise unvereinbar

Ai Ç Ak = Æ (i ¹ k)

V2: Vollständigkeit

A1 È A2 È ¼ È An È ¼ = W



Vollständiges Ereignissystem zerlegt den Raum W.





Nächstes Ziel ist die Weiterentwicklung des Wahrscheinlichkeitsbegriffes.



Spezialisierung: Raum der Elementarereignisse sei höchstens abzählbar:



W = {w1 , w2, … , wn} oder W = {w1 , w2, …}



Ereignisalgebra M enthalte alle einpunktigen Ereignisse Ai = {wi} Î M (i = 1, 2, …).

{A1, A2, …, An} bildet also vollständiges Ereignissystem.



è Für alle A Î M Wahrscheinlichkeit P(A) definieren:



A à P(A) , A Î M



Zuerst Funktion P : M à [0, 1] auf dem vollständigen Ereignissystem definieren:



Ai à P(Ai) = P({wi}) = pi i = 1, 2, …



Dabei muß für die Folge natürlich gelten pi > 0 und = 1 für i = 1, 2, …



Für ein beliebiges Ereignis A Î M setzen wir P(A) := .





Beispiel: W = {0, 1, 2, …} Menge der natürlichen Zahlen.



l > 0 feste reelle Zahl







è pk > 0





Eigenschaften der Wahrscheinlichkeit P:



1. 0 £ P(A) £ 1 , mit P(A) =

2. P(W) = = 1

3.

4. P(Æ) = 1 – P(W)

5. Additionstheorem: A und B unvereinbar è P(A È B) = P(A) + P(B)

6. Verallgemeinerung: Ai , i = 1, 2, … höchstens abzählbar viele paarweise unvereinbare Ereignisse

Ai Ç Ak = Æ ( i ¹ k ; i, k = 1, 2, …)

è

7. Unvereinbarkeit fallen lassen: A, B Î M beliebig

P(A È B) = P(A) + P(B) – P(A Ç B)

8. Isotonie der Wahrscheinlichkeit:

A £ B è P(A) £ P(B)



1.4 Geometrische Wahrscheinlichkeit



Zufällige Experimente mit überabzählbar vielen Ausgängen können mit elementaren Methoden behandelt werden.



Beispiel: Eine Dame verspricht, zwischen 17.00 und 18.00 Uhr zu einem

Rendezvous zu erscheinen, nähere Angaben macht sie nicht.



Wahrscheinlichkeit für das Ereignis, daß sie zwischen 17.03 und 17.23 Uhr eintrifft ist gesucht.



Anschauung und Intuition:










Abstraktion: „Inhalt“ der Menge A = {t : 17.03 £ t £ 17.23}

„Inhalt“ der Menge W = {t : 17.00 £ t £ 18.00}









Beispiel: Glücksrad mit Zeiger; zufälliger Versuch: Rad drehen, wo bleibt Zeiger

stehen, jede Zeigerstellung gleichberechtigt.







= {g : 0 £ g £ 2 · p }



für Ereignis A günstige Zeigerstellungen identifizieren

A = { }





Beispiel: Zwei Personen vereinbaren, sich zwischen 12 und 13 an einem

bestimmten Ort zu treffen. Jeder wartet auf den anderen nötigenfalls 15 Minuten, danach geht er. Wie groß ist die Wahrscheinlichkeit für ein Treffen ?





Punkt (x, y) repräsentiert Ankunftszeiten für beide

Personen I und II.



W = [0,1]²

A = {(x, y) Î W : |x – y| £ ¼}

è und



P(A) =





Allgemeines Modell: Versuch lasse sich als zufälliges Werfen eines Punktes in

einem beschränktem Grundbereich W des n-dimensionalen euklidischen Raumes zu interpretieren. Dabei gelte:



· Der geworfene Punkt kann auf jeden beliebigen Punkt w Î W fallen

· Inhaltsgleiche Teilmengen von W ( = Ereignisse) haben die gleiche Wahrscheinlichkeit

· Das sichere Ereignis entspricht dem Grundbereich W



Dann berechnet sich die Wahrscheinlichkeit des Ereignisses

A Í W nach der Formel:







Bemerkungen: è Wahrscheinlichkeit eines Ereignisses ist also unabhängig

von der speziellen Lage und Gestalt in W



è Die Analogie zum klassischen Laplace’schen Wahrscheinlichkeitsbegriff ist offensichtlich.



è Die derartig definierte geometrische Wahrscheinlichkeit hat viel Anlaß zu Mißverständnissen und Einwänden gegeben. Grund: Paradoxon von Bertrand.





Aufgabe: In einem Kreis wird zufällig eine Sehne gezogen. Wie groß ist

die Wahrscheinlichkeit dafür, daß deren Länge die Seite eines im Kreis einbeschriebenen gleichseitigen Dreiecks übertrifft ?



1. Auffassung:

Aus Symmetriegründen o.B.d.A. Richtung der Sehne festhalten. Dann senkrecht Durchmesser des Kreises betrachten.







Wann gilt s > l ?

Mittelpunkt M der Sehne zwischen und

è





2. Auffassung:

Spitzen des gleichseitigen Dreiecks in einem Endpunkt der Sehne, Winkel der Sehne mit Tangente.







günstiger Bereich: …

è





3. Auffassung:

Mittelpunkt M der Sehne zufällig im Kreisinnern wählen. Außerdem muß Abstand M zu 0 kleiner als sein.







Lösung der Aufgabe offenbar von Lösungsweg abhängig.



Auflösung des Paradoxon: Es wurden jeweils verschiedene Aufgaben formuliert.



1. „zufällig“ bedeutet hier, den Punkt M „auf gut Glück“ auf (0, 2r) zu wählen

2. Winkel x „auf gut Glück“ in
(0, p) wählen

3. Punkt „auf gut Glück“ in der inneren Kreisfläche wählen



è damit ganz verschiedene Zufallsmechanismen vorausgesetzt

è unterschiedliche Lösungen





1.5 Bedingte Wahrscheinlichkeit, Unabhängige Ereignisse



Gegeben: · Wahrscheinlichkeitsraum (W, M, P)

· Modell für (realen) Bedingungskomplex eines zufälligen Experiments · Ereignis B Î M, P(B) > 0



zusätzliche Hypothese: „Das Ereignis B tritt ein“



Durch Hinzunahme dieser Hypothese wird der Bedingungskomlex geändert. Folglich werden sich i.a. auch die Wahrscheinlichkeiten der Ereignisse A Î M ändern.





Definition: Unter den obigen Voraussetzungen heißt:







die bedingte Wahrscheinlichkeit des Ereignisses A unter der Bedingung B.



Beispiel: Maschinensystem in Reihe





Wahrscheinlichkeit für Ursache eines Ausfalls des Systems bei:



Maschine I: p

Maschine II: q

Maschine III: 1 – (p + q)



System sei ausgefallen, bereits vergeblich nach einem Fehler in Maschine I gesucht. Wie ist die Wahrscheinlichkeit dafür, daß dann die Ursache in Maschine II liegt?



Ereignis A: „Ursache des Ausfalls liegt genau an Maschine II“

Ereignis B: „Ursache des Ausfalls liegt nicht an Maschine II“



Gesucht: P(A | B)



Es gilt hier A Í B, sowie P(A) = q



P(B) = 1 – P(A) = 1 – p und weiter

P(A | B) =





Eigenschaften der bedingten Wahrscheinlichkeit



1. 0 £ P(A | B) £ 1

2. B unvereinbar è P(A | B) =

3. B Í A è P(A | B) =

4. [X1] | W) =

5. Die bedingte Wahrscheinlichkeit P(A | B) kann kleiner, größer oder gleich der unbedingten Wahrscheinlichkeit P(A) sein.





Beispiel: 1 Spielwürfel

B = „gerade Augenzahl“ à P(B) = ½

a) A = „Augenzahl nicht größer als 3“ à P(A) = ½

b) A = „Augenzahl gleich 2, 3 oder 4“ à P(A) = ½

c) A = „Augenzahl gleich 1 oder 2“ à P(A) =



Hypothese: B, P(B) > 0 festhalten

Funktion A à PB (A) := P(A | B), A Î M betrachten.



Bei festem B besitzt P(B) alle Eigenschaften einer Wahrscheinlichkeit; ist also eine neue Wahrscheinlichkeit auf M. – ohne Beweis –



A, B seien Ereignisse mit P(A) > 0, P(B) > 0 à P(A Ç B) = ?

Zuweilen P(A | B) oder P(B | A) bekannt oder leichter zu ermitteln. Definition der bedingten Wahrscheinlichkeit



Multiplikationssatz: Es seien A und B Ereignisse positiver Wahrscheinlichkeit.

Dann gilt:



Folgerung:



Beispiel: 10 Bauelemente sind in einer Kiste, 4 davon sind defekt.

2 Elemente werden nacheinander „auf gut Glück“ entnommen. Mit welcher Wahrscheinlichkeit sind beide Elemente intakt ? (Ereignis A)



Ai = „i-tes Element intakt“ (i = 1, 2)

P(A1) = , P(A2 | A1) =



è







Verallgemeinerung: Es seien A1, A2, …, An zufällige Ereignisse mit

, dann gilt:







Gegeben: Ereignis A, vollständiges Ereignissystem {B1, B2, …, Bn}

Bi paarweise disjunkt , P(Bi) > 0 )

Standpunkt: P(A) gesucht, P(A | Bi) dagegen bekannt.





Formel der totalen Wahrscheinlichkeit





Beweis:









Beispiel: „Ruin des Spielers“



Spieler nimmt an Spielrunden teil: Erraten des Resultats eines Münzwurfs. Es wird um eine Mark gespielt.



Münze erraten – richtig à + 1 DM – falsch à – 1 DM



Anfangskapital: x DM ; x = 0, 1, … (0 = keine Spielrunde möglich)



Strategie des Spielers: Solange spielen, bis Summe a Mark erreicht ist (a ³ x)



Problem: Mit welcher Wahrscheinlichkeit verliert der Spieler sein Kapital?



P(x) = Wahrscheinlichkeit, daß sich der Spieler mit

Anfangskapital von x DM ruiniert. (x = 0, 1, …, a)



Ereignis B1 = „Spieler gewinnt in der ersten Runde“ x à x + 1

Ereignis B2 = „Spieler verliert in der ersten Runde“ x à x – 1

Ereignis A = „Der Spieler wird ruiniert“



B1, B2 : vollständiges Ereignissystem: und

und



P(A) nicht erkennbar, aber Beziehung für bedingte Wahrscheinlichkeiten.










è Anwenden der Formel der totalen Wahrscheinlichkeit:





P(0) = 1, P(a) = 0



allgemeine Lösung der Differenzengleichung: P(x) = c1 + c2 · x

Einsetzen in die Randbedingungen:



1 = P(0) = c1 0 = p(a) = c1 (= 0) + c2 · a à

Lösung: (x = 0, 1, …, a)


1.5.1 Unabhängigkeit von Ereignissen



A, B seien Ereignisse mit P(A), P(B) > 0

möglicher Spezialfall: (*) P(A | B) = P(A)

è

Damit ist falls (*) gilt.



Definition: Zufällige Ereignisse A und B heißen unabhängig, falls gilt:





Bemerkung: Voraussetzungen P(A), P(B) > 0 haben wir vernachlässigt. Hat

wenigstens eines der Ereignisse A oder B die Wahrscheinlichkeit Null, so sind A und B unabhängig.



Vergleich mit dem Multiplikationssatz:

“ A, B Î M, P(A), P(B) > 0

Man unterscheide die Begriffe „unabhängig“ und „unvereinbar“ für Ereignisse.

Unvereinbarkeit von A und B:




Folglich sind zwei unvereinbare Ereignisse A, B positiver Wahrscheinlichkeit nicht
unabhängig:



Beispiel: „Skatblatt“

eine Karte „auf gut Glück“ ziehen



Ereignis A1 = „Farbe ist Pik“

Ereignis A2 = „Karte ist Dame“



Sind A1 und A2 unabhängig?



Formal: ,



Es gilt:



è Ereignisse sind unabhängig



,



Bemerkung: Unabhängigkeit von A und B drückt aus, daß A und B

wahrscheinlichkeitstheoretisch in dem Sinne keinen Einfluß aufeinander haben, daß die Information „B tritt ein“ – wenn sie überhaupt positive Wahrscheinlichkeit hat – nichts an der Wahrscheinlichkeit von A ändert.

Satz: Sind die Ereignisse A und B unabhängig, so sind es auch die

Ereignisse und B, A und , wie auch und .

Beweis: Seien A und B unabhängige Ereignisse:



Es genügt zu zeigen: Dann sind auch und B unabhängig.

Ereignis B disjunkt zerlegen:





Addivität:





Beispiel: zwei verschiedene Würfel werfen



Ereignis A = „Würfel 1 zeigt ungerade Augenzahl“

B = „Würfel 2 zeigt ungerade Augenzahl“

C = „Die Augensumme ist ungerade“

A und B offenbar unabhängig ,



bedingte Wahrscheinlichkeiten:

, aber auch

è A, C sowie B, C jeweils unabhängig

anders ausgedrückt:



Ereignisse A, B ,C paarweise unabhängig.



Aber: P(C | A Ç B) = 0 è C nicht unabhängig von {A, B}

es besteht hier offenbar Abhängigkeit „zu dritt“ è Definition





Definition: Die zufälligen Ereignisse A1, A2, …, An heißen vollständig unabhängig,

wenn für beliebige k = 2, 3, …, n und beliebige natürliche Zahlen i1, …ik mit 1 £ i1 < i2 < ... < in £ n gilt:





Die zufälligen Ereignisse einer unendlichen Folge A1, A2, … heißen vollständig abhängig, wenn für jedes natürliche n = 2, 3, … die Ereignisse A1, …, An vollständig sind.



Folgerung: Sind die Ereignisse A1, …, An vollständig unabhängig, so sind sie es

auch paarweise.



Bemerkungen: Die Umkehrung obiger Folgerungen gilt nicht (siehe Beispiel).

Aus der Beziehung mit P(C) > 0

folgt i.a. nicht



Beispiel:

, ,



P(D) – Inhalt von D (Länge)

Es gilt: , sowie

Aber:

Dies begründet die komplizierte Definition der vollständigen Unabhängigkeit.





Bayessche Formel:

Formel der totalen Wahrscheinlichkeit:



{B1, B2, …, Bn} vollständiges Ereignissystem



Andere Fragestellung: Ereignis positiver Wahrscheinlichkeiten: P(A) > 0

bekannt: P(Bi), P(A | Bi) (i = 1, 2, …, n)

gesucht: P(Bk | A) = ?



Satz: (Bayessche Formel)



Unter den obigen Voraussetzungen gilt:



Beweis: nach Definition der bedingten Wahrscheinlichkeit:



,



è



Voraussetzungen zur Anwendung der Formel der totalen Wahrscheinlichkeit für P(A) erfüllt.



è



Sprechweise: P(Bk) a priori Wahrscheinlichkeiten

P(Bk | A) a posteriori Wahrscheinlichkeiten





Physikalisches Analogon der Bayesschen Formel:



In n Gefäßen seien Lösungen ein und desselben Stoffes in unterschiedlichen Konzentrationen enthalten. Das Gesamtvolumen der Lösungen sei 1 Liter.



P(Bk) – Volumen der Lösungen im k-ten Gefäß (k = 1, 2, …, n)

P(Bk | A) = k = 1, …, n

Anteil der Gesamtstoffmengen im k-ten Gefäß.




1.6 Axiomatische Begründung der Wahrscheinlichkeitstheorie



Kolmogorov 1933



Vorgegeben: – Raum der Elementarereignis

M – System von Teilmengen von : -Algebra
S1. W Î M
S2. A Î M M
S3. Ai Î M (i = 1, 2, …) Þ M
P reellwertig auf M, P erfüllt die Axiome
W1. P(A) > 0
W2. P() = 1
W3. An Î M (n = 1, 2, …) paarweise unvereinbar

è



Die Funktion P heißt Wahrscheinlichkeit oder auch Wahrscheinlichkeitsmaß auf M. Das Trippel (, M, P) heißt Wahrscheinlichkeitsraum.

Bemerkung: Die nunmehr endgültige Fassung des Wahrscheinlichkeitsbegriffs

verallgemeinert unsere bisherigen Konstruktionen. Viele der im speziellen Fall gezeigten Eigenschaften sind allgemeingültig.



Eigenschaften: (Auswahl)



1. P(Æ) = 0

Beweis: P(W) = = P(W) + P(Æ) + P(Æ) + … è P(Æ) = 0

2. endliche Additivität
A, B unvereinbare Ereignisse è

Beweis:

A1 = A, A2 = B, Ai = Æ (i = 3, 4, …)


3. = 1 – P(A), A Î M

Beweis:

A Î M è M, ,
1 = P(W) = = P(A) +

4. Monotonie
; A, B Î M

Beweis:

Ereignis B disjunkt zerlegen:
B =

5. Subaddivität
An, (n = 1, 2, …) Folge von Ereignissen aus M Þ
Beweis:

Aus (An) eine Folge paarweiser disjunkter Ereignisse (Bn) konstruieren:
B1 = A1, B2 = A2 \ A1, B3 = A3 \ (A1 È A2), …, Bn = An \ (A1 È A2 È … È An-1)
= An\ è

Weiterhin gilt: Bk Ak P(Bk) P(Ak) (k = 1, 2, …)

è

6. Stetigkeit

a) isotone Folge von Ereignissen
$ Limes der Mengenfolge:
è

Beweis:

Wieder die Glieder der Folge (An) disjunkt machen:





B1 = A1, B2 = A2 \ B1, …, Bn = An \



Folge (Bn) paarweise disjunkter Ereignisse,

è



b) antitone Folge von Ereignissen hier gilt $ Limes
è

Beweis:

durch Übergang zu den komplementären Ereignissen: monoton wachsene Folge = P(An)


2 Zufallsgrößen und deren Verteilung

Einführung: Bernoulli-Schema: (, M, P) Wahrscheinlichkeitsraum

zufälliges Ereignis A, P(A) = p, 0 < p < 1

Experiment wird n-mal unabhängig voneinander ausgeführt



A tritt ein: „Erfolg“, – Alternative

Indikator bewertet, ob der k-te Versuch erfolgreich ist, d.h. ob A eintritt.




è Folge „unabhängiger“ vom Zufall abhängiger
Größen (k = 1, …, n)



P(A)

Wertebereich: R Verteilung

0 1



Die Größe X zählt die Anzahl der Erfolge bei Durchführung von n Versuchen:

Welche Werte kann X annehmen ?



0 1 2 . . . n – 1 n

Mit welchen Wahrscheinlichkeiten ?
è Verteilung auf {0, 1, …, n}

Ereignis {X = k}: A tritt in der Versuchsserie k-mal und n – k-mal nicht auf.



k-Erfolge





(*)

1 2 3 n – 1



Jede konkrete Folge (*) hat die Wahrscheinlichkeit .

Wieviele solcher Folgen gibt es ? * * … * k-Erfolge

k-mal „Erfolg“ auf n Plätze verteilen.

1 2 . . . n – 1 n





Kombinatorische Standardaufgabe:


Verteilung von k Teilchen auf n Zellen


· Teilchen nicht unterscheidbar

· keine Mehrfachbelegungen



è verschiedene Kombinationen

è P{X = k} = (k = 0, 1, …, n)

Das ist die Verteilung der Anzahl der Erfolge:
„Binominalverteilung mit den Parametern n und p“

è


Versuchsserie: „Bernoulli-Schema“

„unabhängige Verteilung ein- und desselben Versuches“





Bemerkung: die Größen und X hängen vom Zufall ab.

ausführlich: () = ,

Spätere Definition solcher Größen als „Zufallsgrößen“.





Bewertung des Punktes k entsprechend der Binominalverteilung:


















0 k n



è Parameter der Lage der Verteilung



anderer Parameter: charakterisiert die Streuung der Verteilung

mittlere quadratische Abweichung



Mittelwert

Konstruktion X:








0 n



Was passiert bei wachsendem n ?



Trick: Größe Xn zentrieren und normieren, d.h. .



Dann gilt der Grenzwertsatz von de MOIRE-LAPLACE

, x1 < x2 Î R

praktische Bedeutung:



n groß, nicht Einzelwahrscheinlichkeiten P{Xn = k}, sondern P{a £ Xn £ b} seien
interessant (a, b Î R)



Uneigentliches Integral:

, x Î R

Integral interessiert, es gilt sogar

Funktion F vertafelt oder im Computer





Beispiel: Produktion von Glühlämpchen



Kartons zu je 1000 Stück
Erfahrungstatsache: Ausschuß im Mittel 3% è (vage) Erwartung,

pro Karton 30 Lämpchen defekt.



Realisierbare Frage: Wahrscheinlichkeit dafür, daß 20 bis 40 Lämpchen defekt sind.

Modell: X (zufällige) Anzahl defekter Lämpchen in einem

„auf gut Glück“ gewähltem Karton mit 1000 Lämpchen.

X ist binominalverteilt mit den Parametern n = 1000 und p = 0,03



è Mittel: n · p = 1000 * 0.03 = 30



mittlere quadratische Abweichung:

n · p · q = 1000 * 0.03 * (1 – 0.03) = 29.1



gesuchte Wahrscheinlichkeit:



P{20 £ X £ 40}=



è zu kompliziert

è Näherung

2. Das Integral F besitzt eine Dichte:















è F(x) + F(-x) = 1

è F(x) – F(-x) = F(x) – (1-F(x) = 2F(x) – 1





Die Funktion definiert die Verteilung einer (stetigen) zufälligen Größe Y, die Werte aus ganz R annehmen kann, es gilt:



P{Y < x} = F(x), x Î R



es gilt außerdem: P{a £ Y < b} = F(b) - F(a) , a < b

Die Größe Y heißt normalverteilt, genauer standard-normal-verteilt nach N(0, 1).

2.1 Zufallsgrößen, Verteilungen



vorgegeben: Wahrscheinlichkeitsraum (W, M, P)

Definition: Eine reellwertige Funktion X auf W w ® X(w) (w Î W)

heißt Zufallsgröße, falls für jede reelle Zahl x gilt:

{w Î W : X(w) < x} Î M (*)





W

X



w

X(w) R





Urbild von (-¥, x)

Bemerkungen:



1. Den Regeln der s-Algebra folgend sind dann auch Mengen der Gestalt:
{w: x1 £ X(w) £ x2} = {w : X(w) < x2} \ {w: X(w) < x1}



2. Die Bedingung (*) genannt „Meßbarkeit von X“ ist technischer Natur; sie sichert, daß alle Mengen {w: X(w) < x}, {w: x1 £ X < x2}, ... Ereignisse sind, für die folgende Wahrscheinlichkeiten gebildet werden können:

w: X(w) < x}, P{w: x1 £ X < x2}

3. üblicherweise schreibt man kurz:
{X < x}, {x1 £ X < x2} und P{X






{w: X(w) < x}, {w: x1 £ X(w) < x2} (M)

P{w: X(w) < x}

{X < x}

P{X < x}

P(G)



G X




GÎM Ü (M) G

(W, M, P) [ )

Px (R1, L1)





Mittels der Abbildung X wird in der s-Algebra L1 der Borel-Mengen von R1 das Bildmaß Px von P definiert:

Px(G) := P{w : X(w) Î G}



Definition: Das Maß Px heißt Verteilung, auch Wahrscheinlichkeitsverteilung von

X auf (R1, L1).



Dieses Maß regelt, mit welcher Wahrscheinlichkeit die Zufallsgröße X bei einer Realisierung einen Wert aus einer gegebenen Borel-Menge annimmt:



Px([x1, x2)) = P{x1 £ X < x2}



Wir unterscheiden 2 Spezialfälle:



Definition: Die Zufallsgröße X heißt diskret, wenn sie nur endlich oder abzählbar

unendlich viele Werte annehmen kann. Es gilt dann:



P{X = x} = P{w : X(w) = x}

R1

Beispiel: Binominalverteilte Zufallsgröße mit Parametern (n, p) nimmt

ausschließlich Werte in {0, 1, …, n} an.



Definition: Die Zufallsgröße X heißt stetig, wenn ihre

Wahrscheinlichkeitsverteilung eine Dichte p ³ 0 besitzt, so daß



P{x1 £ X < x2} = (x1 < x2 Î R) gilt.

Folgerung: P{w: X(w) ÎR} = P{ -¥ < x < ¥} =





P(x)









x x + Dx x



P{X Î [x, x+ x)} = p(x) · Dx + o(Dx)



Beispiel: standardnormalverteilte Zufallsgröße X, andere Verteilung

konstruieren: Zufallsgröße X ³ 0



Beispiel: X Zeit des Eintretens irgendeines Ereignisses;

(Lebensdauer, Zerfallszeit)



s



Zeit

0 t t + s



Angenommen {X > t} Frage: {X > t + s} ?



Zufallsgröße X sei „gedächtnislos“, falls P{X > t + s | X > t} = P{ X > s} (s, t ³ 0) gilt.



è

è



Funktionalitätsgleichung: [Y(t + s) = Y(t) · Y(s)]



gesucht: beschränkte Lösung è P{X > t} = e-lt (t ³ 0)



Komplement bilden:





Zufallsgröße mit dieser Verteilung heißt expotentiell verteilt mit dem Parameter l > 0.



P{X < ¥} =



Zufallsgröße X hat eine Dichte:



è

Also: P{X < t} = , t Î R



Sei Xn binominalverteilte Zufallsgröße mit den Parametern n und p:



P{Xn = k} = (k = 0, 1, …, n)



Problem: p werde klein è mittlere Zahl der Erfolge klein, läßt man simultan n

wachsen, dann ist der Mittelwert trotzdem bedeutend.



Ansatz: n · p = l; l > 0 konstant.



Was passiert für n ® ¥ ?

k = konstant:



P{Xn# = k} =





(Grenzwertsatz)

Wegen ist damit eine Wahrscheinlichkeitsverteilung auf {0, 1, 2, …} erklärt.



Definition: Eine Zufallsgröße X mit P{X = k} = (k= 0, 1, …) heißt

POISSON-verteilt mit dem Parameter l > 0.



Modell: radioaktiver Zerfall



Radium Radon

a – Teilchen (He-Kern)



Im Zeitintervall der Länge t zerfällt das Radiumatom mit Wahrscheinlichkeit p(t).



n Radiumabnahme

Abstand sehr groß, Zerfall eines Kerns erfolgt unabhängig von allen anderen.



Mittlere Zahl der ausgesandten a – Teilchen während t: a(t) = n · p(t)



Experimentelle Erfahrungen (Messungen) für t = 1s und n = 1022 (= 19 Radien):

a(t) » 1010 è p(t) » 10-12 (also sehr klein)



Versuch: Beobachtungen eines dieser Atome

Erfolg: Zerfall während 1s



® gleichzeitig laufen also 1022 solcher Versuche ab.

® Voraussetzungen des Bernoullischema erfüllt.



Zerfallsgröße X(t): Anzahl der während t ausgesandten a-Teilchen.

n sehr groß, p sehr klein è annähernd POISSON-verteilt mit Parameter l = n · p.



P{X(t) = k} = ; (k= 0, 1, …) mit t = 1s





Verallgemeinerung des Begriffes der Zufallsgröße:

Definition: Es seien x1, x2, …, xn Zufallsgrößen auf ein- und demselben

Wahrscheinlichkeitsraum (W, M, P).

Dann heißt das n-Tupel = (X1, X2, …, Xn) ein Zufallsvektor.



Bemerkungen: zufällige Vektoren sind Vektoren, deren Komponenten Zufallsgrößen

sind. Man kann X als (meßbare) Abbildung von W in den Raum Rn auffassen.



Die Verteilung von ist das Bildmaß von P in der s-Algebra der Borelmengen Ln von Rn.

(B) = P{Î B} = P{w : X1(w), X2(w), …, Xn(w) Î B} B Î L1

Beispiele für Zufallsvektoren:



simultane Messung verschiedener Größen bei einem Experiment. (p-V-Diagramm,
Körpergröße eines Menschen, Dimension eines Werkstückes)

Definition: Ein Zufallsvektor = (X1, X2, …, Xn) heißt diskret, wenn er höchstens

abzählbar viele verschiedene Werte = (X1, X2, …, Xn) Î Rn annehmen kann.

Definition: Der Zufallsvektor heißt stetig, wenn seine Verteilung eine Dichte

p(x1, x2, …, xn) ³ 0 besitzt:



P{X Î B} = p(x1, x2, …, xn) dx1dx2 … dxn B Î Ln

X1, X2, …, Xn, … höchstens abzählbar viele Zufallsgrößen auf (W, M, P)



Definition: Die Zufallsgrößen X1, X2, …, Xn, … heißen unabhängig, falls für

beliebige Zahlen xk´ £ xk´´ die Ereignisse



{xk´ £ Xk < xk´´} k = 1, 2, ..., n, ...



vollständig unabhängig sind.

Folgerungen:



1. Bei diskreten unabhängigen Zufallsgrößen X1, X2, …, Xn gilt für die (gemeinsame) Verteilung von = (X1, X2, …, Xn):
P{X1 = x1, X1 = x2, …, Xn = xn} = P{X1 = x1} · P{X2 = x2} · … · P(Xn = xn}, (x1, x2, …, xn) Î Rn.

2. Bei stetigen unabhängigen Zufallsgrößen X1, X2, …, Xn mit den Dichten p1, p2, …, pn gilt für die (gemeinsame) Dichte des zufälligen Vektors = (X1, X2, …, Xn):

p(x1, x2, …, xn) = p1(x1) · p2(x2) · … · pn(xn) mit (x1, x2, …, xn) Î Rn.





Funktionen von Zufallsgrößen



X sei Zufallsgröße auf (W, M, P), g ist reelle Funktion g: .

Unter ganz schwachen Voraussetzungen (Meßbarkeit muß gesichert sein) ist dann auch die durch w ® g(X(w)), w Î W definierte Abbildung eine Zufallsgröße.

Analoges gilt für einen Zufallsvektor (X1, X2, …, Xn) und die Funktion h: Rn ® R1.
Y = h(X1, X2, …, Xn) ist dann Zufallsgröße auf (W, M, P).





Charakterisierung von Zufallsgrößen und Vektoren



X sei Zufallsgröße auf (W, M, P)
wichtigste Charakteristik von X: Verteilung PX (aber oft „unhandlich“)



Definition: Die durch FX (x) = P{X
Verteilungsfunktion der Zufallsgröße X.

Bemerkung: Die Verteilungsfunktion der Zufallsgröße X charakterisiert die Verteilung einer

Zufallsgröße vollständig, es gilt:



P{x1 < X < x2} = FX (x2) - FX(x1)

Beispiel:



Standard-Normalverteilung N(0, 1) y

1

FX = F (x) = , x Î R x





Binominalverteilung mit Parametern n, p

FX(x) =



1 FX(x)





















n x



Eigenschaften einer Verteilungsfunktion FX

1. 0 £ FX(x) £ 1, x Î R

2. FX monoton wachsend x1 £ x2 ® F(x1) £ F(x2)

3. FX linksseitig stetig , x Î R

4. ,

Bemerkung: Diese Eigenschaften sind sogar charakterisierend, d.h. jede Funktion F

mit diesen Eigenschaften 1 – 4 ist Verteilungsfunktion einer gewissen Zufallsgröße X.

Verteilungsfunktion enthält volle Information über die Verteilung, aber kompliziert und schwierig zu bestimmen (bei Zufallsgrößen mit a priori unbekannter Verteilung)

è Wunsch nach Informationsverdichtung



Beispiel: (Gleichverteilung)

Die diskrete Zufallsgröße X mit den Werten x1, x2, …, xn heißt gleichverteilt, falls gilt:



P{X = x} = (i = 1, 2, …, n)



1

















x1 x2 xn



Analog gilt für die Dichte einer stetigen Gleichverteilung auf dem Intervall [a, b] Ì R:

1 FX(x)

p(x) =



0 a b

Mittelmarke für X: X diskret: arithmetisches Mittel =

X stetig: Intervallmitte =



Verallgemeinerung für diese Mittelungen für beliebige diskrete und stetige Zufallsgrößen X?



2.2 Erwartungswert

Definition: Es sei X eine diskrete Zufallsgröße mit den Werten xk , k = 1,2, …

Dann heißt die durch

EX =

definierte Zahl der Erwartungswert der Zufallsgröße X. Dabei wird der Eindeutigkeit wegen die absolute Konvergenz obiger Reihe vorausgesetzt:


Definition: Für eine stetige Zufallsgröße X definieren wir EX = als

Erwartungswert. Es wird wieder die absolute Konvergenz vorausgesetzt: .



EX = P{X=xk} (diskret)
absolut konvergent

EX = p(x) dx (stetig)



Bemerkungen: Der Begriff des Erwartungswertes kommt unserer anschaulichen

Vorstellung eines Mittels (Mittelung) sehr nahe. Deutet man eine diskrete oder stetige Wahrscheinlichkeitsverteilung als Massenverteilung eines diskret oder stetig verteilten mechanischen Systems auf der Achse, so ist EX der Schwerpunkt des Systems (im physikalischen Sinne).



Es gibt aber auch andere Methoden zu Mitteln (Median, Zentralwert)



Beispiele:

· Poisson-Verteilung EX =
=

Parameter der Poisson-Verteilung ist in diesem Falle = Erwartungswert derselben, vorteilhaft für statistische Untersuchungen.

· Expotentialverteilung EX =

2.2.1 Eigenschaften des Erwartungswertes


1. Linearität E(aX + bY) = aEX + bEY

2. Funktion einer Zufallsgröße g(X)
X diskret: Eg(X) = g(xk) P{X = xk}
X stetig: Eg(X) =
absolute Konvergenz der rechten Seite jeweils vorausgesetzt.





Der Erwartungswert charakterisiert die Lage des Zentrums einer Verteilung (Lageparameter); über die Stärke möglicher Abweichungen der Zufallsgröße vom Zentrum gibt er keine Auskunft.

è Wunsch nach einem Maß für die „Streuung“

Definition: Es sei X eine Zufallsgröße mit dem Erwartungswert EX.

Dann wird im Falle der Existenz durch D2X = E(X – EX)2

die Streuung (oder Varianz) der Zufallsgröße X definiert.





Speziell gilt:



X diskret: D2X = (xk – EX)2 P{X=xk}
p(x)

X stetig: D2X = (x – EX)2 p(x) dx x x+dx

denn D2X wird über die Funktion g(X) = (X – EX)2 von X bestimmt.

Bemerkung: Auch die Streuung gestattet eine mechanische Interpretation.

Veranschaulicht man sich die Verteilung als diskretes oder stetiges Massensystem auf der Achse mit dem Schwerpunkt EX, so entspricht D2X dem Trägheitsmoment dieses Systems bezüglich einer Achse durch den Schwerpunkt. (Existenz jeweils vorausgesetzt).

2.2.2 Eigenschaften der Streuung



1. D2(aX + b) = a2D2X

Beweis: D2(aX + b) = E[(aX + b) – E(aX + b)]2 = E[a(X – EX) + (b – Eb)]2
= E[a2 (X – EX)2] = a2 D2X

Folgerung: · D2 (-X) = D2X
· D2= 1 (Normieren, Standardisieren von X)

2. Annahme: X einpunktverteilt:

P{X = c} = 1 c feste reelle Zahl

è X = c fast sicher, EX = c

Die Streuung einer Zufallsgröße X ist genau dann Null, wenn X einpunktverteilt ist.

3. D2X = EX2 – (EX)2

Beweis: D2X = E(X – EX)2 = E[X2 – 2X EX + (EX)2] = EX2 – 2EX

Der Autor hat leider keine Quellen genannt.

Direktor Schulnote.de

Anna

Autor dieses Referates

Mathematik
Schulfach

0 .
Klasse - angegeben vom Autor
0 ,0
Note - angebenem vom Autor


0,00

Note 6Note 5Note 4Note 3Note 2Note 1
Welche Note gibst Du?

Loading…
0
Aufrufe deses Referates
0
lesen gerade dieses Referat

TCP IP-Protokolle und Dienste
Edward Albee
Milben
Mitochondrien
Viren
AIDS Aufbau des HIVirus
Erkenntnisse über AIDS
Was ist AIDS
Alkohol und der Mensch
Aufbau und Wachstum Bakterien
Darstellung verschiedener Sehsysteme
Termiten – Isoptera
Das Auge
Natürliche Zuchtwahl
Funktion des Gehörsinnes
Das menschliche Gehirn
Der Gedanke der Urzeugung
Diabetes Zuckerkrankheit
Die Tropen
Dinosaurier
Elektrosmog
Gentechnik in der Landwirtschaft
Hormone
Parthenogenese
Anatomie des Kehlkopfes
Kommunikation von Bakterien
Konrad Lorenz Verhaltensforscher
Entstehung von Krebs
Ökosysteme in der Tiefsee
Parasitismus
Beschreibung einzelner Parasitenarten
Pest im Mittelalter
Photosynthese
Heroin
Ringelwürmer
Gentechnologie Grundlagen
Alternative Landwirtschaft
Die Medizin im antiken Rom
Der Traum und die Traumpsychologie
Die chemische Bindung
Bohrsches Atommodell
Brom Eigenschaften
Halogene
Der pH-Wert – pH Messtechnik
Chemische Schädlingsbekämpfung
Atomvorstellungen
Benzin
Fettverseifung
Kalk
Natronlauge Sodaherstellung
Grundlagen der Nuklearphysik
Fotographie
Entdeckung des Atoms
Gegenwartsliteratur der Mythos
Das Ikosaeder
Parallele Programmabläufe
Burleske
Alfred Andersch Literaturbesprechung
Besuch der alten Dame
Biographie Erich Kästners
Friedrich Dürrenmatt Literaturbespr…
Georg Büchner Literaturbesprech…
Wolfgang Borchert Literaturbesprechung
Bertolt Brecht Literaturbesprechung
Friedrich Hebbel Literaturbesprechung
Biographie Johann Nepomuk Nestroy
Ernst Theodor Amadeus Hoffmann Liter…
Max Frisch Literaturbesprechung
Die Blechtrommel
Die Bürger von Calais
Carmen Literaturbesprechung
Das Cafe der toten Philosophen
Eichendorff-Marmorbild
Das Tagebuch der Anne Frank Lietratu…
Demian
Der abenteuerliche Simplicissimus
Der Begriff Heimat
Der einsame Weg
Der Name der Rose – Umberto Ecos
Der Realismus
Der Talisman
Georg Büchner Dantons Tod
Deutsche Satire – Vertreter
Die Angst des Tormannes vor dem Elfm…
Die letzten Kinder von Schewenborn
Die Schwarze Spinne
Das Leben des Galilei – Brecht
Draußen vor der Tür
Effi Briest
Emil Kolb
Emil Erich Kästner
Expressionismus
Friedrich Dürrenmatt – Der Verdacht
Ferdinand Raimund
Die Feuerprobe
Fräulein Else
Frauenliteratur
Frühlings Erwachen Literaturbesprec…
The Good Earth
Gegenströmungen zum Naturalismus
Generationenkonflikt in der Literatur
Nicht alles gefallen lassen
Egmont
Goethe als Wissenschaftler
Franz Grillparzer
Hackl Erich
Heinrich Heine
Hermann Hesse Jugend
Homo Faber – Der Steppenwolf
Hugo von Hofmannsthal
Heinrich von Kleist
Henrik Ibsen
Ich bin ein Kumpel
Die Insel des vorigen Tages
Kafka Literaturverzeichnis
Franz Kafka – Das Schloss
Biographie von Franz Kafka
Klassik Literaturbesprechung
Lange Schatten
Gotthold Ephraim Lessing
Liebelei
Literatur der Arbeitswelt
Zeitkritische Literatur im 1. Weltkr…
Literaturmappe Gottfried Keller und …
Biedermeier
Johann Wolfgang von Goethe
Hermann Hesse
Max Frisch Biografie
Analyse Monolog von Faust
Trostlose Monotonie eines Arbeitsall…
Nathan der Weise – Die neuen Leiden…
Neue Sachlichkeit
Nicht nur zur Weihnachtszeit
Ödön von Horvath
Peter Handke
Peter Schlemihls wundersame Reise
Der Prozeß – Franz Kafka
Goerge Orwell 1984
Romantik
Romantik 1795-1835
Friedrich Schiller
Friedrich Torberg – der Schüler
Spielplatz der Helden
Sturm und Drang
Katherine Mansfield: The Dolls House…
Kurt Tucholsky
Unterm Rad von Hemann Hesse
Zukunftsvisionen – Utopien
Vergangenheitsbewältigung
Von Mäusen und Menschen
Vormärz, Junges Deutschland
Richard Wagner
Weh dem der lügt
Bürgerlicher Realismus
1984 – Orwell
Reise um die Erde in 80 Tagen
Maturavorbereitung – Deutsch
Wiener Aktionismus
Analyse rhetorischer Texte
Antike
Arthur Schnitzler Werke
Die Aufklärung
Bertolt Brecht Biographie
Heinrich Böll
Macht der Boulevardpresse
Brennendes Geheimnis
Chagall Biografie und Werke
Mutter Courage und ihre Kinder
Wiener Biedermeier
Datenautobahn
Der Kriminalroman
Die Ehe des Herrn Mississippi
Die Globalisierung
Ilse Aichinger – Die größere Hoffn…
Die Judenbuche – Annette von Droste-…
Die Rolandsage
Dshamilja Tschingis Aitmatow
Friedrich Dürrenmatt Lebenslauf
Dürrenmatt und die Komödie
Die Eisenbahn
Der Expressionismus
Werner Bergengruen – Die Feuerprobe
Franz Kafkas Lebenslauf
Frühlingserwachen von Frank Wedekind
Geschichte des Internets
Die Presse und das Pressewesen
GreenPeace Referat
Der Trend zur Globalisierung
Hermann Hesse Biographie und Werke
Hermann Hesse Kinderseele
Ödön von Horvath – Jugend ohne Gott
Johann Wolfgang von Goethe wichtigst…
Der kaukasische Kreidekreis
Lebenslauf Milan Kundera
Bildende Kunst
Das Drama
Literatur im Mittelalter
Deutsche Literatur im Mittelalter
Literarische Entwicklung ab 1945
Gerhart Hauptmann Biographie
Medienkunde
Die Merowinger
Naturalismus – Hauptvertreter
Naturalismus Hintergrund
Die neuen Rechtschreibregeln
Die Nibelungen Sage
Olympische Spiele
Richard Wagner Parsifal
Realismus
Die Rede
Sansibar
Friedrich Schiller – Don Carlos
Die Welt der Science Fiction
Der Gute Mensch von Sezuan – Brecht
William Shakespeare Biographie
Siddharta
Theodor Fontane – Der Stechlin
Stefan Heym Schwarzenberg
Steppenwolf Hermann Hesse
The Lord of the Rings
Utopien in der Literatur
Ferdinand von Saar Biographie
Warten auf Godot
Wolfgang Borchert Lebenslauf
Wilhelm Tell – Schiller
Wirtschaftsordnungen
Die Verantwortung des Wissenschaftler
Literatur in der Zwischenkriegszeit
Preußen – Gescheiterte Revolution v…
Interviewtechniken Ideenfindung
Nationalsozialismus – Faschismus
Die griechischen Sagen
Die 68er Bewegung
Ernst Theodor Wilhelm Hoffmann – s…
Die Klassik Literatur
Zustandekommen von Vorurteilen
Arbeitslosigkeit
Kollektives Arbeitsrecht
I2C am 80C552 Microprozessor
Cray-Code-Zähler
Hardware für Digitale Filter
Adressierungsarten
Fehlersuche auf Integrierten Schaltk…
Grundschaltungen des JFET
Interrupts
Feldeffekttransistor – JFET
Logikfamilien
Logische Elektronik
PN-Übergang – Halbleiter – Diode
Luftdruckmessung
Dimmerschaltung
Temperaturmessung
IEC-Bus – comp.gest Meßsystem
Messwertaufnehmer
Serielle Datenübertragung
Fuzzy-Logic
Amerikas Westen
Umweltbewusste Energiegewinnung
Zusammenfassung Globalisierung
Bundesrepublik Deutschland
Artificial Intelligence
Doing Business in Japan
Production Technique
Mount Everest – Kilimanjaro – Mc Kin…
New Zealand – Land of the Kiwi
All quiet on the western front
All the kings men
Animal Farm
Animal Farm – Georg Orwell
Tolstoy Anna Karenina
Rain Man
The Call of the Wild
The Catcher in the Rye
Ernest Hemingway For Whom the Bell T…
Count Zero
John Briley Cry Freedom
One Flew Over the Cuckoo s Nest
Marylin Sachs The Fat Girl
William Faulkner As I lay dying
A Farewell to Arms
The invisible man
John Knowles A seperate Peace
A midsummer nights dreamA midsummer …
Of Mice and Men
Harry Sinclair Lewis Babbitt
The House of the Spirits
Little Buddha
The Pearl
Walkabout
Acid Rain
Principles of Marketing – Advertising
Alcohol and Tobacco
Australia
Bill Gates Background information
England and the English
Finance in Britain
Canada
The development of letters and books
Drug Takers
Engines
The Future
The Existence of God
Expert Systems Artificial Intelligence
The first art
The beauty of fractals
From Gliders to Rockets
George Orwell Nineteen Eighty-fou
Heat Treatment of Steel
Hemp
Histroy of the English language
Television
Divided Ireland
Nineteen eighty-four
Production of Iron
Television
The Channel Tunnel
The Client
Internet
The moving finger
The Red Pony
The X-Files
Tombstone
Voices Across the Earth
Kurt Vonnegut
Wire Pirates
Collection of english workouts
Investing in poeple
Economic backgrounds of the Gulf cri…
American Revolution
Virgil The Aeneid
Autism
Die Schweiz
Die sieben Weltwunder
Der Alpentransit
Das Sonnensystem
Die Sterne
Bevölkerungsproblem Chinas
Bodenkundewissenschaften in der 3.Welt
Prachtstraßen in Wien
Paris
Endogene Kräfte – Vulkane
Energie – Gestern Heute Morgen
Entstehung des Erdöls
Japan – Geographische Daten
Entstehung von Erdbeben
Geologie Österreichs
Grönland
Geschichte der Agrarwirtschaft
Ökologische. Belastungen d. Tourismus
Polarlichter
Vulkanismus
Berliner Mauer
Computer im Militärwesen
Demokratie – Ursprung und Entwicklung
Das Burgenland in der Zwischenkriegs…
Die industrielle Revolution in Deuts…
Vormärz Metternichsche Staatensystem
WBRS-Referat Gerichtsbarkeit
Wiener Kongress Metternichs Polizeis…
Der Erste Weltkrieg
der erste Weltkrieg
Der Erste Weltkrieg
Der 2.Weltkrieg
Kriegsverlauf von 1942-1945
Geschichte ab 1848
Alexander der Große
Wien in der Donaumonarchie
Der amerikanische Sezessionskrieg
Weltbilder
Verfassungsstaat – Ausgleich mit Ung…
Außenpolitik unter Adolf Hitler
Die Geschichte der Südslawen am Bal…
Balkankonflikte
War in Bosnia – Herzegowina – a review
Biologische Kriegsführung
Bundeskanzler Engelbert Dollfuß
Cäsars gallische Ethnographie
Geschichte Chinas
Christenverfolgung im Römischen Reich
Rettung der dänischen Juden
Das faschistische Italien
Tatsachenbericht des jüdischen Gesc…
Der Aufstieg Japans
Der Golfkrieg
Der kalte Krieg
Der Nahostkonflikt
Der spanische Bürgerkrieg
Der Deutsche Widerstand
Die zweite Republik
Österreich unter den Babenbergern
Die französische Revolution
Geschichte Frankreichs
Die Kelten
Die lateinische Sprache
Die Phönizier
Die Schlacht von Stalingrad
Die Westslawen
Widerstand gegen Hitler und das At…
Ende des Kolonialsystems in Afrika
Die Ausbildung der Konfessionen
Die Entwicklung im nahen Osten
Faschismus und Nationalsozialismus
Judenverfolgung
Kosovo
Die Geschichte Der Atombombe
Geschichte Jugoslawiens
Griechenland – geographisch und öko…
Griechenland vor den Perserkriegen
Die Grund- und Freiheitsrechte
Die Freiheitlichen und Rechtsextremi…
Die indianischen Hochkulturen Amerikas
Der Imperialismus
Deutsche Kolonien
John Fitzgerald Kennedy
Judenverfolgung der NSDAP
Jugend unter dem Hakenkreuz
Jugend, Schule und Erziehung im 3. R…
Das Königtum im Mittelalter
Geschichte Koreas vor dem 2. WK
Der Koreakrieg
Lebenslauf von Adolf Hitler
Das Lehnswesen im Mittelalter
Das Erbe des Mittelalters und der We…
NATO Referat
Otto von Bismarck
Pariser Vorortverträge
Der Fall Barbarossa
Pol Pot
Der Faschismus in Rom
Das sowjetische Experiment
Die Russische Revolution von 1917
Rolle der Schweiz im zweiten Weltkrieg
Die SS und ihr Krieg im Westen
Die Trajanssäule
Die Außenpolitik der USA
Der Erste Weltkrieg
Die Wandmalerei Kalk
Alexanders Weg zur Größe
Der Erste Weltkrieg
Zentralisierung Entstaatlichung NS R…
Zivilgerichtsbarkeit
Wie sich der Mensch aus dem Tierreic…
Bürgertum in Frankreich im 18. Jahr…
Die Europäische Union – EU
Geschichte – Die Entstehung von Hoc…
China
Die Ringstraße
Islamische Kunst in Spanien
Die Römer und die Philosophie
Augustinus – Kirchenvater und Philos…
UHF–und-Mikrowellen-Messtechnik
Datenübertragung – Begriffe
Compilerbau
Datenbankserver – SQL
Großrechner
Kryptologie
Magnetspeicher
Instrumentationen und Schnittstellen
Optische Nachrichtensysteme mit Lich…
Monitore und Grafikkarten
Netzwerktechnik
Windows NT Ressourcenverwaltung
Objektorientierte Programmierung
Plotter und Drucker
AMD-K6-III Prozessor
Einführung in die fraktale Geometrie
Matura Mathematik
Mathematik Zusammenfassung
Mathematik der Funktionen
Funktionen Mathematik
Maturamappe Mathematik
Referat-Albert-Einstein
Alternativenergiegewinnung
Doppler-Effekt
Der-Delphi-Report
Grundlagen-zum-Thema-Strom
Gravitationsfeldstärke
Optik-Referat
Kernfusion–Wasserstoffbombe
Laser
Die-Quantentheorie
Der-Stirlingmotor
Sternentwicklung
Antimaterie
Kernspaltung
Batterien-Akkumulatoren
Explosivstoffe
Flammenfärbung-Feuerwerke
Natürliche-Radioaktivität
Modell-für-elektrische-Leitungsvorg…
Photographie
Radioaktivität
Raketenantriebe
James-Joyce-The-Dead
Reibung
Der-Saturn
Solarzellen
Kommutierung
Photovoltaik
Schwingungen-und-Wellen
Chaos
Liturgiegeschichte
Die Spieler im Systemspiel
Schutz für Dateien
Aufwandschätzung
Ausgeglichene Bäume
AVL-Bäume
Betriebssysteme
Binäre Bäume
Der Algorithmus von Bresenham
Computerviren
Concurrency-Problem
3D-Grafik

Insgesamt 513 Referate von Anna

YKM.de ✔ Quickly Shorten Url

YKM.de ✔ Quickly Shorten Url

ykm.de/SN_Mat_5612

Diese short-URL bringt Dich direkt zu  Biographie Referate auf schulnote.de.
Teile Sie mit Deinen Freunden.

Diese Suche hilft Dir, alles auf den Seiten von schulnote.de zu finden. In den Schulfächern kannst du Deine Suche verfeinern, in dem Du die Tabellensuche verwendest.