Fächer

Fächer

Mehr

Abitur Zusammenfassung Stochastik (LK)

7.2.2023

4067

171

Teilen

Speichern

Herunterladen


Stochastik Grundlagen
• Absolute Häufigkeit = tritt bei einer n-fachen Durchführung eines Zufallsexperiments en Ergebnis k-mal auf, ist der
Stochastik Grundlagen
• Absolute Häufigkeit = tritt bei einer n-fachen Durchführung eines Zufallsexperiments en Ergebnis k-mal auf, ist der
Stochastik Grundlagen
• Absolute Häufigkeit = tritt bei einer n-fachen Durchführung eines Zufallsexperiments en Ergebnis k-mal auf, ist der
Stochastik Grundlagen
• Absolute Häufigkeit = tritt bei einer n-fachen Durchführung eines Zufallsexperiments en Ergebnis k-mal auf, ist der
Stochastik Grundlagen
• Absolute Häufigkeit = tritt bei einer n-fachen Durchführung eines Zufallsexperiments en Ergebnis k-mal auf, ist der

Stochastik Grundlagen • Absolute Häufigkeit = tritt bei einer n-fachen Durchführung eines Zufallsexperiments en Ergebnis k-mal auf, ist der Wert k die absolute Häufigke • Relative Häufigkeit - Quotient h= = relative Häufigkeit des Ergebnis k • Wahrscheinlichkeit - Gewissheit eines Ereignisses, 0<P <1 →> P(A) -> L>Zufalls variable XX kann Zahlenwerte annehmen, welche den Ergebnissen zugeordnet werden - Bsp. Wurfel: X= {1,2,3,4,5,6} Ls Wahrscheinlichkeitsverteilung → jedem X Wert wird eine Wahrscheinlichkeit zugeordnet →> | 1 | 2 | 7 ·• Erwartungswert = nahe dem wahrscheinlichsten Wert der Zufallsvariable / wahrscheinlichstem Ergebnis des Zufallsversuchs → M=X· P₁ + X₂-P₂ + ... + Xn-pn • Standardabweichung = Maß dafür, wie weit die Werte vom Mittelwert abweichen -0 = √ √ (M-X₁₂) ². p₁ + (M-X₂)² · P₁₂ + ... + (μ-X₂)².pn · Laplace-Experimente = jedes Ergebnis hat die gleiche Wahrscheinlichkeit →→bsp. Würfel, Kartendeck... ・Anzahl aller zum Ereignis gehörenden Ergebnisse P(Ereignis) Anzahl aller möglichen Ergebnisse ما · Baumdiagramm = jedes Ergebnis erhält einen Pfad, auf dem die jeweilige Wahrscheinlichkeit notiert wird →→Summe der Wahrscheinlichkeit aller Pfade = 1 •Pfadmultiplikationsregel. (→ Wahrscheinlichkeit des Pfades = Multiplikation der Wahrscheinlichkeiten der Teilpfade +Bsp. ↳ Pfadssummenregel -> Wahrscheinlichkeit eines Ereignisses = Addition der Wahrscheinlichkeiten aller zugehörigen Pfade = • Bedingte Wahrscheinlichkeit = PIA) P(A) A -> Vierfeldertafel-> P(B) (B PIB) P(AV P(B) PIA)-P(A) PIA-PI) P-P P(B):P[8) zwei Ereignisse A und B sind miteinander verknüpft und hangen voneinander ab -PA (B)...

Nichts passendes dabei? Erkunde andere Fachbereiche.

Knowunity ist die #1 unter den Bildungs-Apps in fünf europäischen Ländern

Knowunity wurde bei Apple als "Featured Story" ausgezeichnet und hat die App-Store-Charts in der Kategorie Bildung in Deutschland, Italien, Polen, der Schweiz und dem Vereinigten Königreich regelmäßig angeführt. Werde noch heute Mitglied bei Knowunity und hilf Millionen von Schüler:innen auf der ganzen Welt.

Ranked #1 Education App

Laden im

Google Play

Laden im

App Store

Knowunity ist die #1 unter den Bildungs-Apps in fünf europäischen Ländern

4.9+

Durchschnittliche App-Bewertung

13 M

Schüler:innen lieben Knowunity

#1

In Bildungs-App-Charts in 11 Ländern

900 K+

Schüler:innen haben Lernzettel hochgeladen

Immer noch nicht überzeugt? Schau dir an, was andere Schüler:innen sagen...

iOS User

Ich liebe diese App so sehr, ich benutze sie auch täglich. Ich empfehle Knowunity jedem!! Ich bin damit von einer 4 auf eine 1 gekommen :D

Philipp, iOS User

Die App ist sehr einfach und gut gestaltet. Bis jetzt habe ich immer alles gefunden, was ich gesucht habe :D

Lena, iOS Userin

Ich liebe diese App ❤️, ich benutze sie eigentlich immer, wenn ich lerne.

Alternativer Bildtext:

= P(A^B) P.(A) →Die Wahrscheinlichkeit das B zutrifft, wenn A bereits eingetroffen ist →> P(ANB) = Schnittmenge von A und B A A BP(ANB) PAP(B) BPIAN) PLAN P(B) P(A) PIA) L>Stochastische Unabhängigkeit = das Eintreten von A hat keinen Einfluss auf die Wahrscheinlichkeit von B => PAB=P(B) / P(ANB) = P(A) P(B) • Faires Spiel = Erwartungswert beträgt Null zu erwartender Gewinn 0€ Binominalverteilungen ↳ Wahrscheinlichkeitsverteilungen, die bei Bernoulliexperimenten entstehen ·• Bernoulliexperimente = zwei mögliche Ergebnisse (Treffer / kein Treffer) + Unabhängigkeit" der Versuchsdurchführungen ↳ Bernoulli-Versuch wird n mal durchgeführt - Bernoulli-Kette der Längen, wobei p konstant bleibt - n= Anzahl der ersuchsdurchführungen "k=Trefferanzahl • Bernoulli - Formel = Trefferwahrscheinlichkeit für k X-Zufallsgröße für die Trefferanzahl →Pascal-Dreieck Zeile. • Binominal koeffizient =, Anzahl der zugehörigen Pfade" →→wie viele Möglichkeiten. · (~) = K (n-k)! n!= n(n-1)-(n-2)·2·1 个 nüber k" LGTR. OPTN-PROBnCrn vor C, k dahinter 10 0 1 2 3 n-k. _P(x= k) = (x) · pk. (^-p) ^- q 4 Binominalkoeffizient 1 11 1/2 1 p=1 1- Treffer wahrscheinlichkeit 2 1 1 /3/3/1 1, 4/ 6. 4 1 3 • Wahrscheinlichkeiten mit dem GTR - P(x=k) = Bn;p (k) = Bpd (k,n,p) - P(x≤k) = Fn;p (k)= Bcd (kn,p) ·P (k≤x≤r) = Bcd (k, r, n, p) 4 ... • Kennwerte: L> M=n·P (Erwartungswert) Vn.p (1-p) (Standardabweichung) 40= Spalte • Histogramme = Säulendiagramme, bei denen die Wahrscheinlichkeitsverteilung von Binominal verteilungen dargestellt wird L>x-Achse = Anzahl der Treffer, y-Achse = Wahrscheinlichkeit der Trefferanzahl Ladie Summe aller W'keiten ergibt 1 →liegt in direkter Nähe der höchsten Säule ↳nicht immer exakt eine Trefferzahl OPTN-STAT-DIST-BINOMINAL es s gibt unter n Optionen genau k auszuwählen ->Fakultät → In der n-ten Zeile und k-ten Spalte findet sich das Ergebnis des Binominalkoeffizientes (1) bsp (²) = 4 • Problemlösen mit der Binominalverteilung: L₂ P(x = k) gesucht: GTR → Bpd (k,n,p) / Bcd (k,r,n, p) →→gesucht L> p gesucht: GTR Tabelle -> Funktion mit x statt p L>k gesucht: GTR Tabelle Funktion mit x statt k 0.25 P(x=k) 0.2- L> Linke Spalte prechte Spalte W'keit mit diesem Р ·0.15 0.1 0.05 L> n gesucht: GTR -> Tabelle Funktion Bpd (k,x,p) / Bcd (k, r,x,p) →x statt n,da n unbekannt L> mit SET Werte für n einstellen L Linke Spalte n, rechte Spalte W'keit mit diesem n k oder mehr" Treffer zu erhalten = erstes n für dass die Wahrscheinlichkeit größer gleich P(x = k) ist • Kumulierte Binominalverteilung = Wahrscheinlichkeiten für einen Trefferbereich → Wahrscheinlichkeit zwischen a und 6 Treffer zu erzielen =>P(a≤x≤ b) L₂ P(asx≤ b) = P(x=a) + P(x=a+1) + P(x=a+2)+...+ P(x=b) L> als Histogramm. Säulen der kummulierten Wahrscheinlichkeiten = Höhe aller Säulen bis zu dieser Trefferzahl ма von Je größer p odern, desto weiter rückt Brip nach rechts ->Je größer n, desto breiter wird die Darstellung Впр →> Je näher p an 0 bzw. 1, desto schmaler wird die Darstellung von Brip ·symmetrische Verteilung! nur für p=0,5 k-Treffer zu erhalten M+a 35 40 45 50 55 L> Linke Spalte k, rechte Spalte W'keit bei diesem k „k bis n "Treffer zu erhalten Alternativ GTR-> InvB (an, p) ->erstes k für das die W'keit weniger als k Treffer zu erzielen mind. a beträgt Sigma-Regeln L>mit Hilfe der O-Regeln wird in %. die Wahrscheinlichkeit dafür angegeben, dass die Trefferanzahl innerhalb einer o-Umgebung. Liegt um eine gute Näherung zu erzielen sollte 0>3 gelten => Konfidenzintervalle P(M-OSX<M+0) ≈68,3% P (M-20≤x≤M+20) ≈ 95,4% P/M-305 XM+30) 299,7% P(M-1,640≤x≤ M+ 1,640) * 90% P(M-1,960 < x < μ+ 1,060) 2 05% P(M-2,580 ≤XSM+ 2,580) ~ 99% Signifikanzbests L> Hypothesentest => Vermutung über eine Wahrscheinlichkeit wird aufgestellt und anhand einer Stichprobe getestet → Ergebnis des Tests entscheidet ob eine Vermu- tung angenommen oder abgelehnt wird Ausgangshypothese Ho H₂: p=po & Gegenhypothese H₂₁: p=#po → Zwei Arten von Fehlern können bei der Annahme / Ablehnung passieren: Fehler 1. Art / a-Fehler = Hypothese wird verworfen obwohl sie wahr ist Fehler 2. Art / ß-Fehler - Hypothese wird beibehalten, obwohl sie falsch ist →diese Fehler möchten mit maximal x-Wahrscheinlichkeit begangen werden > Ho wird auf ein signifikanzniveau von α = getestet => Irrtumswahrscheinlichkeit = Wahrscheinlichkeit im Ablehnungsbereich zu liegen =>mit welcher Wahrscheinlichkeit für k die Hypothese abgelehnt wird →> Annahmebereich = mit welchen Untersuchungsergebnissen der Stichprobe die Nullhypothese aufrechterhalten werden kann L₂ Signifikanzniveau = Wahrscheinlichkeit außerhalb des Annahmebereichs zu liegen, falls die Hypothese wahr ist > zweiseitiger Signifikanztest → Überprüfung auf Abweichungen nach oben und unten => Signifikanzriveau & auf die Ränder der Verteilung aufgeteilt L> bei a=5% P(x<a) < 2,5% und P(x<b) >97,5% → [ab] Annahmebereich einseitiger Signifikanztest → Überprüfung auf Abweichung nach unten /oben => Signifikanzriveau /Ablehnungsbereich an einem Rand der Verteilung La rechtsseitiger Hypothesentest: P(x<b) >95% → Vorgehensweise @ Nullhypothese Ho festlegen + H₂ 2. Test-Art feststellen 3. M & o berechnen 4) Intervall entsprechend des Signifikanzniveaus a festlegen. L> [a b]= Annahmebereich L> a= kleinste Trefferzahl k, für die P(xsk) >0,025 ist L> a&b= Grenzen des Annahmebereichs L No wird beibehalten obwohl sie falsch ist →→Fehler 2. Art 0,08 0,06 (a, b, n, H₂) Annahmebereich Ho um den Erwartungswert 0,04 0,02 >95% n = 100 p=0.6 x= 5% 2.5% <2.5% 40 45 50 55 60 65 70 75 80 85 →>Intervall festlegen: •GTR->Tabelle: L> Bcd (a, n, p) > 2,5% →> a = der kleinste Werl, für den das gilt L> Bed (b,n,p) > 97,5% ・o-Bereich! symmetrisch · GTR : • Fehler bei Hypothesentests? L> Signifikanzriveau α = Irrtumswahrscheinlichkeit → No wird in x % der Fälle verworfen obwohl sie eigentlich korrekt ist L> in 5% der Falle erwartet man Ergebnisse die im Ablehnungsbereich liegen L> Fehler 1. Art L> InvB (an,p) gibt das erste k an, für das P(xsk) größer als a ist L> InvB (0,025, n,p) = a L> Alternativhypothese muss vorliegen L> Irrtumswahrscheinlichkeit = W'keit dafür, dass die Alternativhypothese korrekt ist und das Ergebnis trotzdem im Annahmebereich von Ho liegt L>Bcd Stetige Zufallsgrößen - Normalverteilung • stetige /normalverteilte Zufallsgrößen :) - reelwertige Zufallsgrößen = X kann in einem Intervall beliebige Zahlenwerte annehmen, nicht nur ganzzahlige L> Bsp. Körpergröße, Geschwindigkeiten, Zufallsdezimalzahlen, Zeiten • Wahrscheinlichkeitsdichte: > Dichte funktion = eine Funktion f, aus der man Wahrscheinlichkeiten auf einem Intervall | [a; b] durch Integration erhält ->f heißt Wahrscheinlichkeitsdlichte aber [= [a; b], wenn gilt: 1) f(x) > 0 far alle x aus I 2) f(x)dx = 1 → eine reelwertige Zufallsgröße X mit Werten im Intervall I heißt stetig verteilt mit der Wahrscheinlichkeitsdichte f, wenn für alle ris aus I gilt: P(rexes ) = √³f(x) dx →> die Funktionswerte f(x) sind bei stetigen Zufallsgrößen keine W'keiten mehr →→W'keit dass X genau den Wert x annimmt ist gleich null Erwartungswert: M= folde -> Standardabweichung: Vo = Six-μ)². f(x)dx Gauß'sche Glockenfunktion: -> • Histogramme von Wahrscheinlichkeiten können durch eine Glockenkurve angenähert werden → Standard-Glockenfunktion wird durch fup(x) = √2 →> ["~P(xldx = 1 => Dichte funktion → durch Transmormation kann die Standard-Glockenfunktion an den Sachverhalt angepasst werden Normalverteilung: => eine stetige Zufallsgröße x heißt normalverteilt mit dem Erwartungswert μ und der Standardabweichung a, wenn sie eine Gaußsche Glockenfunktion fu,a als Dichte funktion besitzt Normalverteilung 68,27%- -- 1*² beschrieben, wobei M=0 und 0 = 1 e μ+o μ+20 Gaußsche Glockenfunktion Pμ₁0 = 0 -√2π → Maximum bei x= M & Wendestellen bei x = μ±o Achsensymmetrisch zu x= μ -95,45% -99,73% μ-20 μ-o μ →> Intervall-Wahrscheinlichkeiten lassen sich mit Spua (x) dx berechnen • GTR-Nutzung: -> für normalverteilte Zufallsgrößen Graphen Zeichnen: Npd (x.a,μ) => Zeichnet eine Dichtefunktion mit o und u Ncd (-1000,x,0,μ) => zeichnet Verteilungs funktion → Zahlenwerte und W'keiten berechnen: Npd (x,a,m) = f(x) einer Dichtefunktion mit & und μ => P(X=x) Ncd (a,b,a, M) =) P(a≤x≤ b), wenn X o&μ besitzt • Verteilungs- & Dichtefunktion: →> Verteilungsfunktion (Ncd) = kumulative Verteilungsfunktion ->alle W'keiten bis x werden addiert L> Graph verläuft asymptotisch und nähert sich dem y-Wert 1 an → Dichte funktion (Npd ) = W'beiten jedes möglichen Ereignisses k+0,5 ・Stetigkeitskorrektur: -> wird verwendet wenn man eine Binominalverteilung durch eine Normalverteilung annähern möchte L> für binominalverteilte Zufallsgrößen X mit μ=n.p und a = √√n.p (1-p) gilt: 1) P(X=k) = Bn₁p(k) = Tuo (x) dx 2) P(a≤x≤ b) = Fnp(b)-Fnp (a) = ( Pμ.0 (x)dx k-0,5 b+0,5 a-0,5 Stochastische Prozesse /a.. a a • Matrix = rechteckiges Zahlenschema aus m-Zeilen und n-Spalten (mxn-Matrix) →> A = L> Skalare Multiplikation: alle Matrixelemente mit der reellen Zahl r multiplizieren (0.4 0.2 0.1) L₂ 2.B 2.A = 2.0.3 0.4 0.5 0.3 0.4 0.4. • mit Matrizen rechnen: L> Addition und Subtraktion: die in den Matrizen an entsprechender Stelle stehenden Elemente addieren subtrahieren 10.4 +0.2 10.2 0.4 0.41 Lz. B.: 10.4 0.2 0.11 0.3.0.4.0.5 0.3 0.4 0.4/ 04.0.4.0.2 0.3 +0.4 0.3 +0.4 0.4 0.2 0.4 + Prozessdiagramme : Zustände > Innere: Zustand, den man verlassen kann F + 10.8 0.4 0.21 0.6 0.8 1 0.6 0.8 0.8/ L> Multiplikation zweier Matrizen: A (mxn) Matrix mal B (nxp) Modrix = ((mxp) Matrix →> Anzahl der der Spalten von A = Anzahl der Zeilen von B /0.2 0.4 L> 2.B.: 0.4 0.2 0.11 0.3 0.4 0.5. 04 0.4 0.4 0.2 0.3 0.4 0.4/ →> Absorbierend: Zustand, den man nicht mehr verlassen kann asi 0,8 On an la a... Om L> Zeilen werden mit Spalten multipliziert 1 wird für mehrstufige Zufallsvorgänge verwendet, wenn sich die Stufenzahl nicht nach oben begrenzen lässt - potenziell unendlich • Inverse Matrix: = Kehrwert" einer Matrix → A-1 /0.4-0,2 +0,2-0,4 +0,1.0,4 = 0,3-0,2 +0,4 0,4 +0,5-0,4 0,3-0,2 0,4 -0,4+0,4-0,4 0.6 → besteht aus Zuständen und Übergangswahrscheinlichkeiten » alle Zustandswechsel erfolgen zufällig und mit konstanten Übergangswahrscheinlichkeiten (W'keit von einem Zustand in einen anderen überzugehen) L> Matrix A mit den eingetragenen Übergangsw'keiten = Übergangsmatrix des Prozesses → Diagramm mit den eingetragenen W'keiten = Prozessdiagramm →Bsp. Computerspiel mit 3 Zuständen 0.2 1 →Pfad- und Summenregel gelten genau wie bei Baumdiagrammen •Stochastische Matrizen: L> Eine Matrix heißt stochastisch, wenn sie quadratisch ist Zeilenanzahl= Spaltenanzahl - sie nur positive Einträge zwischen 0 und 1 enthält in jeder Spalte die Summe der Elemente 1 beträgt 10.6 0.6 0.5 6.7 .08 6.7 0.7 0.6 0.8. 0,4-0,4+0,2-0,4+0,1-0,2\ 0,3-0,4+0.4.0.4+0.5.0.2 0,3-0,4+0.4.0.4+ 0,4-0,2) , wobei U.g² = 8 → stabile Verteilung: Grenzverteilung, die unabhängig von der Startverteilung ist • Zustandsverteilungen -> gibt an mit welcher Wikeit man sich zu einem bestimmten Zeitpunkt in den gegebenen Zuständen befindet →> Darstellung in Vektorschreibweise → Anzahl der Einträge = Anzahl der Zustände -> V₁² = Anfangs- / Startverteilung →> lassen sich duch Multiplikation mit der Übergangsmatrix bestimmen: U/A=0.8 040 0 0.6 • Grenzverhalten auf lange Sicht stabilisiert sich die Verteilung bei vielfacher Multiplikation mit der Übergangsmatrix U /0.2 0,261 = 0,42 0.38- 0,38 0,36 √₁² = U. №₁² √√²+₁ = U・√√₁₂₁² V₁ = UV -> Zustandsverteilung nach in Versuchen -> → Grenzmatrix G: beschreibt das Grenzverhalten einer Übergangsmatrix, bei der sich die Ergebnismatrix" bei emeuter Multiplikation nicht mehr G= Un, wobei U. Un = un verändert La sind alle Spalten von 6 gleich ist & unabhängig von Vo und es existiert eine stabile Verteilung →> Grenzverteilung g²: die Verteilung eines stochastischen Prozesses wenn dieser sich nach in Wolh. stabilisiert und nicht mehr verändert 6₁₁ v₁ = 8 - multipliziert man eine Matrix A mit ihrer inversen Matrix A-1 enthält man die Einheitsmatrix E →> mit A-¹ lässt sich aus einer Verteilung die vorangegangene Verteilung berechnen (macht Multiplikation mit A „rückgängig") Einheitsmatrix E: → E besitzt nur Nullen, bis auf die Diagonale, welche Einsen enthält →→Bsp. 1 = 0 10 1001 001