Fächer

Fächer

Mehr

Stochastik - Abitur 2022

13.2.2022

4938

187

Teilen

Speichern

Herunterladen


● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der
● Grundlegende Begriffe
o Zufallsexperiment
O
o Ergebnismenge, Ergebnis und Ereignis
absolute und relative Häufigkeit
empirisches Gesetz der

● Grundlegende Begriffe o Zufallsexperiment O o Ergebnismenge, Ergebnis und Ereignis absolute und relative Häufigkeit empirisches Gesetz der großen Zahlen O Zufallsvariable oder Zufallsgröße X O O LAPLACE - Experiment o mehrstufige Zufallsexperimente O bedingte Wahrscheinlichkeit o stochastische Unabhängigkeit Statistik O Median x O Mittelwert x o Standardabweichung s O Standardabweichungsintervall Inhaltsübersicht O Gauß'sche Faustregel zum Sinn der Standardabweichung Stochastik O Wahrscheinlichkeitsverteilung o Erwartungswert O prognostische Standardabweichung Bernoulli-Experimente und Binomialverteilung O Bernoulli-Experimente O Binomialverteilung O Binomialkoeffizient O Binomialverteilungen als Histogramme darstellen O Erwartungswert o Standardabweichung O Standardabweichungsintervall O Sigmaregeln O fehlende Parameter bestimmen Hypothesentests o zweiseitiger Signifikanztest O Irrtumswahrscheinlichkeit O einseitiger Signifikanztest linksseitiger Test rechtsseitiger Test O Fehler beim Testen von Hypothesen Stetige Zufallsgrößen und Normalverteilung O Wahrscheinlichkeitsdichte / Dichtefunktion O Erwartungswert von stetigen Zufallsvariablen O Standardabweichung von stetigen Zufallsvariablen Gauß'sche Glockenfunktion Normalverteilung O Satz von de Moivre-Laplace O Mittelwerte bei Normalverteilungen ● Hypothesentest bei normalverteilten Zufallsgrößen ● Kurzübersicht OraininiaRTIN Otemany bauru down Grundlegende Begriffe Zufallsexperiment geplanter und kontrolliert ablaufender Vorgang • unter gleichen Bedingungen wiederholbar mögliche Ergebnisse stehen im Voraus fest • tatsächliches Ergebnis ist im Voraus nicht bekannt. 9 Stochastik Ergebnismenge, Ergebnis und Ereignis Ergebnismenge 52 Ω -gibt alle möglichen Ergebnisse ·Bsp.: 22 = {1; 2; 3; 4; 5} Ergebnis - ein möglicher Ausgang eines Zufallsexperiments • Ereignis - @ - eine Teilmenge der Ergebnismenge - Bsp.: E = { 1 ; 3 ; 5 } an • alle möglichen Ergebnisse haben zusammen die Wahrscheinlichkeit P = 1 absolute und relative Häufigkeit • absolute Häufigkeert -gibt ganzzahlig an, wie oft ein Ergebnis bein Versuchen vorkam relative Häufigkeit -Anteil an Objekten mit einem bestimmten Merkmal an der Ergebnismenge 14 empirisches Gesetz der großen Zahlen. wird ein Zufallsexperiment immer unter den selben Bedingungen wiederholt, so nähert sich die relative Häufigkert eines Ergebnisses...

Nichts passendes dabei? Erkunde andere Fachbereiche.

Knowunity ist die #1 unter den Bildungs-Apps in fünf europäischen Ländern

Knowunity ist die #1 unter den Bildungs-Apps in fünf europäischen Ländern

Knowunity wurde bei Apple als "Featured Story" ausgezeichnet und hat die App-Store-Charts in der Kategorie Bildung in Deutschland, Italien, Polen, der Schweiz und dem Vereinigten Königreich regelmäßig angeführt. Werde noch heute Mitglied bei Knowunity und hilf Millionen von Schüler:innen auf der ganzen Welt.

Ranked #1 Education App

Laden im

Google Play

Laden im

App Store

Immer noch nicht überzeugt? Schau dir an, was andere Schüler:innen sagen...

iOS User

Ich liebe diese App so sehr, ich benutze sie auch täglich. Ich empfehle Knowunity jedem!! Ich bin damit von einer 4 auf eine 1 gekommen :D

Philipp, iOS User

Die App ist sehr einfach und gut gestaltet. Bis jetzt habe ich immer alles gefunden, was ich gesucht habe :D

Lena, iOS Userin

Ich liebe diese App ❤️, ich benutze sie eigentlich immer, wenn ich lerne.

Alternativer Bildtext:

der Wahrscheinlichkeit. an Zufallsvariable oder Zufallsgröße X Größe, deren Wert vom Zufall abhängig ist - absolute Häufigkeit Ergebnismenge - relative Häufigkeit LAPLACE- Experiment Zufalls experiment, bei dem alle Ergebnisse die selbe Wahrscheinlichkeit haben: Zuordnungsvorschrift, die jedem möglichen Ergebnis eines Zufallsexperiments eine Größe zuordnet. 0 Prergesnamengea der · LAPLACE-Formel zur Berechnung Wahrscheinlichkeit eines Ereignisses A Anzahl der Ergebnisse bei denen A Eintritt. ergesnismenge Р A Metustufige Zufallsexperimente. Berechnung von Wahrscheinlichkeiten bei mehrfach durchgeführten Zufallsexperimenten Darstellung im Baumdiagramm: Pfadregel: Die Wahrscheinlichkeit eines Ergebnisses ist das Produkt der Wahrscheinlichkeiten entlang des Pfades. 6 ✔ - Summenregel: Die Wahrscheinlichkeit eines Ergebnisses ist die Summe der Wahrscheinlichkeiten der Pfade, die zu . diesem Ereignis gehören. P (B) B PA (B) B P (B) PA (B) •bedingte Wahrscheinlichkeit P(A) A B B P(A) Ā Berechnung: P₂ (B) Sate Wahrscheinlichkeit des Eintreten eines. Ereignisses B unter der Bedingung, dass das Eintreten eines anderen PLANBI P(A) Ereignisses A bereits bekannt ist: PA (B) Darstellung 4-Felder - Tafel. A A [ P(ANB) PLANB) P(B) P(ANB) P(ANB) P(B) P(A) PLĀ) 1 = P (B) = P(A) P(ANB) PLA von Bayes PB (A) P(B) n B P(AB) B P(AB) P(ANB) PLANB) + PLANBI : B) stochastische Unabhängigkeit Zwei Ereignisse heißen stochastisch unabhängig, wenn das Eintreten eines Ereignisses keinen Einfluss auf die Wahrscheinlichkeit des Statistik Erfassung, Auswertung und Darstellung von experimentell oder empirisch gewonnenen Daten - Eintretens des Eweiten Ereignisses hat. P(ANB) = P(A) · P₂ (B) = P(A) · P(B) Median: wert in der Mitte einer Datenverteilung Beispiel: X X X 8 7 8 10 12 15 15 16 = 8 3 Mittelwert bei gegebener Urliste Xn ;Xz ; X3 ; Хи alle Messwerte addieren und durch. Anzahl n teilen: xổ (X, + X +x₁) • bei gegebener Häufigkeitsverteilung Werte mai mai mzi ... jeweils zugehörigen relativen Häufigkeiten hai h₂ h₂: hn multiplizieren und anschließend addieren x = M₁ · h₁ + m₂. h₂ + m₂. hz +... . 2 + X, + ... mn mit den + m₂·hn Standardabweichung. • misst Streuung der Ergebnisse Mittelwert um den wenn viele Werte weit vom Mittelwert entfernt sind, erhöhen sie den Wert der * Standardabweichung s Berechnung bei Urlisten S = √Á · [(X₁₂ - X )² + (X₂ - \ )² + (x₂ −X ) ² + ... + (x₂ −X ₁²³ Berechnung bei Häufigkeitsverteilungen S = √(m₁-X 1². h₁ + (m₂-x) ². h₂ + · + (mn -x)² · hn Standardabweichungsintervall •S-Intervall mit dem Mittelpunkt = [X=S; X +S] Gauß'sche Faustregel zum Sinn der Standardabweichung • bei zufälligen Messfehlern weichen ca. 68,3%. der Messwerte höchstens um die Standardabweichung s vom. Mittelwert & as 68, 31. der Messwerte liegen Standardabweichungs intervall im Ein Spiel ist fair, wenn M=0 gilt! Stochastik Berechnung von Wahrscheinlichkeiten für Ergebnisse in Zufallsexperimenten Wahrscheinlichkeitsverteilung. • Funktion, bei der jedem möglichen Ergebnis eines Zufallsexperiments like bestimmte Wahrscheinlichkeit zugeordnet wird. Erwartungswert . • Wert, den man auf lange bezüglich der Zufallsvariable ernortet. Prognose für den zu erwartenden Mittelwert " . Sicht Berechnung: - Zufallsvariable (West) multipliziert mit der dazugehöngen Wahrscheinlichkeit Addition mit dem nächsten Produkt - E(X) = μ (X) = X₂₁ · P(X²X₁₂ ) + ... + X₁ ·P(X= xn) prognostische Standardabweichung • Berechnung: - Summe der quadrierten Abweichungen aller Messwerte vom Mittelwert mit der relativen Häufigkeit der Messwerte multiplizieren - vom Ergebnis die Wurzel zieken - 0 (x) = √(x₂₁-μ)² · P(X=x₂) + ... + (x₂ - μ)² · P(X=X₂) J Bernoulli - Experimente und Binomialverteilung Bernoulli-Experimente. P - Binomialverteilung. • Zufallsexperimente mit nur zwei möglichen Ausgängen: Treffer vs. Nicht-Treffer diskrete Wahrscheinlichkeitsverteilung D - malige Wiederholung eines Bernoulli-Experiments Wiederholungen sind stochastisch unabhängig Erfolgswahrscheinlichkeit ist bei allen wiederholungen gleich • Aufsummierung mehrerer Bernoulli-Wahrscheinlich keiten Berechnung der Wahrscheinlichkeit eines Treffers mit der Bernoulli - Formel: X: binomial verfeilte Zufallsgröße P(X= k) = (k) p² .gnok = gn=k = Brip (k) A = (2) Binomial koeffizient 9 A.R. p: Treffer wahrscheinlichkeit 9: Nicht-Treffer wahrscheinlichkeit (1-p=9) k: Anzahl der Treffer n-k: Anzahl der Nicht-Treffer - mit GTR- Einsatz: P(X= k) = binom Polf (nip; k ) menu; 5; 5; A U.G: untere Grenze ⒸG: obere Grenze 7. . Berechnung der kommulierten Treffer wahrscheinlichkeit: X: binomial verteilte Zufallsgröße -P(X ≤ k ) » & (i) · p¹.q jo • P ( X = k) = binom Colf (n₁ p₁i, k) menu; 5; 5; B - P(X = k) = 2 (²).pk . qn-* k - - P(u. 6 ≤ X ≤0. G.) = binom Cdf (n₁ p. u. 6, 0.6.) graphische Darstellung auf dem GTR 3 P ( X = k) = binom Cdf ( n, p, k₁. (n) P (1.6 ≤ x ≤ 0.G.) = ≤ (u.G.).p² 0.6. u. 6 n-u.G. u. G. = Seq (i, i, u. G., o. G.) - B: binut List & Spreadsheet An - - binom Pdf (n, p. menu, 3 8 } k Treffern Berechnung: GTR: menu, 5, 3: per Hand: n! (2) = =k! (n-k)! Binomialkoeffizient • A = (2) Anzahl der Pfade mit genau A) (Daten-> . • 9 $ • Ergebnisdiagramin) nCr (n₁ k) 4 1 vereinfacht: im Nenner im Zähler von n runter multiplizieren Beispiel: (§) = 5: * ? nik- O von Pascal'sches Dreieck 1 bis k hoch multiplizieren gleich viele Faktoren 1 2 3 4 Binomial verteilungen als Histogramme darstellen /0/1/2/3/4/5/ 11 /^/^/ /1/2/1 /1/3/3/1 /1/4/6/4/1 5/1/5/10/10/5/1 Balkendiagramme Erwartungswert M: Wert der x-Achse beim höchsten Balken • Standardabweichung o: Wende stellen der Glocke im Abstand o zum Maximum. • Veränderung von n - je größer n, desto flacher die Balken mit wachsendem in werden die Verteilungen ..symmetrischer Veränderung von р · für p und 1-p sind die Histogramme Spiegel symmetrisch 11 42 8.16 0.16 0.12 0.1 1.00 0:00 9.04 0.02 (914 9.12 0.04 0.10 0.15 6.14 BI 0.00 0:38 ↓ Vergrößerung von n → flachee Balken Binomialverteilung: Histogramm 0.50 0.14 8.12 0.1 600 0.00 $ 10.00 - p<0,5 Verteilung linkslastig -p>0,5: Verteilung rechts lastig a Auffälligkeiten für p= 0,5 -Verteilung in Form einer in Form einer gleichmäßigen Glocke -Erfolg und Misserfolg sind gleich wahrscheinlich. Binomialverteilung: Histogramm Binomialverteilung: Histogramm n = 40 p=0.5 Erwartungswert: = 20 Standardabweichung: 3.16 n = 60 p=0.5 Erwartungswert: 4= 30 A Standardabweichung: 3.87 ↓ Vergrößerung von p ; spiegelsymmetrisch Binomialverteilung: Histogramm n = 40 p=0.3 Erwartungswert: = 12 Standardabweichung: 2.9 n = 40 p=0.7 Erwartungswert: = 28 ・ gleichmäßige Verteilung Standardabweichung: 2.9 4 gleichmäßige Verteilung • links lastige Verteilung rechtslastige Verteilung 2 2 e Erwartungswart im Durchschnitt zu erwartender Wert bei Vielen versuchen . Standardabweichung Berechnung bei Binomial verteilungen: 0= √n-p・ (1-P) 3 Berechnung bei Binomial verteilungen: M = n · p Standardabweichungsintervall • [μ=0; μ+0] - 0 wenn die Intervallgrenzen nicht ganzzahlig sind, berücksichtigt nur die ganzen Zahlen, die näher am Erwartungswert liegen als innere Intervallgrenze Beispiel: ju= 3 0= 1,55 man [3-1,55; 3 + 1,55] = [1,45; 4,55] => [24] Sigmaregeln • mit Vergrößerung des Intervalls nimmt die Aussagekraft ab ・ geben an mit welcher Wahrscheinlich keit die Werte einer binomialverteilten Zufallsgröße in bestimmten Intervallen um den Erwartungswert in liegen. 11 Sigmaregeln Für eine binomialverteilte Zufallsgröße X mit den Parametern n und p, dem Erwartungs- wert un.p und der Standardabweichung o= √n-p (1-p) erhält man folgende Näherungen: 10-, 20-, 30-Regel 1. P(u-osxsu+σ) = 68,3% 2. Ρ(μ-205X5μ +20) = 95,4% 3. P(u-30≤x≤μ+30) = 99,7% P(X=r) AF 0,08 0,07- 0,06 0,05 0,04 0,03 0,02 0,01 0 30 99,7% 95,4% 45 68% 50 bzw. für ,glatte" Wahrscheinlichkeiten 4. P(u-1,640≤x≤μ+1,640) = 90% 5. Ρ(μ-1,960s Xsu+1,966) = 95% 6. P(u - 2,586 ≤X <μ +2,58 σ) = 99% + 10 n 125 P=0,4 20 farbenblind sind? 3σ 65 fehlende Parameter bestimmen. ·P bestimmen: Anzahl r 70 -Aufgabe: Aus einer Statistik geht hervor, dass 3% aller Kugelschreiber defekt sind. Mit welcher Wahrscheinlich keit 15 Schreibern keiner defekt? ist von - P(X= 0) = binom Polf (15, 0,03, 0) = 63,33% •n bestimmen. · Aufgase: In einem Land sind 51. der mämlichen Bevölkerung farbenblind. groß Gruppe von Männern mindestens sein, damit mit Wie muss eine in mit mindesters 90%. anzeigen für n=157: P(X= 5) = 0,897 Wahrscheinlichkeit mindestens 5 Leute für n= 158: P(X= 5) = 0, 900 => n = 158 Fig. 2 - P(X ≥ 5) = 0,9 > f(x) = binom (df (n. 0,05, 5, n) tabellarisch lassen: p bestimmen -Aufgabe: Jedes Bauteil in einer Produktionsserie fällt mit einer Wahrschein- lichkeit höchstens aus. Wie darf p P groß sein, damit mit einer Wahrscheinlichkeit von 80% mindestens, höchstens 10 von 100 Bauteilen ausfallen? P ( X = 10) ≥ 0,8 binom Colf (100, Pi => p≈ 0, 082 354 ≈ 0,08 - * Hypothesentests Vermutung der Treffer wahrscheinlichkeit wird überprüft mithilfe des Signifikanzniveaus um von Stichprobe auf Gesamtheit zu schließen Vorgehen, 0₁ 10) = 0,8 Insolve Aufstellen der Hypothesen: Null hypothese Ho Hypothese, die getestet wird L wird erst verworfen, wenn die Ergebnisse aus der Stichprobe nicht dazu passen но: p=po - - Alternativhypothese H₁.. Gegenteil der Null hypothese Zweiseitiger signifikana test • Mill hypothese und Alternativ hypothese H₁: p& Po • Stichprobenumfang In und Signifikuneniveaux festlegen Annahmebereich [a; b] der Millhypothose festlegen bei bestimme : GTR menu; 5; S; C inv Binom (kum. W'keit in;p) bei berechne 0 festlegen: H₂ = p=po * - n : tabellarische Darstellung von: f(x) = binom Colf (n. Po, 0₁x) untere Intervallgrenze a: für x ≤a (bei x = 5%) obere Intervallgrenze b für x ≤5 PCX ≤ b) > 0,975 (bei x = 54.) P(x ≤a) > 0,025 Durchführung bei einer Stichprobe Umfang n vom - Ho wird angenommen, wenn das Stichprobenergebnis im Arrahmebereich liegt Irrtumswahrscheinlichkeit: Wahrscheinlichkeit Ho zu verwerfen, obwohl Ho entrifft. • Wahrscheinlichkeit des Ablehnungsbereichs. Einseitiger Signifikanztest . n und Signifikanz- Stichprobenumfung niveau & festlegen Als Testgröße X wird die Trefferzahl verwendet Linksseitiger Test • Nullhypothese und Alternativhypothese fest legen Ho: p = po 4 oder p = po H₁: p< po Annahmebereich [a; n] der Millhypothese festlegen: - tabellarische Darstellung von fcx) = binom (df (ni po, 0₁ x) a: - untere Intervallgrenze für x≤ a (bei x = 51₁: P(X ≤a) > 0,05 - obere Intervallgrenze Stichprobenumfung n H₁: papo. P(X≤ a) > X R Rechtsseitiger Test • Will hypothese und Alternativ hypothese festlegen: Ho: p=Po oder p= po • Annahme bereich [0; 6.] der Millhypothose festlegen: - tabellarische Darstellung von fax)" binom Cdf (n. Po, 0₁x) - untere Intervallgrenze 0. 11 Ho ablehnen -ta/2 O Zweiseitig - obere Untervallgrenze b: für x ≤ b P(X≤5) > 1-x (bei x=51: P(X≤6) > 0,95 Ho beibehalten * Durchführung bei einer Stichprobe vom Umfang in - Ho wird angenommen, wenn die Trefferzahl X im Annahmebereich. liegt ta/2 Ho ablehnen Ho ablehnen -ta Nullhypothese wird ... Linksseitig Ho beibehalten verworfen akzeptiert Rechtsseitig Ho beibehalten Fehler beim Testen von Hypothesen Eine Hypothese kann nie zu 100%. widerlegt bzw. bestätigt werden. Demnach kann jede Entscheidung, die auf Basis der Mullhypothese getroffen wurde, falsch sein es gibt 4 Fälle: Zustand der Wirklichkeit Nullhypothese wahr Fehler 1. Art (α) richtige Entscheidung ta/2 Nullhypothese falsch richtige Entscheidung Fehler 2. Art (3) • Einfluss des Stichprobenumfangs. -Wahrscheinlichkeit des Fehlers 1. Art. Ho ablehnen von n erhöht sich bei Vergrößering -Wahrscheinlichkeit des Fehlers 2. Art verringert sich bei Vergrößerung von n 2 . Einfluss des Annahmebereichs. -Wahrscheinlichkeit des Fehlers 1. Art. verringert sich bei vergrößerung des Annahmebereichs Wahrscheinlichkeit des Fehlers 2. Art vergrößert sich bei Vergrößerung des Annahmebereichs - der Annahmebereich wird durch eine Verringerung des Signifikanz niveaus & Vergrößert Berechnung der Wahrscheinlichkeit des x-Fehlers (Irrtumswahrscheinlichkeit - Festlegen - von Enfalls variable X, Stichprobenumpang n und Signifikaneniveaux Aufstellen von Mullhypothese and Alternativhypothose Berechnung des Annahmebereichs - Berechnung der Fehlerwahrscheinlichkeit P(x-Fehler) = 1-P(Annahmebereich) P(x-Fehler) = P(Ablehnungsbereich) Beispiel: - H₂: Po ≤0, S H₁: P₁>0₁5 x = 5% n=25 X = # Anzahl der Stücke, deren Qualität richtig erkannt wurde Annahmebereich [0:17] P(x-Fehler) = 1 - P ( X ≤ 17 ) = 0,021643... ≈ 2, 16%. P(x-Fehler) = P ( X = 18 ) = 0,021643.. ~ 2, 164. . Berechnung des ß-Fehlers -Festlegen von Zufallsvariable & Stichproben- umping in and signifikanzniveaux - Aufstellen von Willhypothese und Alternativhypothese der Wahrscheinlichkeit -Berechnung des Annahmebereichs - Berechnung der Fehlerwahrscheinlichkeit mit alternativer Trefferwahrscheinlichkeit P(B-Fehler) = P(Annahmebereich trotz anderer Treffernah scheinlichkeit) -Beispiel: Wie Ho p≤as H₁ p₁>0₁5 x=51₁ n = 25 A: [0; 17] groß list die Wahrscheinlichkeit für den Fehler 2. Art, wenn Friedrich die Musikqualität tatsächlich mit 70-prozentiger Wahrscheinlichkeit kennt ? P (ß-Fehler) = P(X0₁7 ≤ 17 ) = 0,488151... ~ 48,82%. 2 37 1. Stetige Zufallsgrößen und Normalverteilung • Zufallsgrößen sind reellwertig mit beliebig cielen Nachkommastellen wahrscheinlichkeitsdichte / Dichte funktion • Funktion f. aus der man wahrscheinlich- keiten durch Integration erhält • Funktionswerte fox) sind keine • D Wahrscheinlichkeiten. Wahrscheinlichkeit für den exakten Wert x der Zufallsgröße X ist immer 0 Wahrscheinlichkeiten zu offenen und geschlossenen Intervallen gleich: P(r≤x≤s) = P(r<x<s) Bedingungen Eine Funktion of heißt Dichte funktion über einem Intercall I= [a; b], wenn - f(x) = @ für alle x aus I Funktion schneidet & -Achse nie - · {fox) dx = 1 eine reellwertige Zufallsgröße mit Werten im Intervall I heißt stetig verteilt mit der Wahrscheinlichkeitsdichte f, wenn für alle v.s. P(r≤ x ≤s) = $for dx aus I gilt: Erwartungswert •Berechnung: M = {x・ f∞x) dx gilt: von Stetig verteilten Zufallsvariablen 14 * Beispiel: f(x) = 30x ILO, 103 10 10 M² M. √x. 50x dr = $$x ² dx = [X²+c] 10 fox olu * Standardabweichung von stetigen Zufallsvariables Berechnung 0= √² (x-μ)². f(x) dx Beispiel: f(x) = 50x μ = 6 3 0² = √√√ ₁² ( x − 6 ²³3² ) ²³². 50°x dx' = √2,36 = $ Gaußsche Glockenfunktion Dichte funktion, durch welche sich die Wahrscheinlichkeiten zufälliger Messfehler beschreiben lassen Wahrscheinlichkeitschichte der Normal verteilung • Formel: A Pμ₁0 (X) == 0 -√²T o 1 4 I LO 101 e $&mia (x) dx = Eigenschaften: Maximal Hochpunkt: H GU LOVET :) - Wendepunkte bei x = μ1± 0: W(μzo love.e-²) W(M=0 20²2 Graph ist achsensymmetrisch zu x= μ 8 $40 (x) dx = 1 & b-u 5 Yoin (x) dx (Standard - Glochen- 916 & funktion) 0 J Standard - Glocken funktion -1=0 ● - Poin (X) = Normalverteilung Eine stetige Enfallsgröße & heißt normal verteilt mit den Parametern M und o wenn sie eine Gaußische Glockenfunktion als Wahrscheinlichkeits- dichte besitzt. • Erwartungswert +00 M = 5x. Qμ₁0 (x) dx -8 1 7 27 5 Standardabweichung 0 = √5 (x-μ)². Qμ; 0 (x) dx Berechnungen von Wahrscheinlichkeiten. - stetige Zufallsgröße X ist normalverteilt P(X=R) = $ 4μ; & (x) dx P ( X = k) = √ 44 ₁0 (x) dx -Berechnung mit GTR : norm (df (u.s, o.S, μ, 0) menu 5,2 Berechnung von Intervallgrenzen - stetige Zufallsgröße X ist normalverteilt - Beispiel: e 1 2 -4² menu, 55, 3 P(X < C) = 0₁7 10 M=8 0=2 $ 48:2 (x) dx = 0,7 C = inv Norm (Fläche, µ, o ) = inv/brm (0,7; 8; 2) = 9,0488 79,05 U.S. untere Schranke o. S obere Schanke 11 Satz von de Moivre - Laplace • zur Beschreibung ganzzahliger Zufallsgrößen (binomialverteilt) Ste tigkeitskortektur: Vergrößerung des Integrations intervalls (Scheunte 10 M=n·P e & € 0= √n.p・ (-p)' P(X= k) = Brip (k) ~ 4 μ; 0 (k) 9+05 P(a≤x≤ b) ≈ PM: 0 (x) dx P(X=k) • Beispiel: Die Anzahl & der Resinen in Rosinenbrötchen lässt sich näherungsweise durch eine Normalverteilung mit M = 14,2 und 0 = 3,5 beschreiben. Wie groß ist die Wahrscheinlich keit dass ein Brötchen genau 14 Rosinen enthalt: P(X= 14 ) = √ {₁,5 414,2 13,5 (x) dx = 0, 11 x 17. 14,5 03 0.25 0.2 0.15 0,1 0.05 0 0 1 2 3 k a-0,5 4 - Normalverteilung Binomialverteilung 5 Mittelwerte bei Normalverteilungen • wenn eine Zufallsgröße X normalverteilt ist mit μ und ox, dam sind auch die Mittelwert & normalverteilt gleicher Erwartungswert 뜸 Hypothesentest bei normalverteilten Zufallsgrößen • nur zweiseitiger signifikana test • man verwirft Hypothese über den Erwartungswert M, wenn der statistische Mittelwert zu weit vom Erwartungswert entfernt ist • Vorgehen. Stichprobenumfang wählen Mittelwert x aus n Daten bestimmen: + x n ) - Signifikanzniveau festlegen · Annahmebereich A Berechnen - = . A = [μ-Faktor · F; M + Faktor fo] nach außen runden bei x = 51. = A = [µμ- 1,96 FiM + 1,96 to ] - Hypothese testen: Hypothese wird angenommen, wenn & I imerhalb des Annahme bereichs liegt. Es liegt also eine Normalverteitung vor. nützliche Werte beim zweiseitigen Signifikanztest (→Bestimmung des Faktors) Intervall radius angehänge wil schlichkeit Signifikanzniveau 2,5760 99% 11. 1,960 o 95% 5% 1,6450 90% 1,2810 80% 0,674 0 50%. 101. 20% 50%