Ich habe mein Mathe-Abitur Mitte der 80er gemacht, anschliessend Mathe in der Informatik studiert, und gebe jetzt unter anderem Nachhilfe in Mathe. Ich sollte also klar kommen. Leider war im Lehrplan zu meiner Zeit 'Folgen und Reihen' drin, was die Schüler/innen heute nicht mehr haben (Schade), und wir hatten die Wahl zwischen 'Vektorieller Analysis' (was ich hatte) und 'Stochastik' (was ich nicht hatte). Und genau damit habe ich jetzt ein Problem.
Ich komme mit den Sigma-Umgebungen nicht so richtig klar. Eine Aufgabe fragt z.B. nach einem H0-Test mit einem Signifikanzniveau Alpha von 5% bei n=100 und p=0.3. Also rechne ich los. µ = n * p -> µ = 30 Sigma = Wurzel( µ * (1-p) ) -> Sigma = Wurzel(21) = 4,6 Alpha = 5% -> z = 1,96 Akzeptanzbereich I = µ +- z * Sigma -> I = [22 ; 39]
Soweit so gut. Jetzt mein Problem: Wenn ich das Signifikanzniveau auf 1% erhöhe, wird das Intervall größer, also I = [19 ; 42].
Sollte das Intervall nicht schmaler werden, da meine Sicherheit steigt? Jetzt hab ich doch eigentlich eine Sicherheit von 99% oder?
Wie ist das bei dem Higgs-Boson? Die Kollegen vom CERN haben das Ereignis erst bei 5-Sigma als erwiesen angesehen. Aber dann ist der Bereich der möglichen Treffer doch noch größer, oder? [Edit sagt] Okay, dafür ist mir gerade selbst die Antwort eingefallen. Die Suche im CERN ist kein Bernoulli-Experiment, daher kann man die Mathematik zu der obigen Aufgabe nicht anwenden.
Ich hoffe, ihr könnt mir helfen und ich habe klar ausgedrückt, was mich daran stört.
und wech isser, der ganzjahresfahrer --- Oberhausen - Woanders is auch Scheisse
Du hast recht, bei nem Alpha von 1% wäre Z= 2.58 somit stimmt dein Intervall. Ich sehe den "Denkfehler" auch noch nicht. Hatte aber nur n bischen Kombinatorik in der 10ten.
Wer so tut, als bringe er die Menschen zum Nachdenken, den lieben sie. Wer sie wirklich zum Nachdenken bringt, den hassen sie.
Wenn man das Signifikanzniveau auf 1% senkt, dann reduziert man die Wahrscheinlichkeit die Nullhypothese fälschlicherweise zu verwerfen auf 1%.
Es kann vorkommen dass die Prüfgröße bei einer Stichprobe außerhalb des Intervalles [22,39] liegt, zum Beispiel 19. Dann kannst du die Nullhypothese aufgrund dieses einen Ergebnisses nicht einfach verwerfen weil bei der Binomialverteilung mit einer bestimmten Wahrscheinlichkeit eben die Zahl 19 auftreten kann. Wenn du das Experiment sehr oft wiederholst und die Nullhypothese immer dann verwirfst wenn Werte außerhalb des Intervalles auftreten, dann passiert das Verwerfen der Nullhypothese in 5% der Fälle zu unrecht.
Wenn das Intervall größer wird, reduzierst du die Wahrscheinlichkeit die Nullhypothese fälschlicherweise zu verwerfen.
Wo ist eigentlich Serpel, wenn der tasächlich mal gebraucht wird? Auch wenn ich mir vorstellen kann, daß es hart ist, wenn man den ganzen Abend an einem Salatblatt knabbert.
Zitat von Wrtlprmft im Beitrag #4Wenn man das Signifikanzniveau auf 1% senkt, dann reduziert man die Wahrscheinlichkeit die Nullhypothese fälschlicherweise zu verwerfen auf 1%.
Das ist doch eigentlich sowas wie das berühmte 'Zurechtbiegen der Ergebnisse', oder seh ich das falsch? Wenn man zu viele Testergebnisse ausserhalb des Akzeptanzbereiches bekommt, erweitert man einfach den Bereich so lange, bis es passt? Der Test und dessen mögliche Aussage ändert sich doch nicht, wenn man einfach nur das Konfidenzintervall vergrössert.
und wech isser, der ganzjahresfahrer --- Oberhausen - Woanders is auch Scheisse
Zitat Wenn du das Experiment sehr oft wiederholst und die Nullhypothese immer dann verwirfst wenn Werte außerhalb des Intervalles auftreten, dann passiert das Verwerfen der Nullhypothese in 5% der Fälle zu unrecht.
Das hab ich in dem Uni-Bonn Script genau so verstanden.
Zitat erweitert man einfach den Bereich so lange, bis es passt?
Wer so tut, als bringe er die Menschen zum Nachdenken, den lieben sie. Wer sie wirklich zum Nachdenken bringt, den hassen sie.
Wo ist eigentlich Serpel, wenn der tasächlich mal gebraucht wird? Auch wenn ich mir vorstellen kann, daß es hart ist, wenn man den ganzen Abend an einem Salatblatt knabbert.
Das "Allgemeine" les ich schon längst nicht mehr regelmäßig. Seh den Fred gerade erst im Moment.
Zitat von Wrtlprmft im Beitrag #4Wenn man das Signifikanzniveau auf 1% senkt, dann reduziert man die Wahrscheinlichkeit die Nullhypothese fälschlicherweise zu verwerfen auf 1%.
Das ist doch eigentlich sowas wie das berühmte 'Zurechtbiegen der Ergebnisse', oder seh ich das falsch? Wenn man zu viele Testergebnisse ausserhalb des Akzeptanzbereiches bekommt, erweitert man einfach den Bereich so lange, bis es passt? Der Test und dessen mögliche Aussage ändert sich doch nicht, wenn man einfach nur das Konfidenzintervall vergrössert.
Das ist mitnichten ein Zurechtbiegen von Ergebnissen, sondern schlicht die Berechnung von Wahrscheinlichkeiten und deren neutrale Interpretation. Du bekommst nicht Testergebnisse (Plural), die innerhalb oder außerhalb eines gewissen Bereiches liegen, sondern nur ein einziges Testresultat (nämlich die Anzahl der Treffer bei einem vorgegebenen Stichprobenumfang), das inner- oder außerhalb des Akzeptanzbereiches liegt.
Je größer der Akzeptanzbereich, umso größer die Wahrscheinlichkeit, diesen zu treffen, bzw. umso kleiner die Wahrscheinlichkeit, diesen zu verfehlen, obwohl die Nullhypothese richtig ist. Oder auch umgekehrt: Je kleiner das Signifikanzniveau (Irrtumswahrscheinlichkeit oder Fehler 1. Art), um so kleiner der Verwerfungsbereich.
Gruß Serpel
PS. Die Zahlen hast du vermutlich mit Normalverteilung (näherungsweise) berechnet, statt mit Binomialverteilung (exakt). Die liefert nämlich andere Werte für den Akzeptanzbereich.
Zitat von Serpel im Beitrag #10Du bekommst nicht Testergebnisse (Plural), die innerhalb oder außerhalb eines gewissen Bereiches liegen, sondern nur ein einziges Testresultat (nämlich die Anzahl der Treffer bei einem vorgegebenem Stichprobenumfang), das inner- oder außerhalb des Akzeptanzbereiches liegt.
Zitat von Serpel im Beitrag #10PS. Die Zahlen hast du vermutlich mit Normalverteilung (näherungsweise) berechnet, statt mit Binomialverteilung (exakt). Die liefert nämlich andere Werte für den Akzeptanzbereich.
Hallo Serpel,
eigentlich nicht. Ich habe das Formelwerk verwendet, das meine Schüler in Klasse 12/13 verwenden. Dort gilt für den Akzeptanzbereich folgende Formel:
µ-z*Sigma <= X <= µ+z*Sigma
Beide Grenzen sind aufzurunden, wie man aus dem Tafelwerk für die kumulierten Wahrscheinlichkeiten leicht ablesen kann. Das Ganze gilt für eine binomiale Verteilung bei erfüllter Laplace-Bedingung.
BTW: Was ist hier schon 'exakt'? Wir reden doch von Wahrscheinlichkeiten ...
und wech isser, der ganzjahresfahrer --- Oberhausen - Woanders is auch Scheisse
Was mich aber irgendwie beschäftigt, ist der Begriff 'Signifikanzniveau', der hier gerne verwendet wird. Formelzeichen Alpha. Mit dem Rest der Stochastik komme ich klar.
Unter Signifikanz versteht man doch, dass ein statistisch überzufälliger Zusammenhang vorliegt, oder? (Wikipedia)
Wenn man den Akzeptanzbereich vergrößert, nimmt man doch mehr der möglichen Testergebnisse als Zutreffend (Bestätigung der H0-Hypothese) an, so dass die Signifikanz dabei sinkt. Ein Signifikanzniveau von 1% bedeutet doch, dass man 99% der möglichen Testergebnisse als Bestätigung der Hypothese zulässt. Wie soll dann ein solcher Test einen Annahme widerlegen können?
Ahhrg, ich hasse Stochastik!
Eine der Aufgaben lautet (aus dem Gedächnis, ich hoffe, die Aufgabenstellung stimmt): Ein Safthersteller garantiert einen Fruchtsaftgehalt von 50%. Mehrere Stichproben legen nahe, dass aber nur 47% Fruchtsaft im Saft enthalten ist. Es soll für eine Stichprobe von n=50 eine H0-Hypothese aufgestellt werden und für ein Signifikanzniveau von 1% eine Entscheidungsregel erstellt werden.
und wech isser, der ganzjahresfahrer --- Oberhausen - Woanders is auch Scheisse