Föreläsning 9: Hypotesprövning



Relevanta dokument
Tentamen i matematisk statistik (9MA241/9MA341/LIMAB6, STN2) kl 08-13

Statistik 1 för biologer, logopeder och psykologer

Lösningar till Tentamen i Matematisk Statistik, 5p 22 mars, Beräkna medelvärdet, standardavvikelsen, medianen och tredje kvartilen?

Tentamen i TMA321 Matematisk Statistik, Chalmers Tekniska Högskola.

Föreläsning 14: Försöksplanering

Uppgift

Kvalster. Korrelation och regression: lineära modeller för bivariata samband. Spridningsdiagram. Bivariata samband

Föreläsning 8: Konfidensintervall

Lunds tekniska högskola Matematikcentrum Matematisk statistik

TT091A, TVJ22A, NVJA02 By, Pu, Ti. 50 poäng

parametriska test Mätning Ordinalskala: Nominalskala:

Avd. Matematisk statistik

Kapitel 6. f(x) = sin x. Figur 6.1: Funktionen sin x. 1 Oinas-Kukkonen m.fl. Kurs 6 kapitel 1

HT 2011 FK2004 Tenta Lärare delen 4 problem 6 poäng / problem

1. Frekvensfunktionen nedan är given. (3p)

Föreläsning 11: Mer om jämförelser och inferens

Avd. Matematisk statistik

Möbiustransformationer.

Vi skall skriva uppsats

Tentamen i Statistik, STA A13 Deltentamen 2, 5p 24 januari 2004, kl

Tentamen i Tillämpad matematisk statistik LMA521 för EPI och MI den 14 dec 2011

BIOSTATISTISK GRUNDKURS, MASB11 ÖVNING 8 ( ) OCH INFÖR ÖVNING 9 ( )

Tentamen i Matematisk statistik Kurskod S0001M

Summor av slumpvariabler

SF1901: Övningshäfte

Datorövning 2 Statistik med Excel (Office 2007, svenska)

Föreläsning 12: Regression

Tentamen i Statistik, STA A10 och STA A13 (9 poäng) Onsdag 25 augusti 2004, Kl

(a) Hur stor är sannolikheten att en slumpvist vald person tror att den är laktosintolerant?

Statistik och epidemiologi T5

konstanterna a och b så att ekvationssystemet x 2y = 1 2x + ay = b 2 a b

SF1620 Matematik och modeller

Föreläsning 7: Punktskattningar

9. Beräkna volymen av det område som begränsas av planet z = 1 och paraboloiden z = 5 x 2 y 2.

Träning i bevisföring

Nedlagd studietid och olika kurskarakterisika en anspråkslös analys baserad på kursvärderingsdata. Fan Yang Wallentin

Tentamen i Statistik, STA A10 och STA A13 (9 poäng) 23 februari 2004, klockan

Statistiska metoder för säkerhetsanalys

För dig som är valutaväxlare. Så här följer du reglerna om penningtvätt i din dagliga verksamhet INFORMATION FRÅN FINANSINSPEKTIONEN

Erfarenheter från ett pilotprojekt med barn i åldrarna 1 5 år och deras lärare

Föreläsning 12: Repetition

Vetenskapliga begrepp. Studieobjekt, metod, resultat, bidrag

INLÄMNINGSUPPGIFT 2 (Del 2, MATEMATISK STATISTIK) Kurs: MATEMATIK OCH MATEMATISK STATISTIK 6H3000

Om erbjudandet för din pensionsförsäkring med traditionell förvaltning.

k x om 0 x 1, f X (x) = 0 annars. Om Du inte klarar (i)-delen, så får konstanten k ingå i svaret. (5 p)

Innehåll. Normalfördelning och t-test. Vanliga statistiska mått 2/11/2014. Vad är punktskattningar? Figurer somvisarmedelochsd, SE ochki (ellerci)

Lathund, procent med bråk, åk 8

Konfidensintervall, Hypotestest

Ekvationssystem, Matriser och Eliminationsmetoden

Skrivning i statistik med beslutsteori för Brandingenjörer tisdag 26 maj 2009

TAMS65 - Föreläsning 6 Hypotesprövning

Datorövning 3: Icke-parametriska test

TAMS65 - Föreläsning 6 Hypotesprövning

Tentamen'i'TMA321'Matematisk'Statistik,'Chalmers'Tekniska'Högskola.''

F14 Repetition. Måns Thulin. Uppsala universitet Statistik för ingenjörer 6/ /15

Modul 6: Integraler och tillämpningar

729G04 - Hemuppgift, Diskret matematik

SF1901: SANNOLIKHETSTEORI OCH STATISTIKTEORI KONSTEN ATT DRA INTERVALLSKATTNING. STATISTIK SLUTSATSER. Tatjana Pavlenko.

Tentamen i Sannolikhetslära och statistik (lärarprogrammet) 12 februari 2011

När du som vårdpersonal vill ta del av information som finns hos en annan vårdgivare krävs det att:

Föreläsning 7: Punktskattningar

Varför är det så viktigt hur vi bedömer?! Christian Lundahl!

Intervjumall. Datum: Intervjuare: Kandidatens namn: Kandidatens uppgifter: Växel: (5)

4-6 Trianglar Namn:..

Föreläsning 5: Hypotesprövningar

LÖSNINGAR TILL. Matematisk statistik, Tentamen: kl FMS 086, Matematisk statistik för K och B, 7.5 hp

Så kan du arbeta med medarbetarenkäten. Guide för chefer i Göteborgs Stad

Datorövning 2 Statistik med Excel (Office 2003, engelska)

Boll-lek om normer. Nyckelord: likabehandling, hbt, normer/stereotyper, skolmiljö. Innehåll

SANNOLIKHET. Sannolikhet är: Hur stor chans (eller risk) att något inträffar.

Extrauppgifter. Uppgifter. 1. Den stokastiska variabeln Y t(10). Bestäm c så att P ( c < Y < c) = 0.95.

För övrigt fullständig överensstämmelse kvalitativt sett för båda proverna. Alla lab som analyserat P-CCP ak på prov 18/D rapporterar ett starkt

Repetitivt arbete ska minska

Grundläggande biostatistik. Jenny Selander

Laborativ matematik som bedömningsform. Per Berggren och Maria Lindroth

a n = A2 n + B4 n. { 2 = A + B 6 = 2A + 4B, S(5, 2) = S(4, 1) + 2S(4, 2) = 1 + 2(S(3, 1) + 2S(3, 2)) = 3 + 4(S(2, 1) + 2S(2, 2)) = = 15.

Väga paket och jämföra priser

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 7. Multipel regression. (LLL Kap 15) Multipel Regressionsmodellen

Sammanfattning på lättläst svenska

Resultat av enkät till assistansberättigade

Regression med kvalitativa variabler. Jesper Rydén

Något om permutationer

David Wessman, Lund, 30 oktober 2014 Statistisk Termodynamik - Kapitel 5. Sammanfattning av Gunnar Ohléns bok Statistisk Termodynamik.

Matematisk statistik för B, K, N, BME och Kemister

Resultatet läggs in i ladok senast 13 juni 2014.

Systematiskt kvalitetsarbete

HÖGSTA DOMSTOLENS DOM

Sundbybergs stad Skolundersökning 2015 Föräldrar förskola Fristående förskolor totalt Antal svar samtliga fristående förskolor: 360 (57 %)

Tränarguide del 1. Mattelek.

Mätningar på op-förstärkare. Del 3, växelspänningsförstärkning med balanserad ingång.

SF1625 Envariabelanalys

SF1901: SANNOLIKHETSTEORI OCH HYPOTESPRÖVNING. STATISTIK. Tatjana Pavlenko. 13 maj 2015

SF1901 Sannolikhetsteori och statistik I

4-3 Vinklar Namn: Inledning. Vad är en vinkel?

Kvinnor som driver företag pensionssparar mindre än män

FÖRELÄSNING 8:

7. SAMHÄLLSORIENTERING ÅK 5

Pesach Laksman är lärarutbildare i matematik och matematikdidaktik vid Malmö högskola.

TMS136. Föreläsning 10

Transkript:

Föreläsning 9: Hypotesprövning Matematisk statistik David Bolin Chalmers University of Technology Maj 5, 2014

Statistik Stickprov Ett stickprov av storlek n är n oberoende observationer av en slumpvariabel X. Vi kan alltså skriva stickprovet som observationer av n slumpvariabler X 1,..., X n där alla X i är oberoende och likafördelade. I praktiken kan vi ofta resonera oss fram till vilken typ av fördelning som bör användas för X, men vi vet typiskt inte vilka värden vi ska anta för fördelningens parametrar. Många frågor vi har när vi tillämpar statistikteori kan reduceras till följande matematiska fråga: Givet observationer x 1,..., x n, vad kan vi säga om parametrarna i fördelningen som genererade stickprovet? Repetition Punktskattningar David Bolin 2/31

Punktskattningar Skattning En skattning av en parameter θ är en funktion ˆθ(X 1,..., X n ) av observationerna. En skattning kan avse både en slumpvariabel och ett numeriskt värde: ˆθ(X1,..., X n ) är en slumpvariabel som har en viss fördelning som ger information om hur bra skattningen är. ˆθ(x1,..., x n ) är ett tal beräknat från data, detta sägs vara vår punktskattning av parametern. Två egenskaper vi vill att vår skattare ska ha är att Den ska vara väntevärdesriktig (unbiased på engelska), vilket betyder att vi vill att E(ˆθ(X 1,..., X n )) = θ. Den ska ha låg varians om n är stort, helst vill vi att V(ˆθ(X 1,..., X n )) 0 då n. Repetition Punktskattningar David Bolin 3/31

Maximum likelihood-metoden Tanken bakom maximum likelihood metoden är att vi vill hitta det parametervärde som mest troligast producerade det stickprov vi har. Metoden är baserad på den så kallade likelihood-funktionen, som för ett stickprov x 1..., x n är L(θ) = n f(x i ) i=1 där f(x) är täthetsfunktionen för fördelningen och θ är parametrarna vi vill skatta. I det diskreta fallet byter vi täthetsfunktionen mot sannolikhetsfunktionen. ML skattare Maximum likelihood-skattaren av en parameter θ ges av ˆθ ML = arg max L(θ) θ Repetition Punktskattningar David Bolin 4/31

Konfidensintervall Konfidensintervall Låt X 1,..., X n vara slumpvariabler med en fördelning som har θ som en parameter med θ 0 som sant okänt värde. Ett 100(1 α)% konfidensintervall för θ med konfidensgraden 1 α är ett intervall [a(x 1,..., X n ), b(x 1,..., X n )] sådant att P(a θ 0 b) = 1 α. (a, b) är ett slumpmässigt intervall, eftersom a och b är slumpvariabler som beror av X 1,..., X n. Konfidensintervallet ska alltså tolkas som att om vi gör upprepade mätningar av X 1,..., X n och bildar konfidensintervallet för alla dessa mätningar så kommer 100(1 α)% av dessa intervall täcka det sanna värdet θ 0. Repetition Konfidensintervall David Bolin 5/31

Konfidensintervall för µ i normalfördelningen Känd varians Låt X 1,..., X n vara oberoende N(µ, σ 2 ) där σ 2 är känd. Intervallet I µ = ( X z α/2 σ/ n, X + z α/2 σ/ n) är ett konfidensintervall för µ med konfidensgrad 1 α. Okänd varians Låt X 1,..., X n vara oberoende N(µ, σ 2 ) där σ 2 är okänd. Intervallet I µ = ( X t α/2 (n 1)S/ n, X + t α/2 (n 1)S/ n) är ett konfidensintervall för µ med konfidensgrad 1 α. Här är S 2 = 1 n n 1 i=1 (X i X) 2 och t α/2 (n 1) är α/2-kvantilen i t-fördelningen med n 1 frihetsgrader. Repetition Konfidensintervall David Bolin 6/31

Centrala gränsvärdessatsen (CGS) Kom ihåg att CGS ungefär säger att X är approximativt N(µ, σ 2 /n)-fördelad om n är stort. Om vi har ett stickprov med känd varians σ 2 kommer I µ = ( X z α/2 σ/ n, X + z α/2 σ/ n) vara ett approximativt konfidensintervall för väntevärdet µ. Om vi inte känner variansen kan vi skatta σ med S, men det är då viktigt att n är stort och att fördelningen för X i inte är allt för tungsvansad om skattningen ska bli någorlunda bra. Eftersom n är stor kommer i detta fall t α/2 (n 1) z α/2, så vi använder I µ = ( X z α/2 S/ n, X + z α/2 S/ n) som ett approximativt konfidensintervall i fallet då σ är okänd. Repetition Konfidensintervall David Bolin 7/31

Repetition En viktig Konfidensintervall anmärkning här är att tilldavid skillnad Bolin från konfidensintervall 8/31 Konfidensintervall för σ 2 i normalfördelningen Konfidensintervall för σ 2 Om X 1,..., X n är oberoende N(µ, σ 2 ) fås ett konfidensintervall med konfidensgrad 1 α för σ 2 som ( ) (n 1)S 2 (n 1)S 2 I σ 2 = χ 2 α/2 (n 1),. (n 1) χ 2 1 α/2 Vi har också att ett konfidensintervall med konfidensgrad 1 α för σ ges av ( ) (n 1)S 2 (n 1)S 2 I σ = χ 2 α/2 (n 1), χ 2. 1 α/2 (n 1) Här är χ 2 α/2 (n 1) α/2-kvantilen i χ2 fördelningen med n 1 frihetsgrader.

Ensidiga konfidensintervall Ibland är man endast intresserad av en trolig övre eller undre gräns för parametern. Vi kan då bilda ett ensidigt konfidensintervall. Låt X 1,..., X n vara slumpvariabler med en fördelning som har θ som en parameter med θ 0 som sant okänt värde. Ett undre begränsat ensidigt 100(1 α)% konfidensintervall för θ med konfidensgraden 1 α är ett intervall [a(x 1,..., X n ), ] sådant att P(a θ 0 ) = 1 α. Ett övre begränsat konfidensintervall ges på samma sätt av ett intervall [, b(x 1,..., X n )] sådant att P(θ 0 b) = 1 α. För att bilda ensidiga konfidensintervall i de olika fallen vi har tagit upp behöver vi alltså endast beräkna en av gränserna, där vi byter ut α/2-kvantilen till en α-kvantil. Repetition Konfidensintervall David Bolin 9/31

Hypotesprövning Ett viktigt problem inom statistiken är att kunna testa om en teori eller en hypotes är sann. Exempel på sådanna frågeställningar kan vara Ger ett nytt läkemedel någon effekt? Dör rökare tidigare än icke rökare? Har mätinstrumentet ett systematiskt fel? Svaret som den statistiska analysen ger kan vara 1 att hypotesen styrks eller bekräftas av försöket, och man får då också ett mått på hur säker denna slutsats är. 2 att datan inte ger något stöd för hypotesen. Hypotesprövning David Bolin 10/31

Hypotesprövning Vi vill testa nollhypotesen H 0 : θ = θ 0 mot mothypotesen H 1 : θ θ 0. Om testet bekräftar att det finns ett systematiskt fel säger vi att H 0 förkastas till förmån för H 1. Man brukar då också säga att θ är signifikant skilt från θ 0. Principen för testet bör vara att vi beräknar en skattning θ av θ och förkastar H 0 om θ är långt från θ 0. Vi ställs då inför frågorna 1 Vad innebär att θ är långt från θ 0? 2 Hur kan vi ange säkerheten i slutsatsen vi drar? Hypotesprövning David Bolin 11/31

Konfidensintervallmetoden Om vi bildar ett 95% konfidensintervall I θ för θ kan vi direkt använda detta för att göra hypotestestet. Eftersom intervallet är beräknat så att det ska täcka det sanna värdet på θ i 95% av fallen så kan vi förkasta H 0 om intervallet inte innehåller θ 0. Om intervallet däremot innehåller θ 0 kan vi inte förkasta H 0, dvs påstå att θ θ 0. Konfidensgraden vi använder när vi beräknar konfidensintervallet är också konfidensgraden för hypotestestet vi gör. Det har blivit standard inom många områden att använda 95% konfidensgrad, men vi kan också använda en högre konfidensgrad (tex 99%) eller en lägre konfidensgrad (tex 90%). Hypotesprövning David Bolin 12/31

Konfidensgrad Ett konfidensintervall med konfidensgrad 100(1 α)% är gjort så att det täcker det sanna värdet av θ med sannolikhet 1 α. Om H 0 är sann, dvs θ = θ 0, finns det alltså en risk α att intervallet inte täcker θ 0 och vi drar då felaktigt slutsatsen att θ θ 0. Denna risk är det vi kallar för felrisk eller signifikansnivå. Definition Felrisken eller signifikansnivån definieras som α = P(H 0 förkastas H 0 sann). Översatt till konfidensintervall är signifikansnivån α = P(θ / I θ om θ = θ 0 ) = P(θ 0 / I θ ). Alltså fås signifikansnivån som 1 - konfidensgraden. Hypotesprövning David Bolin 13/31

Typ 2 fel Felet vi gör om vi förkastar H 0 trots att den är sann brukar kallas för ett Typ 1 fel. Den andra sortens fel vi kan göra är Typ 2 fel : Definition Under hypotesprövning säger vi att vi gör ett typ 2 fel om vi inte förkastar H 0 trots att H 1 är sann. Sannolikheten för att göra ett typ 2 fel brukar betecknas med β: β = P(H 0 förkastas inte H 1 sann). Vi sätter själva sannolikheten för att göra ett typ 1 fel när vi designar testet. Typ 2 fel är lite svårare att hantera eftersom sannolikheten att göra ett typ 2 fel beror på mothypotesen. Vi återkommer till detta senare. Hypotesprövning David Bolin 14/31

De olika utfallen av ett hypotestest För att sammanfatta kan fyra olika saker hända när vi gör ett hypotestest: 1 H 0 är sann och hypotestestet förkastar inte H 0. 2 H 0 är sann och hypotestestet förkastar H 0. Detta är ett typ 1 fel och har enligt konstruktionen av testet sannolikhet α att inträffa. 3 H 1 är sann och hypotestestet förkastar H 0. 4 H 1 är sann och hypotestestet förkastar inte H 0. Detta är ett typ 2 fel och sannolikheten för att detta inträffar brukar betecknas med β. Hypotesprövning David Bolin 15/31

En viktig observation I fallet då vi inte kan förkasta H 0 bör det understrykas att testet inte visar att θ = θ 0, eftersom både θ 0 och många andra värden täcks av konfidensintervallet. Frågan om H 0 eller H 1 är sann lämnas alltså då öppen. Det finns alltså en asymmetri mellan H 0 och H 1 eftersom vi endast kan använda testet för att visa att den ena hypotesen är sann. Av tradition väljer man alltid den hypotes man vill kunna visa är sann som H 1. Hypotesprövning David Bolin 16/31

Hypotesprövning med teststorhet Om vi kan förkasta H 0 med signifikansnivå 0.05 kan det vara intressant att se om vi också kan förkasta med en lägre signifikansnivå, tex 0.01. En nackdel med konfidensintervallsmetoden är att vi då måste beräkna om konfidensintervallet för varje signifikansnivå vi vill undersöka. Ett alternativ är att göra testet baserat på en teststorhet, vilket är den generella metoden för hypotestest. Denna metod har två fördelar: 1 Beräkningarna blir ofta enklare. 2 Man får ett exakt mått på säkerheten i slutsatsen, ett så kallat p-värde. Hypotesprövning Hypotesprövning med teststorhet David Bolin 17/31

Teststorheter Definition En teststorhet T = T (X 1,..., X n ) är en funktion av observationerna, och alltså en slumpvariabel. T obs = T (x 1,..., x n ) är ett observerat värde av teststorheten för givna observationer. I allmänhet innehåller teststorheten en skattning θ av parametern θ. Till exempel för test av väntevärdet i en normalfördelning med okänd varians kan vi använda T = X µ 0 s/ n Om vi känner variansen kan vi istället använda T = X µ 0 σ/ n Dessa teststorheter känns igen som de slumpvariabler vi använde för att beräkna konfidensintervall för normalfördelningen. Hypotesprövning Hypotesprövning med teststorhet David Bolin 18/31

p-värden Givet att vi har formulerat vår teststorhet gör vi testet genom att beräkna ett p-värde. Definition p-värdet eller signifikanssannolikheten definieras som sannolikheten under nollhypotesen att vi får ett värde T som är lika stort eller större än det observerade värdet T obs. Vi vill använda en storhet T som vi känner fördelningen av under H 0, så att vi kan beräkna p-värdet. Om fördelningen för T är symmetrisk ges i allmänhet p-värdet av p = 2(1 F T ( T obs )) där F T är fördelningsfunktionen för teststorheten. Hypotesprövning Hypotesprövning med teststorhet David Bolin 19/31

p-värden (forts.) I fallet med normalfördelning med känd varians har vi att T under H 0 är N(0, 1)-fördelad, så vi har att p = P( T T obs ) = 2 P(T T obs ) = 2(1 Φ( T obs )). Vi förkastar H 0 om p är litet, och det exakta värdet på p är den minsta signifikansnivå vi kan ha för att förkasta H 0. Om vi vill göra ett test med en fix signifikansnivå α, tex 0.05, behöver vi alltså endast beräkna p och sedan förkasta H 0 om p< α. Hypotesprövning Hypotesprövning med teststorhet David Bolin 20/31

Kritiskt område Om vi endast är intresserade av att göra testet med en viss signifikansnivå α kan vi också beräkna det så kallade kritiska området för teststorheten istället för att beräkna p-värdet. Definition Givet en signifikansnivå α definierar vi det kritiska området C α som de värden på teststorheten T som leder till att man förkastar H 0 på nivån α. Vi förkastar H 0 på nivån α om p < α, vilket ekvivalent kan uttryckas som T > T α/2,h0, där T α/2,h0 är α/2-kvantilen i T :s fördelning under H 0. Därför har vi C α = {T : T > T α/2,h0 }. Hypotesprövning Hypotesprövning med teststorhet David Bolin 21/31

Kritiskt område för normalfördelningen Med test för väntevärdet hos normalfördelade data får vi: Om variansen är känd: T under H 0 är N(0, 1)-fördelad, förkasta H 0 på nivån α om T > z α/2. Om variansen är okänd: T under H 0 är t(f)-fördelad, förkasta H 0 på nivån α om T > t α/2 (f). Hypotesprövning Hypotesprövning med teststorhet David Bolin 22/31

Ensidiga test I vissa situationer kan vi vilja testa om det observerade värdet ligger för högt respektive för lågt i förhållande till referensvärdet. Ett exempel på detta är om inför ett filter i en reningsprocess och vil pröva om införandet ger en signifikant förbättring i reningen. I det här fallet är det enda intressanta om reningen blir bättre, och vi vill då göra ett så kallat ensidigt test. Vid ett ensidigt test förkastar vi H 0 endast om vi kan hävda att parametern är för stor (alternativt för liten). Nollhypotesen är som tidigare H 0 : θ = θ 0 men mothypotesen är nu antingen H 1 : θ > θ 0 eller H 1 : θ < θ 0 Hypotesprövning Ensidiga test David Bolin 23/31

Ensidiga test (forts.) Om vi använder ett konfidensintervall för att göra testet ska vi nu använda ett ensidigt konfidensintervall om H 1 : θ > θ 0 : I θ = {a, }. om H 1 : θ < θ 0 : I θ = {, b}. Vi förkastar H 0 om intervallet inte täcker θ 0. Alternativt använder vi oss av en teststorhet och vi beräknar då p-värdet som om H 1 : θ > θ 0 : p = P H0 (T T obs ). om H 1 : θ < θ 0 : p = P H0 (T T obs ). och förkastar sedan H 0 om p α. Hypotesprövning Ensidiga test David Bolin 24/31

Kritiskt område Använder vi oss av ett test med en fix signifikansnivå kan vi också beräkna det kritiska området. Med test för väntevärdet hos normalfördelade data får vi nu: om H 1 : θ > θ 0 : Om σ är känd: Förkasta H 0 på nivån α om T > z α. Om σ är okänd: Förkasta H 0 på nivån α om T > t α (f). om H 1 : θ < θ 0 : Om σ är känd: Förkasta H 0 på nivån α om T < z α. Om σ är okänd: Förkasta H 0 på nivån α om T < t α (f). Observera att vi har bytt α/2 mot α här, precis som vi gör när vi beräknar ensidiga konfidensintervall. Hypotesprövning Ensidiga test David Bolin 25/31

Styrka Kom ihåg att felet vi gör då vi vid hypotesprövning inte förkastar nollhypotesen i fallet då mothypotesen faktiskt är sann kallas för ett Typ 2 fel. Sannolikheten för att göra ett sådant fel betecknas med β. Sannolikheten att inte göra ett typ 2 fel kallas för testets styrka, och ges alltså av 1 β. Antag att vi vill testa om det förekommer en systematisk avvikelse från θ 0. Om den verkliga avvikelsen är liten är det inte så viktigt om testet ger ett icke-signifikant resultat. Om den verkliga avvikelsen däremot är så stor att den är av praktisk betydelse så vill vi att testet ska ge utslag om detta. Vi bryr oss alltså inte så mycket om typ 2 fel om den systematiska avvikelsen är liten, men vi vill inte göra ett typ 2 fel om avvikelsen är stor. Styrkefunktionen David Bolin 26/31

Styrkefunktion Typ 2 fel är lite svårare att hantera eftersom de beror på mothypotesen men ett sätt att visualisera dessa är att beräkna testets styrkefunktion Definition Vi vill testa H 0 : θ = θ 0 och har bestämt en teststorhet T och en signifikansnivå α. Testets styrkefunktion π(θ) definieras som π(θ) = P(T C α θ) = P(H 0 förkastas parametervärdet är θ) Testets styrkefunktion ger alltså sannolikheten för att testet ger ett signifikant resultat om det sanna värdet är θ, vilket alltså är testets styrka vid värdet θ. Styrkefunktionen David Bolin 27/31

Sats Antag att vi har n observationer av en normalfördelning N(µ, σ 2 ) med känd varians och att vi vill testa H 0 : µ = µ 0. Testets styrka ges då av Om H 1 : µ > µ 0 : ( π(µ) = 1 Φ z α (µ µ 0) ) n σ Om H 1 : µ < µ 0 : ( π(µ) = Φ z α (µ µ 0) ) n σ Om H 1 : µ µ 0 : ( π(µ) = 1 + Φ z α/2 (µ µ 0) ) ( n Φ z α/2 (µ µ 0) ) n σ σ Styrkefunktionen David Bolin 28/31

Styrkefunktion för test av H 0 : µ = 0 mot H 1 : µ 0 för N(µ, 1)-fördelningen på nivå α = 0.05. Styrkefunktionen David Bolin 29/31

Hur många observationer krävs? Det vi kan se från styrkefunktionerna i de olika fallen är att testet har lättare att upptäcka en avvikelse µ µ 0 om Risken för typ 1 fel, α, är stor. Antalet observationer, n, är stort. Variansen σ 2 är liten. Om vi bestämmer oss för en viss avvikelse µ µ 0 vi vill att testet ska upptäcka samt fixerar signifikansnivån α kan vi använda styrkefunktionen för att beräkna hur många observationer vi bör göra för att få en given styrka 1 β på testet. Styrkefunktionen David Bolin 30/31

Sats Antag att vi har normalfördelade observationer N(µ, σ 2 ) och önskar testa H 0 : µ = µ 0. Om vi vill att testet ska ge utslag för avvikelsen µ µ 0 med sannolikhet 1 β ska antal observationer väljas som: Känd varians: Ensidigt test: n = Tvåsidigt test: n = Om variansen skattas med s 2 : Ensidigt test: n Tvåsidigt test: n σ 2 (µ µ 0 ) 2 (z α + z β ) 2 σ 2 (µ µ 0 ) 2 (z α/2 + z β ) 2 σ 2 (µ µ 0 ) 2 (z α + z β ) 2 + z 2 α/2 σ 2 (µ µ 0 ) 2 (z α/2 + z β ) 2 + z 2 α/2 /2 Styrkefunktionen David Bolin 31/31