Statistik 1 för biologer, logopeder och psykologer

Relevanta dokument
F14 HYPOTESPRÖVNING (NCT 10.2, , 11.5) Hypotesprövning för en proportion. Med hjälp av data från ett stickprov vill vi pröva

Hypotesprövning. Andrew Hooker. Division of Pharmacokinetics and Drug Therapy Department of Pharmaceutical Biosciences Uppsala University

8 Inferens om väntevärdet (och variansen) av en fördelning

Föreläsning G60 Statistiska metoder

TMS136. Föreläsning 11

Tentamentsskrivning: Matematisk Statistik med Metoder MVE490 1

Standardfel (Standard error, SE) SD eller SE. Intervallskattning MSG Staffan Nilsson, Chalmers 1

F3 Introduktion Stickprov

Föreläsning 2. NDAB01 Statistik; teori och tillämpning i biologi

Föreläsning 5. Kapitel 6, sid Inferens om en population

FÖRELÄSNING 8:

TMS136. Föreläsning 13

Sannolikheter och kombinatorik

π = proportionen plustecken i populationen. Det numeriska värdet på π är okänt.

Provmoment: Tentamen 6,5 hp Ladokkod: A144TG Tentamen ges för: TGMAI17h, Maskiningenjör - Produktutveckling. Tentamensdatum: 28 maj 2018 Tid: 9-13

Hur man tolkar statistiska resultat

2. Test av hypotes rörande medianen i en population.

Lösningsförslag till Matematisk statistik LKT325 Tentamen

SF1901: SANNOLIKHETSTEORI OCH HYPOTESPRÖVNING. STATISTIK. Tatjana Pavlenko. 13 maj 2015

Rättningstiden är i normalfall 15 arbetsdagar, till detta tillkommer upp till 5 arbetsdagar för administration, annars är det detta datum som gäller:

Analys av medelvärden. Jenny Selander , plan 3, Norrbacka, ingång via den Samhällsmedicinska kliniken

Föreläsning 3. NDAB02 Statistik; teori och tillämpning i biologi

Föreläsningsanteckningar till kapitel 9, del 2

SF1901: SANNOLIKHETSLÄRA OCH STATISTIK. MER HYPOTESPRÖVNING. χ 2 -TEST. Jan Grandell & Timo Koski

SF1901: SANNOLIKHETSTEORI OCH STATISTIKTEORI KONSTEN ATT DRA INTERVALLSKATTNING. STATISTIK SLUTSATSER. Tatjana Pavlenko.

Föreläsning 12, FMSF45 Hypotesprövning

Introduktion. Konfidensintervall. Parade observationer Sammanfattning Minitab. Oberoende stickprov. Konfidensintervall. Minitab

Betrakta kopparutbytet från malm från en viss gruva. För att kontrollera detta tar man ut n =16 prover och mäter kopparhalten i dessa.

Lektionsanteckningar 11-12: Normalfördelningen

, s a. , s b. personer från Alingsås och n b

Tentamen i statistik (delkurs C) på kursen MAR103: Marina Undersökningar - redskap och metoder.

Föreläsning 4. NDAB01 Statistik; teori och tillämpning i biologi

TMS136. Föreläsning 10

F9 SAMPLINGFÖRDELNINGAR (NCT

Syfte: o statistiska test om parametrar för en fördelning o. förkasta eller acceptera hypotesen

Samplingfördelningar 1

Kapitel 10 Hypotesprövning

Föreläsning G60 Statistiska metoder

F22, Icke-parametriska metoder.

χ 2, chi-två Test av anpassning: sannolikheter specificerade Data: n observationer klassificerade i K olika kategorier:

Uppgift 3 Vid en simuleringsstudie drar man 1200 oberoende slumptal,x i. Varje X i är likformigt fördelat mellan 0 och 1. Dessa tal adderas.

F18 MULTIPEL LINJÄR REGRESSION, FORTS. (NCT

TT091A, TVJ22A, NVJA02 Pu, Ti. 50 poäng

Bild 1. Bild 2 Sammanfattning Statistik I. Bild 3 Hypotesprövning. Medicinsk statistik II

Avd. Matematisk statistik

9. Konfidensintervall vid normalfördelning

Formler och tabeller till kursen MSG830

Bestäm med hjälp av en lämplig och välmotiverad approximation P (X > 50). (10 p)

Statistik 1 för biologer, logopeder och psykologer

Om statistisk hypotesprövning

Vi har en ursprungspopulation/-fördelning med medelvärde µ.

SF1922/SF1923: SANNOLIKHETSTEORI OCH INTERVALLSKATTNING. STATISTIK. Tatjana Pavlenko. 24 april 2018

Thomas Önskog 28/

Del I. Uppgift 1 För händelserna A och B gäller att P (A) = 1/4, P (B A) = 1/3 och P (B A ) = 1/2. Beräkna P (A B). Svar:...

Avd. Matematisk statistik

Föreläsning 11: Mer om jämförelser och inferens

SF1922/SF1923: SANNOLIKHETSTEORI OCH. PASSNING AV FÖRDELNING: χ 2 -METODER. STATISTIK. Tatjana Pavlenko. 14 maj 2018

SF1901: SANNOLIKHETSTEORI OCH HYPOTESPRÖVNING. STATISTIK. Tatjana Pavlenko. 4 oktober 2016

TT091A, TVJ22A, NVJA02 Pu, Ti. 50 poäng

Laboration 4: Hypotesprövning och styrkefunktion

Föreläsning 5: Hypotesprövningar

Grundkurs i statistisk teori, del 2

Tentamentsskrivning: Matematisk Statistik med Metoder MVE490 1

Hypotestestning och repetition

F5 Introduktion Anpassning Korstabeller Homogenitet Oberoende Sammanfattning Minitab

TMS136. Föreläsning 7

LTH: Fastighetsekonomi sep Enkel och multipel linjär regressionsanalys HYPOTESPRÖVNING

Formel- och tabellsamling i matematisk statistik

Industriell matematik och statistik, LMA /14

Hur skriver man statistikavsnittet i en ansökan?

Statistik 1 för biologer, logopeder och psykologer

MSG830 Statistisk analys och experimentplanering

Statistik 1 för biologer, logopeder och psykologer

Tentamen i Statistik, STA A10 och STA A13 (9 poäng) 26 april 2004, klockan

MSG830 Statistisk analys och experimentplanering

Jesper Rydén. Matematiska institutionen, Uppsala universitet Tillämpad statistik 1MS026 vt 2014

Föreläsning G60 Statistiska metoder

Analytisk statistik. Mattias Nilsson Benfatto, PhD.

Matematisk statistik KTH. Formelsamling i matematisk statistik

TENTAMEN I STATISTIKENS GRUNDER 2

Datorlaboration 8/5 Jobba i grupper om 2-3 personer Vi jobbar i Minitab Lämna in rapport via fronter senast 22/5 Förbered er genom att läsa och se

Matematisk statistik KTH. Formel- och tabellsamling i matematisk statistik

Konfidensintervall, Hypotestest

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12

Övningstentamen 2 Uppgift 1: Uppgift 2: Uppgift 3: Uppgift 4: Uppgift 5: Uppgift 6: i ord

TAMS65 - Föreläsning 6 Hypotesprövning

TMS136: Dataanalys och statistik Tentamen

Avd. Matematisk statistik

Föreläsning 12: Regression

Övningstenta för MSG830

Rättningstiden är i normalfall 15 arbetsdagar, till detta tillkommer upp till 5 arbetsdagar för administration, annars är det detta datum som gäller:

FÖRELÄSNING 7:

MSG830 Statistisk analys och experimentplanering

Tentamen i Statistik, STA A10 och STA A13 (9 poäng) Måndag 14 maj 2007, Kl

Lufttorkat trä Ugnstorkat trä

SF1915 Sannolikhetsteori och statistik 6 hp. χ 2 -test

Lösningsförslag till tentamen på. Statistik och kvantitativa undersökningar STA100, 15 hp. Fredagen den 13 e mars 2015

(a) Avgör om A och B är beroende händelser. (5 p) (b) Bestäm sannolikheten att A inträffat givet att någon av händelserna A och B inträffat.

Föreläsning G60 Statistiska metoder

Korrelation och autokorrelation

Transkript:

Innehåll 1 Hypotesprövning

Innehåll Hypotesprövning 1 Hypotesprövning

Inledande exempel Hypotesprövning Exempel. Vi är intresserade av en variabel X om vilken vi kan anta att den är (approximativt) normalfördelad med standardavvikelsen σ = 15 i den givna populationen. På basen av tidigare erfarenheter är man benägen att tro att populationsmedelvärdet (dvs. väntevärdet µ) ligger kring 100. Det nns dock en misstanke om att det eventuellt skett en ökning i populationsmedelvärdet. För att undersöka saken drar man ett stickprov om n = 25 enheter och räknar medelvärdet på observationerna. Vi får ett stickprovsmedeltal på x = 118.7, vilket är betydligt större än 100, men kan detta tas som ett bevis på att det faktiskt skett en förändring i populationen?

Inledande exempel (forts.) Exempel. Modell för populationen: X N(µ, 15) Stickprovsfördelningen för X är då n = 25: X N(µ, 15 25 ). Om vi nu utgår ifrån att populationsmedelvärdet verkligen är 100, dvs. att ingen förändring har skett, kan vi räkna ut sannolikheten för att t.ex. få ett stickprovsmedelvärde som är större än 115: Vi har då µ = 100 vilket betyder att X N(100, 15/ 25). Sannolikheten för att medelvärdet av 25 observationer är större än 115 är i detta fall P(X > 115) = 1 Φ ( 115 100 15/ ) = 0.000000287. 25

Inledande exempel (forts.) Exempel. Det observerade stickprovsmedelvärdet var 118.7, vilket ju är större än 115. Vi har då två alternativa förklaringar: 1 Något ytterst osannolikt har inträat. 2 Vårt antagandde om att µ = 100, dvs. att ingen förändring i populationsmedelvärdet har skett, är felaktigt. Även om den första förklaringen är möjlig (också osannolika händelser kan ibland inträa!) förefaller den senare förklaringen betydligt rimligare. Det antagande vars riktighet vi önskar pröva (testa) kallar vi nollhypotes t.ex. populationsmedelvärdet är 100. Ett alternativt antagande som vi har större benägenhet att tro på ifall nollhypotesen verkar orimlig kallar vi mothypotes t.ex. populationsmedelvärdet har ökat.

Översikt av stegen i hypotesprövning 1 Bestäm noll- och mothypotes. 2 Beräkna vad som kan förväntas om nollhypotesen vore sann. 3 Jämför det faktiska utfallet med vad som kan förväntas. 4 Om utfall och förväntan inte stämmer överens förkastar vi nollhypotesen och drar slutsatsen att mothypotesen är mera rimlig.

Hypotesprövning: Steg 1 Formulera en nollhypotes (betecknas H 0 ) och en mothypotes (betecknas H 1 ). Hypoteserna bör vara så formulerade att de täcker alla tänkbara möjligheter och är varandra uteslutande. Till H 0 väljes vanligen det som gällt tidigare eller det som man är beredd att hålla fast vid tills man blivit övertygad om att hypotesen är felaktig. Vid jämförelser är H 0 vanligen den att det inte nns några skillnader mellan de populationer som man jämför. Vid studier av samband formuleras H 0 vanligen som så att det inte nns något samband.

Hypotesprövning: Steg 2 Drag ett stickprov och beräkna värdet på någon lämplig teststatistika. Teststatistikan (kallas även testvariabel) är en sådan funktion av stickprovsobservationerna att man vet dess fördelning om H 0 är sann. Detta är nödvändigt för att vi skall kunna bedöma vad som är sannolika och osannolika värden på teststatistikan om H 0 vore sann. Ett exempel på en teststatistika är stickprovsmedelvärdet.

Hypotesprövning: Steg 3 Utgående från fördelningen för teststatistikan, dela in alla dess möjliga värden i sådana som är sannolika resp. osannolika om H 0 är sann. Ofta är teststatistikan sådan att både väldigt små och väldigt stora värden är osannolika om H 0 är sann. Ett test är då tvåsidigt. Om endast väldigt små eller väldigt stora värden är osannolika är ett test ensidigt. Formuleringen av mothypotesen H 1 bestämmer huruvida ett test är två- eller ensidigt. De värden i teststatistikans fördelning som kan anses vara mycket osannolika om H 0 är sann, utgör det sk. kritiska området.

Hypotesprövning: Steg 4 Om värdet på teststatistikan faller inom det kritiska området förkastas H 0. Det kritiska området brukar vanligen väljas så att sannolikheten för att få ett värde på teststatistikan som faller inom det kritiska området är bara 0.05 eller 0.01 om H 0 är sann. Sannolikheten för att observera ett värde på teststatistikan som faller inom det kritiska området givet att H 0 är sann kallas testets signikansnivå och betecknas α. Man talar ofta om t.ex. test på 5%-nivån eller test på 1%-nivån. Ett värde på teststatistikan som faller inom det kritiska området sägs vara signikant. OBS! Att H 0 inte förkastas bevisar ingalunda att nollhypotesen är sann.

Hypotesprövning Kritiskt område för ett tvåsidigt test på 5%-nivån (α = 0.05) då teststatistikan följer en normalfördeling.

Typ I och typ II -fel och testets styrka Testets signikansnivå α kan även tolkas som sannolikheten att förkasta H 0 då den är sann, dvs. sannolikheten för ett typ I -fel. I hypotesprövning kan man också begå ett annat slags fel, nämligen att låta bli att förkasta H 0 då H 1 är sann. Sannolikheten för det sk. typ II -felet brukar betecknas β. De två felen hänger ihop så att om man minskar risken för den ena kommer risken för den andra att öka. Genom att öka på stickprovsstorleken kan man dock minska båda riskerna samtidigt. Testets styrka är dess förmåga att förkasta en felaktig nollhypotes. Då H 1 är sann denieras styrkan som 1 β.

Typ I och typ II -fel och testets styrka Tabellen nedan sammanfattar de olika besluten samt deras konsekvenser vid hypotesprövning: Verklighet Beslut H 0 förkastas H 0 förkastas ej H 0 sann Typ I -fel (α-fel) Korrekt H 1 sann Korrekt Typ II -fel (β-fel)

p-värden Vi påminner oss om att ju mera extremt (väldigt stort och/eller väldigt litet) värde på teststatistikan vi observerar, desto mindre stöd får H 0. p-värdet är sannolikheten för att erhålla ett värde på teststatistikan som är minst lika extremt som det som man faktiskt observerat givet att H 0 är sann. T.ex är då ett p-värde som är 0.05 är signikant på 5%-nivån ett p-värde som är 0.01 är signikant på 1%-nivån.

Vidare om p-värden och signikans Ett statistiskt signikant resultat behöver inte nödvändigtvis ha någon praktisk relevans. T.ex. då man jämför värdet på en variabel hos två mycket stora grupper kan man lätt upptäcka en statistiskt signikant skillnad som dock är så liten att den i praktiken inte har någon relevans. Då uppdelningen i signikanta och icke-signikanta resultat är något konstgjord, är det i många fall mera meningsfullt att endast rapportera det erhållna p-värdet och sedan verbalt tolka huruvida resultatet talar emot H 0.

Om tolkning av p-värdet En vanlig missuppfattning är att tro att p-värdet är anger sannolikheten för att H 0 är sann. Detta stämmer alltså inte. I stället anger p-värdet hur trovärdigt det observerade datamaterialet är ifall H 0 vore sann. Föga trovärdiga data (litet p-värde) talar då alltså emot H 0. Mer om p-värden, se http://en.wikipedia.org/wiki/p_value samt speciellt den i Wikipedia-artikeln ovan citerade artikeln http://www.pubmedcentral.nih.gov/articlerender. fcgi?tool=pubmed&pubmedid=11159626.

Test av väntevärde då σ är känt Vi har ett stickprov från en population vars väntevärde µ är okänt medan standardavvikelsen σ antas vara känd, och vi önskar testa hypotesen H 0 : µ = µ 0. En lämplig testvariabel är då Z = X µ 0 σ/ n N(0, 1). I ett tvåsidigt test lägger vi upp mothypotesen H 1 : µ µ 0. I ett test på signikansnivå α förkastar vi H 0 om z < z α/2 eller z > z α/2, där några vanligt använda värden för z α/2 är: z α/2 1.96 2.54 3.29 α 0.05 0.01 0.001

Test av väntevärde då σ är känt Har vi i stället ett ensidigt test formuleras mothypotesen antingen som H 1 : µ < µ 0. eller som H 1 : µ > µ 0. Om H 1 : µ < µ 0 förkastas H 0 ifall z < z α och om H 1 : µ > µ 0 förkastas H 0 ifall z > z α. Några vanligt använda värden för z α är: z α 1.64 2.33 3.09 α 0.05 0.01 0.001

Test av väntevärde då σ är okänt Vi har ett stickprov från en normalfördelad population vars väntevärde µ och standardavvikelse σ är okända, och vi önskar testa hypotesen H 0 : µ = µ 0. En lämplig testvariabel är då T = X µ 0 s/ n, vilken följer en t-fördelning med frihetsgraderna f = n 1. De två- och ensidiga mothypoteserna lägger vi upp som tidigare. I ett tvåsidigt test på signikansnivå α förkastas H 0 om t < t α/2 eller t > t α/2, där t α/2 är ett sådant värde av t-fördelningen att P(T < t α/2 ) + P(T > t α/2 ) = α.

Test av väntevärde då σ är okänt I ett ensidigt test med mothypotesen H 1 : µ < µ 0 och signikansnivån α förkastas H 0 om t < t α. I ett ensidigt test med mothypotesen H 1 : µ > µ 0 och signikansnivån α förkastas H 0 om t > t α. t α är ett sådant värde av t-fördelningen att P(T > t α ) = α. Det ovan beskrivna testet kallas ofta för t-test, eftersom testvariabeln följer en t-fördelning.

Test av väntevärde då σ är okänt exempel Exempel. Vi antar att variablen X i en population är normalfördelad med µ och σ okända. Vi drar ett stickprov om n = 60 enheter och räknar stickprovsmedelvärdet och -standardavvikelsen, vilka blir x = 16.51 resp. s = 1.23. Låt oss nu pröva hypotesen H 0 : µ = 17.0 mot H 1 : µ 17.0. Vi har då ett tvåsidigt test och bör alltså förkasta H 0 om x är antingen tillräckligt stort eller tillräckligt litet.

Test av väntevärde då σ är okänt exempel (forts.) Exempel. Vi räknar nu värdet på testvariabeln t = x µ 0 s/ n = 16.51 17.0 1.23/ 60 = 3.09. Det erhållna värdet jämför vi med det kritika värdet för signikansnivån α = 0.05 i en t-fördelning med frihetsgraderna f = 60 1. T.ex. med hjälp av en tabell nner vi att det kritiska värdet i detta fall är t α/2 = 2.00 Eftersom teststatistikans värde t = 3.09 < t α/2 = 2.00 förkastar vi H 0. Vi kunde alternativt ha baserat beslutet på att det tvåsidiga p-värdet 0.003 är mindre än 0.05.

Jämförelse av två väntevärden då σ är okänt Vi har två normalfördelade populationer och drar ett stickprov från vardera. Låt storleken på stickproven vara n 1 respektive n 2. Vi antar att populationernas standardavikelser σ 1 resp. σ 2 är okända men har orsak att tro att de är (nästan) lika, dvs. σ 1 = σ 2 = σ. Vi önskar testa hypotesen H 0 : µ 1 = µ 2, vilken även kan formuleras som H 0 : µ 1 µ 2 = 0.

Jämförelse av två väntevärden då σ är okänt En lämplig testvariabel är då T = X 1 X 2 s p / 1 n1 + 1 n2 där s p är den poolade standardavvikelsen. T följer då en t-fördelning med frihetsgraderna f = n 1 + n 2 2. Mothypotesen är någon av följande: H 1 : µ 1 µ 2 H 1 : µ 1 < µ 2 H 1 : µ 1 > µ 2. H 0 förkastas enligt samma principer som i det nyss introcuerade t-testet (även detta är ett t-test).,

Jämförelse av proportioner Vi har två populationer. I vardera populationen har en okänd andel av enheterna en viss egenskap. Vi betecknar andelarna p 1 och p 2. Vi drar var sitt stickprov av storlek n 1 resp. n 2 från de två populationerna. Låt X 1 beteckna antalet enheter i det första stickprovet med den sökta egenskapen och låt X 2 beteckna motsvarande antal i det andra stickprovet. Andelen enheter med egenskapen i vardera stickprov ges då av X 1 n1 resp. X 2 n2. Vi vill nu undersöka om andelarna i de två populationerna är lika. Detta motsvaras av nollhypotesen H 0 : p 1 = p 2, vilken även kan formuleras som H 0 : p 1 p 2 = 0.

Jämförelse av proportioner En lämplig testvariabel är då Z = X 1 X 2 n1 n2 ˆp(1 ˆp)( 1n1 + 1n2 ), där ˆp = X1+X2. Variabeln Z följer en N(0, 1)-fördelning. n1+n2 Mothypotesen är någon av följande: H 1 : p 1 p 2 H 1 : p 1 < p 2 H 1 : p 1 > p 2. Eftersom testvariabeln följer en standardiserad normalfördelning, förkastas H 0 enligt samma principer som t.ex. vid test av väntevärde då σ är känt.

Jämförelse av proportioner exempel Exempel. I ett förberedande skede av en genetisk studie vill man ta reda på om andelen brunögda invånare i två städer A och B är lika. De okända proportionerna betecknas pa resp. pb. Ett stickprov dras ur populationerna i vardera städer. I stad A omfattar stickprovet na = 150 individer, av vilka antalet brunögda är xa = 103. Motsvarande tal för stad B är nb = 120 och xb = 77 Vi lägger upp hypoteserna H 0 : pa = pb H 1 : pa pb.

Jämförelse av proportioner exempel (forts.) Exempel. Testvariabeln räknar vi enligt den angivna formeln z = 103 77 150 120 2 3 1 3 ( 1 150 + 1 120 ) 0.78 Testar vi hypotesen på signikansnivån α = 0.05 får vi att z = 0.78 < z α = 1.96, alltså låter vi bli att förkasta H 0.

Test av regressionskoecient Vi har i början av kursen bekantat oss med regressionsmodeller där man är intresserad av ett funktionellt samband mellan en beroende variabel och en eller era förklarande variabler. Låt oss nu anta att två variabler X och Y i en population har följande linjära samband Y = α + β X + (slumpmässigt fel). α och β är här okända parametrar vars värden skattas från ett stickprov. I praktiken görs detta oftast med hjälp av ett statistiskt programpaket.

Test av regressionskoecient I utskriften av en dylik regressionsanalys brukar det utöver det skattade värdet på regressionskoecienten även anges ett p-värde för koecienten. Detta p-värde hör ihop med ett test av hypoteserna H 0 : β = 0 H 1 : β 0, där H 0 innebär att det inte nns något samband mellan variablerna X och Y medan H 1 innebär att det nns ett samband. Testet är baserat på en t-fördelning och har den bekanta tolkningen av att ju mindre p-värdet är desto mer talar det emot H 0.

Förteckning över vanliga test En förteckning över vanliga test hittas på sidan http://en.wikipedia.org/wiki/hypothesis_testing# Common_test_statistics

Icke-parametriska test Då vi inte testar värdet på en parameter utan är är t.ex. intresserade av formen på en fördelning talar vi om ett icke-parametriskt test. Icke-parametriska test används ofta då man inte kan göra antaganden om normalfördeling eller då data är mätta på nominal- eller ordinalskala. Ett par vanliga icke-parametriska test är Mann-Whitney-Wilcoxon testet http://en.wikipedia.org/wiki/mann-whitney-wilcoxon Kolmogorom-Smirnov testet http://en.wikipedia.org/wiki/kolmogorov-smirnov_test Ett av de mest använda icke-parametriska testen är det sk. χ 2 -testet, vilket det nns era olika varianter av.

Test av fördelning med χ 2 -test För att testa hur väl frekvensfördelningen på ett klassicerat datamaterial stämmer överens med en förväntad fördelning kan man använda ett χ 2 -test. Hypoteserna i ett dylikt test läggs upp som följande: H 0 : Den förväntade och observerade fördelningen är lika. H 1 : Den förväntade och observerade fördelningen är olika. Värdet på testvariabeln beräknas enligt formeln χ 2 = k i=1 (O i E i ) 2 E i, där O i = observerad frekvens och E i = förväntad frekvens under antagande att H 0 är sann. Summeringen sker över alla klasser i fördelningen.

Test av fördelning med χ 2 -test Då H 0 är sann, följer testvariabeln en χ 2 -fördelning med frihetsgraderna f = k r 1, där k är antalet klasser och r är antalet parmametrar som har skattats från datamaterialet. I det allra enklaste fallet jämför vi den observerade fördelningen med en likformig fördelning, vilket inte kräver skattning av parametrar. Frihetsgraderna blir då f = k 1. H 0 förkastas om testvariabelns värde χ 2 överskrider det signikansnivån α motsvarande kritiska värdet χ 2 α i en χ 2 -fördelning med frihetsgraderna f.

Test av fördelning med χ 2 -test exempel Exempel. Ledningen för ett företag misstänker att en del anställda har tagit för vana att förlänga veckoslutet genom att sjukanmäla sig för fredag och/eller måndag. Saken följdes upp under fyra veckors tid. Ifall ledingens misstanke är obefogad, skulle vi förvänta oss att sjukfrånvarona fördelar sig jämnt över alla arbetsdagar. Resultatet blev följande: Veckodag må ti on to fre Observerade frånvaron 49 35 32 39 45 Förväntade frånvaron 40 40 40 40 40

Test av fördelning med χ 2 -test exempel Exempel. Vi lägger upp följande hypoteser: H 0 : Frånvarona fördelar sig jämnt över alla veckodagar. H 1 : Frånvarona fördelar sig inte jämnt över alla veckodagar. Enligt den tidigare angivna formeln blir värdet på testvariabeln χ 2 (49 40)2 (35 40)2 (45 40)2 = + + + 40 40 40 = 4.9. Eftersom den förväntade fördelningen är likformig behöver inga parametrar skattas. Vi jämför således testvariabelns värde med en χ 2 -fördelning med frihetsgraderna f = 5 1 = 4. Väljer vi signikansnivån α = 0.05 får vi det motsvarande kritska värdet 9.488 t.ex ur en tabell. Eftersom testvariabelns värde inte överskrider det kritiska värdet förkastar vi inte H 0.