GRUNDKURS I STATISTIK, DEL 2 (5 SP, KURSKOD ) FÖRELÄSNINGSUNDERLAG LÄSÅRET

Relevanta dokument
Bild 1. Bild 2 Sammanfattning Statistik I. Bild 3 Hypotesprövning. Medicinsk statistik II

Uppgift 1. Produktmomentkorrelationskoefficienten

Lösningar till SPSS-övning: Analytisk statistik

Statistiska analyser C2 Inferensstatistik. Wieland Wermke

Matematikcentrum 1(5) Matematisk Statistik Lunds Universitet MASB11 HT Laboration P3-P4. Statistiska test

OBS! Vi har nya rutiner.

F14 HYPOTESPRÖVNING (NCT 10.2, , 11.5) Hypotesprövning för en proportion. Med hjälp av data från ett stickprov vill vi pröva

Betrakta kopparutbytet från malm från en viss gruva. För att kontrollera detta tar man ut n =16 prover och mäter kopparhalten i dessa.

Medicinsk statistik II

Samhällsvetenskaplig metod, 7,5 hp

Matematikcentrum 1(6) Matematisk Statistik Lunds Universitet MASB11 HT11. Laboration. Statistiska test /16

Hypotesprövning. Andrew Hooker. Division of Pharmacokinetics and Drug Therapy Department of Pharmaceutical Biosciences Uppsala University

Analytisk statistik. Mattias Nilsson Benfatto, PhD.

F3 Introduktion Stickprov

Forsknings- och undersökningsmetodik Skrivtid: 4h

FÖRELÄSNINGSMATERIAL. diff SE. SE x x. Grundläggande statistik 2: KORRELATION OCH HYPOTESTESTNING. Påbyggnadskurs T1. Odontologisk profylaktik

Lektionsanteckningar 11-12: Normalfördelningen

Statistiska analysmetoder, en introduktion. Fördjupad forskningsmetodik, allmän del Våren 2018

Föreläsning 8. NDAB02 Statistik; teori och tillämpning i biologi

F18 MULTIPEL LINJÄR REGRESSION, FORTS. (NCT

Lösningsförslag till tentamen på. Statistik och kvantitativa undersökningar STA100, 15 hp. Fredagen den 13 e mars 2015

Föreläsning 5. Kapitel 6, sid Inferens om en population

, s a. , s b. personer från Alingsås och n b

1. Lära sig plotta en beroende variabel mot en oberoende variabel. 2. Lära sig skatta en enkel linjär regressionsmodell

Laboration 2. i 5B1512, Grundkurs i matematisk statistik för ekonomer

Standardfel (Standard error, SE) SD eller SE. Intervallskattning MSG Staffan Nilsson, Chalmers 1

Statistik 1 för biologer, logopeder och psykologer

Multipel Regressionsmodellen

Tentamentsskrivning: Matematisk Statistik med Metoder MVE490 1

Tentamen består av 9 frågor, totalt 34 poäng. Det krävs minst 17 poäng för att få godkänt och minst 26 poäng för att få väl godkänt.

Analys av medelvärden. Jenny Selander , plan 3, Norrbacka, ingång via den Samhällsmedicinska kliniken

F9 SAMPLINGFÖRDELNINGAR (NCT

En rät linje ett enkelt samband. En rät linje + slumpbrus. Observationspar (X i,y i ) MSG Staffan Nilsson, Chalmers 1.

Provmoment: Tentamen 6,5 hp Ladokkod: A144TG Tentamen ges för: TGMAI17h, Maskiningenjör - Produktutveckling. Tentamensdatum: 28 maj 2018 Tid: 9-13

Medicinsk statistik II

Introduktion. Konfidensintervall. Parade observationer Sammanfattning Minitab. Oberoende stickprov. Konfidensintervall. Minitab

Rättningstiden är i normalfall 15 arbetsdagar, till detta tillkommer upp till 5 arbetsdagar för administration, annars är det detta datum som gäller:

Hypotestestning och repetition

Uppgift 1. Deskripitiv statistik. Lön

Mälardalens Högskola. Formelsamling. Statistik, grundkurs

Samplingfördelningar 1

Analytisk statistik. 1. Estimering. Statistisk interferens. Statistisk interferens

Föreläsning 2. NDAB01 Statistik; teori och tillämpning i biologi

LÖSNINGSFÖRSLAG TILL TENTAMEN I MATEMATISK STATISTIK

Korrelation kausalitet. ˆ Y =bx +a KAPITEL 6: LINEAR REGRESSION: PREDICTION

TMS136. Föreläsning 11

Tentamen i statistik (delkurs C) på kursen MAR103: Marina Undersökningar - redskap och metoder.

Giltig legitimation/pass är obligatoriskt att ha med sig. Tentamensvakt kontrollerar detta. Tentamensresultaten anslås med hjälp av kodnummer.

Analytisk statistik. Tony Pansell, optiker Universitetslektor

FÖRELÄSNING 8:

Vi har en ursprungspopulation/-fördelning med medelvärde µ.

34% 34% 13.5% 68% 13.5% 2.35% 95% 2.35% 0.15% 99.7% 0.15% -3 SD -2 SD -1 SD M +1 SD +2 SD +3 SD

Föreläsning 4. NDAB01 Statistik; teori och tillämpning i biologi

7.1 Hypotesprövning. Nollhypotes: H 0 : µ = 3.9, Alternativ hypotes: H 1 : µ < 3.9.

Följande resultat erhålls (enhet: 1000psi):

Föreläsning 12: Regression

Statistik för teknologer, 5 poäng Skrivtid:

Metod och teori. Statistik för naturvetare Umeå universitet

Hur skriver man statistikavsnittet i en ansökan?

T-test, Korrelation och Konfidensintervall med SPSS Kimmo Sorjonen

TMS136. Föreläsning 13

KOM IHÅG ATT NOTERA DITT TENTAMENSNUMMER NEDAN OCH TA MED DIG TALONGEN INNAN DU LÄMNAR IN TENTAN!!

Korrelation och autokorrelation

Grundläggande matematisk statistik

χ 2, chi-två Test av anpassning: sannolikheter specificerade Data: n observationer klassificerade i K olika kategorier:

DATORÖVNING 3: MER OM STATISTISK INFERENS.

Envägs variansanalys (ANOVA) för test av olika väntevärde i flera grupper

SF1901: SANNOLIKHETSLÄRA OCH STATISTIK. MER HYPOTESPRÖVNING. χ 2 -TEST. Jan Grandell & Timo Koski

OBS! Vi har nya rutiner.

Syfte: o statistiska test om parametrar för en fördelning o. förkasta eller acceptera hypotesen

Gamla tentor (forts) ( x. x ) ) 2 x1

import totalt, mkr index 85,23 100,00 107,36 103,76

Tentamen för kursen. Linjära statistiska modeller. 22 augusti

Föreläsning G60 Statistiska metoder

Finansiell statistik

Föreläsning G60 Statistiska metoder

Rättningstiden är i normalfall 15 arbetsdagar, till detta tillkommer upp till 5 arbetsdagar för administration, annars är det detta datum som gäller:

Residualanalys. Finansiell statistik, vt-05. Normalfördelade? Normalfördelade? För modellen

Föreläsning 2. Kap 3,7-3,8 4,1-4,6 5,2 5,3

Föreläsning 5. NDAB02 Statistik; teori och tillämpning i biologi

8 Inferens om väntevärdet (och variansen) av en fördelning

Kapitel 12: TEST GÄLLANDE EN GRUPP KOEFFICIENTER - ANOVA

STATISTISK POWER OCH STICKPROVSDIMENSIONERING

Preliminära lösningar för Tentamen Tillämpad statistik A5 (15hp) Statistiska institutionen, Uppsala universitet

Tentamen i matematisk statistik

Tentamen på Statistik och kvantitativa undersökningar STA001, 15 hp. Exempeltenta 4

KOM IHÅG ATT NOTERA DITT TENTAMENSNUMMER NEDAN OCH TA MED DIG TALONGEN INNAN DU LÄMNAR IN TENTAN!!

Laboration 3 Inferens fo r andelar och korstabeller

F5 Introduktion Anpassning Korstabeller Homogenitet Oberoende Sammanfattning Minitab

Sänkningen av parasitnivåerna i blodet

Föreläsning G60 Statistiska metoder

Hur man tolkar statistiska resultat

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

F19, (Multipel linjär regression forts) och F20, Chi-två test.

7.3.3 Nonparametric Mann-Whitney test

FACIT (korrekta svar i röd fetstil)

KOM IHÅG ATT NOTERA DITT TENTAMENSNUMMER NEDAN OCH TA MED DIG TALONGEN INNAN DU LÄMNAR IN TENTAN!!

2. Test av hypotes rörande medianen i en population.

Statistik 1 för biologer, logopeder och psykologer

Repetitionsföreläsning

Transkript:

(6 november 017) GRUNDKURS I STATISTIK, DEL (5 SP, KURSKOD 700008.0) FÖRELÄSNINGSUNDERLAG LÄSÅRET 017-018 Jan Saarela jan.saarela@abo.fi www.vasa.abo.fi/users/jsaarela/js_undervisning.html Del, Sida 1

Innehåll (kapitelindelningen fortsätter från Del 1) Kapitel 6: Regressionsanalys Kapitel 7: Statistisk osäkerhet Kapitel 8: Hypotesprövning Del, Sida

KAPITEL 6: REGRESSIONSANALYS Grundprinciper Korrelationskoefficienten ger ett mått på det linjära sambandet mellan två variabler, men den säger inte hur detta samband ser ut, eller orsakssambanden. Vid en regressionsanalys betraktar man däremot en variabel (vanligen y) som beroende av en annan (vanligen x) och uttrycker detta samband med hjälp av en regressionslinje. Variabeln y kallas då beroende eller förklarad variabel medan x är den oberoende eller förklarande variabeln. Ekvationen för regressionslinjen är då y = a + b x där a kallas linjens intercept och b dess vinkelkoefficient (eller lutningskoefficient). Interceptet anger således linjens skärningspunkt med y-axeln. För godtyckliga x-värden kan vi med hjälp av detta uttryck beräkna ett prediktionsvärde. Uppgiften består i att bestämma parametrarna a och b, så att anpassningen är den bästa möjliga. Man kan i princip välja olika kriterier för vilken den bästa anpassningen är, men den metod som nästan uteslutande används är minsta kvadratmetoden. Detta innebär att summan av de kvadrerade avvikelserna mellan de observerade och predicerade värdena skall vara så liten som möjlig. Detta kan också uttryckas så att standardavvikelsen för differensen skall minimeras. Vi betecknar det skattade y-värdet enligt regressionslinjen för ett x-värde xi med ŷ i. Vi har således yˆ a b x för i=1,...,n, och skall minimera i i n n ( y ˆ i yi ) [ yi ( a b xi i1 i1 )] Problemet kan lösas genom derivering och det resulterar i följande lösning b a n xi yi ( xi )( n xi ( xi ) ( y ) yi )( xi ) ( xi )( n xi ( xi ) i x y ) i i Exempel: En regressionslinje för att beskriva andelen som har en finskspråkig partner som en funktion av andelen svenskspråkiga i kommunen enligt exemplet ovan har följande parametrar 8 45735 1404 108 b = -0,70057 8 91580 1404 Del, Sida 3

108 91580 1404 45735 a 78,71 8 91580 1404 I Excel kan parametrarna a och b även bestämmas genom funktionerna INTERCEPT (på svenska: SKÄRNINGSPUNKT) respektive SLOPE (på svenska: LUTNING) I figuren nedan har regressionslinjen ritats in tillsammans med observationspunkterna 100 80 60 40 0 0 0 0 40 60 80 100 Regressionsekvationen innebär att den förväntade (beräknade) andelen med finskspråkig partner på en ort där andelen svenskspråkiga är 30 % är 78,71-0,70057*30 = 57, % medan motsvarande om andelen svenskspråkiga är 75 % är 78,71-0,70057*75 = 5,7 %. Prediktionsförmåga och residualspridning Differensen mellan ett värde på den beroende variabeln y och dess medelvärde kan spjälkas upp i två termer enligt följande: ( y y) ( y yˆ ) ( yˆ y) i i i i Om man kvadrerar bägge leden (för summorna) erhålles följande uttryck: n i1 ( y i y) n i1 ( y i yˆ ) i n i1 ( yˆ i y) Vi har således delat upp den totala kvadrerade spridningen för variabeln y i två delar, som kallas den oförklarade kvadratsumman respektive den förklarade kvadratsumman. Benämningen förklarad syftar på att värdet på y förklaras av att vi vet värdet på x. Den resterande delen kallas residual. Del, Sida 4

Det finns en direkt koppling mellan dessa storheter och korrelationskoefficienten, ty följande gäller r xy ( yˆ y) i ( yi y) Kvoten mellan den förklarade och den totala kvadratsumman, som kallas determinationskoefficienten, är således kvadraten på korrelationskoefficienten. Man kan därför säga att den kvadrerade korrelationskoefficienten anger hur stor andel av variationen i y som bestäms av x. Detta benämns även förklaringsgrad. Ofta anges denna dessutom i procent, dvs att man multiplicerar determinationskoefficienten med 100. I exemplet ovan var korrelationskoefficienten -0,94763. Det innebär att determinationskoefficienten är -0,94763 =0,897996, eller att förklaringsgraden är 89,8 %. Utgående från den oförklarade kvadratsumman definieras ett spridningsmått för residualen kallat residualspridningen ( y ˆ i yi ) syx n Residualspridningen anger sålunda, grovt sett, linjens genomsnittliga avstånd från observationerna, mätt i y-enheter ( linjens genomsnittliga fel ). Regressionsanalys i SPSS Välj Analyze...Regression...Linear för att öppna dialogrutan Linear Regression där man anger beroende (Dependent) och oberoende (Independent) variabler. Observera att man här kan ha mera än en oberoende variabel. Del, Sida 5

En anpassning av samma regressionslinje som tidigare resulterar då i följande utskrifter: Model 1 (Constant) Andel svenska i kommunen Unstandardized Coeff icients a. Dependent Variable: svenska män Coefficients a Standardized Coeff icients B Std. Error Beta t Sig. 78,71,648 9,556,000 -,701,046 -,948-15,19,000 I kolumnen B finns interceptet (Constant) samt koefficienten för den oberoende variabeln Model 1 Model Summary Adjusted Std. Error of R R Square R Square the Estimate,948 a,898,894 6,73893 a. Predictors: (Constant), Andel svenska i kommunen R Square är determinationskoefficienten och Std. Error of the Estimate är residualspridningen. Model 1 Regression Residual Total ANOVA b Sum of Squares df Mean Square F Sig. 10394,687 1 10394,687 8,89,000 a 1180,74 6 45,413 11575,49 7 a. Predictors: (Constant), Andel svenska i kommunen b. Dependent Variable: svenska män Kolumnen Sum of Squares innehåller uppdelningen av kvadratsummorna. Nedan visas också en utskrift av en multipel regressionsanalys, där den beroende variabeln fortfarande är andelen med finskspråkig partner, men materialet omfattar nu både svenskspråkiga män och kvinnor, och variabeln kön (man=1, kvinna=0) har inkluderats som en oberoende variabel i tillägg till språkstrukturen. Model 1 (Constant) Andel svenska i kommunen KÖN a. Dependent Variable: MIXED Unstandardized Coeff icients Coefficients a Standardized Coeff icients B Std. Error Beta t Sig. 74,331,70 3,741,000 -,688,036 -,93-19,18,000 3,86 1,968,081 1,670,101 Koefficienten för variabeln KÖN är 3,86 vilket innebär att enligt regressionsmodellen är andelen med finskspråkig partner 3,86-procentenheter högre bland männen än bland kvinnorna. Regressionsanalysen förutsätter att de variabler man studerar är mätta på intervall- eller kvotskala. Ifall en kvalitativ variabel är dikotom, dvs har endast två klasser, kan den likväl behandlas som en kvantitativ variabel. Del, Sida 6

Regressionsanalys i Excel Excel lämpar sig utmärkt för enkel regressionsanalys (med enbart en förklarande variabel). Vi skall här se på en analys av sambandet mellan längd och vikt i ett studentenkätmaterial, eller egentligen, hur längd påverkar vikt. För att grafiskt illustrera sambandet mellan variablerna längd och vikt markeras variabelvärdena för dessa båda variabler (F1;G365) varefter man väljer Insert...Scatter och därefter det första alternativet Efter lite redigering av figuren, dvs byte av punktmarkörstyp, skala och rubriker på axlarna, samt linjetyp för stödlinjerna erhålls följande figur: Del, Sida 7

För att bestämma parametrarna a och b för regressionslinjen y= a + bx kan man använda Excels funktioner, dvs INTERCEPT och SLOPE för skärningspunkten a och lutningskoefficienten b. För interceptet erhålls då värdet -119,896 medan lutningskoefficienten är 1,09. Regressionslinjen är således y=-119,896 + 1,09x Determinationskoefficienten kan bestämmas genom att man beräknar korrelationskoefficienten (med CORREL) och kvadrerar denna. De exakta värdena är bra att ha om man vill beräkna predicerade värden utgående från regressionslinjen. För att få in den anpassade regressionslinjen behöver man ändå inte använda dessa värden utan det finns ett enklare sätt. Klicka på någon punkt i spridningsdiagrammet och högerklicka samt välj Add Trendline (... Infoga trendlinje). I rutan som öppnas väljer du Linear, samt kruxar i Display Equation on chart samt Display R-squared value on chart. Del, Sida 8

Det resulterar i följande figur: Del, Sida 9

Regressionslinjer kan även användas för att analysera tidsserier och därmed även för framskrivningar/projektioner. I exemplet nedan inkluderas uppgifter för två kommuner i samma figur. Av regressionslinjernas parametrar kan vi utläsa att i Närpes ökar antalet personer med utländsk härkomst med 80 (80,33) personer per år, medan motsvarande i Korsholm är 3 (3,3). Ifall utvecklingen fortsätter i enlighet med detta är det förväntade antalet personer med utländsk härkomst i Närpes år 00: -160678 + 80,33 00 = 1594,66 1595. För Korsholm är motsvarande antal: -64459 + 3,3 00 65. Del, Sida 10

KAPITEL 7: STATISTISK OSÄKERHET Osäkerheten i statistiska undersökningar Vid en totalundersökning har man information om alla individer och kan därigenom få reda på den mätbara sanningen. I många situationer är det dock praktiskt omöjligt att genomföra totalundersökningar, men man kan då istället använda stickprov och på basen av dessa göra generaliseringar till hela populationen (statistisk inferens: att dra slutsatser om populationsförhållanden med hjälp av stickprov). Det finns flera olika källor till osäkerhet vid statistiska undersökningar. Några gäller generellt, medan andra gäller främst stickprovsundersökningar. Allmänt gäller att mätmetoderna bör vara relevanta och tillförlitliga för det som undersökningen gäller. Man talar i detta sammanhang om validitet och reliabilitet. Med validitet avses frågan om hur relevanta variablerna är. Mäter de det som avses eller ej? Är t.ex. formellt civilstånd en relevant mätare på huruvida man bor med någon? Med reliabilitet avses mätningens tillförlitlighet eller precision. Är t.ex. utfallet av en intervjuundersökning detsamma oberoende av vem som utför intervjuerna? Ett något karikerat exempel som illustrerar begreppen är att man uppskattar en persons längd med hjälp av en personvåg. Mätningen kan göras med hög reliabilitet (stor noggrannhet), men validiteten är låg. En förutsättning för att man skall kunna generalisera resultaten från en stickprovsundersökning är att stickprovet är slumpmässigt, så att det är representativt för den egentliga undersökningspopulationen. Det mest kända urvalsförfarandet är Obundet slumpmässigt urval (OSU), vilket innebär att alla enheter har samma sannolikhet eller chans att komma med i stickprovet. För att kunna dra ett sådant stickprov behövs en urvalsram, dvs en förteckning över alla enheter i undersökningspopulationen. Vid OSU lottas sedan platserna i stickprovet ut utan restriktioner. Detta kan ske genom användning av slumptalstabeller eller slumptalsgeneratorer. En förenkling som fortfarande uppfyller samma statistiska krav som vid OSU är att man använder Obundet systematiskt urval, vilket innebär att man väljer var n:te (t.ex. var tionde) enhet från en förteckning, där man valt den första helt slumpmässigt bland de första n individerna. Detta förutsätter givetvis att urvalsramen är ordnad på ett sådant sätt att individer med vissa egenskaper inte återkommer regelbundet. Förutsatt att stickproven väljs så att de ger representativa urval, kan man med statistiska metoder bedöma osäkerheten hos resultaten. Denna osäkerhet skall likväl inte sammanblandas med den osäkerhet som kan uppkomma genom bortfall. Med bortfall avses att man inte får uppgifter om alla individer i ett stickprov, Del, Sida 11

eller att vissa individer vägrar att svara på vissa frågor (internt bortfall). Orsaker till bortfall kan vara t.ex. vägran att delta, eller föråldrade och/eller felaktiga kontaktuppgifter. Rent intuitivt inser man att om stickprovsstorleken ökas bör precisionen i skattningarna förbättras, men den beror också på spridningen hos den egenskap som studeras. Ifall vi studerar medelinkomsten i en befolkning och variationen är stor mellan de olika individerna blir den statistiska osäkerheten alltså med nödtvång stor. En vanligt förekommande användning av stickprov är politiska gallupundersökningar. I samband med presentationen av dessa nämns ofta något i stil med skattningarna har en felmarginal på % eller förändringarna ligger inom felmarginalen. Vi skall ta denna typ av undersökning som utgångspunkt för en inledande granskning av vad statistisk osäkerhet innebär. Antag att vi har en stor befolkning och att vi med hjälp av ett stickprov vill skatta understödet för olika partier. Vi skall här fokusera på ett stort parti A, som de facto har ett 35 %-igt understöd, och ett litet parti B med ett 5 %-igt understöd. Vi bortser från problem med vägrare och annat bortfall. Vad kan vi tänkas få för resultat ifall vi drar ett slumpmässigt stickprov omfattande 1000 personer? För att illustrera detta har här simulerats 100 stickprov (av vardera 1000 personer) och beräknats stödet för A och B. För att dessutom illustrera effekten av att öka stickprovsstorleken görs även samma sak med 000 individer i stickprovet. Resultatet redovisas i nedanstående figurer: Parti A, 1000 svarare: Parti A, 000 svarare: 0 18 16 14 1 10 8 6 4 0 0 18 0 16 18 16 14 14 1 1 10 10 8 8 6 6 4 0 x =35,15 s=1,538 x =35,0 s=1,13 Del, Sida 1

Parti B, 1000 svarare: Parti B, 000 svarare: 35 30 5 0 15 10 5 0 35 30 5 0 15 10 5 0 x =5,07 s=0,710 x =4,99 s=0,601 Med stickprov på 1000 individer ligger skattningen för Parti A:s understöd i 75 av de 100 stickproven i intervallet 33,5-36,75, men med stickprovsstorleken 000 stiger motsvarande antal till 88. Följande iakttagelser kan göras. Stickproven tenderar att ge korrekta skattningar i längden (med upprepningar). En fördubbling av stickprovet minskar osäkerheten, men standardavvikelsen halveras inte. Spridningen (osäkerheten) är beroende av storleken på den proportion som studeras. Fördelningarna för stickprovsproportionerna är symmetriska. Exemplet illustrerar samtidigt det intressanta fenomenet att, om man har tillräckligt stora stickprov, kommer fördelningen för skattade proportioner och medelvärden att närma sig den s.k. normalfördelningen (Gauss-kurvan) som har många goda statistiska egenskaper. Eftersom vi kommer att utnyttja detta, är det skäl att granska normalfördelningen närmare. Normalfördelningen Normalfördelningen dyker upp i många olika sammanhang. Den är symmetrisk och kontinuerlig och om man betecknar dess medelvärde (väntevärde) med μ (my) och standardavvikelsen med σ (sigma) kan täthetsfunktionen (sannolikhetsfunktionen) skrivas 1 f ( x) e 1 x Täthetsfunktionen för en variabel anger hur sannolikhetsmassan är fördelad över de olika värden som variabeln kan anta. Detta innebär att ytan under kurvan för en täthetsfunktion alltid är 1. För att beräkna sannolikheten för att erhålla ett värde i ett visst intervall bör man därför bestämma ytan under kurvan i motsvarande intervall. Del, Sida 13

Täthetsfunktionen för normalfördelningen är ett så besvärligt uttryck att ytan inte kan beräknas analytiskt med hjälp av integration, utan man är tvungen att använda approximativa metoder. En följd av detta är att det finns färdiga tabeller som kan utnyttjas. Sådana tabeller behöver inte uppgöras för alla tänkbara kombinationer av medelvärden och standardavvikelser, utan endast för den s.k. standardiserade normalfördelningen som har medelvärdet 0 och standardavvikelsen 1. Varje variabel kan nämligen transformeras till en variabel med dessa egenskaper genom att man subtraherar medelvärdet och dividerar med standardavvikelsen. För en standardiserad normalfördelning gäller att sannolikheten för att erhålla ett värde som är mindre än -1,96 är 0,05. Till följd av symmetrin gäller därför också att sannolikheten för ett värde större än 1,96 är 0,05. Omvänt gäller alltså att sannolikheten för att få ett värde i intervallet (-1,96, 1,96) är 0,95. Vid statistiska analyser använder man ofta vissa säkerhetsnivåer såsom 0,90, 0,95 och 0,99, vilket motsvaras av risknivåerna 0,10, 0,05 respektive 0,01. För en standardiserad normalfördelad variabel gäller att sannolikheten för ett värde i intervallet (-,58,,58) är 0,99 i intervallet (-1,96, 1,96) är 0,95 i intervallet (-1,64, 1,64) är 0,90 Detta innebär att för en normalfördelad variabel med medelvärdet x och standardavvikelsen s är sannolikheten 0,90 att vi har ett värde i intervallet ( x -1,64 s, x +1,64 s) och på motsvarande sätt för andra sannolikheter. Medelfel Avgörande för att kunna bedöma den statistiska osäkerheten är det s.k. medelfelet (Standard error) för den storhet vi studerar, oavsett om denna är en proportion som i exemplet ovan eller ett medelvärde. Medelfelet är beroende av såväl stickprovsstorleken som spridningen hos den egenskap vi studerar. För ett medelvärde gäller att medelfelet (SE, Standard Error of the Mean) är: s SE = n där s är standardavvikelsen i stickprovet och n är antalet observationer. Ju större stickprovsstorleken är, desto mindre blir alltså medelfelet. För proportionstal gäller på motsvarande sätt: p (1 p ) SE = n där p betecknar den beräknade proportionen i stickprovet. Här ser man att medelfelet även är beroende av proportionsstorleken. Uttrycket är större ju närmare 0,5 (hälften) den studerade proportionen p är. Del, Sida 14

Ovanstående gäller för situationer där stickprovet utgör endast en försvinnande liten del av den totala populationen. Egentligen bör medelfelet multipliceras med en korrektionsfaktor (1- f) där f är urvalsfraktionen, dvs hur stor andel stickprovet utgör av totalpopulationen. Detta kallas för korrektion för ändlig population. Om man t.ex. har ett 1 %-igt stickprov är f=0,01, och korrektionsfaktorn därmed 0,99. Som regel kan man bortse från denna faktor. Konfidensintervall När man på basen av ett stickprov beräknar ett medelvärde eller ett proportionstal gör man en punktskattning eller punktestimation. Om man vill ange den statistiska osäkerheten hos denna skattning anger man ett intervall inom vilket det sanna värdet med en viss sannolikhet bör finnas. Detta kallas ett konfidensintervall. De sannolikhetsnivåer som vanligen används i detta sammanhang är 90%, 95% eller 99%. Rent generellt kan man säga att ett konfidensintervall har formen: (x - z SE, x + z SE) där x betecknar ett skattat medelvärde och SE är skattningens medelfel. Beteckningen z bestäms av konfidensgraden och vilken fördelning det är fråga om. Ifall man studerar ett proportionstal ersätts det skattade medelvärdet med proportionsskattningen. Vi noterade tidigare att skattningarna för såväl proportionstal som medelvärden tenderar att bli normalfördelade om stickprovsstorleken är tillräckligt stor. För proportionstal brukar man som tumregel använda att det bör gälla att n p >5 och n (1-p)>5. I praktiken innebär det att om proportionen är exempelvis 0,05 eller 0,95 (5 % eller 95 %) bör stickprovsstorleken vara minst 100. Om proportionen däremot är 0,5 räcker det med 10 observationer för att normalfördelningen skall kunna användas. Exempel: Antag att vi gör en gallupundersökning omfattande 1000 personer och för två partier erhåller skattningarna p1=0,4 respektive p=0,07. Medelfelen för dessa skattningar blir då 0,4 (1 0,4) 1000 0,0156 0,07 (1 0,07) respektive 0, 008 1000 vilket innebär att vi med 95 % säkerhet kan säga att det verkliga understödet ligger i intervallen (0,4-1,96 0,0156; 0,4+1,96 0,0156) = (0,39; 0,45) respektive (0,07-1,96 0,008; 0,07+1,96 0,008) = (0,054; 0,086) Ifall man fördubblade stickprovsstorleken skulle medelfelen, vid samma punktskattningar, bli Del, Sida 15

0,4(1 0,4) 000 0,0110 0,07(1 0,07) respektive 0, 0057 000 dvs för det större partiet är felmarginalen 1,96 0,011 = 0,0, eller, %-enheter, medan för det mindre partiet är felmarginalen 1,96 0,0057 = 0,011, eller 1,1 %-enheter. För små stickprov följer skattningen för medelvärdet egentligen den s.k. t-fördelningen. Denna är liksom normalfördelningen symmetrisk kring medelvärdet, men den är lite toppigare och har därför tjockare svansar. Stickprovsstorleken n ingår som en parameter i t-fördelningen. Denna parameter anger fördelningens frihetsgrader. När n växer sammanfaller fördelningen i praktiken med normalfördelningen. Redan vid 30 observationer kan man gott använda normalfördelningen. Man är även för t-fördelningen tvungen att beräkna sannolikheter med hjälp av approximationer, och de finns därför tabellerade för olika antal frihetsgrader. Nedanstående figur ger t-fördelningens täthetsfunktion för, 5, och 0 frihetsgrader, samt motsvarande för den standardiserade normalfördelningen: df= I SPSS kan man erhålla konfidensintervall för medelvärden under menyn Analyze... Descriptive Statistics...Explore.. Del, Sida 16

Den standardiserade normalfördelningen Talen i tabellen anger sannolikheten för att den standardiserade normalvariabeln Z antar ett värde mindre än z, P(Z<z), exempelvis P(Z<1,13)=0,8708 z 0 0,01 0,0 0,03 0,04 0,05 0,06 0,07 0,08 0,09 0 0,5000 0,5040 0,5080 0,510 0,5160 0,5199 0,539 0,579 0,5319 0,5359 0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753 0, 0,5793 0,583 0,5871 0,5910 0,5948 0,5987 0,606 0,6064 0,6103 0,6141 0,3 0,6179 0,617 0,655 0,693 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517 0,4 0,6554 0,6591 0,668 0,6664 0,6700 0,6736 0,677 0,6808 0,6844 0,6879 0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,713 0,7157 0,7190 0,74 0,6 0,757 0,791 0,734 0,7357 0,7389 0,74 0,7454 0,7486 0,7517 0,7549 0,7 0,7580 0,7611 0,764 0,7673 0,7704 0,7734 0,7764 0,7794 0,783 0,785 0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,803 0,8051 0,8078 0,8106 0,8133 0,9 0,8159 0,8186 0,81 0,838 0,864 0,889 0,8315 0,8340 0,8365 0,8389 1 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,861 1,1 0,8643 0,8665 0,8686 0,8708 0,879 0,8749 0,8770 0,8790 0,8810 0,8830 1, 0,8849 0,8869 0,8888 0,8907 0,895 0,8944 0,896 0,8980 0,8997 0,9015 1,3 0,903 0,9049 0,9066 0,908 0,9099 0,9115 0,9131 0,9147 0,916 0,9177 1,4 0,919 0,907 0,9 0,936 0,951 0,965 0,979 0,99 0,9306 0,9319 1,5 0,933 0,9345 0,9357 0,9370 0,938 0,9394 0,9406 0,9418 0,949 0,9441 1,6 0,945 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,955 0,9535 0,9545 1,7 0,9554 0,9564 0,9573 0,958 0,9591 0,9599 0,9608 0,9616 0,965 0,9633 1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706 1,9 0,9713 0,9719 0,976 0,973 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767 0,977 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,981 0,9817,1 0,981 0,986 0,9830 0,9834 0,9838 0,984 0,9846 0,9850 0,9854 0,9857, 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916,4 0,9918 0,990 0,99 0,995 0,997 0,999 0,9931 0,993 0,9934 0,9936,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,995,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,996 0,9963 0,9964,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,997 0,9973 0,9974,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981,9 0,9981 0,998 0,998 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986 3 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990 3,1 0,9990 0,9991 0,9991 0,9991 0,999 0,999 0,999 0,999 0,9993 0,9993 3, 0,9993 0,9993 0,9994 0,9994 0,9994 0,9994 0,9994 0,9995 0,9995 0,9995 3,3 0,9995 0,9995 0,9995 0,9996 0,9996 0,9996 0,9996 0,9996 0,9996 0,9997 3,4 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9998 3,5 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 3,6 0,9998 0,9998 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 3,7 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 3,8 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 3,9 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 Del, Sida 17

t-fördelningen Talen i tabellen anger det värde på t, så att sannolikheten att erhålla ett värde i intervallet (-t; t) är 1-p vid olika antal frihetsgrader p df 0,1 0,05 0,0 0,01 0,00 0,001 1 6,314 1,706 31,81 63,657 318,309 636,619,90 4,303 6,965 9,95,37 31,599 3,353 3,18 4,541 5,841 10,15 1,94 4,13,776 3,747 4,604 7,173 8,610 5,015,571 3,365 4,03 5,893 6,869 6 1,943,447 3,143 3,707 5,08 5,959 7 1,895,365,998 3,499 4,785 5,408 8 1,860,306,896 3,355 4,501 5,041 9 1,833,6,81 3,50 4,97 4,781 10 1,81,8,764 3,169 4,144 4,587 11 1,796,01,718 3,106 4,05 4,437 1 1,78,179,681 3,055 3,930 4,318 13 1,771,160,650 3,01 3,85 4,1 14 1,761,145,64,977 3,787 4,140 15 1,753,131,60,947 3,733 4,073 16 1,746,10,583,91 3,686 4,015 17 1,740,110,567,898 3,646 3,965 18 1,734,101,55,878 3,610 3,9 19 1,79,093,539,861 3,579 3,883 0 1,75,086,58,845 3,55 3,850 1 1,71,080,518,831 3,57 3,819 1,717,074,508,819 3,505 3,79 3 1,714,069,500,807 3,485 3,768 4 1,711,064,49,797 3,467 3,745 5 1,708,060,485,787 3,450 3,75 6 1,706,056,479,779 3,435 3,707 7 1,703,05,473,771 3,41 3,690 8 1,701,048,467,763 3,408 3,674 9 1,699,045,46,756 3,396 3,659 30 1,697,04,457,750 3,385 3,646 40 1,684,01,43,704 3,307 3,551 60 1,671,000,390,660 3,3 3,460 100 1,660 1,984,364,66 3,174 3,390 100000 1,645 1,960,36,576 3,090 3,91 (Värden beräknade med Excel) Del, Sida 18

KAPITEL 8: HYPOTESPRÖVNING Grundprinciper Med hjälp av konfidensintervall kan man ge en bild av den statistiska osäkerheten beträffande punktskattningar såsom medelvärden och proportionstal. Den statistiska inferensen kan även innefatta andra egenskaper hos fördelningar och samband mellan variabler. Den grundläggande frågan är alltid om de resultat vi erhållit med hjälp av ett stickprov eller experiment kan tänkas gälla generellt eller vara utslag av slumpmässiga variationer. För att utröna detta används hypotesprövning, Vi skall först se på ett exempel för att ge en bild av logiken. Antag att ett parti fick 17 % av rösterna i senaste val, och att vi med hjälp av en gallupundersökning vill utröna om understödet förändrats. Hur mycket måste utfallet i stickprovet avvika från 17 % för att vi med säkerhet skall våga påstå att understödet förändrats om vi har ett stickprov omfattande 1000 individer? Kan vi t.ex. dra slutsatsen att understödet har ökat om andelen i stickprovet är 18,5 %? För att utföra ett statistiskt test i en situation som denna formulerar vi en nollhypotes (H0) : understödet är oförändrat, dvs 17 %. Mot denna ställer vi en mothypotes (H1): understödet har ökat. I detta fall säger vi att mothypotesen är ensidig. Den kan dock även formuleras oberoende av riktning: understödet har förändrats (tvåsidig mothypotes). Logiken bakom testningen är att man håller fast vid nollhypotesen ända till dess att den kan förkastas. För att avgöra när man skall förkasta nollhypotesen bestämmer man (i princip) på förhand en risknivå (signifikansnivå), vilken anger sannolikheten för att vi skall förkasta nollhypotesen när den de facto är sann. All hypotesprövning bygger på att man använder en testvariabel och beräknar ett acceptansområde och ett förkastningsområde för denna. I exemplet ovan är testvariabeln givetvis proportionen som stöder partiet ifråga, och förkastningsområdet där vi förkastar nollhypotesen består av alla värden som är större än ett visst kritiskt värde. Utgående från signifikansnivån bör vi således bestämma det kritiska värdet. Ifall mothypotesen i exemplet hade varit tvåsidig, hade vi fått två kritiska värden. Acceptansområdet hade då i princip kunnat betraktas som ett konfidensintervall kring det värde som anges i nollhypotesen; beräkningarna är likartade även om den teoretiska bakgrunden är annorlunda. Benämningen acceptansområde är såtillvida missvisande att strängt taget är hypotesprövningens logik sådan att vi inte accepterar nollhypotesen, vi måste endast acceptera att vi inte kan förkasta den. Signifikansnivån anger således sannolikheten för att vi felaktigt skall förkasta nollhypotesen. Detta kallas även fel av typ I. Man löper givetvis också risk att begå ett annat fel, nämligen att hålla fast vid nollhypotesen fastän den egentligen är felaktig. Detta kallas fel av typ II. Sannolikheten för fel av typ II är som regel okänd, men den ökar ju mera man minskar signifikansnivån. För att illustrera logiken bakom testningen och riskerna för felslut kan man förlikna med beviskraven under en rättegång (exempel av Svante Körner och Lars Wahlgren). Den tilltalade bedöms oskyldig tills motsatsen har bevisats, och kraven på hållbara bevis är stränga. Risken att döma någon oskyldig skall vara så liten som möjligt (signifikansnivån, dvs Del, Sida 19

fel av typ I). Detta medför samtidigt att man riskerar att släppa verkliga brottslingar i brist på bevis (fel av typ II). Den beskrivning som getts ovan avser egentligen en klassiskt utförd hypotesprövning. Detta innebär att man på förhand fastställer signifikansnivån, och därefter ett förkastningsområde för att genomföra testet. En orsak till detta är bl.a. att testvariablerna som regel följer sådana fördelningar (t.ex normalfördelningen, t-fördelningen) vars sannolikhetsfördelningar inte kan bestämmas analytiskt, vilket innebär att man varit hänvisad till vissa tabellerade värden. I dagens läge när man oftast använder datorer för beräkningarna ger programmen som regel ett s.k. sannolikhetsvärde (prob-value, prob-värde) som anger sannolikheten för att erhålla ett värde som avviker från nollhypotesen minst lika mycket som den observerade teststatistikan. I exemplet ovan skulle prob-värdet då ange sannolikheten för att i ett stickprov erhålla ett understöd på minst 18,5 % ifall det faktiska understödet fortfarande var 17 %. Observera att varken signifikansvärdet eller probvärdet får tolkas som en sannolikhet för att nollhypotesen är sann. Probvärdet anger sannolikheten för att erhålla ett stickprov som det aktuella under förutsättning att nollhypotesen är sann. Observera också att statistiska test inte bör användas för att avgöra vilka resultat som är intressanta eller ej. Det bör vara sammanhanget som är avgörande för vad som är intressant och notabelt. Om man i en undersökning t.ex. inte kunde förkasta nollhypotesen att män och kvinnor använder lika mycket tid på klädvård i hemmet borde detta vara mera anmärkningsvärt än om man kunde förkasta den. Utgångspunkten ovan har varit att vi analyserat ett stickprov för att dra slutsatser om en totalpopulation. De test som beskrivs nedan kan även användas om data är insamlade via experiment. Rent principiellt kan genomförande av experiment jämställas med stickprovsdragning. Chi-kvadrattest av fördelningsform I detta avsnitt skall vi se på några testsituationer som baserar sig på chi-kvadratvärdet. Låt oss först se på ett exempel. Antag att vi insamlat ett material omfattande 100 30-34-åriga finlandssvenskar och du vill kontrollera att deras utbildningsnivå överensstämmer med dem som gäller för alla 30-34-åringar i Finland, och som antas vara känd. Utbildningsnivå Finland (%) Stickprov Förväntat Grundnivå 14 18 168 Mellannivå 39 475 468 Lägsta utbildning på högsta nivå 73 64 Lägre högskolenivå 8 93 96 Högre högskolenivå 17 177 04 Totalt 100 100 100 I tabellen har införts en kolumn med de antal observationer man borde få om fördelningen i stickprovet helt skulle motsvara totalpopulationen. Som synes verkar överensstämmelsen vara god, även om det finns vissa avvikelser. Är dessa avvikelser ett tecken på att fördelningen inte är densamma, eller ligger det inom ramen för slumpmässiga variationer? Del, Sida 0

Vi skall testa detta och formulerar därför hypoteser. H0: Fördelningen bland finlandssvenskarna är densamma som i totalpopulationen H1: Fördelningen är ej densamma För att genomföra ett test måste vi beräkna en lämplig teststatistika, och i detta fall är ett chikvadratvärde baserat på observerade och förväntade värden enligt samma modell och beräkningsformel som i den deskriptiva delen. Utbildningsnivå Observerade (O) Förväntade (E) (O-E) /E Grundnivå 18 168 1,166667 Mellannivå 475 468 0,104701 Lägsta utbildning på högsta nivå 73 64 0,306818 Lägre högskolenivå 93 96 0,09375 Högre högskolenivå 177 04 3,57359 Totalt 100 100 5,45465 Chi-kvadratvärdet (Χ ) blir således 5,45. Det är uppenbart att ju större värde teststatistikan antar desto mera tyder det på att nollhypotesen är falsk. För att kunna bestämma det kritiska värdet måste man beakta den statistiska fördelningen för teststatistikan. Om nollhypotesen är sann följer teststatistikan Χ den s.k. Chi-kvadratfördelningen. För en chi-kvadratstatistika beräknad för k klasser är antalet frihetsgrader df = k-1, i exemplet ovan är således df = 5-1 = 4. Från tabellen över Χ -fördelningen framgår att för signifikansnivån 5 % är det kritiska värdet med 4 frihetsgrader 9,49. Eftersom det observerade värdet 5,45 < 9,49 kan vi inte förkasta nollhypotesen. Slutsatsen är alltså att vi inte (på basen av detta stickprov) kan påstå att svenskspråkiga skulle ha en annan utbildningsnivå än befolkningen som helhet. Villkor för att använda chi-kvadrattest är att de förväntade värdena bör vara tillräckligt stora, vilket innebär att - högst 0 % av de förväntade frekvenserna är mindre än 5 - ingen av de förväntade frekvenserna är mindre än 1. Ifall villkoren inte är uppfyllda kan man om möjligt slå samman små klasser. Del, Sida 1

Chi-kvadratfördelningen Chi-kvadratfördelningen har liksom t-fördelningn en parameter som kallas antalet frihetsgrader (df: degrees of freedom). En chi-kvadratfördelad variabel kan anta enbart positiva värden och dess sannolikhetsfunktion är mycket sned när antalet frietsgrader är litet. Med ökande antal frihetsgrader förskjuts fördelningen mot större värden och blir mera symmetrisk. I figuren visas sannolikhetsfunktionen för några olika frihetsgradsantal. Figur över Chi-kvadratfördelningen med, 5, 10 resp 0 frihetsgrader: Liksom för normalfördelningen och t-fördelningen måste sannolikheterna beräknas approximativt och de finns därför tabellerade för olika frihetsgradsantal. Del, Sida

Chi-kvadratfördelningen (observera att förkastningsområdet är skuggat i figuren) Sannolikhet p df 0,1 0,05 0,01 0,001 1,71 3,84 6,63 10,83 4,61 5,99 9,1 13,8 3 6,5 7,81 11,34 16,7 4 7,78 9,49 13,8 18,47 5 9,4 11,07 15,09 0,5 6 10,64 1,59 16,81,46 7 1,0 14,07 18,48 4,3 8 13,36 15,51 0,09 6,1 9 14,68 16,9 1,67 7,88 10 15,99 18,31 3,1 9,59 11 17,8 19,68 4,7 31,6 1 18,55 1,03 6, 3,91 13 19,81,36 7,69 34,53 14 1,06 3,68 9,14 36,1 15,31 5,00 30,58 37,70 16 3,54 6,30 3,00 39,5 17 4,77 7,59 33,41 40,79 18 5,99 8,87 34,81 4,31 19 7,0 30,14 36,19 43,8 0 8,41 31,41 37,57 45,31 1 9,6 3,67 38,93 46,80 30,81 33,9 40,9 48,7 3 3,01 35,17 41,64 49,73 4 33,0 36,4 4,98 51,18 5 34,38 37,65 44,31 5,6 6 35,56 38,89 45,64 54,05 7 36,74 40,11 46,96 55,48 8 37,9 41,34 48,8 56,89 9 39,09 4,56 49,59 58,30 30 40,6 43,77 50,89 59,70 40 51,81 55,76 63,69 73,40 50 63,17 67,50 76,15 86,66 60 74,40 79,08 88,38 99,61 70 85,53 90,53 100,43 11,3 80 96,58 101,88 11,33 14,84 90 107,57 113,15 14,1 137,1 100 118,50 14,34 135,81 149,45 (Värdena uträknade med hjälp av Excel) Del, Sida 3

Om man har data i tabellform kan beräkningarna enkelt utföras t.ex. i Excel, men testningen kan även genomföras i SPSS. Man väljer då Analyze...Nonparametric Tests...Chi-Square för att få fram det fönster där man kan välja den variabel som undersöks. I rutan för förväntade värden skriver man därefter in dessa. Observera att man inte behöver räkna ut de faktiska förväntade värdena, utan det väsentliga är att talens relativa storlek är den rätta. Körningen resulterar i följande utskrift: UTBILD 1,00,00 3,00 4,00 5,00 Total Observ ed N Expected N Residual 18 168,0 14,0 475 468,0 7,0 73 64,0 9,0 93 96,0-3,0 177 04,0-7,0 100 Test Statistics Chi-Square a df Asy mp. Sig. UTBILD 5,45 4,63 a. 0 cells (,0%) hav e expected frequencies less than 5. The minimum expected cell f requency is 96,0. I utskriften anges ett Asymp. Sig-värde, i detta fall 0,63, som är ett s.k. prob-värde, dvs sannolikheten för att erhålla ett värde som är minst lika stort som det observerade ifall nollhypotesen är sann. Del, Sida 4

Testning av medelvärdet i en fördelning Antag nu att den variabel vi är intresserad av är kontinuerlig så att vi kan beräkna dess medelvärde, och att vi är intresserade av att testa om detta medelvärde har en bestämd storlek. Vi skall igen se på ett exempel. På basen av uppgifter i studieregistret vet vi att för studerande som inskrevs vid ÅA åren 1993-1999, är det genomsnittliga antalet avlagda studieveckor efter två års studier 55,. Vi vill nu se om de studenter som skrevs in år 000 har presterat mer eller mindre än dessa. För ändamålet har vi tillgång till ett stickprov omfattande 71 slumpmässigt valda studenter. Våra hypoteser formuleras: H0: Det genomsnittliga antalet studieveckor är 55, (μ=55,) H1: Så är ej fallet (μ 55,) Den teststatistika vi skall använda är det standardiserade medelvärdet, dvs x t s n Om nollhypotesen är sann är denna variabel t-fördelad med n-1 frihetsgrader. Eftersom mothypotesen är tvåsidig bör vi söka de kritiska värdena symmetriskt kring 0. I vårt exempel visade det sig att det genomsnittliga antalet studieveckor var x = 54,5, med standardavvikelsen 6,4. Detta innebär att 54,5 55, t = -0,34 6,4 71 Eftersom antalet observationer är förhållandevis stort (df = 70) kan vi söka de kritiska värdena från normalfördelningen (och inte från t-fördelningen). Med signifikansnivån 1 %, är de kritiska värdena,58. Eftersom teststatistikans värde är -0,3 faller det inom intervallet (-,58,,58) vilket innebär att nollhypotesen inte kan förkastas. De genomsnittliga studieprestationerna verkar således vara oförändrade. I SPSS genomförs testet genom att man väljer Analyze... Compare Means...One Sample T test, varvid följande fönster öppnas: Man anger testvariabeln, och i rutan för Test Value anges nollhypotesens värde. Del, Sida 5

I exemplet ovan ger detta utskriften: One-Sample Statistics CUM4 Std. Error N Mean Std. Dev iation Mean 71 54,466 6,3970 3,1375 One-Sample Test CUM4 Test Value = 55. 95% Confidence Interv al of the Mean Dif f erence t df Sig. (-tailed) Dif f erence Lower Upper -,34 70,815 -,7338-6,9819 5,5143 I utskriften betecknar t teststatistikan, och Sig. anger prob-värdet vid ett tvåsidigt test. Observera att konfidensintervallet avser skillnaden mellan det observerade genomsnittet och nollhypotesens värde, och inte för teststatistikan t. Test av proportionstal Vi skall nu återvända till det tidigare exemplet (i början av detta kapitel) som gällde ett partis understöd i en gallupundersökning. Om vi betecknar proportionen som vi vill analysera med p formuleras hypoteserna H0: p=p0, där p0 betecknar värdet enligt nollhypotesen, här således p0 =0,17 H1: p p0, alternativt p>p0, eller p<p0, beroende på situationen. I vårt fall snarast p>p0 Testning av proportionstal är egentligen ett specialfall av den situation som gällde fördelningstest med hjälp av chi-kvadrat, antalet klasser är ju minsta möjliga eller två. Härigenom kan man använda sig av ett chi-kvadrattest förutsatt att antalet observationer är tillräckligt stort. Att studera proportionstal är liktydigt med att vi har en dikotom variabel, en variabel som kan anta endast två olika värden (antingen stöder man partiet eller så stöder man det inte). Detta innebär att man vid små stickprov exakt kan beräkna sannolikheterna för möjliga utfall. Denna fördelning kallas binomialfördelningen (jämför med att vi beräknar sannolikheten för att få ett visst antal krona om vi singlar slant 10 gånger, eller ett visst antal sexor om vi kastar en tärning 10 gånger). Vi skall inte här behandla den manuella beräkningen av binomialsannolikheterna utan ser enbart på de situationer där antalet observationer är så stort att normalapproximation kan användas. Det innebär att vi på samma sätt som för t-testet beräknar en teststatistika som innebär en standardisering av det observerade proportionstalet pˆ under antagandet att nollhypotesen är sann, dvs: Del, Sida 6

Z n (Jämför med motsvarande beräkningar av medelfel och konfidensintervall) p pˆ p 0 0 (1 p ) Variabel Z är således en standardiserad normalvariabel. I vårt exempel blir (0,185 0,17) Z 1,63 0,17 (1 0,17) 1000 Vid ett ensidigt test är det kritiska värdet vid signifikansnivån 5 % 1,64, vilket innebär att vi inte kan förkasta nollhypotesen. I SPSS genomförs ett binomialtest genom att man väljer Analyze...Nonparametric Tests...Binomial och därefter väljer variabel och anger proportionen enligt nollhypotesen på samma sätt som vid det föregående t-testet 0 I vårt exempel resulterar detta i följande utskrift: Binomial Test Category N Observ ed Prop. Test Prop. Asy mp. Sig. (1-tailed) PARTI Group 1 1,00 185,19,17,111 a Group,00 815,8 Total 1000 1,00 a. Based on Z Approximation. Eftersom antalet observationer är stort beräknas prob-värdet (Asymp.Sig.) med hjälp av normalfördelningsapproximation. Observera att prob.värdet är beräknat för en ensidig mothypotes. Del, Sida 7

Chi-kvadrattest i korstabeller Vi skall i detta avsnitt behandla testning i korstabeller med hjälp av Χ (chi-kvadrat), och inleder igen med att se på ett exempel. I tabellen nedan redovisas svenskösterbottniska skolelevers inställning till frågan om man kan tänka sig att sällskapa med en finskspråkig. Eleverna är uppdelade efter skoltyp. SKOLA * Sällskapa med finskspråkig Crosstabulation SKOLA Total grundskola gy mnasium yrkesskola Count % within SKOLA Count % within SKOLA Count % within SKOLA Count % within SKOLA Sällskapa med finskspråkig Gärna Möjligen nej Total 101 939 14 10 48,6% 44,7% 6,8% 100,0% 413 194 19 66 66,0% 31,0% 3,0% 100,0% 149 194 4 385 38,7% 50,4% 10,9% 100,0% 1583 137 03 3113 50,9% 4,6% 6,5% 100,0% Av den procentuella fördelningen framgår att andelen positivt inställda verkar vara klart högre bland gymnasieelever än bland yrkesskolelever, medan grundskoleleverna ligger mittemellan. Frågan är nu om dessa observerade skillnader kan bero på slumpen eller om de är verkliga. För att testa detta formulerar vi följande hypoteser: H0: Inställningen till att sällskapa med finskspråkig är oberoende av skoltyp H1: Inställningen beror av skoltyp Mera allmänt kan hypoteserna formuleras: H0: Variablerna är oberoende H1: Så är ej fallet Χ -test i korstabeller kan även gälla fördelningar, så att H0 allmänt formuleras H0: Fördelningarna (med avseende på en variabel x) är de samma H1: fördelningarna är olika Det test som skall användas bygger på Χ -värdet, beräknat enligt samma förfaringssätt som tidigare. De förväntade värdena beräknas då under antagandet att nollhypotesen är sann. Χ -värdet kan beräknas förhållandevis lätt för hand eller t.ex. i Excel. Om variablerna är oberoende är det förväntade värdet i t.ex. cellen i rad och kolumn 1 (gymnasieelever som gärna sällskapar med finskspråkiga) 66 1583/3113 =318,33. Cell Observerade (O) Förväntade (E) (O-E) (O-E) /E grund-gärna 101 1068,89-47,89,14596 grund-möjl 939 896,03 4,97,0607 grund-nej 14 137,07 4,93 0,17715 gymn-gärna 413 318,33 94,67 8,15518 Del, Sida 8

gymn-möjl 194 66,85-7,85 19,88773 gymn-nej 19 40,8-1,8 11,66505 yrkes-gärna 149 195,78-46,78 11,17659 yrkes-möjl 194 164,1 9,88 5,44135 yrkes-nej 4 5,11 16,89 11,36808 Total 3113 3113 0 9,07736 I detta fall blev således Χ -värdet 9,077. Denna teststatistika följer (approximativt) en Χ -fördelning där antalet frihetsgrader är lika med df = (r-1) (k-1), där r betecknar antalet rader och k antalet kolumner i tabellen. I detta fall df = (3-1) (3-1)=4. Med df=4 är det kritiska värdet för Χ -fördelningen vid 5 % signifikansnivå 9,49. Eftersom vårt observerade Χ -värde vida överstiger detta kan vi förkasta nollhypotesen, vilket innebär att inställningen till att sällskapa med en finskspråkiga uppenbart beror av skoltypen. I SPSS kan testningen ske enkelt i samband med korstabelleringen av variablerna. I fönstret Crosstabs finns under knappen Statistics ett fönster där man kan kryssa för Chi-square: Utskriften blir då: Pearson Chi-Square Likelihood Ratio Linear-by-Linear Association N of Valid Cases Chi-Square Tests Asy mp. Sig. Value df (-sided) 9,077 a 4,000 93,440 4,000,03 1,653 3113 a. 0 cells (,0%) hav e expected count less than 5. The minimum expected count is 5,11. Del, Sida 9

Den väsentliga informationen återfinns här på den första raden: Pearson Chi-Square samt prob.värdet Asymp. Sig. Eftersom probvärdet är 0,000, innebär detta att signifikansnivån är lägre än 0,1 %. Test av skillnaden mellan två medelvärden Vi behandlade tidigare ett t-test för testning av ett specifikt medelvärde för en variabel. Vi specificerade då i nollhypotesen ett bestämt medelvärde. Vi skall nu jämföra medelvärdet för två fördelningar, och testa om dessa är lika stora. Låt oss nu betrakta ett stickprov av studenter vid ÅA, 158 manliga och 370 kvinnliga studerande. Vi vill analysera om det finns någon skillnad i studieprestationer mellan könen, mätt i det genomsnittliga antalet studieveckor efter två års studier. Hypoteserna formuleras enligt följande: H0: de genomsnittliga studieprestationerna är desamma bland män och kvinnor H1: så är ej fallet Enligt uppgifterna i studieregistret hade de manliga studenterna avlagt 45,63 studieveckor (s=6,56), medan motsvarande för de kvinnliga var 60,41 (s=3,65). Är denna skillnad statistiskt signifikant? För att beskriva den teststatistika som skall användas inför vi följande beteckningar: x 1 och x betecknar de observerade medelvärdena för män respektive kvinnor, medan och s är motsvarande varianser, samt n 1 och n antalet observationer x1 x Ett allmänt uttryck för teststatistikan är t, där nämnaren SE betecknar medelfelet för SE täljaren, dvs medelfelet för differensen mellan medeltalen. Man skiljer mellan två olika situationer beroende på om de båda fördelningarnas standardavvikelser kan antas vara lika stora eller ej Om standardavvikelserna kan antas vara lika stora beräknas medelfelet enligt: SE 1 1 n n ( n 1) s1 ( n 1) s n 1 1 n 1 Om standardavvikelserna är olika sker beräkningen enligt: SE s n 1 1 s n I det förra fallet bestäms det kritiska området utgående från en t-fördelning med df= n1+ n - frihetsgrader, och i det senare från normalfördelningen s 1 Del, Sida 30

I praktiken är detta huvudsakligen statistiskt finlir utan reell betydelse, eftersom man i de flesta fall har så många observationer att t-fördelningen och normalfördelningen sammanfaller. Och ifall man gör analysen med SPSS, behöver man inte heller fundera desto mera över dessa finesser. Om vi i vårt exempel antar att standardavvikelserna är olika blir medelfelet: SE 6,56 158 3,65 370,445 Det innebär att teststatistikan blir: t 45,63 60,41 6,046,445 Om vi jämför med normalfördelningen kan vi genast konstatera att detta medför att nollhypotesen klart kan förkastas (egentligen definieras förkastningsområdet som Z z 1-p). Studieprestationerna är inte desamma, och de kvinnliga studenterna är uppenbarligen flitigare. För att genomföra testet i SPSS väljs Analyze...Compare Means...Independent Samples T- Test, varefter man anger testvariabel samt den oberoende variabeln, och för den senare anger värdena för de båda grupperna (i detta fall kön: 1=män, =kvinnor) Det resulterar i följande utskrift: Independent Samples Test CUM4 Equal variances assumed Equal variances not assumed Levene's Test f or Equality of Variances F Sig. t df Sig. (-tailed) t-test for Equality of Means Mean Dif f erence 95% Confidence Interv al of the Std. Error Dif f erence Dif f erence Lower Upper 7,631,006-6,334 56,000-14,7838,33403-19,3689-10,199-6,046 68,3,000-14,7838,44514-19,5979-9,96967 Del, Sida 31

Utskriften innehåller båda fallen, dvs med lika respektive olika varianser, och ett test (Levene s Test) för varianserna. Vi skall inte behandla detta, men endast notera att dess probvärde antyder att varianserna de facto är olika. När vi ser på teststatistikan t, och konfidensintervallet för differensen ser vi likväl att betydelsen (av hur medelfelet beräknas) är marginell. t-test vid parvisa mätningar Parvisa mätningar innebär att man mäter samma undersökningsenhet vid två olika tillfällen. Det kan t.ex. vara fråga om olika test eller resultat före och efter en behandling eller frågor i en s.k. panel där man återkommer med frågor till samma personer som tidigare. I sådana fall är observationerna inte oberoende, vilket bör beaktas vid testningen. Detta görs genom att man skapar en ny variabel som betecknar skillnaden mellan de båda mätningarna och testar huruvida denna skillnad är 0. I SPSS kan man direkt utföra testningen genom att välja Analyze... Compare Means...Paired Samples T Test, varefter man anger de båda variablerna som skall testas i dialogfönstret I exemplet jämförs arbetslösheten bland män och kvinnor i 86 länder. Observationsenheten är således land, och det finns två mätningar: en för män och en för kvinnor. Nollhypotesen är att arbetslösheten är densamma för män och kvinnor. Utskriften är följande: Paired Samples Statistics Pair 1 arbl (män) arbl(kv) Std. Error Mean N Std. Dev iation Mean 7,979 86 5,381,5804 9,635 86 6,5067,7016 Del, Sida 3

Pair 1 arbl (män) - arbl(kv) Paired Samples Test Paired Diff erences 95% Confidence Interv al of the Std. Error Dif f erence Mean Std. Dev iation Mean Lower Upper t df Sig. (-tailed) -1,656 3,8305,4131 -,477 -,835-4,009 85,000 Teststatistikan t har värdet -4,009 vilket innebär att nollhypotesen förkastas, och av de observerade medelvärdena framgår att arbetslöshetsgraden är högre bland kvinnorna. Signifikansnivån är under 0,1 %. Som en illustration redovisas nedan resultatet av det test vi skulle ha erhållit ifall vi betraktat mätningarna som oberoende och jämfört den genomsnittliga arbetslöshetsgraden för män och kvinnor. Independent Samples Test arbl Equal variances assumed Equal variances not assumed Levene's Test f or Equality of Variances F Sig. t df Sig. (-tailed) t-test for Equality of Means Mean Diff erence 95% Confidence Interv al of the Std. Error Diff erence Diff erence Lower Upper 7,101,008-1,818 170,071-1,656,9106-3,4533,1416-1,818 164,6,071-1,656,9106-3,4537,141 Medelvärdesskillnaden blir givetvis densamma eller -1,656, prob-värdet blir nu 0,071. Detta gäller för en tvåsidig mothypotes. Detta innebär att svansarna i fördelningen vardera är 0,071/= 0,0355 eller att signifikansnivån för en ensidig hypotes skulle vara 3,55 %. Test av korrelationskoefficienten För att testa om sambandet mellan två kvantitativa variabler signifikant avviker från noll, kan man beräkna en teststatistika utgående från Pearsons korrelationskoefficient r. Teststatistikan t används för att testa nollhypotesen H0: samband saknas Mothypotesen är H1: samband finns (sambandet positivt/negativt) n Teststatistikan definieras som t = r, där r betecknar korrelationskoefficienten och n 1 r antalet observationer. Om nollhypotesen är sann följer teststatistikan en t-fördelning med n- frihetsgrader (eller normalfördelning vid tillräckligt stora n). Vid beräkning av korrelationer i SPSS kan man ange om signifikansnivån (Prob-värdet) skall skrivas ut för ett ensidigt eller ett tvåsidigt test, samt om man önskar att signifikanta värden skall markeras med en asterisk Del, Sida 33

Correlations spädbarns dödlighet arblöshet BNP/ cap Mob(00 )/100 spädbarnsdödlighet Pearson Correlation 1,098 -,5** -,646** Sig. (-tailed),,84,000,000 N 19 11 178 191 arblöshet Pearson Correlation,098 1 -,36** -,98** Sig. (-tailed),84,,000,001 N 11 11 110 114 BNP/ cap Pearson Correlation -,5** -,36** 1,84** Sig. (-tailed),000,000,,000 N 178 110 178 170 Mob(00)/100 Pearson Correlation -,646** -,98**,84** 1 Sig. (-tailed),000,001,000, N 191 114 170 191 **. Correlation is signif icant at the 0.01 lev el (-tailed). I exemplet ovan är alla korrelationer förutom den mellan spädbarnsdödlighet och arbetslöshet signifikant olika 0. -- Del, Sida 34