TAMS38 - Föreläsning 4 Icke-parametriska metoder Kursansvarig/examinator: Martin Singull Föreläsningar: Jolanta Pielaszkiewicz Matematisk statistik - Matematiska institutionen Linköpings universitet Good order is the foundation of all great things. - Edmund Burke 16 november, 2015
Innehåll Icke-parametrisk metoder Wilcoxons teckenrangtest (ett stickprov/parvisa mätningar) Teckentest (ett stickprov/parvisa mätningar) Tukey-Duckworth s quick test (två ober stickprov) Wilcoxons rangsummetest (två ober stickprov) Mann-Whitneys (två ober stickprov) Kruskal-Wallis (enfaktorförsök)
Icke-parametriska metoder 3 Många av de metoder vi arbetat med i grundkurserna bygger på att vi antar att vi har data från normalfördelning, men detta antagande är inte alltid så välgrundat. De så kallade icke-parametriska metoderna gäller för mycket större klasser av fördelningar, tex. alla kontinuerliga fördelningar eller alla symmetriska, kontinuerliga fördelningar.
Wilcoxons teckenrangtest vid ett stickprov 4 Låt x 1,..., x m vara observationer från en kontinuerlig fördelning. Det innebär att de s.v. X i har en täthetsfunktion f(x) som anger masstätheten i punkten x. Vi vill pröva mot H 0 : Täthetsfunktionen är symmetrisk kring ett givet värde µ 0. H 1 : Täthetsfunktionen är inte symmetrisk kring µ 0. Andra mothypoteser kan förekomma. Om H 0 är sann, så är µ 0 = E(X i ) om det existerar, annars är µ 0 = medianen.
Procedur 5 (i) Bilda alla differenser x i µ 0 och stryk eventuella nollor. Då återstår y 1,..., y n, där y j = x j µ 0 0. (ii) Ordna y 1, y 2,..., y n i storleksordning från den minsta till den största och tilldela dem ranger 1, 2,..., n. (iii) Beräkna T + = rangsumman för de positiva y-observationerna T = rangsumman för de negativa y-observationerna
Procedur 6 Om H 0 är sann har både T + och T samma fördelning, the signed rank distribution for sample size n. Låt W S vara en sv. med denna fördelning. a) Sannolikheterna P (W S c) finns i tabell för n 15. b) Om n > 15 utnyttjar man för att bestämma kritiska gränser att W S är approximativt normalfördelad med E(W S ) = V ar(w S ) = n(n + 1), 4 n(n + 1)(2n + 1). 24
Procedur 7 Tvåsidigt test på nivån α, vilket svarar mot vår mothypotes: H 0 förkastas om T + c eller T c där α 2 = P (T + c) = P (T c) = P (W S c). Även ensidiga test förekommer i samband med andra mothypoteser än vår H 1.
Konfidensintervall - Wilcoxons teckenrangtest 8 Låt x 1,..., x n vara observationer av stokastiska variabler X 1,..., X n med en täthetsfunktion som är symmetrisk kring µ = E(X i ). Vi söker I µ, dvs. ett konfidensintervall för µ. Procedur: (i) Låt x (1) x (2)... x (n) vara observationerna sorterade i storleksordning. (ii) Bilda för varje fixt i alla medelvärden A k = x (i) + x (j) 2 där i j och k = 1,..., N. Totalt blir det n n(n+1) i=1 (n i + 1) = 2 = N sådana medelvärden, som vi betecknar A (1) A (2)... A (N), då de sorterats i storleksordning.
Procedur 9 Man kan visa att P (A (k) < µ < A (N k+1) ) = 1 2P (W S k 1). Intervallet I µ = (A (k), A (N k+1) ) har konfidensgrad 1 α, då k ges av villkoret α 2 = P (W S k 1), där W S är Wilcoxons signed rank statistic för stickprovsstorleken n och där N = n(n + 1)/2.
Exempel 10 Antag att vi har 5 observationer x 1 = 0.826, x 2 = 0.829, x 3 = 0.831, x 4 = 0.836, x 5 = 0.840 och vi vill pröva H 0 : µ (= E[X i ]) = 0.830 mot H 1 : µ 0.830. Vi har nu i 1 2 3 4 5 y i = x i 0.830-0.004-0.001 0.001 0.006 0.010 y i 0.004 0.001 0.001 0.006 0.010 rang 3 1.5 1.5 4 5
Exempel, forts. 11
Exempel, forts. 12 Beräkna A k = x (i) + x (j), k = 1,..., 15 2 x (i) /x (j) 0.826 0.829 0.831 0.836 0.840 0.826 0.826 0.8275 0.8285 0.831 0.833 0.829-0.829 0.830 0.8325 0.8345 0.831 - - 0.831 0.8335 0.8355 0.836 - - - 0.836 0.838 0.840 - - - - 0.840 och vi har k 1 2 3 4 5 6 7 8 A (k) 0.826 0.8275 0.8285 0.829 0.830 0.831 0.831 0.8325 k 9 10 11 12 13 14 15 A (k) 0.833 0.8335 0.8345 0.8355 0.836 0.838 0.840
Exempel, forts. 13 Vi har n = 5 och N = 5 6/2 = 15. Tabellen för teckenrangtestet ger att P (W s 0) = 0.031. För k 1 = 0, d.v.s. för k = 1 får vi ett intervall med konfidensgrad 1 2 0.031 = 0.938, nämligen I µ = (A (1), A (15) ) = (0.826, 0.840).
Exempel, forts. 14 Om vi i stället antar att x 1,..., x 5 är observationer från N(µ, σ) får vi ( I µ = x t s ) = (0.825, 0.839), n där t = 2.78 ges i t(4)-tabell och där I µ har konfidensgrad 0.95 om normalfördelningsantagandet är korrekt. I allmänhet får man kortare intervall då man utnyttjar normalfördelningsteorin eller teorin för någon annan klass av fördelningar.
Parvisa mätningar 15 Vi har n värdepar (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ). Här kan tex. x i och y i vara mätningar på samma objekt genomförda enligt två olika metoder eller mätningar på samma patient före och efter operation. Vi vill pröva mot H 0 : Inom varje par har X i och Y i samma kontinuerliga fördelning. H 1 : Fördelningen för X i är förskjuten i förhållande till fördelningen för Y i åt samma håll för alla i.
Procedur 16 Steg 1: Bilda alla differenser z i = x i y i. Stryk alla nollor. Då återstår ev. efter omnumrering värdena z 1,..., z n som alla är skilda från noll. Steg 2a: Teckentest. Om H 0 är sann, dvs. om X i och Y i har samma kontinuerliga fördelning, så är P (X i > Y i ) = P (Y i > X i ) = 1 2, eftersom P (X i = Y i ) = 0 vid kontinuerlig fördelning.
Procedur 17 Teststorhet: ν + = antalet positiva z-värden. Tvåsidigt test: H 0 förkastas om ν + a eller ν + b, där α 2 P (ν + a om H 0 är sann ) α 2 P (ν + b om H 0 är sann ) Den sv. ν + Bin ( n, 1 2) om H0 är sann. För små värden på n använder vi tabell för att bestämma a och b och för stora värden på n utnyttjar vi normalapproximation av binomialfördelningen. Även ensidiga test förekommer beroende på hur mothypotesen ser ut.
Procedur 18 Steg 2b: Wilcoxons teckenrangtest. Om H 0 är sann, så är fördelningen för Z i symmetrisk kring 0. Med hjälp av teckenrangtestet (se sid 4-7) prövar vi om E(Z i ) = 0 förutsatt att E(Z i ) existerar.
Exempel - Sömnmedel 19 Results of placebo-controlled clinical trial to test the effectiveness of a sleeping drug, with ranks for use in the Wilcoxon signed rank test. Hours of sleep Rank Patient Drug (x i ) Placebo (y i ) Difference (z i ) (ignoring sign) 1 6.1 5.2 0.9 3.5 2 7.0 7.9-0.9 3.5 3 8.2 3.9 4.3 10 4 7.6 4.7 2.9 7 5 6.5 5.3 1.2 5 6 8.4 5.4 3.0 8 7 6.9 4.2 2.7 6 8 6.7 6.1 0.6 2 9 7.4 3.8 3.6 9 10 5.8 6.3-0.5 1
Exempel - Sömnmedel, forts. 20 Vi prövar på nivån 0.05 hypotesen mot H 0 : Inom varje par har X i och Y i samma fördelning, dvs. läkemedel och placebo är lika bra. H 1 : Systematisk förskjutning av sovtiden vid behandling.
Exempel - Sömnmedel, forts. 21 Steg 2a: Teststorheten ν = 2. Den sv. ν Bin(10, 0.5) om H 0 är sann. H 0 förkastas på nivån 0.05 om ν a eller ν b, där 0.025 P (ν a om H 0 är sann ) 0.025 P (ν b om H 0 är sann ) Tabell ger a = 1 och b = 9 med α = 0.0216. Eftersom 1 < 2 < 9 kan inte H 0 förkastas. Här kunde vi eventuellt ha formulerat H 1 annorlunda och gjort ett ensidigt test.
Exempel - Sömnmedel, forts. 22 Steg 2b: Wilcoxons teckenrangtest: Teststorheten T = 4.5. H 0 förkastas om T c eller T + c, där 0.025 P (T c om H 0 är sann ) 0.025 P (T + c om H 0 är sann ) Tabellen för Wilcoxons teckenrangtest ger c = 8. Eftersom T = 4.5 < 8 kan H 0 förkastas. Att T är liten tyder på att behandlingen övervägande har positiva effekter.
Två oberoende stickprov 23 Vi antar nu att x 1,..., x n1 och y 1,..., y n2 är två mätserier som är helt frikopplade från varandra, dvs. två oberoende mätserier. Vi antar också att de sv. X 1,..., X n1 är oberoende kontinuerliga sv. med täthetsfunktion f och att Y 1,..., Y n2 är oberoende kontinuerliga sv. med täthetsfunktion g. Vi vill pröva H 0 : f = g Man kan använda Tukey-Duckworth s quick test, eller Wilcoxons rangsummetest
Exempel 24 Observationerna från två stickprov har markerats på en tallinje. De ligger väl blandade och man kan mycket väl tänka sig att de har en gemensam täthetsfunktion.
Exempel 25 Även här har vi två stickprov, men det förefaller inte längre rimligt att de kommer från samma fördelning. Täthetsfunktionerna är troligen förskjutna i förhållande till varandra, tex. så som figuren visar.
Tukey-Duckworth s quick test 26 Tukey-Duckworth s quick test Om 4 n 1 n 2 30, och n 2 4n 1 3 + 3 så kan vi pröva H 0 genom 1. Bestäm den minsta resp. största observationen i varje stickprov. 2. För stickprovet som innehåller det största värdet i det sammanlagda stickprovet, räkna antalet observationer som är större än den största observationen i det andra stickprovet. 3. För det andra stickprovet, räkna alla observationer som är mindre än det minsta i det första stickprovet. 4. Låt C vara summan av observationerna i 2. och 3. För α = 0.05, 0.01 eller 0.001, förkasta H 0 om C 7, 10, eller 13.
Wilcoxons test 27 Wilcoxons test utnyttjar just iden med att markera samtliga observationer på en tallinje och se efter om det finns systematisk skillnad mellan stickproven. Man ordnar samtliga observationer i storleksordning från den minsta till den största. Dessa ordnade observationer tilldelas sedan rangerna 1, 2,..., n 1 + n 2, dvs. de numreras från 1 till n 1 + n 2. Som teststorhet använder man rangsumman T för x 1,..., x n1.
Wilcoxons test 28 Om H 0 är sann dvs om f = g, så ligger observationerna i allmänhet ganska väl blandade, vilket betyder att T får ett värde relativt nära n 1 (n 1 + n 2 + 1)/2, där (n 1 + n 2 + 1)/2 är genomsnittsrangen då man har n 1 + n 2 observationer. Ett extremt lågt eller ett extremt högt värde på T tyder på att fördelningarna är förskjutna i förhållande till varandra, jfr. Exempel 2 ovan. Extrema värden på T kan naturligtvis uppstå av en ren slump trots att H 0 är sann. Om man känner fördelningen för stickproven så när som på någon eller några parametrar, så har det bästa parametriska testet i allmänhet bättre styrka än Wilcoxons test.
Wilcoxons test 29 De kritiska gränserna T l och T r bestäms av villkoren P (T T l ) α om H 0 är sann, P (T T r ) α om H 0 är sann. Tabeller över T l och T r för små värden på n 1 och n 2 finns i formelsamlingen. Både ensidiga och tvåsidiga test förekommer, se nedan.
Wilcoxons test 30 Om vi har mothypotesen f g så skall testet vara tvåsidigt och H 0 förkastas både om T T l och om T T r. Signifikansnivån är då högst 2α. Om mothypotesen i stället är att täthetsfunktionen för x-observationerna ligger till vänster om täthetsfunktionen för y-observationerna (jfr. Exempel på sid 25 ovan), dvs. att x-värdena i allmänhet är mindre än y-värdena, så blir det ensidiga testet att H 0 förkastas om T T l (tvärtom ger att H 0 förkastas om T T r ). De ensidiga testen har vart och ett signifikansnivån högst α.
Wilcoxons test 31 För stora värden på n 1 och n 2 utnyttjar man att om H 0 är sann, så är T approximativt normalfördelad. Man beräknar teststorheten U = T n 1(n 1 + n 2 + 1)/2 approx N(0, 1) n1 n 2 (n 1 + n 2 + 1)/12 Ensidigt test: H 0 förkastas om U > c respektive U < c. Den kritiska gränsen c ges av Φ(c) = 1 α. Tvåsidigt test: H 0 förkastas om U > c. Här ges c av villkoret Φ(c ) = 1 α/2. Vart och ett av de tre testen har signifikansnivån α.
Exempel 32 Stickprov 1 : 0.57 0.74 1.66 2.13 11.6 Stickprov 2 : 1.33 1.09 0.89 0.66 0.53 0.48 0.08 0.07 0.28 0.37 0.49 1.23 1.47 Vi vill på nivån högst 0.05 pröva hypotesen H 0 : stickproven kommer från samma fördelning, mot H 1 : fördelningen bakom stickprov 1 ger i allmänhet större värden än den bakom stickprov 2. Det sammanslagna stickprovet sorterat i storleksordning blir 1.33 1.09 0.89 0.66 0.53 0.48 0.08 0.07 0.28 0.37 0.49 0.57 0.74 1.23 1.47 1.66 2.13 11.6 Observation från stickprov 1.
Exempel, forts. 33 Vi ser att stickprov nr 1 får rangerna 12, 13, 16, 17, 18. Låt T beteckna rangsumman för stickprov 1. Vi har alltså T = 76. Av H 1 framgår att H 0 bör förkastas till förmån för H 1 för extremt stora värden på T. Tabellen i formelsamlingen ger den kritiska gränsen T r = 65. Eftersom 76 > 65, kan H 0 förkastas på nivån 0.05 och vi drar slutsatsen att H 1 gäller.
Wilcoxons test 34 En förutsättning för Wilcoxons test är att stickproven kommer från kontinuerliga fördelningar. Teoretiskt kan det alltså inte förekomma, att två eller flera observationer är lika stora, men i praktiken inträffar det ganska ofta bla. på grund av avrundningseffekter. Dessa observationer kallas för ties. Man brukar då ge lika stora observationer samma rang. Exempel Betrakta en bit av ett sammanslaget stickprov, där observationerna är ordnade i storleksordning Obs :... 39 42 45 45 45 50 53... Rang :... 10 11 r r r 15 16... Här tar man r = (12 + 13 + 14)/3 dvs. aritmetiska medelvärdet av de ranger, som står i tur att användas.
Exempel - Blodkroppar 35 Följande data visar antalet röda blodkroppar (enhet: miljoner per kubikmillimeter) för åtta män och tio kvinnor M (x i ) : 5.02 4.58 5.57 4.52 4.84 5.36 4.27 5.15 K (y j ) : 4.15 3.89 4.56 4.40 4.38 4.20 4.31 4.73 4.26 3.89 Vi vill på nivån 5% pröva mot H 0 : Antalet röda blodkroppar har samma fördelning för kvinnor och män H 1 : Det finns systematisk skillnad mellan fördelningarna för kvinnor och män.
Exempel, forts. - Blodkroppar 36 Vi ska använda Wilcoxons rangsummetest. Vi börjar med att ordna mätvärdena i storleksordning inom varje grupp. M : 4.27 4.52 4.58 4.84 5.02 5.15 5.36 5.57 K : 3.89 3.89 4.15 4.20 4.26 4.31 4.38 4.40 4.56 4.73 Rangsumman för män, dvs. för de n 1 = 8 observationerna: T =
Exempel, forts. - Blodkroppar 37 Vi har n 1 = 8 och n 2 = 10 och ska göra tvåsidigt test på nivån 5%. Då ska vi använda tabellen med 2α = 0.05. Tabellen ger att H 0 ska förkastas om T 53 eller T 99. Slutsats:
Mann-Whitneys test 38 Detta test är ekvivalent med Wilcoxons rangsummetest, men teststorheten har modifierats. Mann-Whitneys test utnyttjar i stället en teststorhet U n1 som beräknas med hjälp av differenserna d ij = x i y j, där i = 1,..., n 1 och j = 1,..., n 2. Man har U n1 = [ antalet d ij sådana att d ij > 0 ] + + [ antalet d ij sådana att d ij = 0 ] 1 2 Teoretiskt finns det inga d ij sådana att d ij = 0. Definitionen stämmer med vårt sätt att hantera ties dvs. två eller flera lika observationer.
Mann-Whitneys test 39 Vi ska nu studera sambandet mellan T och U n1. Låt x (1) x (2)... x (n1 ) y (1) y (2)... y (n2 ) vara observationerna sorterade i storleksordning. En stunds eftertanke ger för fallet att ties saknas att T = [ antalet y-observationer som är < x (n1 ) ] + n 1 + [ antalet y-observationer som är < x (n1 1) ] + n 1 1 +... + [ antalet y-observationer som är < x (1) ] + 1
Mann-Whitneys test 40 Alltså är T = U n1 + n 1 + (n 1 1) +... + 1 = U n1 + n 1 n1 + 1. 2 Tvåsidigt test: H 0 förkastas på nivån 2α om T T l eller T T r vilket svarar mot att U n1 T l n 1(n 1 + 1) 2 eller U n1 T r n 1(n 1 + 1), 2 där T l och T r hämtas ur formelsamlingens Wilcoxon-tabell.
41 Vi antar nu att de båda fördelningsfunktionerna F och G kan skrivas F (x) = H(x θ 1 ) och G(x) = H(x θ 2 ). Här kallas θ 1 och θ 2 lägesparametrar och θ 1 θ 2 beskriver hur mycket sannolikhetsmassan för x-observationerna är förskjuten i förhållande till sannolikhetsmassan för y-observationerna. Vidare innebär H 0 : F = G att θ 1 = θ 2. En vanlig situation är att X i = θ 1 + ε i och Y j = θ 2 + ε j där ε i och ε j är oberoende och likafördelade men inte nödvändigtvis normalfördelade.
42 (i) Om väntevärdena E(ε i ) = E(ε j ) existerar så är E(X i ) E(Y j ) = θ 1 + E(ε i ) (θ 2 + E(ε j)) = θ 1 θ 2 (ii) Om väntevärdena E(X i ) och E(Y j ) inte existerar är θ 1 θ 2 = m 1 m 2 där m 1 och m 2 betecknar medianerna. (En median m ges av villkoret F ( m) = 1 2 där F är fördelningsfunktionen. Medianen delar alltså arean under täthetsfunktionen mitt itu.)
Konfidensintervall för θ 1 θ 2 43 Skillnaden mellan lägesparametrarna för två oberoende mätserier x 1,..., x n1 och y 1,..., y n2, kan man hitta genom att utnyttja differenserna d ij = x i y j. Intervallen hör ihop med Wilcoxon-Mann-Whitneys test. 1. Låt d (1) d (2)... d (n1 n 2 ) vara de n 1 n 2 differenserna d ij ordnade i storleksordning. 2. Låt c = T l n 1(n 1 + 1) vara den undre kritiska gränsen 2 för Mann-Whitneys teststorhet U n1 vid tvåsidigt test på nivån 2α. (T l från formelsamlingens Wilcoxontabell.) 3. Intervallet I θ1 θ 2 = ( ) d (c+1), d (n1 n 2 c) är ett konfidensintervall för θ 1 θ 2 med konfidensgrad minst 1 2α.
Konfidensintervall för θ 1 θ 2 44 Att konfidensgraden är minst 1 2α innebär att P ( D (c+1) θ 1 θ 2 D (n1 n 2 c)) 1 2α. För en härledning, se Lehmann, E. L. (1975). Nonparametrics - Statistical Methods Based on Ranks. Om man väljer c så att intervallet i stället får konfidensgraden 1 2α, kan intervallet bli lite annorlunda.
Punktskattning 45 Vi punktskattar θ 1 θ 2 med ˆθ 1 ˆθ 2 = medianen för d (1),..., d (n1 n 2 ), dvs. d (k+1) om n 1 n 2 = 2k + 1 ˆθ 1 ˆθ 2 = d (k) + d (k+1) 2 om n 1 n 2 = 2k
Exempel - Augmenters and reducers (Lehmann, 1975) 46 Petrie has developed an interesting classification of persons into augmenters (who perceive an exaggerated impression of sensory stimuli), reducers (whose perception tends to diminish such stimuli), and and intermediate category of moderates. As a check on his classification, Petrie tested the reactions of a number of subjects, once with audio analgesia (an acoustic treatment which tends to increase the tolerence to pain) and once without. According to his theory, the reduction in response due to analgesia should be more marked for the augmenters than for reducers. Augmenters: 17.9 13.3 10.6 7.6 5.7 5.6 5.4 3.3 3.1 0.9 Reducers: 7.7 5.0 1.7 0.0-3.0-3.1-10.5
Exempel, forts. 47 Här har vi n 1 = 10 och n 2 = 7 samt U n1 = antalet par (x i, y j ) där x i > y j. Hypotesen H 0 : F = G = θ 1 θ 2 = 0 förkastas på nivån 2α = 0.10 om U n1 72 10 11/2 = 17 = c eller om U n1 108 10 11/2 = 53.
Exempel, forts. 48 MTB > WDifferences Aug Red c3. MTB > sort diff sortdiff MTB > print sortdiff Data Display sortdiff -6.8-4.6-4.4-4.1-2.3-2.1-2.0-1.9-1.7-0.8-0.1 0.4 0.6 0.7 0.9 1.4 1.6 2.6 2.9 3.1 3.3 3.7 3.9 3.9 4.0 4.0 5.4 5.6 5.6 5.6 5.7 5.9 6.1 6.2 6.3 6.4 7.6 8.3 8.4 8.5 8.6 8.7 8.7 8.8 8.9 10.2 10.6 10.6 10.7 11.4 11.6 12.9 13.3 13.6 13.6 13.7 13.8 15.9 16.1 16.2 16.2 16.3 16.4 17.9 18.1 20.9 21.0 21.1 23.8 28.4 Vi får intervallet I θ1 θ 2 = ( d (c+1), d (70 c) ) = ( d(18), d (53) ) = ( 2.6, 13.3) med konfidensgrad minst 0.90. Jämför Minitabutskrift. Vidare så har vi punktskattningen ˆθ 1 ˆθ 2 = [ medianen för d (i) ] = 6.35.
Exempel, forts. 49 Vi kan göra samma intervall mha Minitab. MTB > Mann-Whitney 90.0 Aug Red ; SUBC> Alternative 0. Mann-Whitney Test and CI: Aug, Red N Median Aug 10 5.65 Red 7 0.00 Point estimate for ETA1-ETA2 is 6.35 91.2 Percent CI for ETA1-ETA2 is (2.60,13.30) W = 114.0 Test of ETA1 = ETA2 vs ETA1 not = ETA2 is significant at 0.0218
Exempel, forts. 50 Om vi antar Normalfördelning får vi följande. MTB > TwoSample Aug Red ; SUBC> Pooled; SUBC> Confidence 90. Two-Sample T-Test and CI: Aug, Red Two-sample T for Arg vs Red N Mean StDev SE Mean Aug 10 7.34 5.20 1.6 Red 7-0.31 5.99 2.3 Difference = mu (Aug) - mu (Red) Estimate for difference: 7.65 90% CI for difference: (2.88, 12.43) T-Test of difference = 0 (vs not =): T-Value = 2.81 P-Value = 0.013 DF = 15 Both use Pooled StDev = 5.5277
Exempel - Pooling and subdiets (Lehmann, 1975) 51 In a comparative study of certain diet groups, it is desired to test whether it is necessary to distinguish between the diets within the same group. The following table gives the growth of 25 rats after 12 weeks on four subdiets of diet A together with their ranks. Diet Growth Figures Ranks A 1 257, 250, 206, 164, 190, 214, 228, 203 22,21,10,1,4,13,17,8 A 2 201, 231, 197, 185 6,19,5,2 A 3 248, 265, 187, 220, 212, 215, 281 20,23,3,15,12,14,25 A 4 202, 276, 207, 204, 230, 227 7,24,11,9,18,16
Exempel - Pooling and subdiets, forts. 52 One-way ANOVA: Y versus A Source DF SS MS F P A 3 2596 865 0,99 0,415 Error 21 18272 870 Total 24 20868 S = 29,50
Kruskal-Wallis test vid enfaktorförsök 53 Vi vill jämföra a behandlingar och har för behandling nr i genomfört n i mätningar. Data består alltså av a stickprov Behandling 1. Behandling a Observationer y 11, y 12,..., y 1n1. y a1, y a2,..., y ana och vi vill pröva hypotesen H 0 : De a stickproven kommer från samma kontinuerliga fördelning, dvs. behandlingarna är lika bra. mot H 1 : Det finns skillnader mellan fördelningarna.
Kruskal-Wallis test, forts. 54 Procedur: 1. Slå samman alla stickproven till ett stort stickprov med N = n 1 + n 2 +... + n a observationer. Ordna dem i storleksordning och tilldela dem ranger 1, 2,..., N. Låt r ij = rangen för y ij, n i s i = r ij = rangsumman för stickprov nr i, S a = j=1 a i=1 s 2 i n i. 2. Beräkna teststorheten T = 12S a 3(N + 1) N(N + 1)
Kruskal-Wallis test, forts. 55 eller T ties = (N 1)(S a C), S r C där S r = i,j r2 ij och C = 1 4 N(N + 1)2, om det förekommer ties ska teststorheten justeras, se Anm. nedan. 3. Avvikelse från nollhypotesen visar sig genom stora värden på teststorheten. Alltså förkastas H 0 om T c. (i) För små värden på n 1,..., n a hämtas c ur tabell där α = P (T c om H 0 sann) = P (K c). Här är K tabellens beteckning. (ii) För stora värden på n 1,..., n a utnyttjar man att T är appr χ 2 (a 1) om H 0 är sann, så c hämtas ur χ 2 (a 1)-tabell.
Kruskal-Wallis test, forts. 56 Anm. Om det förekommer ties dvs. två eller flera observationer som är lika stora så delar man ut ranger genom att de observationer som är lika får aktuell genomsnittsrang. Teststorheten T ska då korrigeras. Om H 0 är sann har varje fördelning av ranger mellan de a stickproven samma sannolikhet, se t.ex. Lehmann, E. L. (1975). Nonparametrics - Statistical Methods Based on Ranks. Detta kan man utnyttja för att göra tabeller över P (T c om H 0 är sann) = P (K c) för små värden på n 1,..., n a.
Kruskal-Wallis test, forts. 57 Förklaringar: Teststorheten kan skrivas T = 12 N(N + 1) a i=1 ( si n i N + 1 ) 2. n i 2 Detta innebär att man jämför genomsnittsrangen s i n i stickprov nr i med genomsnittsrangen N+1 2 för det sammanslagna stickprovet, jämför för SS T REAT = a n i (ȳ i ȳ ) 2. i=1 Om alla stickproven kommer från samma fördelning kommer alla s i n i att ligga nära N+1 2. Avvikelse från nollhypotesen leder stora värden på T.
Exempel - Pooling and subdiets, forts. 58 Här är s 1 = 8 j=1 r 1j = 1 + 4 + + 18 + 22 = 96 och s 2 = 32, s 3 = 112, s 4 = 85 S a = S 4 = 962 8 + 322 4 + 1122 + 852 7 6 = 4404.2 T = 12S 4 3 26 = 3.31 25 26 Den sv. T är appr χ 2 (3) om H 0 är sann. H 0 förkastas om T c. Tabell ger c = 7.82. 3.31 < 7.82. Ingen påvisbar skillnad mellan dieterna. Här är signifikansnivån ganska approximativ eftersom stickprovsstorlekarna n i inte är så stora.
Exempel - Pooling and subdiets, forts. 59 MTB > stack c1-c4 c5; SUBC> subscripts c6. MTB > Kruskal-Wallis Y A. Kruskal-Wallis Test: Y versus A Kruskal-Wallis Test on Y A N Median Ave Rank Z A1 8 210,0 12,0-0,47 A2 4 199,0 8,0-1,48 A3 7 220,0 16,0 1,27 A4 6 217,0 14,2 0,45 Overall 25 13,0 H = 3,31 DF = 3 P = 0,347 * NOTE * One or more small samples
Parvisa jämförelser vid enfaktorförsök 60 Om man vill göra parvisa jämförelser mellan lägesparametrarna för de olika stickproven, kan man använda Wilcoxon-Mann- Whitneys test (rangsummetestet) och den metod för konstruktion av konfidensintervall som hör ihop med testet. Mann-Whitney Test and CI: A1; A2 N Median A1 8 210,00 A2 4 199,00 Point estimate for ETA1-ETA2 is 11,00 96,6 Percent CI for ETA1-ETA2 is (-32,98;55,99) W = 57,0 Test of ETA1 = ETA2 vs ETA1 not = ETA2 is significant at 0,4447