Teknisk-naturvetenskapliga fakulteten Examensarbete i Matematisk Statistik D-nivå, 2 poäng Analysmetoder för longitudinella ordinaldata med tillämpningar på multipel skleros-data Lina Lundberg Institutionen för matematik och matematisk statistik Umeå universitet 9 87 UMEÅ
Analysmetoder för longitudinella ordinaldata med tillämpningar på multipel skleros-data Lina Lundberg Examensarbete i Matematisk statistik D-nivå, 2 poäng Juni 25
Lina Lundberg: Analysmetoder för longitudinella ordinaldata med tillämpningar på multipel skleros-data Institutionen för matematik och matematisk statistik, Umeå Universitet, 9 87 Umeå Lina Lundberg, 25 Detta arbete har skrivits för avläggande av filosofie magisterexamen i ämnet Matematisk Statistik. Arbetet har gjorts på D-nivå och omfattar 2 poäng. Handledare: Peter Anton, Leif Nilsson Examinator: Lennart Nilsson Lina Lundberg: Methods for analyzing longitudinal ordinal data with applications on multiple sclerosis data. Department of Mathematics and Mathematical Statistics, Umeå University, 9 87 Umeå Lina Lundberg, 25 This is a thesis for the degree of Master of Science in Mathematical Statistics. Supervisor: Peter Anton, Leif Nilsson Examiner: Lennart Nilsson
Abstract In this thesis we present some methods for analyzing longitudinal ordinal data. The focus is on ordinal random-effects regression models (RRM) and we will discuss the pros and cons with RRM when applying it on Multiple Sclerosis data. The analysis is made with the program MIXOR. Our main conclusion is that these methods are not preferable when analyzing this type of data, mainly because we have several response categories and several repeated observations.
Tack Först och främst vill jag tacka mina handledare, Peter Anton och Leif Nilsson, för all ovärderlig hjälp jag har fått under arbetets gång. Ni har kompletterat varandra bra. Jag vill även tacka Anna Persson och Stig Johan Wiklund på AstraZeneca för deras förslag på examensarbete och för att de har besvarat många av mina frågor. Dessutom vill jag ge Donald Hedeker ett stort tack för hans hjälp med programmet MIXOR.
Innehåll Inledning... 3 2 Analysmetoder... 5 2. Threshold of Change Model...6 2.2 Random-effects Regression Models (RRM)...8 2.2. Skattningar... 3. Analys... 5 3. Datamaterialet...5 3.2 Enkel analys...5 3.3 Analys med RRM...9 4 Diskussion... 27 Referenser... 29 A Mixor... 3 B Data- och definitionsfilen... 33 C Utskrifter... 35
Inledning Vid utveckling av nya läkemedel testar man i ett relativt tidigt skede ett flertal olika substanser på djur. Förhoppningen är att man utifrån någon av dessa substanser ska kunna tillverka ett nytt läkemedel. När man testar olika substanser på djur vill man kunna se om man får en önskad effekt. Om man inte får det bör processen avbrytas, ty processen innan ett nytt läkemedel är färdigt för marknaden är väldigt lång och kostsam. Att en substans har önskad effekt på djur behöver dock inte innebära att man får samma effekt av det slutgiltiga läkemedlet på människor. Multipel skleros (MS) är en kronisk neurologisk sjukdom som drabbar nervceller i centrala nervsystemet, dvs. hjärnan och ryggmärgen. Hur sjukdomsförloppet ser ut är väldigt individuellt. Det som sker för en person med MS är att myelinet, fettämnet som isolerar nervtrådarna, inflammeras eller helt enkelt bryts ner. Efter ett tag kan inflammationen lägga sig och myelinet återuppbyggs, antingen helt eller delvis. Personer med MS har således perioder då de är friska och perioder då de är mer eller mindre sjuka. De perioder då en individ är sjuk brukar benämnas skov. För mer information om sjukdomen se Infomedica AB (24-8-3). För att hitta mediciner mot MS gör man först djurförsök i syfte att hitta substanser som sedan kan utvecklas till nya läkemedel. För att kunna undersöka effekten av en substans låter man försöksdjuren (möss, råttor) få en sjukdom som påminner om MS. Anledningen till att försöksdjuren inte får MS, utan en sjukdom som påminner om MS, är att MS troligtvis inte existerar hos djur. Nästa steg är att testa de substanser man tror kan ha en positiv effekt på sjukdomen. Vanligtvis testar man flera olika substanser samtidigt mot en referensgrupp. Ett problem är att kunna avgöra vilken effekt substansen/substanserna har. Efter att man har gett substansen till ett antal försöksdjur kontrollerar man hur sjuka djuren är. Varje dag undersöks djuren och kategoriseras beroende på grad av sjukdom. Det finns tio olika kategorier, från noll till nio. Om ett djur hamnar i kategori noll innebär detta att djuret är friskt, medan kategori nio innebär att djuret har dött. Det datamaterial som skall analyseras består alltså av ordnat kategoriskt data, dvs. ordinaldata. Dessutom har man upprepade mätningar på varje individ, s.k. longitudinellt data. Syftet med detta arbete är att titta på metoder för att analysera denna typ av datamaterial och förhoppningsvis hitta en lämplig metod. 3
Hur ska man avgöra om en substans har effekt? I och med att man undersöker flera substanser samtidigt och dessutom har en referensgrupp kan det vara relevant att jämföra olika behandlingsgrupper. Dessutom kan det vara intressant att se hur sannolikheten att vara i ett tillstånd förändras över tiden. Kapitel 2 innehåller beskrivningar av några metoder för att analysera ordinala data. Fokus ligger på Random-effects Regression Models, vilka även används för analysen i kapitel 3.3. I kapitel 3.2 görs en enkel analys av datamaterialet. En enkel analys innebär dels beskrivande statistik och dels grundläggande test där man inte tar hänsyn till datamaterialets komplexa natur. Analyserna i kapitel 3 utförs med hjälp av MIXOR, Matlab och MINITAB. Huruvida den metod som används är lämplig kommer att diskuteras i kapitel 4, dvs. det blir huvudsakligen en diskussion kring modellens för- och nackdelar. 4
2 Analysmetoder Vid analys av ordinala data modelleras vanligtvis sannolikheten att tillhöra en kategori, eller närmare bestämt den kumulativa sannolikheten att tillhöra kategori k eller lägre, där k =,, K. Anledningen till att studera den kumulativa sannolikheten är att man då får två utfall och därigenom endast en sannolikhet att modellera, för varje k. Antingen hamnar individen i kategori k eller någon lägre kategori, eller så gör den inte det. Eftersom sannolikheter ligger mellan och kan de vara svåra att modellera linjärt med hjälp av förklarande variabler. Detta leder till att man istället modellerar sannolikheten med en fördelningsfunktion, en s.k. länkfunktion. Johnsson och Albert (999) tar upp några olika länkfunktioner, bland annat den logistiska (logit) samt den normalfördelade (probit). Av de metoder som har introducerats under de senaste 3 åren är logitmodeller för ordinala data de mest populära inom den medicinska världen, enligt Agresti (999). När man arbetar med logitmodeller för ordinaldata förutsätts ofta de förklarande variablerna ha samma effekt för varje kumulativ logit, dvs. man gör ett proportionalitetsantagande. En sådan modell kallas proportional odds model (POM) och beskrivs bland annat i Agresti (22) och Xie et al. (2). Agresti beskriver logistisk regression med kumulativa logitmodeller medan Xie et al. beskriver hur logistisk regression kan uttryckas med Threshold of Change Model (TCM). I TCM antar man att det finns en latent kontinuerlig variabel Z som ej är observerbar och som man egentligen är intresserad att uttala sig om. Denna latenta variabel delas in i K kategorier med hjälp av K - s.k. tröskelvärden ( thresholds ). En tänkbar observation på Z som ligger mellan tröskelvärde k - och tröskelvärde k motsvarar kategori k för den ordinala variabeln Y. Man kan endast observera antalet observationer mellan tröskelvärde k - och tröskelvärde k. Eftersom ett proportionalitetsantagande inte alltid är lämpligt har det utvecklats modeller som inte kräver detta antagande. Petersen och Harrell (99), Hedeker och Mermelstein (2) samt Xie et al. (2) tar alla upp modeller som inte kräver att effekten av de förklarande variablerna är lika för varje kumulativ logit. De senaste 5 åren har fokus legat på att vidareutveckla modeller för ordinaldata så att de även ska kunna hantera upprepade mätningar. När man har upprepade mätningar finns det ett beroende mellan observationerna. Hedeker och Mermelstein (998, 2) beskriver modeller för att analysera longitudinella ordinala data. De modeller de beskriver tillåter att det både finns fixa och slumpmässiga effekter, s.k. Random-effects Regression Models 5
(RRM). Detta innebär att individens påverkan på responsvariabeln kan tas med i modellen, dvs. modellen innehåller en slumpmässig individeffekt. Albert (994) beskriver en annan metod för att analysera ordinaldata. I artikeln används en markovmodell för att analysera samma typ av datamaterial som avses analyseras i denna uppsats. För en markovmodell behöver man skatta övergångssannolikheterna och utifrån dessa skulle man sedan kunna bestämma flera intressanta parametrar. Några intressanta parametrar är t.ex. sannolikheten att vara i ett skov, tid till första gången i ett visst tillstånd och förväntat tid i tillstånd j. Det speciella med denna markovmodell är att man har utvidgat tillståndsrummet så att det även innehåller en indikatorfunktion som talar om ifall processen är relapsing eller remitting, dvs. i fall man är på väg att bli sjukare eller friskare. Ett problem med denna metod är att det inte verkar finnas ett bra sätt att jämföra olika grupper, vilket vi vill kunna göra. Vi har valt att inte arbeta med denna modell, men den kan vara intressant för vidare studier. 2. Threshold of Change Model Antag att det finns en ordinal responsvariabel Y med K stycken ordnade kategorier. Låt Z vara en tänkbar bakomliggande (latent) kontinuerlig variabel. Denna variabel är inte observerbar utan den ordinala responsvariabeln Y observeras. Datamaterialet som beskrivs i inledningen har tio kategorier, där kategori innebär att individen är frisk medan kategori 9 innebär att individen är död. Här kan man tänka sig att det finns en latent kontinuerlig variabel som mäter sjukdomsgraden. Kopplingen mellan den latenta och den ordinala variabeln görs genom tröskelvärden. Dessa tröskelvärden betecknas γ och delar in den latenta variabeln i kategorier. Exempel. Antag att variabeln Y har fem olika kategorier. Då kommer det att finnas fyra tröskelvärden, γ, γ 2, γ 3 och γ 4, som delar in den kontinuerliga variabeln i fem olika kategorier. Med detta menas att om slumpvariabeln Z skulle kunna observeras, skulle exempelvis en observation som ligger mellan γ och γ 2 placeras i kategori 2. En grafisk beskrivning av detta finns i figur. 6
γ γ 2 γ 3 γ 4 Figur. En illustration av exempel där man ser hur den latenta kontinuerliga variabeln delas in i fem olika kategorier. Vanligtvis används POM vid analys av ordinaldata, dvs. effekterna av de förklarande variablerna förutsätts vara lika för alla kategorier. Detta är dock inte alltid ett lämpligt antagande. Modeller där man förutsätter proportionalitet har därför utvecklats för att även kunna hantera situationer då effekterna av de förklarande variablerna är olika för olika kategorier. Logistisk regression för ordinaldata kan göras antingen med en kumulativ logitmodell eller med en Threshold of Change Model (TCM). Antag att vektorn x innehåller de förklarande variabler som har samma effekt på alla tröskelvärden, medan vektorn u innehåller de förklarande variabler som tillåts ha olika effekt på olika tröskelvärden. TCM kan då skrivas som γ k = a k + bx + bk u, där k =,, K - och a k är tröskelvärdet då man inte tar hänsyn till några förklarande variabler. Parametervektorerna b och b k beskriver de förklarande variablernas effekt på tröskelvärdet. Om b k =, för alla k, motsvarar detta en POM. För POM gäller att om b = finns ingen effekt av de förklarande variablerna. Om däremot bx < blir tröskelvärdet mindre, vilket innebär att sannolikheten att gå från en låg kategori till en högre kategori ökar. På motsvarande sätt, om bx > ökar tröskelvärdet. Med TCM undersöker man alltså hur de förklarande variablerna påverkar tröskelvärdena. En nackdel med TCM är att resultaten kan bli orimliga om någon av de förklarande variablerna är kontinuerlig och om man låter denna 7
variabel ha en heterogen effekt på olika tröskelvärden. Detta problem kommer att beskrivas mer ingående i nästa delkapitel. TCM, som den är beskriven här kan inte heller hantera longitudinella data vilket medför att vi måste gå vidare till den mer generella modellen Multilevel TCM", som är en variant av s.k. Random-effects Regression Models. 2.2 Random-effects Regression Models (RRM) Antag att man observerar N individer med n i upprepade mätningar på individ i, i =,, N. Responsvariabeln Y är precis som tidigare en ordinal variabel med K kategorier. En första tanke kan vara att modellera den latenta variabeln Z med vanlig linjär regression. Detta är inte lämpligt ty linjär regression förutsätter att modellfelen är oberoende. Eftersom man har gjort upprepade mätningar på alla individer finns det antagligen ett beroende över tiden. För att hantera detta beroende införs en slumpmässig individeffekt i modellen. Givet denna slumpmässiga effekt är modellfelen betingat oberoende, se Hedeker och Mermelstein (996:24). Modellerna är inte bundna till att bara innehålla en slumpmässig effekt utan kan innehålla flera. RRM är en stor klass av modeller som tillåter att man har flera nivåer av data; longitudinella eller upprepade observationer inom ett kluster. För longitudinella data, med två nivåer, innebär detta att man ser upprepade mätningar som nivå, medan individer ses som nivå 2. På nivå 2 finns det N observationer och på nivå finns det n + n 2 + + n N observationer. Modeller med slumpmässiga effekter finns både för kontinuerliga och kategoriska data. Här beskrivs dock bara RRM för ordinaldata. De modeller som ansätts för ordinaldata innehåller ofta endast en slumpmässig effekt. Detta på grund av att dessa modeller är väldigt beräkningsintensiva, om man jämför med modeller för kontinuerliga data. Det finns tre skäl till att RRM är bra att använda på longitudinella data. För det första behöver det inte finnas lika många observationer på alla individer, datamaterialet behöver alltså inte vara balanserat. Antagandet man då gör är att de data som finns tillgängliga är representativa för varje individs skillnad gentemot den genomsnittliga tidstrenden i populationen, Hedeker och Mermelstein (2:39). Man förutsätter att man har ignorerbart bortfall, vilket i litteraturen brukar betecknas MAR ( missing at random ). För det andra behöver alla individer inte observeras vid exakt samma tidpunkt och slutli- Om bortfallet inte är ignorerbart krävs det andra metoder för att analysera longitudinella data. En sådan metod är Pattern-mixture modeling, men den kommer inte att ges någon närmare beskrivning av. 8
gen kan man med RRM skatta individernas förändring över tiden, dvs. man inkluderar en slumpmässig individeffekt i modellen. Det finns många olika varianter av ordinal RRM med många olika namn. En av dessa är Multilevel TCM (MTCM), där första delen av namnet syftar till att man har flera nivåer i sina data, Hedeker och Mermelstein (998). Här tar man återigen upp tröskelbegreppet som beskrivs i kap 2.. Att arbeta med MTCM innebär i praktiken att man arbetar med kumulativa logitmodeller, Hedeker och Mermelstein (2). Här beskrivs därför analysen med hjälp av kumulativa logitmodeller. Enligt tidigare beskrivning modelleras sannolikheten att en individ tillhör kategori {,, k} med en fördelningsfunktion. En vanlig sådan är den logistiska fördelningsfunktionen Ψ. För en standard logistisk fördelning, som har väntevärde och varians π 2 /3, gäller Ψ ( x) = + exp ( x). () Den modell som Hedeker och Mermelstein (998, 2) beskriver innehåller slumpmässiga effekter v i, däribland en slumpmässig individeffekt. De slumpmässiga effekterna antas vara multivariat normalfördelade. Modellen skrivs som λ k P(Y k vi ) = log = γ k + u αk + x β + w vi, (2) -P(Y k vi ) där k =,, K -, w är designvektorn för de slumpmässiga effekterna och u och x är vektorer med de förklarande variabler som har heterogena respektive homogena effekter. Med homogen effekt menas att de förklarande variablerna har samma effekt på varje kumulativ logit. En modell med endast homogena effekter är en POM. I modell (2) har parametervektorn α ett index k, vilket innebär att denna modell även kan innehålla förklarande variabler som har heterogena effekter. I denna modell är det logaritmen av oddset som modelleras linjärt och eftersom det är en ordinal responsvariabel modelleras de kumulativa sannolikheterna, vilket leder till benämningen kumulativ logit. 9
2.2. Skattningar Här nedan följer en beskrivning av hur parametrarna skattas i det allmänna fallet. Antag att modellen ser ut enligt (2). Fördelningsfunktionen för responsvariabeln Y givet de slumpmässiga effekterna v i kan då uttryckas med hjälp av den logistiska fördelningen P k ( k ) = Ψ( λ ) = P Y v i k =. (3) + exp( λ ) k De slumpmässiga effekterna antas vara multivariat normalfördelade med väntevärdesvektor μ = och kovariansmatris Σ. Om kovariansmatrisen är positivt definit kan den Choleskyuppdelas, dvs. den kan skrivas som en produkt av två triangulärmatriser Σ = TT, där T är en matris med enbart nollor under diagonalen. Man kan nu låta v i = Tθ i, där θ i har en multivariat standard normalfördelning. Anledningen till att man gör denna uppdelning är att T är lättare att skatta än Σ. Dessutom blir skattningarna stabilare då värdena ligger nära noll. Modellen kan efter denna omskrivning uttryckas som λ = γ + u α + x β + w Tθ. k k k i Låt Y i, vara en tänkbar vektor innehållande responsvärden för individ i, i =,, N. Sannolikheten för responsvektorn Y i givet de slumpmässiga effekterna ges av n K ( ) ( Yi θi ) Pk P( k ) = i k l, där. j= k = d d k = om Y om Y = k k Parametrarna i modellen skattas med maximum-likelihood-metoden. I korthet går denna metod ut på att man maximerar sannolikheten att få den givna responsvektorn. För att ställa upp den marginella likelihoodfunktionen utnyttjas marginalfördelningen för Y i som ges av h ( Y ) ( Y, θ ) dθ l( Y θ ) g( θ) = i i = l dθ, i i θ θ där g (θ ) är täthetsfunktionen för en multivariat standard normalfördelning. i
Låt Θ vara alla parametrar i modellen som ska skattas. Den marginella likelihoodfunktionen blir då N ( ) = h( Y ) L Θ. i= För att förenkla maximeringen av denna funktion kan man logaritmera den. Då erhålls N ( ) = log h( Y ) log L Θ. i= Vektorn Θ = {γ k, α k, β, v(t)} ska skattas för k =,, K-, dvs. för alla tröskelvärden. Derivering sker först med avseende på de parametrar som inte varierar för olika tröskelvärden, nämligen β och v(t), där v(t) motsvarar alla element i triangelmatrisen T. Derivering med avseende på β ger d log L dβ ( Θ) = P P i i P x N ni K k ( k ) h ( Yi ) d k l i i= j= k = k P θ ( k ) och derivering med avseende på v(t) ger d log dv L( Θ) ( T ) = P P P( k ) J P ( k ) ( Y θ) g( θ) dθ ( θ w ) ( Y θ) g( θ) dθ N ni K k h ( Yi ) d k r i i= θ j= k = k l, där betecknar en Kroneckerprodukt och Jr är en transformationsmatris som eliminerar elementen ovanför diagonalen i matrisen θ w. Om man i stället tittar på derivatorna då man deriverar med avseende på de parametrar som varierar för olika tröskelvärden erhålls d log L dγ l ( Θ) = N ( Pk ) akl ( P( k ) ) a ( k ) l ni K h ( Y ) d i k l ( Yi θ) g( θ) dθ, j k Pk P θ ( k ) i= = = vid derivering med avseende på γ l. Vid derivering med avseende på α l ser derivatan ut enligt d log L dα l ( Θ) = ( Pk ) akl ( P( k ) ) a ( k ) l N ni K h ( Y ) d i k i i= j= k = Pk P θ ( k ) u l ( Y θ) g( θ) dθ. För att skatta parametrarna integrerar man numeriskt över de slumpmässiga effekterna θ. Ett sätt att göra detta är med hjälp av så kallade Gauss-Hermite kvadraturpunkter. Se t.ex. Hedeker och Mermelstein (998) eller Hedeker
och Gibbons (996) för mer information om dessa numeriska metoder. Ett stort problem är att välja antalet kvadraturpunkter och att välja startvärden. Resultatet kan förändras beroende på vilket val man gör. Lesaffre och Spiessens (2) ger exempel på vad som händer om man ändrar startvärden, antal kvadraturpunkter samt maximeringsmetod. MIXOR använder Fishers method of scoring medan exempelvis SAS funktion NLMIXED använder Newton-Raphson för att maximera likelihoodfunktionen. Även olika maximeringsmetoder leder till olika resultat. Det bör påpekas att i exemplet i den nyss nämnda artikeln tittar man på en POM. Antag nu att alla parametrar är skattade. Eftersom det finns en individeffekt med i modellen kan man skatta den sökta sannolikheten för varje individ. Skattningen av den sökta sannolikheten kan enligt (3) skrivas som Pˆ( Y k v i ) = + exp( ( ˆ γ k + u αˆ k. + x βˆ + w vˆ )) i Vill man däremot bestämma ett genomsnitt för en viss population kan man inte bara sätta individeffekten till noll, utan man måste ta hänsyn till attenueringen som uppstår (se exempel 2), dvs. man måste marginalisera parametrarna. Den marginella sannolikheten kan skrivas Pˆ( Y k) = + exp( ˆ γ k cˆ( u αˆ k, + x βˆ)) där c ˆ = (6 2 2 2 2 ˆ 5 σ + (4) ) σ v 2 2 och där σ är variansen för den logistiska fördelningen och σˆ v är den skattade individvariansen, dvs. den skattade variationen mellan individer. Exempel 2. Antag att det finns två kategorier och endast en förklarande variabel som har samma effekt på båda kumulativa logit. En modell med endast en slumpmässig effekt kan då skrivas som P( Y log P( Y = vi ) * * = + = v β i ) β x + v. i Den marginella modellen kan man skriva enligt 2
P( Y log P( Y = ) = β + βx. = ) Observera att parametrarna skiljer mellan de två modellerna ovan. Antag nu att det finns P förklarande variabler. Då, om V(v i ) > gäller enligt Diggle et al. (994b:4) att * (i) β k β k, k =,, P * (ii) β = om och endast om * =. k β k (iii) Differensen mellan β k och β k * β k ökar då V(vi) ökar. Om man antar att den slumpmässiga individeffekten v i är normalfördelad med väntevärde och varians σ v 2 kan man, enligt Diggle et al., skriva β cβ *, där c uttrycks på samma sätt som i (4) och där vektorn β inte innehåller β. Att uttrycka β på detta sätt stämmer överens med de tre villkoren ovan. Eftersom c (, ) skulle sannolikheten felskattas om man lät v i =. Antag att man bara har homogena effekter, dvs. α k =. För en specifik uppsättning förklarande variabler är det endast γ k som förändras. Resultatet blir att man får K - parallella linjer (figur 2). λ ( K ) = γ ( K ) + β x... λ 2 = γ 2 + x β λ = γ + x β 2 3 4 Figur 2. Modell med en förklarande variabel x som har samma effekt på alla kumulativa logit. 3
Om man däremot tillåter att vissa förklarande variabler har en heterogen effekt på varje kumulativ logit behöver linjerna inte längre vara parallella. Någonstans kommer linjerna att korsa varandra. Man vill att de ska korsa varandra utanför det område man är intresserad av. Detta innebär att om x [a, b] får linjerna ej korsa varandra i intervallet [a, b]. Anledningen till att detta inte får ske är att det skulle medföra att sannolikheten att befinna sig i en viss kategori blir negativ. Så länge de förklarande variabler som tillåts ha heterogen effekt är dummyvariabler kommer detta problem inte att uppstå. Om man däremot låter en kontinuerlig förklarande variabel ha heterogen effekt kan problemet uppstå (figur 3). λ γ ( K ) = ( K ) + K u α... λ = γ + uα λ 2 = γ 2 + uα 2 2 3 4 Figur 3. Modell med en förklarande variabel u som har varierande effekt på olika kumulativa logit. I och med att linjerna korsar varandra är P(Y 2) < P(Y ), vilket innebär att det är en negativ sannolikhet att befinna sig i kategori 2 efter skärningspunkten. Ett sätt att lösa detta problem kan vara att bilda dummyvariabler av den kontinuerliga variabeln. Denna lösning är dock inte alltid realistisk, ty om man exempelvis har en tidsvariabel som består av n tidpunkter kommer man att få n - dummyvariabler. Detta är sällan praktiskt genomförbart. Ett annat sätt är att anta att variabeln har en homogen effekt på varje kumulativ logit. Detta är heller inte alltid en lämplig lösning. 4
3. Analys 3. Datamaterialet Datamaterialet som analyseras består av upprepade observationer på 6 djur (råttor, möss). Dessa 6 djur är uppdelade i tre olika grupper, två olika behandlingsgrupper samt en referensgrupp. Med behandlingsgrupper syftas här på olika substanser. Det är alltså inte behandlingar i ordets vanliga bemärkelse. Vi har valt att kalla dessa grupper för A, B och R, där A och B representerar de två olika typerna av behandling och R är referensgruppen. Djuren har undersökts i upp till 42 dagar. En gång varje dygn har man mätt djurets vikt samt kategoriserat djuret beroende på grad av sjukdom. Varje djur har tilldelats ett värde mellan noll och nio beroende på vilka symptom djuret visat. Ett djur som är helt friskt ges värde noll, medan ett djur som har dött ges värde nio. Alla djur har inte varit med till studiens slut, utan vissa har försvunnit ur studien vid ett tidigare tillfälle. Det datamaterial vi har ger dock ingen förklaring till varför djuret har försvunnit ur studien. Därför förutsätter vi i vår vidare analys att bortfallet är s.k. ignorerbart bortfall. Huruvida detta är ett korrekt antagande kommer att diskuteras i kap 4. Individer som hamnar i kategori 9 någon gång under studietiden anses vara med hela studietiden, vilket innebär att den individen placeras i kategori 9 varje dag till dess att studien är slut. Vi har valt att inte använda djurets vikt i analysen, utan bara koncentrerat oss på den ordinala responsvariabeln. Vid en närmare kontroll av datamaterialet upptäcker man att inget djur tillhörde kategori sju eller åtta. Detta innebär att vi i analysen antar att det bara finns åtta kategorier. Metoderna som används för analysen i kap 3.3 kräver nämligen att det finns observationer i alla kategorier. Låt nu,,, 7 representera de åtta olika kategorierna. Vi gör således en rangordning av kategorierna. 3.2 Enkel analys Vi börjar med att grafiskt illustrera hur responsen för individerna i de tre olika grupperna förändras över tiden. 5
Grupp A Respons 7 6 5 4 3 2 2 Dag 3 4 individ_4 6 62 63 64 65 66 67 68 69 7 7 72 73 74 75 76 77 78 79 8 Grupp B Respons 7 6 5 4 3 2 2 Dag 3 4 individ_5 8 82 83 84 85 86 87 88 89 9 9 92 93 94 95 96 97 98 99 Grupp R Respons 7 6 5 4 3 2 2 Dag 3 4 individ_6 2 3 4 5 6 7 8 9 2 3 4 5 6 7 8 9 2 Figur 4. I figurerna ovan beskrivs hur varje individs respons förändras med tiden. De två övre figurerna beskriver olika behandlingsgrupper medan den nedre figuren beskriver referensgruppen. 6
Som vi kan se i figur 4 finns det en stor variation mellan individer i de olika behandlingsgrupperna. Det är väldigt svårt att dra några långtgående slutsatser från dessa figurer, men vissa tendenser kan upptäckas. Om vi betraktar grupp R ser vi att flera individer hamnar i ett skov efter ungefär tio dagar, i alla fall fler än för de två övriga grupperna. Dessutom är det fler i denna grupp som dör, dvs. som hamnar i kategori 7. För ordinaldata är det inte lämpligt att använda medelvärden eftersom dessa skulle förändras om man benämnde de ordinala kategorierna annorlunda. I detta fall kan vi däremot tolka medelvärdet som en sorts medelrang, eller rättare sagt ett medelvärde av observerade rangvärden. Om vi ritar upp medelrangerna kan vi konstatera att grupp R har en betydligt högre medelrang än de övriga grupperna. 5 4 Medelrang för grupp A, B respektive R Variable medelrang_a medelrang_b Medelrang_R Medelrang 3 2 2 Dag 3 4 Figur 5. Medelrangen för varje dag, för respektive grupp. Låt y vara observationen på individ i, dag j. Medelrangen för varje dag (figur 5) är beräknad genom y i y j =, N där N j är antalet individer som är kvar i studien vid tid j. En första tanke kan vara att jämföra grupperna med hjälp av variansanalys. Tyvärr kan vi förkasta hypotesen att de tre variablerna (Medelrang A, B och R) har samma varians, vilket är en förutsättning vid variansanalys. Det finns fler anledningar till varför variansanalys inte är lämpligt för denna typ av datamaterial. Bland annat finns det troligtvis ett beroende mellan observationerna inom respektive stickprov. Man bör alltså använda andra, mer lämpliga, metoder. j 7
Ett alternativ är att använda en ickeparametrisk metod. Vi tror att det sker förändringar över tiden och använder därför en metod där vi kan blockbilda över tiden. En sådan metod är Friedmans test. För att kunna använda denna metod krävs det att man har minst två grupper samt minst två block. Vidare krävs det att det finns exakt en observation för varje block och grupp. Antag att vi har g grupper och b block. Tabell 2. Beskrivning av hur data är uppdelat på grupp och block. Block Block b Grupp x x b Grupp g x g x gb I korthet går denna metod ut på att man först rangordnar de g observationerna som finns i respektive block, beräknar en total rang för varje grupp och slutligen bildar en teststatistika. Nollhypotesen är att fördelningarna är lika i alla block och mothypotesen att någon av fördelningarna är stokastiskt större i varje block. Vi använder nu Friedmans test för att analysera vårt datamaterial. Det resultat som erhålls är att hypotesen kan förkastas (p-värde,). Det finns således en skillnad mellan de tre populationerna, som i detta fall är Medelrang A, Medelrang B samt Medelrang R. Tabell 3. Antal observationer, median, total rang och medelrang för de tre grupperna A, B respektive R. Grupp Antal obs Median Total rang Medelrang A 43 2. 77.5.8 B 43 2.63 65..5 R 43 3.3387 5.5 2.69 Vi vet att det finns en skillnad mellan de tre grupperna, men utifrån detta resultat kan vi inte uttala oss om vilka grupper det är som skiljer sig åt. För kunna uttala oss får vi parvis jämföra grupp i och j. Hur en parvis jämförelse kan göras beskrivs bl.a. i Tamhane och Dunlop (2). Hypotesen kan förkastas, med total signifikansnivå α, om r i r j q > ( g ), α g 2 6b g, +, där r i och rj är medelrang för grupp i respektive j och q kommer från studentized range distribution. Genom att använda denna fördelning tar vi hänsyn till att vi gör flera test. Om vi väljer en total signifikansnivå på 5 % 8
kommer vi att förkasta hypotesen då differensen mellan gruppernas medelrang är större än,5. I vårt fall finns det alltså skillnader mellan grupp A och R samt mellan grupp B och R. Grupp R skiljer sig alltså från de andra två grupperna. Djur som får behandling (grupp A och B) mår bättre än djur i referensgruppen. 3.3 Analys med RRM Vi kommer nu att använda ordinal RRM för att analysera vårt datamaterial. Analysen görs med hjälp av programmet MIXOR, som beskrivs närmare i appendix A. Vi har testat ett flertal modeller för att få en så bra anpassning som möjligt. Det som är gemensamt för alla dessa modeller är att de har två dummyvariabler (GruppA och GruppB) där en indikerar tillhörighet till grupp A och en till grupp B. Förutom dessa två dummyvariabler innehåller modellerna någon eller några variabler som behandlar tiden. Längre fram kommer vi även att tillåta samspelstermer i modellen. Vi har dessutom testat modeller med både homogena och heterogena effekter. Den modell vi först har valt att anpassa är P(Y k vi ) λ k = log = γ k + α kgruppa + α 2kGruppB + α 3 - P(Y k vi ) k Dagstd, (5) där Dagstd är standardiseringen av variabeln Dag. En modell med Dag och en modell med Dagstd bör ge samma resultat, men vid större modeller (med Dag 2 eller liknande) kan man få problem om datorns precision ej är tillräcklig. I modell (5) tillåts alla de tre förklarande variablerna ha en heterogen effekt på varje kumulativ logit, vilket i praktiken innebär att parametrarna varierar för olika k. För denna modell erhålls -2logL = 554, där L betecknar den anpassade modellens likelihoodvärde. Med -2logL får man ett mått på hur bra anpassad modellen är, lägre värden indikerar på en bättre anpassning. Här ska dock påpekas att antalet kvadraturpunkter skiljer sig jämfört med de kommande modellerna. För att erhålla ett resultat var vi här tvungna att ange ett lägre antal kvadraturpunkter (kapitel 2.2.). Man kan även tänka sig en modell där Dagstd har en homogen effekt, nämligen λ k = γ k + αkgruppa + α 2kGruppB + βdagstd. (6) 9
Parametern framför variabeln Dagstd har inte ett index k. För denna modell blev -2logL = 5424, vilket är en liten försämring jämfört med modell (5). Detta resultat är väntat ty en större modell ska ge ett lägre värde på -2logL. I kapitel 2.2. redogjorde vi för problem som kan uppstå då en kontinuerlig variabel tillåts ha en heterogen effekt. För att försöka komma runt detta problem samt för att försöka få en bättre anpassning har vi även testat att ta med Dagstd 2 i modellen. Termer av högre grad är inte lämpliga att ta med i modellen eftersom Dagstd och Dagstd 3 är starkt korrelerade. Detsamma gäller för Dagstd 2 och Dagstd 4. För att jämföra modeller (med olika antal heterogena effekter) kan man göra ett likelihoodkvottest. En förutsättning är då att den ena modellen är en delmängd av den andra modellen. Med ett sådant test kan man avgöra om det skett någon förbättring i modellanpassningen. Skillnaden i antal skattade parametrar för de två olika modellerna ger antalet frihetsgrader för den χ 2 - fördelning som testvariabeln, 2(logL2 - logl), asymptotiskt antar under nollhypotesen. L och L2 betecknar maximal likelihood för de två modeller som jämförs. Hur nollhypotesen formuleras beror på vilka två modeller som jämförs. Om man vill avgöra om en förklarande variabel har heterogen effekt är nollhypotesen att den förklarande variabeln har samma effekt på alla kumulativa logit, dvs. αl = α m för alla l m, l =,, K -, m =,, K -. Förutom de två nämnda modellerna har vi tittat på flera andra modeller. Vi har bland annat testat med logaritmen av dag som förklarande variabel. Detta gav dock en väldigt dålig anpassning. Det är svårt att på ett bra sätt jämföra modeller som innehåller olika förklarande variabler, dvs. då den ena inte är en delmängd till den andra, men genom att bestämma -2logL kan vi få en indikation på vilken modell som verkar vara bäst. Följande modell är den modell som får lägst värde på -2logL och verkar således vara den bästa av de hittills anpassade modellerna, λ + 2 k = γ k + α kgruppa + α 2kGruppB + α 3k Dagstd α 4k Dagstd. (7) Värdet på -2logL blev 4764. Att bara bestämma -2logL och sedan påstå att denna modell är den bästa är inte helt lämpligt. Det finns fler saker vi bör undersöka. För modeller där en kontinuerlig variabel tillåts ha en heterogen effekt bör vi först och främst kontrollera att alla skattade sannolikheter är positiva. Alla sannolikheter som skattas utifrån modell (7) är positiva. Ett annat sätt att undersöka modellen är plotta sannolikheterna som skattas från modellen tillsammans med sannolikheterna som skattas utifrån datamaterialet. En bra modell bör resultera i en bra anpassning. Modell (7) ger tyvärr en relativt dålig anpassning. Samma sak gäller även för modell (5). 2
Vid studiens start är alla de tre grupperna lika; sker det sedan någon förändring tyder detta på att modellen bör innehålla samspelstermer. Vi har även delat upp datamaterialet på respektive grupp. För varje grupp har vi sedan anpassat en modell som bara innehåller en förklarande variabel, Dagstd. Koefficienten framför den förklarande variabeln varierade för de tre olika grupperna. Detta är också ett tecken på att det finns samspel. Vi går därför vidare och anpassar modeller med samspelstermer. Betrakta modellen λ k = γ k + α kgruppa + α 2kGruppB + βdagstd + + β Dagstd GruppA + β Dagstd GruppB. 2 3 (8) För denna modell erhålls -2logL = 537, vilket kan jämföras med modell (6). Enligt ett likelihoodkvottest är modell (8) bättre än modell (6). Vi testade även en modell med samma förklarande variabler som modell (7), men där variabeln Dagstd tilläts ha en heterogen effekt. Vi såg en förbättring i - 2logL, men anpassningen till de, utifrån datamaterialet, skattade sannolikheterna blev relativt dålig. Det råder stor osäkerhet kring val av antal kvadraturpunkter samt val av startvärden. Därför känns det osäkert, dels med de modeller vi redan testat, men främst med mer komplexa modeller. Tillåter vi att alla förklarande variabler har en heterogen effekt, dvs. även samspelstermerna, får vi ingen konvergens överhuvudtaget. Därför har vi valt att inte arbeta med fler modeller. Utifrån de modeller som har testats är modell (8) den som verkar vara bäst. Den har inte lägst -2logL, men den ger en förhållandevis bra anpassning till de skattade sannolikheterna, figur 6-8. Låt oss därför göra en närmare undersökning av modell (8). För den intresserade finns data- och definitionsfilen till MIXOR i appendix B. Utskriften från MIXOR återfinns i appendix C. Tabell 4. De skattade parametrarna för varje k, utifrån modell (8). Alla parameterskattningar är signifikant skilda från (p-värde <.5). 2 3 4 5 6 Intercept.63.43 2.4 2.69 3.24 3.96 5.74 Grupp A.88.23.4.27.9.42.4 Grupp B.67.7.58.63.58.5.74 Dagstd -2.25-2.25-2.25-2.25-2.25-2.25-2.25 Dagstd*GruppA.57.57.57.57.57.57.57 Dagstd*GruppB -.45 -.45 -.45 -.45 -.45 -.45 -.45 σ v 2.59 Utifrån de skattade parametrarna kan man nu bestämma oddset att befinna sig i kategori {,, k}, där k =,,, 6. För att beskriva hur detta resultat tolkas betraktar vi ett exempel. 2
Kategori Kategori.8.8.6.6.4.4.2.2-2 -.5 - -.5.5.5 2-2 -.5 - -.5.5.5 2 Kategori 2 Kategori 3.8.8.6.6.4.4.2.2-2 -.5 - -.5.5.5 2-2 -.5 - -.5.5.5 2 Kategori 4 Kategori 5.8.8.6.6.4.4.2.2-2 -.5 - -.5.5.5 2-2 -.5 - -.5.5.5 2 Kategori 6 Kategori 7.8.8.6.6.4.4.2.2-2 -.5 - -.5.5.5 2-2 -.5 - -.5.5.5 2 Figur 6. Den observerade (*) samt den skattade ( ) sannolikheten att en individ ur grupp A tillhör en viss kategori en viss dag. De åtta figurerna ovan svarar mot de åtta kategorierna. Observera att dag har standardiserats. De skattade sannolikheterna kommer från modell (8) och har marginaliserats. 22
Kategori Kategori.8.8.6.6.4.4.2.2-2 -.5 - -.5.5.5 2-2 -.5 - -.5.5.5 2 Kategori 2 Kategori 3.8.8.6.6.4.4.2.2-2 -.5 - -.5.5.5 2-2 -.5 - -.5.5.5 2 Kategori 4 Kategori 5.8.8.6.6.4.4.2.2-2 -.5 - -.5.5.5 2-2 -.5 - -.5.5.5 2 Kategori 6 Kategori 7.8.8.6.6.4.4.2.2-2 -.5 - -.5.5.5 2-2 -.5 - -.5.5.5 2 Figur 7. Den observerade (*) samt den skattade ( ) sannolikheten att en individ ur grupp B tillhör en viss kategori en viss dag. De åtta figurerna ovan svarar mot de åtta kategorierna. Observera att dag har standardiserats. De skattade sannolikheterna kommer från modell (8) och har marginaliserats. 23
Kategori Kategori.8.8.6.6.4.4.2.2-2 -.5 - -.5.5.5 2-2 -.5 - -.5.5.5 2 Kategori 2 Kategori 3.8.8.6.6.4.4.2.2-2 -.5 - -.5.5.5 2-2 -.5 - -.5.5.5 2 Kategori 4 Kategori 5.8.8.6.6.4.4.2.2-2 -.5 - -.5.5.5 2-2 -.5 - -.5.5.5 2 Kategori 6 Kategori 7.8.8.6.6.4.4.2.2-2 -.5 - -.5.5.5 2-2 -.5 - -.5.5.5 2 Figur 8. Den observerade (*) samt den skattade ( ) sannolikheten att en individ ur grupp R tillhör en viss kategori en viss dag. De åtta figurerna ovan svarar mot de åtta kategorierna. Observera att dag har standardiserats. De skattade sannolikheterna kommer från modell (8) och har marginaliserats. 24
Exempel 3. Låt oss börja med fallet då k =. Vi kan nu skriva P( Y P( Y v ) v ) i i = exp(.63 +.88GruppA +.67GruppB 2.25Dagstd + +.57Dagstd GruppA.45Dagstd GruppB). Vi vill nu bestämma oddset att befinna sig i kategori efter en viss bestämd tid. Antag att vi vill göra detta dag 42, vilket svarar mot dagstd =.67. Vi kan beräkna oddset för var och en av de tre grupperna. P( Y v ) P( Y vi ) P( Y vi ) = exp.63 +.67 2.25.67.45.67 P( Y vi ) P( Y vi ) = exp.63 2.25.67 =. P( Y v ) i Grupp A: = exp(.63 +.88 2.25.67+.57.67) =. 27 Grupp B: ( ) =. Grupp R: ( ) 44 i Utifrån detta ser vi att oddset att tillhöra kategori är sex gånger större för grupp A än för grupp R och att oddset är 2.5 gånger större för grupp B än för grupp R. Jämförelser mellan grupp A och grupp B visar att oddset är ungefär 2.5 gånger högre för grupp A. Det kan alltså finnas en skillnad även mellan grupp A och B. Vi undersöker nu fallet då k = 6. Det känns intressantare att bestämma oddset att vara i kategori 7 istället för oddset att tillhöra kategori {,, 6}. På grund av detta inverterar vi kvoten, vilket ger P( Y P( Y 6 v ) 6 v ) i i = exp( 5.74.4GruppA.74GruppB + 2.25Dagstd.57Dagstd GruppA +.45Dagstd GruppB). Antag återigen att Dagstd =.67. P( Y i Grupp A: = exp( 5.74.4 + 2.25.67.57.67) =. 3 P( Y P( Y 6 v ) 6 v ) i i Grupp B: = exp( 5.74.74 + 2.25.67+.45.67) =. 5 P( Y P( Y 6 v ) 6 v ) i i Grupp R: = exp( 5.74 + 2.25.67) =. 4 P( Y 6 v ) 6 v ) i 25
Detta medför att oddset att tillhöra kategori 7 är elva gånger större för grupp R än för grupp A, ungefär tre gånger större för grupp R än för grupp B respektive fyra gånger större för grupp B än för grupp A. Resultatet i exempel 3 visar på att oddset att dö är högst om man tillhör grupp R. Vidare beräkningar visar att oddset att tillhöra en hög kategori, vid studietidens slut, är högre för grupp R än för de övriga två grupperna. Precis som den enkla analysen tyder resultatet på att de två behandlingsgrupperna är bättre än referensgruppen, dvs. substanserna man testar verkar ha en positiv effekt på sjukdomen. Genom att betrakta figur 6-8 ser man att anpassningen är sämre för kategori och 7. Att anpassningen är dålig för kategori kan till stor del bero på att under de första dagarna tillhör alla individer den kategorin; alla är alltså friska. För kategori 7 är det istället så att ingen individ tillhör denna kategori förrän i slutet av studietiden. 26
4 Diskussion Vi börjar med att resonera kring eventuellt bortfall. I analysen i kapitel 3 antog vi att vi hade ignorerbart bortfall. Vi kunde därför använda ordinal RRM, ty dessa modeller kan hantera denna typ av bortfall. Frågan är nu om vi har gjort ett korrekt antagande. Vissa individer kan tas ut ur studien på grund av att de är för sjuka och om så är fallet är det inte lämpligt att anta att bortfallet är ignorerbart. För just denna typ av datamaterial är det inte alltid ett lämpligt antagande och man bör således använda andra, mer lämpliga, metoder. En metod som vi har sett nämnas i exempelvis Hedeker och Mermelstein (2:39) är Pattern-mixture modeling. Då förutsätter man inte längre att bortfallet är ignorerbart. Nu till detta att individer kan kategoriseras som död. Vad innebär det för vår analys att en kategori är absorberande? Eftersom vi tittar på sannolikheten (eller oddset) att vara i ett visst tillstånd spelar det ingen roll att en kategori är absorberande. I kapitel 3.2 analyserades datamaterialet med hjälp av en icke-parametrisk metod (Friedman). Resultatet blev att det fanns en signifikant skillnad mellan de tre grupperna och vi kunde även se mellan vilka grupper som skillnaderna fanns. Friedmans test och andra icke-parametriska metoder har dock vissa begränsningar. Antag att vi har en grupp G där individerna hamnar i ett skov tidigt och sedan inte blir bättre utan individerna ligger på en konstant nivå. Antag vidare att i en annan grupp G2 blir individerna sjukare och sjukare med tiden. I början har individerna i G en högre medelrang, medan det i slutet av studien gäller det omvända. Om man skulle använda Friedman för att jämföra grupper skulle man inte hitta någon skillnad. Det räcker alltså inte att använda Friedmans test utan vi behöver andra metoder som kan upptäcka skillnader i fall som dessa. Ett annat problem är att modeller för att analysera longitudinella ordinaldata kräver stora datamaterial eftersom det är väldigt många parametrar som ska skattas. När vi använder RRM krävs det att det finns många observationer i varje kategori, vilket tyvärr inte alltid är fallet. Om man låter en förklarande variabel ha en heterogen effekt krävs det dessutom att det finns observationer i varje kategori, för alla nivåer på den förklarande variabeln. I datamaterialet som analyseras finns det tio kategorier varav två helt saknar observationer. Därför har vi i analysen antagit att det endast finns åtta kategorier. De artiklar vi refererar till och som beskriver ordinal RRM med ickeproportionella odds har exempel med få responskategorier och få upprepade mätningar. Detta verkar vara en förutsättning för att få bra anpassade modeller, om man inte har väldigt stora datamaterial. Det skulle alltså vara bra om vi kunde reducera antalet responskategorier ytterligare. Eftersom det krävs så 27
stora datamaterial blir tyvärr möjligheten att använda dessa modeller relativt begränsad, speciellt då man har många responskategorier. I samband med detta skulle det vara intressant att simulera ett stort datamaterial och testa dessa modeller på det materialet. I det simulerade datamaterialet ska det för varje dag och för varje grupp finnas observationer i varje kategori. Vi har med tid (Dagstd) som en kontinuerlig variabel i modellen. I kapitel 2.2. konstaterade vi att om vi skulle låta en kontinuerlig variabel ha en heterogen effekt skulle detta kunna medföra att de skattade sannolikheterna blir negativa. Exakt detta problem uppstod för vissa av modellerna. Det är dock så att om vi låter Dagstd ha en homogen effekt på varje kumulativ logit uppstår inte längre detta problem. Det förefaller således mest lämpligt att modellen ser ut på det senare sättet. De allra första modellerna vi testade innehöll inte några samspelstermer. Anledningen till detta var främst att vi inte ville testa alltför avancerade modeller. En alternativ ansats kunde ha varit att börja med ännu mindre modeller; nämligen genom att undersöka varje grupp för sig, dvs. arbeta med tre datamaterial. Med hjälp av de mindre modellerna hade man kanske kunnat hitta ett bättre sätt att hantera tiden, för att få en så bra anpassning som möjligt. Mindre modeller leder inte till lika stora problem med konvergensen. En ytterligare anledning till att ordinal RRM inte är att rekommendera för analys av datamaterial, liknande det vi tittat på här, är de numeriska metoderna. Hur många kvadraturpunkter och/eller vilka startvärden man väljer kan i hög grad påverka resultatet. Systemen av likelihoodekvationer har inga tydliga maximum och således blir skattningarna instabila. En utförligare diskussion om detta finns i Lesaffre och Spiessens (2). Återigen, det är inte bara kvadraturpunkterna som påverkar resultatet. Även val av maximeringsmetod kan medföra förändrade resultat, framförallt kan variansskattningarna bli olika, vilket leder till olika p-värden vid test av hypoteser. I programmet MIXOR används Fishers method of scoring som maximeringsmetod; detta går inte att ändra. Anser man att andra maximeringsmetoder är lämpligare får man leta efter andra program alternativt göra ett eget. Startvärdena kan man däremot antingen låta programmet välja eller också kan man bestämma dem själv. Vår slutsats är således att dessa metoder inte är lämpliga på datamaterial som liknar det som vi har analyserat. Vill man ändå använda dessa metoder bör man minska antalet responskategorier och helst inte göra så många upprepade mätningar. 28
Referenser Agresti A. (999). Modelling ordered categorical data: Recent advances and future challenges. Statistics in Medicine 8, 29-227. Agresti A. (22). Categorical data analysis (2 ed). Hoboken, New Jersey: John Wiley & Sons, Inc. Albert P. S. (994). A Markov Model for Sequences of Ordinal Data from a Relapsing-Remitting Disease. Biometrics 5, 5-6. Diggle P., Liang K.-Y., Zeger S. L. (994). Analysis of Longitudinal Data. New York: Oxford University Press. Hedeker D., Gibbons R. D. (996). MIXOR: a computer program for mixed-effects ordinal regression analysis. Computer Methods and Programs in Biomedicine, 49, Issue 2, 57-76 Hedeker D., Mermelstein R. (996). Application of random-effects regression models in relapse research. Addiction, 9 (Supplement), 2-229 Hedeker D., Mermelstein R. (998). A Multilevel Thresholds of Change Model for Analysis of Stages of Change Data. Multivariate Behavioral Research, 33 (4), 427-455. Hedeker D., Mermelstein R. (2). Analysis of longitudinal substance use outcomes using ordinal random-effects regression models. Addiction, 95 (Supplement 3), 38-394. Hedeker D., Gibbons R. D. Mixor2. 22-6-6. <http://tigger.uic.edu/~hedeker/mixore2.pdf> 25-3-22 Infomedica AB. Multipel skleros MS. 24-8-3. <http://www.infomedica.se/artikel.asp?categoryid=4495> 25-3-3 Johnson. V. E., Albert J. H. (999). Ordinal data modelling (kap 4). New York: Springer 29
Lesaffre E., Spiessens B. (2). On the effect of the number of quadrature points in a logistic random-effects model: an example. Journal of the Royal Statistical Society: Series C (Applied Statistics), Vol 5, No 3, 325-335 Peterson B., Harrell F. (99). Partial Proportional Odds Models for Ordinal Response Variables. Applied Statistics, Vol 39, No 2, 25-27. Tamhane A. C., Dunlop D. D. (2). Statistics and Data Analysis from elementary to Intermediate. London: Prentice-Hall International (UK) Limited. Xie H., McHugo G., Sengupta A., Hedeker D., Drake R. (2). An application of the Thresholds of Change Model to the analysis of Mental Health Data. Mental Health Services Research, Vol 3, No 2, 7-4. 3
A Mixor Mixor är ett program som har utvecklats av Donald Hedeker samt Robert D Gibbons. Programmet är utvecklat för att kunna hantera ordinal regressionsanalys med både slumpmässiga och fixa effekter. För att använda programmet behöver man två olika filer, en datafil (.dat) samt en definitionsfil (.def). Datafilen innehåller datamaterialet som man vill analysera och definitionsfilen beskriver vilken typ av analys som ska utföras. Datafilen är uppbyggd kolumnvis. Den har alltså en kolumn för respons, en för individidentifikation och så vidare. Hur definitionsfilen är uppbyggd beskrivs närmare i tabellerna nedan. Tabell A. En beskrivning av de första nio raderna i definitionsfilen. Rad Beskrivning Titel, maximalt 6 tecken 2 Undertitel, maximalt 6 tecken 3 Namnet på datafilen (.dat), maximalt 8 tecken 4 Namnet på output-filen (.out), maximalt 8 tecken 5 Namnet på definitionsfilen (.def) 6 Beskriver hur datamaterialet ska analyseras (se tabell A2) 7 Läser in två parametrar, kolumnen med varje individs identifikation samt kolumnen med responsvariabeln. 8 Läser in R parametrar, nämligen de R kolumnerna med slumpmässiga effekter 9 Läser in P parametrar, nämligen de P kolumnerna med fixa effekter. Ordningen är av betydelse om kolumn 4 på rad 6 är större än noll. Tabell A2. En utförligare beskrivning av rad 6. Kolumn Beskrivning Namn Antalet individer vars data ska listas på skärmen NPR (vanligtvis satt till ) 2 Antal kolumner i datafilen NF 3 Antal slumpmässiga effekter R 4 Antal fixa effekter P 5 Konvergenskriteriet (vanligtvis satt till. eller CONV.) 6 Antalet kategorier för responsvariabeln MAXJ 7 om det inte finns saknade värden, om det finns det MISS 8 om automatiskt startvärde, om man själv vill sätta START startvärden 9 om varje individ har samma vikt, om de har olika WT om man inte vill göra korstabulering på en variabel CATYX mot responsvariablen Antal kvadraturpunkter som ska användas vid den NQUAD numeriska integreringen 2,, 2 respektive 3 för probit, logistisk, complementary FUNC 3