Structural Equation Modeling (SEM) Ingenting är omöjligt Kimmo Sorjonen Sektionen för Psykologi Karolinska Institutet
Innehåll Data Latenta och manifesta variabler Typ av modell (path, CFA, SEM) Specificera modell Parametrar Effekter Jämförelse med medelvärdesmodell Anpassningsmått Modifiering
Skillnad SEM & Regression SEM är ofta mer konfirmatorisk (hypotestestande). Man testar om en bestämd modell passar med data. SEM justerar för mätfel medan reg. utgår från perfekt reliabilitet. Likhet: Används främst med ickeexperimentella data.
Data Data simulerade efter Von Stumm et al. (2010)
Latenta & Manifesta variabler Latent variabel (faktor) = Teoretiskt konstrukt som inte observeras direkt utan via manifesta (observerade) variabler. Latenta variabler brukar illustreras med cirklar och manifesta med rektanglar. Enkel pil = orsakar Dubbel pil = korrelerar
Exogena & Endogena variabler Exogena variabler är oberoende variabler som orsakar andra variabler (pilarna utgår från dem) medan endogena variabler är beroende (pilarna går till dem). En korrelation med en annan variabel räcker inte för att en variabel skall vara endogen.
Modelltyper Path modell: Endast manifesta variabler. Konfirmatorisk faktoranalys (CFA): Endast exogena latenta variabler. Full modell: Både exogena och endogena latenta variabler.
Specificera modell Dubbelpil = Korrelation SCO=social class of origin (housing tenure, father s and mothers occupational status, car, number of rooms) g=intelligens (verbal reasoning I and II, arithmetic test, English test) SCD=social class of destination (housing tenure, occupational status, income, cars) Varje endogen variabel (både manifest och latent) skall vidhäftas en felterm. Enkel pil = Enkelriktad effekt Varje latent variabel (även feltermer) skall ha en utgående parameter till en av sina manifesta indikatorer som specificeras till 1. På så sätt specificerar den latenta variabelns varians (som ju inte kan observeras direkt).
Modellens delar Mätmodell: Relationer mellan latenta och manifesta variabler Strukturmodell: Relationer mellan latenta variabler.
Identifiering För att en modell skall kunna ges en unik lösning måste den vara identifierad, vilket innebär att man har minst lika mycket information i sitt dataset som parametrar i modellen (effekter, korrelationer och varianser) som skall beräknas. Mängd information i data setet innebär antalet varianser och kovarianser och ges av formeln AV (AV+1) / 2 där AV står för antalet manifesta variabler.
Identifiering A A B C D var A B kovar AB var B C kovar AC kovar BC var C D kovar AD kovar BD kovar CD var D Med fyra variabler får vi (4 x 5) / 2 = 10 varianser och kovarianser
Identifiering Antalet parametrar som skall beräknas: Antalet icke specificerade regressionseffekter + antalet korrelationer + antalet exogena latenta variabler (felvarianser medräknade, variansen skall beräknas) Antalet frihetsgrader för modellen är lika med mängd information in minus antalet parametrar som skall beräknas. En modell med df > 0 sägs vara overidentified, en modell med df < 0 sägs vara underidentified, och en modell med df = 0 sägs vara just identified.
Identifiering Mängd information in: Modellen innehåller 14 manifesta variabler så vi får (14 15) / 2 = 105 bitar information in. Antalet parametrar som skall beräknas: 15 icke specificerade regressionseffekter 1 korrelation 17 exogena latenta variabler Summa parametrar som skall beräknas: 33 Antal frihetsgrader: 105 33 = 72
Parametrar Korrelation mellan g och SCO =.44 (kontrollerat för reliabilitet) Standardiserade effekter eller korrelationer > 1 indikerar att någonting är fel (t.ex. multicollinearitet). Felsökning och åtgärd blir då nästa steg. Squared Multiple Correlation (R 2 ) = Hur mycket av variansen i en endogen variabel som kan förklaras av dess exogena prediktorer. I det här fallet kan alltså 33% av variansen i Education förklaras utifrån g och SCO När g ökar med en SD så ökar SCD med 0.14 SD (kontrollerat för effekten som SCO och Education har på SCD). Detta värde är kontrollerat för reliabiliteten i den aktuella mätningen av g och SCD.
Parametrar Här kan man se om parametrarna är signifikant skilda från noll. Icke signifikanta parametrar skulle möjligen kunna strykas från modellen
Effekter Direkt effekt Hur stor förändring i BV man kan förvänta sig när OV ökar med ett steg samtidigt som de andra OV konstanthålls. I det aktuella fallet (standardiserat): SCO på Education: 0.17 SCO på SCD: 0.06 g på Education: 0.48 g på SCD: 0.14 Education på SCD: 0.41 Indirekt effekt Hur stor effekt en OV har på BV via medierande OV. I det aktuella fallet (standardiserat): SCO på Education: 0 SCO på SCD: 0.17 0.41 = 0.07 g på Education: 0 g på SCD: 0.48 0.41 = 0.20 Education på SCD: 0 Total effekt = Summan av den direkta och de indirekta effekterna som en OV har på BV. I det aktuella fallet (standardiserat): SCO på Education: 0.17 + 0 = 0.17 SCO på SCD: 0.06 + 0.07 = 0.13 g på Education: 0.48 + 0 = 0.48 g på SCD: 0.14 + 0.20 = 0.34 Education på SCD: 0.41 + 0 = 0.41
Jämförelse med medelvärdesmodell Kräver tre steg (förutom att skapa medelvärdesvariablerna): 1. Korrelation: SCO g 2. Reg: SCO + g Education 3. Reg: SCO + g + Education SCD.35 SCO.15.50 g R 2 =.33 Education R 2 =.32.05.36.11 R 2 =.29 SCD R 2 =.20 Exakt samma resultat fås i en Path analys.
Anpassningsmått Parametrar ges värden som minimerar skillnaden (residualen) mellan observerade korrelationer mellan manifesta variabler och utifrån den specificerade modellen återskapade korrelationer mellan manifesta variabler. Ju mindre dessa residualer är, desto bättre passar modellen överens med observerade data.
Anpassningsmått Ju mindre skillnad mellan den återskapade korrelationsmatrisen (vänster) och den observerade korrelationsmatrisen (nedan) desto bättre anpassning mellan modell och data.
Anpassningsmått Ju större skillnad mellan observerade värden och utifrån modellen återskapade värden (ju sämre anpassning) desto högre blir chi2 värdet. Enligt hardliners indikerar ett signifikant chi2 värde (vilket det nästan alltid blir) dålig anpassning. En mer liberal tumregel säger att om chi2 / df < 2 så är anpassningen god.
Anpassningsmått Chi2 statistik, testar om alla residualer kan antas vara lika med noll i populationen (ju lägre desto bättre, min = 0) P värde (enligt chi2 fördelningen) Specificerad modell Modell med lika många parametrar som data in (= AV (AV + 1) / 2) (df = 0) as good as it gets Modell utan parametrar (endast felvarianser beräknas) df = AV ((AV + 1) / 2 1) as bad as it gets Antalet parametrar Frihetsgrader Chi2 / df. Ju lägre desto bättre. Bra modell < 2.
Anpassningsmått RMR = Root Mean square Residual. Genomsnittlig residual. Beroende av måttenhet. Ju lägre desto bättre (min = 0). GFI = Goodness of Fit Index. Ett mått på hur mycket av observerade varianser och kovarianser som kan förklaras utifrån återskapade värden. Ju högre desto bättre (max = 1). Bra modell >.90 (.95) AGFI = Adjusted Goodness of Fit Index. Som GFI men tar hänsyn till antalet frihetsgrader (belönar enkla modeller). Bra modell >.90 (.95) PGFI = Parsimony Goodness of Fit Index. Belönar enkelhet. Ju högre desto bättre (max = 1). NFI =Normed Fit Index. Hur mycket chi2 sjunker från independence model till den aktuella modellen. Ju högre desto bättre (max = 1). Bra modell >.90 (.95) RFI =Relative Fit Index. Bygger på NFI. Ju högre desto bättre (max = 1). Bra modell >.90 (.95) IFI = Incremental Fit Index. Som NFI men tar hänsyn till antalet frihetsgrader. Ju högre desto bättre (max = 1). Bra modell >.90 (.95) TLI = Tucker Lewis Index. Ju högre desto bättre (max = 1). Bra modell >.90 (.95) CFI = Comparative Fit Index. Som NFI men tar hänsyn till stickprovsstorlek. Bra modell >.90 (.95)
Anpassningsmått PRATIO = Parsimony RATIO. Df för aktuell modell dividerat med df för independence model. PNFI = NFI PRATIO (oklart vad som anses vara bra) PCFI = CFI PRATIO (oklart vad som anses vara bra) NCP = FMIN = F0 = NonCentrality Parameter. Chi2 minus df. Ju lägre desto bättre. Även 90% konfidensintervall anges. Chi2 / (n 1). Belönar stora sample. Ju lägre desto bättre. NCP / n. Belönar stora sample. Ju lägre desto bättre. Även 90% konfidensintervall anges. RMSEA = Root Mean Square Error of Approximation. Roten ur (F0/df). Ju lägre desto bättre. Bra anpassning <.05; acceptabel anpassning <.08; medioker anpassning <.10. Även ett 90% konfidensintervall anges. P värdet baseras på ett test om det uppmätta värdet skiljer sig signifikant från.05
Anpassningsmått AIC = BCC = BIC = Akaike s Information Criterion. Belönar enkelhet (få parametrar), men tar inte hänsyn till N. Ju lägre desto bättre. Browne Cudeck Criterion. Belönar enkelhet ännu lite mer än vad AIC gör. Ju lägre desto bättre. Bayes Information Criterion. Belönar enkla modeller mest av de fyra måtten i denna grupp. Ju lägre desto bättre. CAIC = Consistent AIC. Tar, till skillnad från AIC, hänsyn även till N. Ju lägre desto bättre. MECVI = HOELTER = ECVI = Expected Cross Validation Index. AIC / n. Ju lägre desto bättre. Även ett 90% CI ges. Modified ECVI. BCC / n. Ju lägre desto bättre. Anger hur stort sample som behövs för att en modell med de aktuella parametrarna och parametervärdena skall få ett signifikant chi2 värde. Ju högre desto bättre. Ibland anses värden > 200 visa på bra anpassning.
Anpassningsmått Tumregel om TLI (NNFI). < 0.85: unacceptable fit 0.85 0.89: mediocre fit 0.90 0.94: acceptable fit 0.95 0.99: close fit 1.00: exact fit Tumregel om RMSEA. > 0.10: unacceptable fit 0.08 0.10: mediocre fit 0.06 0.08: acceptable fit 0.01 0.06: close fit 0.00: exact fit Ungefär samma skulle kanske kunna sägas för de andra anpassningsmåtten där 1 är bäst (e.g. NFI, CFI).
Anpassningsmått Vilka anpassningsmått skall man ange? Detta är lite av en smaksak, men chi2 värdet (med df och p värde) samt RMSEA anges nog nästan alltid. Nedan ett exempel.
Modifiering Ibland indelas SEM analyser i tre kategorier: 1. Strikt konfirmatorisk: Man testar om en modell (t.ex. baserad på en viss teori) passar tillräckligt bra överens med data (ja/nej). 2. Modelljämförelse: Man testar vilken av ett antal alternativa modeller (teoretiskt baserade) som passar bäst överens med data. 3. Modellgenerering: Efter att ha förkastat en teoretiskt baserad modell testar man om olika post hoc modifieringar kan leda till bättre anpassning.
Modifiering Vid dålig anpassning kan man: Kolla så att parametrarna är signifikanta (om inte kan man fundera på att stryka dem). Göra sin modell till en CFA modell. Har denna dålig anpassning så indikerar detta att felet finns i mätmodellen. Om problem i mätmodellen: Kanske är indikatorerna hierarkiska eller det finns subkategorier. Specificera om modellen. Ta en titt på modification indices
A Modifiering A B L1 B Latent C D Latent C D E F L2 E F Exempel på en hierarkisk struktur
Modifiering RMSEA =.076; NFI =.932; TLI =.925; CFI =.941 Låter man e5 och e1 kovariera med varandra så estimeras kovariationen till ungefär.14 och modellens chi2 värde estimeras sjunka med minst 53.739
Modifiering χ 2 (72) = 523, p <.001, NFI =.932, TLI =.925, CFI =.941, RMSEA =.076 χ 2 (71) = 449, p <.001, NFI =.942, TLI =.936, CFI =.950, RMSEA =.070
Modifiering Som post hoc analyser generellt, så anses modellmodifikationer lite skumma. Ett sätt att, åtminstone delvis, behålla sin heder är att göra modifieringar i ett dataset och sedan bekräfta den modifierade modellen i ett annat dataset.
Ett varnande finger χ 2 (72) = 523, p <.001, NFI =.932, TLI =.925, CFI =.941, RMSEA =.076 Alltså: Beräkningarna bygger på korrelationer. Analysen kommer inte ge svar på vilket håll kausala effekter går (eller om det finns kausalitet överhuvudtaget).