EKVIVALERING AV HÖGSKOLEPROVET

Relevanta dokument
Finns det över huvud taget anledning att förvänta sig något speciellt? Finns det en generell fördelning som beskriver en mätning?

HÖGSKOLEPROVET VÅREN OCH HÖSTEN 2003

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3

Föreläsning 7: Punktskattningar

Tentamen MVE301 Sannolikhet, statistik och risk

Tentamen MVE302 Sannolikhet och statistik

HÖGSKOLEPROVET VÅREN OCH HÖSTEN 2005

HÖGSKOLEPROVET VÅREN OCH HÖSTEN 2004

7.5 Experiment with a single factor having more than two levels

Introduktion. Konfidensintervall. Parade observationer Sammanfattning Minitab. Oberoende stickprov. Konfidensintervall. Minitab

F3 Introduktion Stickprov

Lektion 1: Fördelningar och deskriptiv analys

Föreläsning 7: Punktskattningar

Grundläggande matematisk statistik

Lektionsanteckningar 11-12: Normalfördelningen

Högskoleprovet våren och hösten 2012

att omfatta hela verksamhetsåret, vissa jämförelser med föregående år och i viss mån även från och med året 2000.

F13 Regression och problemlösning

Högskoleprovet våren och hösten 2008

Bilaga 6 till rapport 1 (5)

Högskoleprovet våren 2011

F2 Introduktion. Sannolikheter Standardavvikelse Normalapproximation Sammanfattning Minitab. F2 Introduktion

Introduktion till statistik för statsvetare

Tentamen MVE301 Sannolikhet, statistik och risk

Idag. EDAA35, föreläsning 4. Analys. Exempel: exekveringstid. Vanliga steg i analysfasen av ett experiment

Tentamen MVE301 Sannolikhet, statistik och risk

HÖGSKOLEPROVET VÅREN OCH HÖSTEN 2006

Högskoleprovet våren och hösten 2013

F18 MULTIPEL LINJÄR REGRESSION, FORTS. (NCT

Normering, ekvivalering eller kalibrering av delar av högskoleprovet. Christina Stage

6 Selektionsmekanismernas betydelse för gruppskillnader på Högskoleprovet

Tentamen MVE301 Sannolikhet, statistik och risk

Högskoleprovet våren och hösten 2014

Kapitel 4. Kontinuerliga slumpvariabler och deras sannolikhetsfördelningar. Sannolikhetslära och inferens II

Högskoleprovet våren och hösten 2009

Datorövning 1: Fördelningar

Antalet personer som skriver högskoleprovet minskar

Tentamen MVE302 Sannolikhet och statistik

SF1901 Sannolikhetsteori och statistik I

Tentamen i Matematisk statistik Kurskod S0001M

Del I. Uppgift 1 För händelserna A och B gäller att P (A) = 1/4, P (B A) = 1/3 och P (B A ) = 1/2. Beräkna P (A B). Svar:...

F9 SAMPLINGFÖRDELNINGAR (NCT

FÖRELÄSNING 8:

Högskoleprovet våren och hösten 2010

Idag. EDAA35, föreläsning 4. Analys. Kursmeddelanden. Vanliga steg i analysfasen av ett experiment. Exempel: exekveringstid

HÖGSKOLEPROVET HÖSTEN 1997

Tentamen i Matematisk statistik Kurskod S0001M

Forskarutbildningen i Beteendevetenskapliga

Vad Betyder måtten MAPE, MAD och MSD?

Finansiell Statistik (GN, 7,5 hp,, VT 2009) Föreläsning 2. Diskreta Sannolikhetsfördelningar. (LLL Kap 6) Stokastisk Variabel

LUNDS UNIVERSITET 1(6) STATISTISKA INSTITUTIONEN Per-Erik Isberg

MVE051/MSG Föreläsning 7

Kapitel 15: INTERAKTIONER, STANDARDISERADE SKALOR OCH ICKE-LINJÄRA EFFEKTER

EXAMINATION KVANTITATIV METOD vt-11 (110204)

Föreläsning 4: Konfidensintervall (forts.)

Tentamen i Statistik, STA A10 och STA A13 (9 poäng) Fredag 8 december 2006, Kl

Statistik 1 för biologer, logopeder och psykologer

1. Lära sig plotta en beroende variabel mot en oberoende variabel. 2. Lära sig skatta en enkel linjär regressionsmodell

Metod och teori. Statistik för naturvetare Umeå universitet

Föreläsning 7: Punktskattningar

Korrelation kausalitet. ˆ Y =bx +a KAPITEL 6: LINEAR REGRESSION: PREDICTION

Tentamentsskrivning: Matematisk Statistik med Metoder MVE490 1

Tentamen i Statistik, STG A01 och STG A06 (13,5 hp) Torsdag 5 juni 2008, Kl

Föreläsningsmanus i matematisk statistik för lantmätare, vecka 5 HT06

Tentamen MVE301 Sannolikhet, statistik och risk

Statistik 1 för biologer, logopeder och psykologer

OBS! Vi har nya rutiner.

Tillvägaghångssätt för skattning av körkortsmodell

MVE051/MSG Föreläsning 14

4 Diskret stokastisk variabel

Ingenjörsmetodik IT & ME 2011 Föreläsning 11

Statistiska Institutionen Gebrenegus Ghilagaber (docent)

Tentamen för kursen. Linjära statistiska modeller. 16 augusti

HÖGSKOLEPROVET VÅREN Provdeltagargruppens sammansättning och resultat

Bild 1. Bild 2 Sammanfattning Statistik I. Bild 3 Hypotesprövning. Medicinsk statistik II

Poissonregression. E(y x1, x2,.xn) = exp( 0 + 1x1 +.+ kxk)

Betrakta kopparutbytet från malm från en viss gruva. För att kontrollera detta tar man ut n =16 prover och mäter kopparhalten i dessa.

HÖGSKOLEPROVET HÖSTEN Provdeltagargruppens sammansättning och resultat

LÖSNINGSFÖRSLAG TILL TENTAMEN I MATEMATISK STATISTIK

Två innebörder av begreppet statistik. Grundläggande tankegångar i statistik. Vad är ett stickprov? Stickprov och urval

OBS! Vi har nya rutiner.

Kapitel 4 Sannolikhetsfördelningar Sid Föreläsningsunderlagen är baserade på underlag skrivna av Karl Wahlin

Arbeta med normalfördelningar

Obligatorisk uppgift, del 1

Vi har en ursprungspopulation/-fördelning med medelvärde µ.

EXAMINATION KVANTITATIV METOD vt-11 (110319)

Matematikcentrum 1(7) Matematisk Statistik Lunds Universitet MASB11 - Biostatistisk grundkurs HT2007. Laboration. Simulering

Stokastiska processer med diskret tid

Läs noggrant informationen nedan innan du börjar skriva tentamen

Statistik 1 för biologer, logopeder och psykologer

Tentamen Statistik och dataanalys 1, 5p Institutionen för matematik, natur- och datavetenskap, Högskolan i Gävle

HÖGSKOLEPROVETS UTVECKLING UNDER ÅREN

Hypotestestning och repetition

Repetitionsföreläsning

Föreläsning 8: Konfidensintervall

8 Den sociala bakgrundens betydelse för prestationer på Högskoleprovet

TAMS65 - Seminarium 4 Regressionsanalys

Mälardalens Högskola. Formelsamling. Statistik, grundkurs

Föreläsning G60 Statistiska metoder

Transkript:

EKVIVALERING AV HÖGSKOLEPROVET En jämförande studie av olika ekvivaleringsmetoder Jonas Jonsson, Samuel Brändström Examensarbete, 15 hp Statistik C2, 15 hp Vt 2018

Abstract Equating the SweSAT A study of the difference between equating methods The results of the Swedish Scholastic Assessment Test (SweSAT) are often critical to the test takers when it comes to their selection to higher education in Sweden. The raw score obtained from the number of correctly answered questions is transformed into a so called standardized score. The process that makes this transformation possible is called equating. It is done in order to make sure that a difference in test difficulty doesn t affect a test taker s chance to be selected for the desired education. This essay compares if there is a difference between modern kernel equating techniques and older traditional equating methods when it comes to equating the SweSAT. When comparing the different methods, the standard gaussian kernel and the uniform kernel resulted in the best equating performance when it came to standard deviation and other statistical measures of importance. However the difference was small and the simpler traditional equating method equipercentile equating is therefore still preferred.

Sammanfattning Individers resultat på högskoleprovet är i många fall avgörande när det kommer till antagning vid Sveriges olika högskolor och universitet. Råpoängen som är antal rätt besvarade frågor omvandlas till en så kallad normerad poäng. Processen som ligger bakom denna omvandling kallas för ekvivalering och genomförs för att se till att olika svåra prov inte ska påverka individernas chanser att komma in på sina sökta utbildningar. Denna uppsats undersöker om det finns någon skillnad mellan nya moderna kernelekvivaleringsmetoder och äldre traditionella metoder när det kommer till att ekvivalera högskoleprov. Kernelvarianterna standard gaussian och uniform visade sig prestera bäst utifrån statistiska mått som t.ex. standardavvikelse jämfört med övriga metoder som analyserats. Dock var skillnaderna så pass små att en enklare traditionell metod såsom ekvipercentilekvivalering istället är att föredra.

Populärvetenskaplig sammanfattning Vissa som skrivit högskoleprovet mer än en gång har upplevt skillnad i svårighetsgrad mellan de olika provversionerna. Detta beror inte bara på att individen kan ha blivit bättre på att skriva den typen av prov utan också på att det finns en skillnad i svårighetsgrad mellan olika högskoleprov. Detta trots att provkonstruktörerna gör sitt yttersta för att göra dem så lika som möjligt i svårighetsgrad. Detta gör att en individ som får en hög poäng på ett svårt prov egentligen presterat bättre än en person som får samma poäng på ett lättare prov. För att lösa detta problem så tillämpas så kallade ekvivaleringsmetoder som syftar till att översätta varje poäng på det ena provet till poängskalan för det andra provet. De som jobbar med högskoleprovet har under många år använt sig av ekvivaleringsmetoder för att göra proven jämförbara så att varje individ skall få ett rättvist resultat inför ansökan till högre utbildningar. Detta ger en normerad poäng som bättre representerar provtagarens faktiska kunskap och inte bara poängen på det specifika provet i fråga. Fram till nu så har primärt traditionella metoder använts för ekvivalering av högskoleprov, detta trots att modernare metoder finns att tillgå. Syftet med denna uppsats är att analysera data från två stycken nyligen skrivna högskoleprov (våren och hösten 2017) för att se om ekvivaleringsförmågan skiljer sig mellan de moderna ekvivaleringsmetoderna och de traditionella metoderna. Över 100 000 skrivande och deras resultat har analyserats i denna studie. Nästan 20 000 fler skrev vårens prov än höstens. Utifrån provresultaten så visade det sig att höstens prov var svårare och provtagargrupperna visade sig vara rätt lika utifrån de faktorer som beskriver personernas bakgrund. Ekvivalering utfördes för att kunna förutse vad en viss uppnådd poäng på vårens prov skulle motsvara på höstens prov. Både traditionella metoder samt de mer moderna metoderna användes så att resultatet sedan kunde jämföras. Den specifika metod som sedan visade sig vara den mest optimala för just det här datamaterialet var en av de moderna ekvivaleringsmetoderna. Även om den moderna metoden som föredras visade sig vara den bästa i analysen så spelar det i praktiken inte så stor roll då skillnaden i ekvivalerade poäng sällan skiljde sig mer än några hundradelar. Detta gör det extremt osannolikt att en specifik provdeltagare får ett annat resultat med den moderna metoden jämfört med de aningen sämre traditionella metoderna. Eftersom skillnaderna var så små kan de traditionella metoderna vara att föredra då de kräver mindre arbete samt minimerar risken för att något går fel. Därmed ses inget starkt behov för att istället använda sig av moderna metoder vid normering av högskoleprovsdata.

Innehållsförteckning 1. Inledning..1 2. Datamaterial 2 3. Metod & teori......3 3.1 Gruppdesigner.....3 3.2 Traditionella metoder.....4 3.2.1 Presmoothing.....4 3.2.2 Ekvivalering.........4 3.2.3 Jämförelse av modeller........6 3.3 Kernelekvivalering............6 3.3.1 Presmoothing...........7 3.3.2 Skattning av poängsannolikhet.. 7 3.3.3 Kontinuerlig approximation.....7 3.3.4 Bandwidth....... 8 3.3.5 Val av kernel...........8 3.3.6 Ekvivaleringstransformation.............8 3.3.7 Modellutvärdering......9 4. Resultat...10 4.1 Presmoothing......10 4.2 Traditionella metoder........11 4.3 Kernelekvivaleringsmetoder.......15 5. Diskussion & slutsats..... 18 6. Referenser........20 Appendix 21

1. Inledning Hur det ska gå till när två olika provtagargrupper ska jämföras med varandra på ett bra och tillförlitligt sätt har studerats en hel del. En mängd olika ekvivaleringsmetoder har föreslagits och testats genom åren. Syftet med ekvivalering är att göra resultatet på ett prov jämförbart med resultatet på ett eller flera andra prov (Kolen & Brennan, 2014). Denna uppsats syftar att belysa skillnaden i ekvivaleringsförmåga mellan traditionella ekvivaleringsmetoder och metoder inom det mer moderna ramverket kernelekvivalering. För att göra detta kommer data från de två högskoleprov som skrevs 2017 att användas. Högskoleprovet är ett viktigt prov i Sverige då det på liknande sätt som gymnasiebetygen används för att bestämma vilka studenter som ska antas vid universitet eller högskola. Historiskt så har främst den traditionella ekvivaleringsmetoden ekvipercentilekvivalering använts, med antagandet att provtagargrupperna är slumpmässiga stickprov från samma population (Stage & Ögren, 2003). Denna uppsats syftar till att jämföra denna metod, samt övriga traditionella metoder, med det mer moderna ekvivaleringsramverket kernelekvivalering. Anledningen till att det kan vara svårt att jämställa två olika provtagargrupper och provresultat beror dels på att proven i sig kan ha olika svårighetsgrad samt att de olika grupperna som skriver proven kan skilja sig rätt markant från varandra. De traditionella ekvivaleringsmetoder som används vid ekvivalering av högskoleprovet tenderar att utgå från antagandet att grupperna som skriver de olika proven kommer från samma population. Det analyserade datamaterialet består utöver själva provresultatet också av ett antal variabler gällande provtagarnas bakgrund. Högskoleprovet har både en kvantitativ del och en verbal del. I denna uppsats så kommer olika ekvivaleringsmetoder att jämföras för att se vilken av dem som fungerar bäst för att ekvivalera den kvantitativa delen av högskoleproven. 1

2. Datamaterial Datamaterialet som ligger till grund för denna uppsats kommer från två högskoleprov gjorda våren 2017 respektive hösten 2017. Totala antalet skrivande individer uppgick till 110 030, varav 64 329 stycken skrev vårens prov och 45 701 stycken skrev höstens. Totalt består proven av 160 uppgifter, hälften tillhör den verbala delen och hälften tillhör den kvantitativa delen. Dessa delar ekvivaleras separat. Individernas resultat på den kvantitativa delen av proven är variabeln av störst intresse då det är den som skall ekvivaleras. Variabeln baseras på 80 enpoängsfrågor med 4-5 svarsalternativ från provens två kvantitativa delar (40 från varje del) och hur många rätt individerna har på dessa. Detta resulterar i ett värde mellan 0 och 80. Medelvärdet för antal rätt på vårens prov låg på 44,5 medan medelvärdet på höstens prov låg på 43,7. Skillnaderna i resultat mellan vårens och höstens prov skiljer sig inte mycket åt men provpoängen på vårens prov är aningen högre, se Figur 1. Andra variabler av intresse som gjorts tillgängliga för att analyseras i denna uppsats är: Ålder, kön, pågående utbildning, utländsk utbildning och högsta avklarade utbildning, Dessa variabler är av intresse för att undersöka om grupperna som skrev de två olika proven skiljer sig markant åt eller inte. Viss skillnad kunde uppmätas gällande några av variablerna. Av vårens provtagare var 50,8% kvinnor och av höstens var 53,7% kvinnor. 79,8% av vårens provtagare var under 25 år medan de under hösten utgjorde 83%. En mindre andel individer angav att deras högsta utbildning var en avslutad gymnasieutbildning under vårens prov (37,8%) kontra höstens (43,9%). Även om skillnader kan uppmätas mellan de två provgruppernas förklarande variabler så är de inte speciellt stora. (Appendix, figur 10 13) Variabler kopplade till individens resultat på de verbala delarna av högskoleprovet anses mindre intressanta då det är den kvantitativa delen som skall ekvivaleras i denna uppsats. Variabler för varje specifik fråga tillhandahålls också vilket gör det möjligt att undersöka om något av proven har frågor som är betydligt svårare. Det visade sig att de svåraste frågorna på höstens prov var svårare och fler än de svåraste frågorna på vårens prov. Ingen individ fick dock noll poäng på något av proven. Figur 1. Poängfördelning för den kvantitativa delen av högskoleprovet. Det datamaterial som tillägnats denna uppsats är ej fullständigt. Information om individernas personnummer och härkomst har uteslutits på grund av sekretesskäl. Utöver detta så har information om högskoleprovets så kallade ankarprov ej gjorts tillgängligt för analysen då det inte ansetts nödvändigt för uppsatsens syfte. Ett ankarprov är en serie frågor som dyker upp på båda proven med syftet att se ifall kunskapsnivån hos de två grupperna ser lika ut. 2

3. Metod & teori 3.1 Gruppdesigner Beroende på hur datamaterialet har samlats in så blir förutsättningarna för ekvivaleringen annorlunda vilket gör att olika sorters designer föredras för att kunna göra en god ekvivalering. I denna del beskrivs designerna kortfattat. För mer utförliga beskrivningar se Kolen & Brennan (2014) och González & Wiberg (2017). Fem olika designer kan användas både för de traditionella metoderna och kernelmetoderna: Single Group Design (SG Design), Equivalent Group Design (EG Design), Counterbalanced Design (CB Design) och Non Equivalent Groups with Anchor Test Design (NEAT Design). Utöver dessa finns även en design som endast brukar användas vid kernelekvivalering: Non Equivalent Groups with Covariates Design (NEC). För att använda sig av SG Design så behöver samma grupp av provtagare göra båda proven. Ett vanligt problem med denna design är att beroende på vilket prov som skrivs först så kan provtagarnas resultat på det andra provet förändras, t.ex på grund av att de blivit bättre efter det första provet alternativt sämre på grund av t.ex utmattning. (González & Wiberg, 2017, p. 11) EG Design går att använda när två olika grupper av provdeltagare gör ett prov var. Dock kräver EG Design att grupperna är likställda i sin sammansättning och förmåga. Detta är ofta inte uppfyllt då t.ex tid kan ha passerat mellan proven vilket kan ha fått grupperna mer skilda från varandra. (Lyrén & Hambleton, 2011) CB Design försöker åtgärda de potentiella problem som SG Design skapar genom att låta olika delar av gruppen provtagare göra de två proven i olika ordning. Gruppen delas på hälften, de gör varsitt prov för att sedan byta och göra det som den andra halvan gjorde. Designen kan ses som både två stycken SG-designer eller två stycken EG-designer. (González & Wiberg, 2017, p. 11-12) Fördelen med att använda sig av NEAT Design är att provdeltagarna endast behöver göra ett prov var och att de som gör det första respektive andra provet inte behöver komma från samma population utan kan anses vara skilda från varandra. För att jämställa dem används istället ett ankarprov som tilldelas båda grupperna. Resultatet från detta ankarprov används sedan för att justera för skillnader hos de olika grupperna som sedan används vid ekvivaleringen. (Kolen & Brennan, 2014, p. 18-20) NEC Design är ett viktigt alternativ till NEAT då inget ankarprov är tillgängligt och de två provgrupperna inte kan anses komma från samma population. NEC går ut på att använda sig av kovariater av bakgrundsinformation om provtagarna för att bättre jämställa dem med individerna från det andra provet och därmed kunna ekvivalera deras poäng även fast de inte kommer från samma population. (Wiberg & Bränberg, 2015) Då de provtagare som gjort båda proven inte går att identifiera i det datamaterial som erhållits så faller möjligheten att använda sig av SG Design bort. På liknande sätt så faller även CB Design bort då sättet som högskoleprovet administreras på inte passar denna design. För att använda sig av NEAT Design så krävs ett ankarprov och något sådant har inte gjorts tillgängligt för denna rapport. EG Design passar dock relativt bra då båda proven kommer från samma år vilket gör att populationen som stickproven är tagna från 3

inte borde ha hunnit ändras speciellt mycket. Antagandet om att populationen är densamma är dessutom rätt vanligt vid analys av Högskoleprovet (Stage & Ögren 2003). Samtliga ekvivaleringsmetoder som undersöks i denna rapport kommer därmed att utgå ifrån en EG Design. 3.2 Traditionella ekvivaleringsmetoder De traditionella metoder som kommer att analyseras för ekvivalering av högskoleprovet är: ekvipercentil-. linär- och medelvärdesekvivalering. I detta avsnitt beskrivs dessa metoder kortfattat. För fullständiga beskrivningar se Kolen & Brennan (2014, Chapter 3, 4 & 7). 3.2.1 Presmoothing Innan ekvivalering genomförs så är det brukligt att göra s.k. presmoothing (utjämning) på poängfrekvenserna. Detta görs för att se till att ojämnheter i de observerade provresultaten jämnas ut så att det i teorin blir mer likt den bakomliggande fördelningen för provresultaten. För att göra detta så kan t.ex. en log-linjär modell av poängfrekvenserna skapas där grad av polynom väljs så att modellen får en så god passning som möjligt. För att hitta den bästa modellen så jämförs primärt Akaike Information Criterion (AIC) där den modellen med lägst AIC föredras. Den log-linjära modellen blir då: log(r j ) = β 0 + β 1 x j + β 2 x j 2 +... +β Tr x j T r, (1) där r j är sannolikheten att få x j poäng på provet, j = 0, 1,, J och J är högsta antalet rätt på provet. Termen β 0 är en normaliseringskonstant och β 1 till β Tr är parametrar kopplade till polynom av individuella provpoäng x j. Termen T r är den högsta polynomgraden som bestäms med hjälp av AIC. Frekvenserna som erhålls av utjämningen används sedan som skattning av poängfördelningen för respektive prov. 3.2.2 Ekvivalering Ekvipercentilekvivalering är den ekvivaleringsmetod som kan ses som grunden som även de andra traditionella metoderna baserar sig på. (González & Wiberg, 2017, p. 43) Metoden går ut på att låta en individs poäng på det ena provet motsvaras av poängen med samma percentil på det andra provet. För ekvipercentilekvivalering så definieras två poäng, x och y som ekvivalenta om: F Y (y) = u = F X (x), (2) där F X och F Y är kontinuerliga, kumulativa fördelningsfunktioner för prov X och prov Y, y och x är observerade poäng på respektive prov samt u är den percentil som fördelningsfunktionerna antar vid sina respektive poäng (u (0,1)). Om inte funktionerna F Y ( ) och F X ( ) är kontinuerliga så är det väldigt sällan som två poäng x och y båda uppfyller ekvation (2) för samma värde på u. Detta har traditionellt lösts genom att betrakta varje poäng som likformigt fördelad över ett intervall som är 4

definierat ±0.5 enheter runt varje poäng. På så vis ersätts de diskreta poängvariablerna med kontinuerliga motsvarigheter. Ekvipercentilekvivalering ges av att uttrycka ekvation (2) i termer av y: y = φ(x) = F Y 1 (F X (x)), (3) där φ är ekvivaleringstransformationsformeln och F Y 1 är inversen av den kontinuerligt skattade kumulativa fördelningsfunktionen för prov Y (Kolen & Brennan 2014, 36). Linjär ekvivalering fungerar som ett specialfall av ekvipercentilekvivalering. Här antas att skillnaden mellan proven kan förklaras av de första två momenten (medelvärdet och standardavvikelsen) hos de två tkesten. För denna ekvivaleringsmetod så definieras två poäng, x och y som ekvivalenta om: x μ X σ X = y μ Y σ Y, (4) där μ X och μ Y är medelpoängen för prov X respektive prov Y samt σ X och σ Y är standardavvikelsen för prov X respektive prov Y. Linjär ekvivalering ges av att uttrycka ekvation (4) i termer av y: y = φ(x; μ X, μ Y, σ Y, σ X ) = σ Y σ X [x μ X ] + μ Y. (5) Medelvärdesekvivalering är en väldigt simplistisk metod som ekvivalerar genom att dra av eller lägga till skillnaden i medelvärde mellan de två proven. För denna metod så definieras två poäng, x och y som ekvivalenta om: x μ X = y μ Y. (6) Medelvärdesekvivalering ges av att uttrycka ekvation (6) i termer av y: y = φ(x; μ x, μ y ) = x μ X + μ Y. (7) Då en EG Design antas så behöver inga ytterligare antaganden göras eftersom de två grupperna som skriver respektive prov antas komma från samma population. Detta gör att formlerna för ekvivaleringen kan användas rakt av. Av formlerna erhålls en skattning av vad en individ skulle ha tilldelats för poäng på det ena provet givet individens poäng på det andra provet. I samtliga fall så kan parametriskt bootstrap med hjälp av log-linjära modeller appliceras för att skatta standardavvikelsen. (González & Wiberg, 2017, p. 65-66) För att undersöka hur väl de traditionella metoderna förhåller sig till kernelekvivalering så kommer ekvivalering göras för att skatta individers resultat på höstens prov givet deras resultat på vårens. Av de traditionella metoderna så är det av primärt intresse att titta på ekvipercentil- och linjär ekvivalering då medelvärdesekvivalering anses som en mycket primitiv metod som inte används speciellt ofta (González & Wiberg, 2017, p. 44). 5

3.2.3 Jämförelse av modeller Tre mått som kan användas för att jämföra de traditionella modellerna är Standard Error of Equating (SE), Bias och Root Mean Square Error (RMSE). För att välja vilken metod som verkar bäst behöver avvägning göras med dessa mått i åtanke. Dessa mått kan fås fram genom att utföra bootstrap på datamaterialet. (González & Wiberg, 2017, p. 65-67) SE definieras här av: SE (x j ) = 1 L L l=1, [φ l(x j ) φ (x l j )] 2 L där φ (x l j ) är det samma som 1 φ l(x L l=1 j ) och φ l(x j ) är det skattade ekvivalerade värdet för bootstrapreplikat l. L är lika med antalet bootstrapreplikat som genomförs. Bias definieras här som: bias (x i ) = 1 L [φ l(x L l=1 i ) φ(x i )], där φ(x i ) är det ekvivalerade värdet som erhålls från de ursprungliga stickproven. RMSE ges av: RMSE(X i ) = 1 L [φ l(x L l=1 i ) φ(x i )] 2. Eftersom de sanna ekvivalerade värdena saknas så ska det noteras att ovanstående utvärderingsmått belyser metodernas bias och precision givet datamaterialet. När det gäller det slutgiltiga resultatet så bör det också hållas i åtanke att ifall skillnaden mellan de ekvivalerade poängen inte skiljer sig nämnvärt mycket åt från de poäng som individen fått på det andra provet så har ekvivaleringen inte speciellt mycket att tillföra. När detta är fallet så sägs ekvivaleringen ha en låg Difference That Matters (DTM) vilket i sin tur gör resultatet rätt orelevant att använda sig av. En låg DTM kan definieras som då skillnaden mellan faktiskt resultat och ekvivalerat resultat inte överskrider/underskrider +/- 0,5. Det betyder i så fall att resultatet i praktiken är detsamma (Kolen & Brennan, 2014, p. 524). 3.3 Kernelekvivalering Detta är ett modernt ramverk inom ekvivalering som använder sig av samma idé som ekvipercentilekvivalering men använder sig av en kernelfunktion när en kontinuerlig skattning av den kumulativa poängfördelningen skall tas fram. I detta kapitel sammanfattas kernelekvivalering utifrån hur det framförs i von Davier et al. (2004) och Gonzáles & Wiberg (2017). 6

Kernelekvivaleringen delas vanligtvis upp i fem olika steg varav de flesta känns igen från de traditionella metoderna: 1. Presmoothing 2. Skattning av poängsannolikheter 3. Kontnuerlig approximation 4. Ekvivalering 5. Modellutvärdering Det mest speciella steget är kontinuerlig approximation som skulle kunna sägas definiera Kernelramverket. 3.3.1 Presmoothing Utjämningen i kernelekvivalering utförs på sätt som för de tradionella metoderna, dvs att försöka jämna ut observationerna så att de mer liknar den bakomliggande fördelningen. För att göra detta så kan formler som t.ex. ekvation (1) användas. Antalet polynom som bör innefattas kan undersökas som tidigare genom att jämföra AIC. 3.3.2 Skattning av poängsannolikhet Poängsannolikheter erhålls från de utjämnade poängfördelningarna i det tidigare steget. Det är viktigt att räkna ut dem eftersom de används i de olika typerna av kernelekvivalering. 3.3.3 Kontinuerlig approximation Kontinuerlig approximation handlar om att göra om de diskreta värden som getts av de tidigare stegen till en faktisk kontinuerlig kurva. Detta görs med hjälp av en kontinuerlig slumpvariabel som beror på vilken kernel som används samt en bandwidthparameter som påverkar hur utjämnad kurvan kommer bli. Specifikt så ersätts den diskreta variabeln X med en kontinuerlig motsvarighet X( h X ) som ges av: X(h X ) = a X (X + h X V) + (1 a X )μ X, där μ X = j x j r j, σ 2 X = (x j μ X ) 2 j r j, a X = σ X 2 σ 2 X +σ 2 V h2, där V är en kontinuerlig X slumpvariabel som beror på valet av kernel och h X är bandwidth-parametern. Det kan visas att fördelningsfunktionen för X(h X ) ges av: F hx (x) = r j K ( x a Xx j (1 a X )μ X j ), (8) a X h X där K ges av den valda kernelfunktionen. Den kontinuerliga approximationen av fördelningsfunktionen för Y erhålls på motsvarande sätt och betecknas F hy (y). 7

3.3.4 Bandwidth Bandwidth-parametern som används i den kontinuerliga approximationen av respektive fördelningsfunktion jämnar ut den skattade fördelningsfunktionen. Den bör väljas så att karaktärsdragen från den ursprungliga diskreta poängfördelningen bibehålls. von Davier et al (2004) föreslår att bandwith-parametern ska väljas så att följande ekvation minimeras: PEN (h X ) = (r j f hx (x j )) 2 j + k j ρ j, (9) där ρ j är en indikatorvariabel som antar värdet 1 om f hx(xj v) < 0 och f hx(xj + v) > 0 annars antar det värdet 0, (xj f hx ) är derivatan av f hx (x j ) som i sin tur är den skattade täthetsfunktionen för X(h X ). Termen r j är den skattade poängsannolikheten att få j poäng på provet, k är en konstant och v är en parameter som påverkar vidden av intervallet runt x. Konstanten k sätts oftast till 0 eller 1 beroende på om den följande utjämningstermen ska inkluderas eller ej. Alternativa sätt att hitta en bra bandwidth existerar. Två ytterligare varianter till ovanstående kommer undersökas i denna uppsats. Den första är baserad på Silverman s rule of thumb (Silverman 1986), men är en modifierad variant som ger ett generellt sätt att räkna ut en bandwidth för alla kernelvarianter (Andersson & von Davier 2014). Den icke modiferiade varianten fokuserar endast på att räkna ut en bandwidth för en standard gaussian kernel. Den andra varianten är en så kallad double smoothing (Häggström & Wiberg 2014). Double smoothing påminner om ekvation (9) men använder sig av en pilot bandwidth för att skatta bias så att sedan MSE kan minimeras. Den pilot bandwidth som väljs är mycket hög och ger poängsannolikheter både för hela poäng samt för halva poäng. Detta gör att de skattade poängsannolikheterna inte helt stämmer. För att förbättra detta så utförs en ny skattning av poängsannolikheterna vid de faktiska poängvärdena vilket kallas double smoothing. 3.3.5 Val av kernel Fyra olika kernelvarianter kommer undersökas: Gaussian, logistisk, uniform och standard gaussian där alla påverkar Voch K på lite olika sätt och därmed påverkar vad den slutgiltiga poängskattningen kommer bli. 3.3.6 Ekvivaleringstransformation I detta steg utförs den faktiska ekvivaleringen med hjälp av det som definierats i de tidigare stegen. Värden för en individs poäng på det prov som individen ej gjort kan nu skattas med hjälp av poängen från provet individen gjort. Beroende på vilka val som gjorts gällande kerneltyp och bandwidth-parametern så påverkas resultatet av ekvivaleringen vilket gör att en modellutvärdering bör göras för att finna den bästa metoden. Inom kernelekvivalering så skattas ekvipercentiltransformationen i ekvation (3) genom att sätta samman de skattade fördelningsfunktionerna F ˆ h X ( x ) och F ˆ h Y ( y ) enligt: φ (x; r, s) = F 1 hy (F hx (x; r ); s ) = F hy 1 (F hx (x)), 8

där h x och h Y är parametrar som påverkar vilken utjämningsgrad som kernelekvivaleringen skall använda. r och s är vektorer innehållande poängsannolikheterna i prov X respektive Y. r och s är deras skattade motsvarigheter. 3.3.7 Modellutvärdering Standard Error of Equating (SEE) undersöker standardavvikelsen för ekvivaleringstransformationsformeln och beräknas genom: SEE Y (x) = Var (φ (x)) = J φ J DF C, där J φ är en jacobimatris av ekvivaleringstransformationformeln, J DF är en jacobimatris av en så kallad designfunktion som styrs av valet av design (von Davier et al. 2004, Chapter 2) och C kommer från en asymptotisk kovariansmatris av de frekvenser som fås utifrån datainsamlingsdesignen innan de utjämnats. Jacobimatriser innehåller första ordningens partiella derivator av de funktioner som utgör matrisen (von Davier et al. 2004, Chapter 5). Percent Relative Error (PRE) undersöker skillnaden i momenten mellan de ekvivalerade poängen och de poäng som skall bli ekvivalerade. Ifall PRE-värdena som kopplas till momenten ligger nära noll så är fördelningarna rätt lika och därmed modellen bra. PRE definieras enligt ekvationen: PRE(p) = 100 μ p(φ(x)) μ p (Y) μ p (Y), där μ p (φ(x)) = (φ(x j )) P j r j och μ p (Y) = k (y k ) p s k, där s k är sannolikheten att få k poäng på prov Y, k = 0, 1, K, där K är maxpoäng på prov Y. Termen p är momentet som undersöks (von Davier et al. 2004, p. 66). De två första måtten bör utvärderas för att hitta den ekvivaleringsmetod som ger en så bra ekvivalering som möjligt. De traditionella metodernas SE från bootstrap kan användas som skattning för SEE. Detta gör att ifall PRE räknas ut för de traditionella metoderna så går det att göra en bra jämförelse mellan dem och de moderna kernelmetoderna utifrån de måtten. Den slutgiltiga modellen bör sedan undersökas ur ett DTM-perspektiv ifall den faktiskt ger en relevant ekvivalering samt ifall den ökade komplexiteten faktiskt ger en avsevärt bättre ekvivalering. Ifall värdena i den bästa modellen avrundas till de samma som värdena i en enklare modell så kan den enklare modellen vara att föredra. Eftersom intagningspoängen till en kurs eller ett program på unitversitet/högskola primärt är intressant för de mer populära programmen där det faktiskt är svårt att bli antagen så kan det vid modellutvärderingen vara värt att främst titta på hur väl de högre poängen blir ekvivalerade. SEE kommer därmed att studeras både över hela poängskala samt när endast poängen från den övre halvan inkluderas (40 till 80). Alla analyser och all bearbetning i denna uppsats utförs med hjälp av R (R Core Team 2018) och R-paketen equate (Albano 2016) samt kequate (Andersson, Bränberg & Wiberg, 2013). 9

4. Resultat 4.1 Presmoothing Två olika log-linjära modeller anpassades till data. En till antalet individer för varje totalpoäng på vårens prov och en till antalet individer för varje totalpoäng på höstens prov. Modellen som anpassades till vårens prov gav bäst AIC vid en polynomgrad av 10 (AIC = 670) och höstens prov gav bäst AIC vid en polynomgrad av 9 (AIC =643). Den utjämnade poängfördelningen samt ursprungsfrekvenserna kan ses i Figur 2 och 3. Denna utjämning används både för de traditionella metoderna samt för kernelekvivaleringsmetoderna. Figur 2. Utjämnad poängfördelning för högskoleprovets kvantitativa del, våren 2017. Figur 3. Utjämnad poängfördelning för högskoleprovets kvantitativa del, hösten 2017. 10

4.2 Traditionella metoder Ekvivalering av höstens prov givet resultatet på vårens prov utfördes på de utjämnade frekvenserna som givits av utjämningen. De tre traditionella metoderna ekvipercentil-, linjär- och medelvärdesekvivalering undersöktes först. I figuerna 4-8 samt tabellerna 1-2 så betecknas ekvipercentilekvivalering som Equip, linjär ekvivalering som Linear och medelvärdesekvivalering som Mean. Figur 4. Skillnad mellan de ekvivalerade poängen och de faktiska poängen för de traditionella metoderna. I Figur 4 så visas poängskillnaden efter att ekvivalering enligt ekvation (3), (5) och (7) utförts. Det kan ses att medelvärdesekvivalering har en konstant poängskillnad mellan proven på -0.85. Linjär ekvivalering ger en högre poäng på höstens prov för provskrivare med låg poäng på vårens prov medan provtagare med hög poäng på våren har de lägre poäng på hösten. Förhållandet minskar linjärt med -0.05 enheter per poäng. Ekvipercentilekvivalering är den mest flexibla modellen och får därmed problem vid de låga poängen på vårens prov då det var mycket få individer som faktiskt hade låga poäng. I övrigt så tenderar den att ge lägre poäng på höstens prov för alla poäng bortsett från de mellan 33 och 37 samt 9 till 11. Relativt stor skillnad i poängen kan ses i slutet av poängskalan även om skillnaden minskar drastiskt för de allra högsta poängen. Generellt så verkar därför höstens prov svårare. Bootstrap utfördes för att få fram standardavvikelse (SE), Bias och RMSE för de olika metoderna. I Figurerna 5-7 illustreras hur SE, Bias och RMSE varierar över de olika poängresultaten. 11

Figur 5. SE för de traditionella metoderna vid olika poäng. Det kan tydligt ses att ekvipercentilekvivalering har en hög standardavvikelse för de lägsta poängen samt en aning högre för de högsta poängen jämfört med de andra metoderna. Figur 6. Bias för de traditionella metoderna vid olika poäng. Bias tenderar att vara bättre för ekvipercentilekvivalering över hela poängskalan förutom vid poängen 7 9. Medelvärdesekvivalering presterar sämre gällande bias på den övre halvan av poängskalan jämfört med både linjärekvivalering och ekvipercentilekvivalering. 12

Figur 7. RMSE för de traditionella metoderna vid olika poäng. Överlag så presterar ekvipercentilekvivalering betydligt bättre än de övriga metoderna med avseende på RMSE, bortsett från 6 12 på poängskalan. Linjär ekvivalering presterar dålig vid både de allra högsta poängen samt de allra lägsta. Medelvärdesekvivalering ser ut att prestera sämst när endast den övre halvan av poängskalan betraktas. Figur 8. Skillnaden mellan vilka poäng de olika ekvivaleringsmetodera anser att en individ skall få givet dess poäng på det tidigare provet. 13

Figur 8 visar grafiskt på skillnaden mellan vilka poäng de olika ekvivaleringsmetoderna anser att en individ skall få givet dess poäng på det tidigare provet. Skillnaderna är små metoderna emellan förutom vid de lägsta poängen då ekvipercentilekvivalering ger en lägre ekvivalerad poäng, främst jämfört med linjär ekvivalering. I slutet av poängskalan så har linjär ekvivalering istället lägst ekvivalerad poäng. I Tabell 1 och 2 kan det avläsas att medelvärdet för SE är lägst för medelvärdesekvivalering medan ekvipercentilekvivalering har lägst medelvärde i Bias och RMSE både då hela och endast övre poängskalan inkluderas. Linjär ekvivalering faller någonstans i mitten gällande prestation. Den mer flexibla ekvipercentilmodellen tycks anpassa sig bättre till datamaterialet då dess Bias är mycket lägre än hos de övriga två. Detta gör att även fast dess SE är relativt hög så blir dess RMSE ändå lägre. Tabell 1. Genomsnittlig SE, bias och RMSE för de traditionella metoderna när hela poängskalan inkluderas. SE Bias RMSE Mean 0.0877 0.2392 0.8343 Linear 0.1132 0.4431 0.8763 Equip 0.4332 0.0088 0.4490 Tabell 2. Genomsnittlig SE, bias och RMSE för de traditionella metoderna när endast den övre halvan av poängskalan inkluderas. SE Bias RMSE Mean 0.0877 0.5268 0.7608 Linear 0.1119-0.1557 0.4924 Equip 0.1393 0.0020 0.1394 14

4.3 Kernelekvivaleringsmetoder Samma grad av polynom används för utjämningen av frekvenserna vid kernelekvivalering som det gjordes i de traditionella metoderna. Från detta så tas det fram en skattning av sannolikheten att få en viss poäng på provet i fråga. Olika Bandwidth-parametrar testades: ekvation (9), double smoothing och den regelbaserade metoden baserad på Silverman s rule of thumb. Utöver detta så testades även fyra olika sorters kernelvarianter: Logistisk Kernel, Uniform Kernel, Gaussian Kernel och Standard Gaussian Kernel. Den modifierade varianten av Silverman s rule of thumb visade sig ha negativ påverkan på speciellt PRE när den användes istället för double smoothing eller ekvation (9) för att bestämma bandwidth. Därefter uteslöts logistisk kernel då den inte gav speciellt fördelaktig påverkan på SEE och PRE. De övriga jämfördes med varandra samt med de traditionella metoderna ekvipercentil- och linjärekvivalering. Resultatet kan ses nedan i Tabell 3. Tabell 3. PRE för olika ekvivaleringsmetoder vid olika moment. Moment Linjär Equip GauKernel DSGauKernel UniKernel DSUniKernel StdGKernel DSStdGKernel 1 0,00000005 0.0016-0,0007-0,0006-0,0011-0,0014-0,0001-0,00009 2 0,00006-0.0014-0,0022-0,0019-0,0008-0,0007 0,00008 0,0010 3 0,1182-0.0065-0,0042-0,0036-0,0049-0,0047 0,00002 0,0023 4 0,3165-0.0130-0,0070-0,0062-0,0123-0,0122-0,0011 0,0031 5 0,5088-0.0213-0,0113-0,0098-0,0218-0,0218-0,0042 0,0024 6 0,6177-0.0320-0,0177-0,0151-0,0336-0,0337-0,0098-0,0002 7 0,5916-0.0453-0,0265-0,0224-0,0493-0,0497-0,0185-0,0052 8 0,4034-0.0616-0,0383-0,0319-0,0711-0,0721-0,0307-0,0130 9 0,0438-0.0811-0,0533-0,0439-0,1011-0,1030-0,0467-0,0237 10-0,4853-0.1039-0,0716-0,0586-0,1408-0,1444-0,0665-0,0375 Equip = ekvipercentilekvivalering, Gau = gaussian, Uni = uniform, StdG = standard gaussian, DS = double smoothing Tabell 3 visar att linjär ekvivalering är klart bäst vid moment 1 och 2 men förlorar starkt gentemot de andra modellerna i alla andra moment förutom moment 9 där den är tämligen 15

likvärdig. Gällande gaussian kernel så har double smoothing en positiv inverkan på PRE då den i samtliga moment ligger närmare 0. Däremot för uniform kernel så är resultatet av double smoothing mindre självklart då det tycks vara fördelaktigt i alla tidiga moment bortsett från moment 1 för att sedan bli sämre vid moment 5 och uppåt. Standard gaussian har överlag moment som ligger nära 0. Vid moment 1 så är dess double smoothing-variant bättre medan den helt klart inte är det vid moment 2, 3 och 4. Momenten därefter är bättre för double smoothing-varianten. I jämförelse med de andra kernelekvivaleringsmetoderna så presterar standard gaussian bäst överlag. Tabell 4. Genomsnittligt SEE för olika ekvivaleringsmetoder Linjär Ekvipercentil GauKernel DSGauKernel UniKernel DSUniKernel StdGKernel DSStdGKernel 0,109669 0.4331514 0,373354257 0,37020675 0,222801134 0,211729571 0,375120716 0,371295 Tabell 5. Genomsnittligt SEE för olika ekvivaleringsmetoder när endast den övre halvan av poängskalan inkluderas. Linjär Ekvipercentil GauKernel DSGauKernel UniKernel DSUniKernel StdGKernel DSStdGKernel 0,106758 0.139315 0,129201391 0,12932255 0,083994695 0,079814397 0,129168509 0,129298 Figur 9. SEE för olika ekvivaleringsmetoder över hela poängskalan. 16

I Tabell 4 och 5 så kan den genomsnittliga SEE:n ses för samtliga metoder som jämförs och i Figur 9 kan SEE:n för de bäst presterande modellerna ses. Linjär har en låg SEE men dess SEE förbättras relativt lite då fokus endast läggs på den övre halvan av poängskalan. Gaussian kernel förbättras avsevärt gällande SEE från då den nedre halvan av poängskalan tas i beaktning jämfört med då den inte gör det. Då hela skalan är med så är dess double smoothing-variant bättre medan tvärtom råder då endast den övre halvan betraktas. Uniform kernel som redan har relativt låg SEE förbättras ytterligare då endast den övre halvan av poängskalan betraktas, speciellt då double smoothing används. Standard gaussian kernel beter sig mycket likt vanlig gaussian men presterar aningen bättre i den övre halvan av poängskalan. Figur 10. Skillnad mellan de ekvivalerade poängen och de faktiska poängen för två traditionella metoder och två metoder inom kernelramverket. I Figur 10 jämförs de två högst presterande metoderna inom kernelekvivaleringsramverket med de två högst presterande traditionella metoderna med avseende på skillnad i ekvivalerade poäng (Appendix, Tabell 6). Överlag så ligger kernelekvivaleringsmetodernas ekvivalerade poäng både väldigt nära varandra och ekvipercentilekvivalering. I inget fall så avrundas ett poäng till ett annorlunda poäng beroende på om någon av kernelekvivaleringsmetoderna används eller om ekvipercentilekvivalering används. Ifall linjär ekvivalering används kan dock en stor skillnad ses då dess mönster skiljer sig markant från de övriga. 17

5. Diskussion & slutsats Metoderna som används i denna uppsats kräver att grupperna som skriver proven kan antas komma från samma population. Antagandet är svårt att uppfylla till 100% då tid har passerat mellan proven vilket alltid kommer betyda att populationen har förändrats åtminstone en aning. Förändringar i samhället såsom ökad eller minskad arbetslöshet kan påverka hur sammansättningen inom provskrivaregrupperna ser ut. De två proven som ligger till grund för denna uppsats låg dock med så kort tid mellan sig som möjligt vilket minimerar risken att förändringar i populationen hinner bli drastiska. Från datamaterialet som samlats in så kan mycket små skillnader ses mellan de två grupperna. De största skillnaderna som kan ha haft påverkan var att det under hösten var en ökad andel kvinnor, en ökad andel av individer som avslutat sina gymnasiestudier samt något lägre medelålder hos provskrivarna. Ingen av skillnaderna anses dock stora nog för att ha haft en avsevärd påverkan på resultatet och populationen som individerna kommer från antas därmed vara densamma. Hade en SG Design kunnat användas så hade problemet med att grupperna måste kunna anses komma från samma population undvikits. Det är dock värt att nämna att även SG design har sina svagheter då individerna gör proven i en viss ordning samt att antalet observationer skulle bli betydligt färre då endast de individer som skrivit båda proven skulle användas. Därmed är det svårt att säga att SG Design hade varit fördelaktigt i detta fall. Orsaken till att NEC Design inte valdes till denna uppsats var att viss bakgrundsinformation som anses viktig såsom individernas härkomst ej gjorts tillgänglig. En NEC Design hade därmed inte producerat ett optimalt resultat. När dessutom populationerna inte verkar skilja sig åt speciellt mycket så bör inte en NEC Design ge ett märkbart bättre resultat jämfört med en EG Design. Eftersom inga ankarprov fanns att tillgå så fanns det ingen möjlighet att använda sig av NEAT Design. Sedan 2011 är det denna design som i huvudsak används vid ekvivalering av högskoleprovsdata. Det är också mycket möjligt att NEAT Design hade varit den mest optimala gruppdesignen även i detta fall. Dock fanns inte möjligheten att undersöka det närmare. För att utse vilken av de traditionella metoderna som presterar bäst vid ekvivalering så undersöktes SE, Bias och RMSE. Som väntat så presterade medelvärdesekvivalering dåligt på dessa mått, speciellt då endast den övre halvan av poängskalan inkluderades. Detta gav anledning att utesluta medelvärdesekvivalering som en potentiell metod. I jämförelse med ekvipercentilekvivalering så presterade linjär ekvivalering dåligt gällade RMSE, speciellt då endast den övre halvan av poängskalan inkluderades. Den har dock inkluderats som en referensmetod trots att den presterar sämre. Ekvipercentilekvivalering är den traditionella metod som föredras och den som primärt jämförs med kernelmetoderna. Här jämfördes måtten PRE och SEE hos de olika metoderna för att se vilken som har bäst ekvivaleringsförmåga för detta data. De alternativa metoderna vid kontinuerlig approximation visade sig inte vara helt entydigt positiva när det kom till PRE och SEE. Den regelbaserade varianten som baseras på Silverman s rule of thumb gav överlag ett sämre resultat när den användes och uteslöts därmed tidigt i processen. Double smoothing var ibland fördelaktigt för vissa moment i PRE och gav i vissa fall en lägre SEE. Dock var det ej entydigt och den ökade komplexiteten med att introducera double smoothing gör att det inte anses värt att tillämpa. Gällande de olika metoderna så var Standard Gaussian klart bäst när det gällde PRE. Endast traditionell linjär ekvivalering hade bättre PRE vid 18

några av momenten men vid de moment som den inte var bättre så var den extremt dålig. Vid analys av SEE så konstaterades att Uniform Kernel presterade bäst bortsett från när hela poängskalan inkluderades, då linjär presterade aningen bättre. Skillnaden i PRE och SEE mellan Uniform Kernel och Standard Gaussian Kernel kan inte anses speciellt stor och det blir därmed svårt att klart säga vilken av dem som är bättre. Traditionell linjär ekvivalering presterade bra på vissa mått men detta beror till stor del på att den inte behöver anpassa sig lika mycket till de få individer som fick väldigt låga poäng. Traditionell ekvipercentilekvivalering visade sig ha sämre SEE än både Uniform Kernel och Standard Gaussian Kernel både när hela poängskalan inkluderades och när endast övre halvan inkulderades. Gällade PRE så hade den traditionella metoden sämre än båda kernelmetoderna på de fyra första momenten och därefter så låg den mellan Uniform Kernel och Standard Gaussian Kernel. Eftersom de första momenten är av större vikt så anses båda kernelmetoderna vara fördelaktiga även gällande PRE. Även om skillnad kan upptäckas i PRE och SEE mellan metoderna så är skillnaden i ekvivalerade poäng nästan obefintlig. I inget fall så avrundas den ekvivalerade poängen för en metod till något annat än vad de skulle avrundats till med en annan metod. Detta betyder att för detta datamaterial så har det efter avrundning ingen betydelse om vi använder ekvipercentilekvivalering eller någon av kernelmetoderna. Ur ett DTM-perspektiv så kan därmed inte metoderna anses ha någon relevant skillnad i ekvivaleringsprestation. I fall där metoder är likvärdiga så är den enklaste att föredra, både för att det kräver mindre arbete och minimerar risken för att något går fel. Vi kan därmed inte se någon anledning till att använda någon kernelmetod istället för ekvipercentilekvivalering vid ekvivalering av högskoleprovsdata. På grund av att analysen som utförts i denna uppsats endast är baserad på två högskoleprov så finns endast två olika provsvårighetsgrader att utgå ifrån. Det är möjligt att andra metoder hade presterat bättre om skillnaden i svårighetsgrad mellan proven hade varit större eller mindre. Då ekvivalering av högskoleprov idag sker med hjälp av NEAT Design så kan det vara av värde att undersöka ifall en NEAT Design inom kernelramverket presterar bättre än det som idag används. I en sådan analys så skulle även en jämförelse mellan NEAT Design och EG Design kunna göras. Kanske att en NEAT Design inom kernelramverket skulle vara metoden att föredra i framtiden. Analysen som gjorts i denna uppsats har endast undersökt Gaussian, Logistisk, Uniform och Standard Gaussian kernels men det är fullt möjligt att andra avancerade kernel-varianter såsom Epanechnikov och adaptiv kernels hade gett ett annorlunda resultat. Då de högskoleprov som analyserats i denna uppsats har många observationer och en specifik design så bör inte resultatet generaliseras till andra prov. En skillnad när det kommer till provens struktur eller antalet provtagare kan leda till förändrade förutsättningar för de metoder som analyserats. Alltså vid analyser av andra sorters prov så bör den anpassas till just det provets förutsättningar. 19

6. Referenser Andersson, B & von Davier, A. A. (2014). Improving the bandwidth selection in kernel equating. Journal of Educational Measurement, 51(3), 223-238. Albano A. D. (2016). equate: An R Package for Observed-Score Linking and Equating. Journal of Statistical Software, 74(8), 1-36. doi:10.18637/jss.v074.i08 Andersson, B. Bränberg, K & Wiberg, M. (2013). Performing the Kernel Method of Test Equating with the Package kequate. Journal of Statistical Software, 55(6), 1-25. URL http://www.jstatsoft.org/v55/i06/ González, J & Wiberg, M. (2017). Applying test equating methods using R. Springer International Publishing, Cham. Häggström, J & Wiberg, M. (2014). Optimal bandwidth selection in observed-score kernel equating. Journal of Educational Measurement, 51(2), 201-211. Kolen, M. J & Brennan, R. L. (2014). Test Equating, Scaling and Linking. Methods and Practices. Third Edition. Springer International Publishing, New York. Lyrén, P-E. & Hambleton, R. K. (2011). Consequences of Violated Equating Assumptions Under the Equivalent Groups Design. International Journal of Testing 11: 308-323. R Core Team (2018). R: A language and environment for statistical computing. R Foundation for Statistical Computing, Vienna, Austria. URL https://www.r-project.org/. Silverman, B. (1986). Density estimation for statistics and data analysis (Vol. 3). London: Chapman and Hall. Stage, C. & Ögren, G. (2003): Högskoleprovet våren och hösten 2003. (Pm från Enheten för pedagogiska mätningar, Umeå universitet, 193) Umeå: Umeå universitet, Enheten för pedagogiska mätningar. von Davier, A.A. (2013). Observed-Score Equating: An Overview. Psychometrika 78: 605-623. von Davier, A.A. Holland, P. W. & Thayer, D. T. (2004). The Kernel Method of Test Equating. Springer International Publishing, New York. Wiberg, M. & Bränberg K. (2015). Kernel equating under the non-equivalent groups with covariates design. Applied Psychological Measurement, 39(5), 349-361. Ögren, G. (2014). Högskoleprovet våren och hösten 2014: provdeltagargruppens sammansättning och resultat (BVM / Institutionen för beteendevetenskapliga mätningar, Umeå universitet). Umeå: Umeå universitet, Institutionen för tillämpad utbildningsvetenskap. 20

Appendix Figur 10. Högsta avslutade utbildning för individer på vårens prov. Figur 11. Högsta avslutade utbildning för individer på höstens prov. Figur 12. Ålder för individer på vårens prov. Figur 13. Ålder för individer på höstens prov. 21

Tabell 6. Ekvivalerad poäng för olika ekvivaleringsmetoder. Gau = gaussian, Uni = uniform, StdG = standard gaussian och DS = Double smoothing. Equip = ekvipercentil 22