Laboration 5: Regressionsanalys. 1 Förberedelseuppgifter. 2 Enkel linjär regression LABORATION 5 MATEMATISK STATISTIK AK FÖR CDI, FMS012, HT10

Relevanta dokument
Laboration 5: Regressionsanalys. 1 Förberedelseuppgifter. 2 Enkel linjär regression DATORLABORATION 5 MATEMATISK STATISTIK FÖR I, FMS 012, HT-08

Laboration 5: Regressionsanalys. 1 Förberedelseuppgifter. 2 Enkel linjär regression LABORATION 5 MATEMATISK STATISTIK AK FÖR CDE, FMS012, VT08

Syftet med den här laborationen är att du skall bli mer förtrogen med det i praktiken kanske viktigaste området inom kursen nämligen

Laboration 4: Regressionsanalys. 1 Förberedelseuppgifter. 2 Enkel linjär regression

Laboration 5: Regressionsanalys. 1 Förberedelseuppgifter. 2 Enkel linjär regression LABORATION 5 MATEMATISK STATISTIK AK FÖR CDI, FMS012, HT09

1 Förberedelseuppgifter

3. Vad är ett prediktionsintervall och hur räknas det ut? 4. Vad är ett kalibreringsintervall och hur kan det konstrueras?

Laboration 5: Regressionsanalys

Laboration 4: Lineär regression

3. Vad är ett prediktionsintervall och hur räknas det ut? 4. Vad är ett kalibreringsintervall och hur kan det konstrueras?

Datorövning 5 Regression

1 Förberedelseuppgifter

Laboration 2: Styrkefunktion samt Regression

1 Syfte. 2 Enkel lineär regression MATEMATISK STATISTIK, AK FÖR L, FMS 033, HT Lineära regressionsmodeller i allmänhet

Laboration 4: Stora talens lag, Centrala gränsvärdessatsen och enkla punktskattningar

Gör uppgift 6.10 i arbetsmaterialet (ingår på övningen 16 maj). För 10 torskar har vi värden på variablerna Längd (cm) och Ålder (år).

Matematikcentrum 1(4) Matematisk Statistik Lunds Universitet MASB11 HT10. Laboration. Regressionsanalys (Sambandsanalys)

Laboration 3: Stora talens lag, centrala gränsvärdessatsen och enkla punktskattningar

Laboration 4: Stora talens lag, Centrala gränsvärdessatsen och enkla punktskattningar

Laboration 4 R-versionen

Föreläsning 12: Regression

förstå modellen enkel linjär regression och de antaganden man gör i den Laborationen är dessutom en direkt förberedelse inför Miniprojekt II.

F13 Regression och problemlösning

Föreläsning 8. NDAB02 Statistik; teori och tillämpning i biologi

Matematisk statistik för D, I, Π och Fysiker

F12 Regression. Måns Thulin. Uppsala universitet Statistik för ingenjörer 28/ /24

Matematisk statistik kompletterande projekt, FMSF25 Övning om regression

6 Skattningar av parametrarna i en normalfördelning

Matematisk statistik för B, K, N, BME och Kemister

SF1905 Sannolikhetsteori och statistik: Lab 2 ht 2011

Syftet med den här laborationen är att du skall bli mer förtrogen med följande viktiga områden inom matematisk statistik

Laboration 4 Regressionsanalys

Föreläsning 12: Linjär regression

STOCKHOLMS UNIVERSITET VT 2011 Avd. Matematisk statistik GB DATORLABORATION 3: MULTIPEL REGRESSION.

Laboration 3: Stora talens lag, centrala gränsvärdessatsen och enkla punktskattningar

Matematisk statistik, Föreläsning 5

Föreläsning 13, Matematisk statistik 7.5 hp för E, HT-15 Multipel linjär regression

repetera begreppen sannolikhetsfunktion, frekvensfunktion och fördelningsfunktion

Prediktera. Statistik för modellval och prediktion. Trend? - Syrehalt beroende på kovariater. Sambands- och trendanalys

TAMS65 - Föreläsning 11 Regressionsanalys fortsättning Modellval

Tentamen för kursen. Linjära statistiska modeller. 16 augusti

Laboration 2: 1 Syfte. 2 Väntevärde och varians hos en s.v. X med fördelningen F X (x) MATEMATISK STATISTIK, AK FÖR BYGG, FMS 601, HT-08

Enkel linjär regression: skattning, diagnostik, prediktion. Multipel regression: modellval, indikatorvariabler

Residualanalys. Finansiell statistik, vt-05. Normalfördelade? Normalfördelade? För modellen

bli bekant med summor av stokastiska variabler.

lära dig tolka ett av de vanligaste beroendemåtten mellan två variabler, korrelationskoefficienten.

Laboration 4: Hypotesprövning och styrkefunktion

Statistik B Regressions- och tidsserieanalys Föreläsning 1

LABORATION 3 - Regressionsanalys

DATORÖVNING 2 MATEMATISK STATISTIK FÖR D, I, PI OCH FYSIKER; FMSF45 & MASB03. bli bekant med summor av stokastiska variabler.

Föreläsning 13: Multipel Regression

Provmoment: Tentamen 6,5 hp Ladokkod: A144TG Tentamen ges för: TGMAI17h, Maskiningenjör - Produktutveckling. Tentamensdatum: 28 maj 2018 Tid: 9-13

Datorövning 5 Exponentiella modeller och elasticitetssamband

Matematisk statistik 9 hp, HT-16 Föreläsning 15: Multipel linjär regression

Föreläsning 2. Kap 3,7-3,8 4,1-4,6 5,2 5,3

Grundläggande matematisk statistik

Instruktioner till Inlämningsuppgift 1 och Datorövning 1

MVE051/MSG Föreläsning 14

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

Föreläsning 15, FMSF45 Multipel linjär regression

LÖSNINGAR TILL. Matematisk statistik, Tentamen: kl FMS 086, Matematisk statistik för K och B, 7.5 hp

Tentamen för kursen. Linjära statistiska modeller. 22 augusti

TAMS65 DATORÖVNING 2

TANA17 Matematiska beräkningar med MATLAB för M, DPU. Fredrik Berntsson, Linköpings Universitet. 26 november 2015 Sida 1 / 28

TVM-Matematik Adam Jonsson

10.1 Enkel linjär regression

SF1901 Sannolikhetsteori och statistik, VT 2017 Datorlaboration 1 för CELTE2, CTFYS2

Lunds tekniska högskola Matematikcentrum Matematisk statistik. FMS035: Matematisk statistik för M Datorlaboration 5

Härledning av Black-Littermans formel mha allmänna linjära modellen

SF1900 Sannolikhetsteori och statistik, HT 2017 Laboration 1 för CINEK2

Regressions- och Tidsserieanalys - F1

FMSF55: Matematisk statistik för C och M OH-bilder på föreläsning 9,

Enkel och multipel linjär regression

732G71 Statistik B. Föreläsning 4. Bertil Wegmann. November 11, IDA, Linköpings universitet

LABORATION 3 - Regressionsanalys

Laboration 4: Intervallskattning och hypotesprövning

1.1 MATLABs kommandon för matriser

Statistik 1 för biologer, logopeder och psykologer

Multipel linjär regression

Statistiska samband: regression och korrelation

STOCKHOLMS UNIVERSITET HT 2008 Statistiska institutionen Linda Wänström. Omtentamen i Regressionsanalys

Laboration 3: Enkla punktskattningar, styrkefunktion och bootstrap

Laboration 2 multipel linjär regression

F18 MULTIPEL LINJÄR REGRESSION, FORTS. (NCT

Datorövning 1 Fördelningar

Regressions- och Tidsserieanalys - F1

Instruktioner till arbetet med miniprojekt II

Institutionen för teknikvetenskap och matematik, S0001M LABORATION 2

Metod och teori. Statistik för naturvetare Umeå universitet

5 Stokastiska vektorer 9. 6 Multipel regression Matrisformulering MK-skattning av A.3 Skattningarnas fördelning...

Föreläsning G60 Statistiska metoder

F19, (Multipel linjär regression forts) och F20, Chi-två test.

732G71 Statistik B. Föreläsning 1, kap Bertil Wegmann. IDA, Linköpings universitet. Bertil Wegmann (IDA, LiU) 732G71, Statistik B 1 / 20

Matematikcentrum 1(6) Matematisk Statistik Lunds Universitet MASB11 - Biostatistisk grundkurs VT2014, lp3. Laboration 2. Fördelningar och simulering

3 Maximum Likelihoodestimering

Spridningsdiagram (scatterplot) Fler exempel. Korrelation (forts.) Korrelation. Enkel linjär regression. Enkel linjär regression (forts.

I. Grundläggande begrepp II. Deskriptiv statistik III. Statistisk inferens Parametriska Icke-parametriska

Minsta-kvadratmetoden

Tentamen för kursen. Linjära statistiska modeller. 17 februari

InStat Exempel 4 Korrelation och Regression

Transkript:

LUNDS TEKNISKA HÖGSKOLA MATEMATIKCENTRUM MATEMATISK STATISTIK LABORATION 5 MATEMATISK STATISTIK AK FÖR CDI, FMS012, HT10 Laboration 5: Regressionsanalys Syftet med den här laborationen är att du skall bli mer förtrogen med det i praktiken kanske viktigaste området inom kursen nämligen Enkel linjär regression Multipel linjär regression 1 Förberedelseuppgifter Som förberedelse till laborationen bör du repetera normalfördelningsdiagram, läsa igenom hela regressionsstencilen och hela laborationshandledningen. Till laborationens start har du med dig lösningar till förberedelseuppgifterna. 1. Ange modellen för enkel linjär regression med normalfördelade fel. Hur skattar man a, b och s 2? Vilken fördelning får a och b? Hur gör man konfidensintervall för a, b och m 0 = a + bx 0? Hur kan man testa huruvida linjens lutning är 0? 2. Vad är ett prediktionsintervall och hur räknas det ut? 3. Vad är ett kalibreringsintervall och hur kan det konstrueras? 4. Residualanalys är ett centralt moment i all regressionsanalys. Hur bör residualerna se ut vid en korrekt regressionsanalys? Ange några tekniker för att kontrollera detta. 5. Ange modellen för multipel linjär regression på matrisform. Hur ser normalekvationerna ut och hur löser man dessa? Vad blir kovariansmatrisen för b? 6. Lös uppgift ST35. 2 Enkel linjär regression Vid enkel linjär regression söker man anpassa en rät linje till datamaterialet, dvs modellen är y i = a + bx i + e i, i = 1,..., n, där e i är oberoende likafördelade störningar med väntevärdet 0 och variansen s 2. Vi kommer i den följande framställningen att arbeta med matrisformuleringen av modellen, Y = Xb + e, där de ingående matriserna har följande form: y 1 1 x 1 y 2 Y =., X = 1 x 2.., b = 1 x n y n ( ) a b e 1 e 2 och e =.. e n Vi skall använda MATLAB-funktionen regress som skattar parametrar, beräknar konfidensintervall för dem, beräknar residualer och litet till. Gör help regress för att se vad funktionen gör. Uppgift: Använd regress för att räkna uppgift ST35. En n 1-kolumn med ettor fås med ones(n,1) och två kolumner k1 och k2 läggs bredvid varandra med [k1 k2].

2 Laboration 5, Matstat AK för CDI, HT10 2.1 Fallgropar För att illustrera vådan av att okritiskt anpassa en linjär modell till ett givet datamaterial har F. J. Anscombe konstruerat ett datamaterial, som ser ut på följande sätt: observation x 1, x 2, x 3 y 1 y 2 y 3 x 4 y 4 1 10 8.04 9.19 7.46 8 6.58 2 8 6.95 8.14 6.77 8 5.76 3 13 7.58 8.74 12.74 8 7.71 4 9 8.81 8.77 7.11 8 8.84 5 11 8.33 9.26 7.81 8 8.47 6 14 9.96 8.10 8.84 8 7.04 7 6 7.24 6.13 6.08 8 5.25 8 4 4.26 3.10 5.39 8 5.56 9 12 10.84 9.13 8.11 8 7.91 10 7 4.82 7.26 6.42 8 6.89 11 5 5.68 4.74 5.73 19 12.50 Datamaterialet finns lagrat i filen anscombe.mat och kan laddas in i MATLAB med kommandot load anscombe. Med kommandot who får du reda på aktuella variabler i minnet. En lämplig början är alltid att ta sig en titt på datamaterialet. Börja med att plotta y1 mot x1, dvs >> subplot(221) >> plot(x1,y1, + ) Plotta sedan y 2 mot x 2, y 3 mot x 3, samt y 4 mot x 4 (mha kommandot subplot kan du få varje plot för sig i ett och samma fönster det ger en bra överblick). Vi skall nu helt aningslöst till var och en av datamängderna anpassa en linjär modell enligt y i = a + bx i + e i, i = 1,..., n, där e i är oberoende likafördelade störningar med väntevärdet 0 och variansen s 2. Vi börjar med att konstruera matrisen X (enligt notationen i det inledande avsnittet ovan) för den första datamängden på följande sätt: >> X1 = [ones(size(x1)) x1] Med MATLABs inbyggda minsta-kvadrat-lösare kan vi snabbt och enkelt få fram vår skattning av b som >> beta1hat = X1\y1 Denna vänsterdivision med matrisen X1 innebär att MATLAB beräknar vänsterinversen till X1, och om systemet är överbestämt bestämmer MATLAB automatiskt minsta-kvadrat-lösningen. Nu kan vi bestämma den skattade regressionslinjen och sedan rita in denna ovanpå punktdiagrammet över det första datamaterialet. >> y1hat = X1*beta1hat; >> subplot(221) >> hold >> plot(x1,y1hat) Är det rimligt att teckna sambandet mellan den förklarande variabeln x1 och den beroende variabeln y1 som ett linjärt samband? För att studera hur väl vår modell stämmer med givna data beräknar vi först vektorn av residualer. Om modellen är korrekt skall residualerna ungefärligen (vi använder skattade parametrar) vara observationer av likafördelade stokastiska variabler. För att undersöka hur det förhåller sig med detta utför vi en residualanalys enligt beskrivningen i kurslitteraturen. Vi kan t ex plotta residualerna gentemot den förklarande variabeln.

Laboration 5, Matstat AK för CDI, HT10 3 >> figure >> subplot(221) >> res1=y1-y1hat; >> plot(x1,res1, + ) Om vårt modellantagande är korrekt skall vi inte kunna skönja någon systematisk variation i diagrammet. Kan du finna något beroende? Nu vill vi göra motsvarande för de övriga tre datamaterialen, dvs lösa ekvationssystemen, skatta regressionslinjerna och rita ut residualerna. För att du ska slippa göra alla dessa kommandon finns de sammanställda i MATLAB-filen anscombe.m. Skriv alltså >> anscombe för att få skattningar och plottar och besvara sedan följande frågor: Uppgift: Jämför värdena på de skattade koefficienterna för var och en av fyra regressionslinjerna. Studera och jämför residualplottarna för de fyra olika fallen. Vad har denna lilla studie att förtälja den som helt slentrianmässigt och okritiskt vill använda en linjär regressionsmodell? 3 Polynomregression Datamaterialet som du skall arbeta med i detta avsnitt är koldioxidhalter uppmätta över en vulkan varje månad under en period av 32 år, dvs totalt finns 32 12 = 384 mätvärden. Materialet finns i filen co2.dat, och den kan laddas in i MATLAB med kommandot load co2.dat. Mätvärdena hamnar då i en vektor med namnet co2. Plotta mätvärdena. >> subplot >> plot(co2) Det finns uppenbarligen en kraftig periodicitet (årsvariation) i mätningarna, och en sådan låter sig inte så lätt fångas med en polynomiell regressionsfunktion. Detta problem kan lösas på flera sätt. Ett är att införa en sinus-funktion som modellerar variationen, ett annat är att differentiera datasekvensen, dvs undersöka z i = y i y i 1 i stället för y-värdena själva. Vi skall dock välja den mycket enkla lösningen att medelvärdesbilda över varje år. Detta fordrar litet trixande i MATLAB. Först skapar vi en 12 32-matris med bara nollor. >> z=zeros(12,32); Sedan överför vi mätvärdena till denna matris. >> z(:)=co2 >> plot(z) Värdena i co2 överförs här kolonnvis, så att första kolonnen i z innehåller mätvärdena från första året osv. Kontrollera gärna detta. Vi kan nu använda funktionen mean för att beräkna årsmedelvärdena. >> y=mean(z)

4 Laboration 5, Matstat AK för CDI, HT10 Slutligen vill vi att mätvärdena skall finnas i en kolonnvektor för att regressionsberäkningarna skall se ut som vanligt. >> y=y Kom ihåg att betecknar transponat. Vi har nu skapat den mätvärdesvektor vi skall arbeta med. Vi skapar även en vektor med den förklarande variabeln (årtalet, räknat från lämplig nollpunkt). >> x=(1:32) ; (Utrycket a:s:b skapar en radvektor med värden från a till b i steg om s.) Plotta mätvärdena. >> plot(x,y, o ) Uppenbarligen är den periodiska variationen borta, vilket också var syftet med medelvärdesbildningen. Vi skall nu göra polynomregression på materialet, dvs vår modell är y i = b 0 + b 1 x i + b 2 x 2 i +... + b k x k i + e i, i = 1,..., n, där e i är oberoende likafördelade störningar med väntevärdet 0 och variansen s 2. Som modellen är skriven ovan är den olinjär, ty ett polynom är inte en linjär funktion, men vi kan göra den linjär genom att införa de nya förklarande variablerna x ij = x j i för j = 1,..., k, i = 1,..., n, och skriva y i = b 0 + b 1 x i1 + b 2 x i2 +... + b k x ik + e i, i = 1,..., n. Detta är den modell vi skall arbeta med. 3.1 Enkel linjär regression Vi börjar med att anpassa en linjär funktion till datamaterialet, dvs polynomets ordningsgrad k = 1. Skattningarna av b 0 och b 1 erhålles med hjälp av funktionen regress. >> help regress >> X1=[ones(size(x)) x] >> [beta1,beta1int,res1,res1int,stats]=regress(y,x1,0.05) >> plot(x,y, o,x,x1*beta1) >> plot(res1, + ) Uppgift: Verkar en rät linje vara en tillfredsställande regressionsmodell? Diagrammet visar att residualerna i mitten av mätserien tycks komma från en annan fördelning är residualerna i början och slutet av densamma. Alternativt finns en stark korrelation mellan störningarna vilket strider mot oberoendeantagandet. Vi drar alltså slutsatsen att en enkel linjär regressionsmodell inte passar det aktuella datamaterialet.

Laboration 5, Matstat AK för CDI, HT10 5 3.2 Kvadratisk regression Nästa steg är att försöka anpassa en kvadratisk funktion till mätvärdena, dvs vi använder ordningstalet k = 2 för regressionspolynomet. Först skapar vi vektorer som innehåller de förklarande variablerna x i1 = x i och x i2 = x 2 i. >> x1=x; >> x2=x.^2; Sedan samlar vi de förklarande variablerna i matrisen X2. >> X2 = [ones(size(x)) x1 x2] Vi kan nu beräkna skattningarna av b 0, b 1 och b 2. >> [beta2,beta2int,res2,res2int,stats]=regress(y,x2,0.05) >> plot(x,y, o,x,x2*beta2) >> plot(res2, + ) Uppgift: Verkar den kvadratiska modellen vara bättre än den linjära? Kan residualerna tänkas komma från samma fördelning? Vi skall nu undersöka om residualerna eventuellt kan komma från en normalfördelning. Detta kan vi göra genom att plotta dem i ett normalfördelningsdiagram. >> normplot(res2) Uppgift: Verkar det rimligt att anta normalfördelade störningar? Är väntevärdet av dessa lika med 0? Undersök detta både genom att titta på normalfördelningsdiagrammet och genom att använda funktionen mean. Skatta felens varians s 2 genom att dela residualkvadratsumman med n 3 = 29. >> s2 = sum(res2.^2)/29 Avsluta med att studera de 95 %-iga konfidensintervallen för b 0, b 1 och b 2 (finns i beta2int). Uppgift: Är b 2 signifikant skild från 0, dvs om H 0 : b 2 = 0 och H 1 : b 2 0, kan vi då förkasta H 0 (på nivån 5 %)? I så fall kan vi med gott samvete anta den kvadratiska modellen före den linjära. På samma sätt kan man gå vidare och testa om en tredjegradsterm i regressionsfunktionen är relevant. Vi skall nu använda en färdigskriven funktion reggui och låta den göra grovjobbet. Undersök med help-kommandot vad funktionen reggui gör och vad den har för inparametrar.

6 Laboration 5, Matstat AK för CDI, HT10 >> help reggui >> reggui(x,y) Undersök de olika möjligheterna reggui ger dig att studera en regressionsmodell och välj olika gradtal i modellen. Uppgift: Fick du några varningsmeddelanden i kommandofönstret? Vad kan det i så fall bero på? Uppgift: Gör en bedömning av figurerna och utskriften med de skattade parametrarna och konfidensintervallen och avgör vilken polynommodell som är mest adekvat. 4 Multipel regression I och med att vi redan vid enkel linjär regression arbetat med matrismodeller, erbjuder multipel linjär regression inget nytt vad beträffar parameterskattningarna. Vi får utöka matrisen X med ytterligare en kolonn för varje ny förklarande variabel, men minsta-kvadrat-problemet löser vi på samma sätt som tidigare. 4.1 Cementdata I detta smått klassiska experiment (beskrevs i Industrial And Engineering Chemistry redan 1932) har man i 13 försök mätt värmeutvecklingen i stelnande cement som funktion av viktprocenten av några ingående ämnen. I filen cement finns följande variabler kolonnvis: cem1 viktprocent av 3CaO Al 2 O 3 cem2 viktprocent av 3CaO SiO 2 cem3 viktprocent av 4CaO Al 2 O 3 Fe 2 O 3 cem4 viktprocent av 2CaO SiO 2 värme utvecklad värme i kalorier per gram cement Vissa av de fyra cementvariablerna samvarierar kraftigt med varandra vilket påverkar regressionsanalysen. Utnyttja gärna corrcoef, som räknar ut korrelationsmatrisen. Plotta de olika cementvariablerna mot värme och även de olika cementvariablerna mot varandra. >> load cement.dat >> cement >> corrcoef(cement) >> x=cement(:,1:4); >> Y=cement(:,5); >> help plotmatrix >> plotmatrix(cement) Uppgift: Vilka variabler verkar samvariera?

Laboration 5, Matstat AK för CDI, HT10 7 Börja med att bestämma en full regressionsmodell med värme som responsvariabel och samtliga fyra cementvariabler som förklarande variabler: >> X=[ones(13,1) x] >> betahat = X\Y >> res=y-x*betahat >> s2=sum(res.^2)/8 >> Vbetahat=s2*inv(X *X) >> plot(res, o ) Uppgift: Vilka regressionskoefficienter är signifikant skilda från noll? Ser det bra ut? (t-kvantiler kan fås med tinv(1-0.05/2,f) som ger t 0.05/2 (f )-värdet) Givetvis kunde vi också använt funktionen regress direkt >> [betahat,betahatint,res,resint,stats]=regress(y,x,0.05) Förmodligen är du inte alls nöjd med den fulla regressionsmodellen du just bestämt för cementdata, t ex samvarierade några av de förklarande variablerna kraftigt och kanske skall inte alla vara med. Försök komma fram till en bra regressionsmodell, vilket ju inte är helt lätt... Funktionen stepwise kan vara till stor hjälp vid modellvalet >> help stepwise >> stepwise(x,y) Uppgift: Vilken modell kom du fram till? 5 Kalibrering av flödesmätare (om du hinner) Bakgrund Kalibrering av en flödesmätare genomförs oftast i en speciell kalibreringsrigg. Här finns en referensmätare eller referensmetod för att mäta flödet. För att erhålla en god bild av hur den testade flödesmätaren fungerar utförs kalibreringen vid ett stort antal flöden. Tyvärr kan man även vid kalibrering råka ut för situationer där den testade mätaren störs av testförhållandena. Om t.ex. pulsationer uppträder i flödet kommer detta att negativt påverka resultaten för den testade mätaren. Detta visar sig oftast vid låga flödeshastigheter, då ultraljudsmätare tenderar att överskatta flödeshastigheten. Detta orsakas av att vi erhåller en laminär flödesprofil i röret, vilket medför att en ultraljudsmätare kan överskatta flödet med upp till 33% vid fullt utbildad laminär strömning.

8 Laboration 5, Matstat AK för CDI, HT10 Vid låga flöden ser vi även att vi har stora fluktuationer i resultaten. Detta beror troligen på att vi har flödespulsationer i flödesriggen vilka kommer att orsaka fluktuerande resultat för ultraljudsflödesmätaren, bland annat orsakat av s.k. aliasproblem (d.v.s mätsystemet arbetar med en för låg sampelfrekvens i förhållande till frekvenserna hos det uppmätta). Vid höga flöden uppträder troligen kavitation (ett slags bubbelbildning) inne i ultraljudsflödesmätaren vilket kan förklara de positiva felen och den ökade spridningen för strömningshastigheter över 6.3 m/s. Metod Vi har nu tillgång till data från en kalibrering av en ultraljudsflödesmätare. Datamaterialet, som kommer från institutionen för värme- och kraftteknik, omfattar 71 mätningar och är lagrat i matrisen flow, där varje rad innehåller data från en mätning, variabeln fx2 avser referensflödesmätningar från kalibreringsriggen och fy2 avser respektive flöden uppmätta med den testade ultraljudsflödesmätaren (flödeshastigheterna givna i enheten m/s). Den använda kalibreringsriggen använder kontinuerlig vägning av det genomströmmande vattnet för att bestämma ett massflöde som sedan kan räknas om till medelhastighet i röret, vilket är vad ultraljudsmätaren mäter. Tanken är här att vi med hjälp av de gjorda mätningarna med givare och referens skall skatta parametrarna i en enkel linjär regressionsmodell. Vi antar då att referensmätningarnas fel kan försummas i jämförelse med ultraljudsgivarens (varför måste vi bekymra oss om detta?) och att ultraljudsgivarens fel är oberoende, likafördelade och har väntevärdet noll. För att studera detta datamaterial ska vi använda funktionen reggui vars finesser du förhoppningsvis redan bekantat dig med. Observera att du t.ex. automatiskt kan rita ut konfidensintervall och prediktionsintervall genom att markera i tillämplig ruta. För att bilden skall bli tydligare börjar vi med att studera en liten delmängd av materialet, 10 talpar av flödesmätningar som ges i variablerna fx1 och fy1. >> load flow.mat >> reggui(fx1,fy1) Använd nu funktionen interaktivt för att göra följande beräkningar: Beräkna det förväntade värdet enligt ultraljudsmätaren, då flödet enligt kalibreringsriggen är 0.40m/s. Beräkna också ett 95%-igt konfidensintervall för detta förväntade värde. Beräkna dessutom ett 95%-igt prediktionsintervall för en framtida observation från ultraljudsmätaren, då kalibreringsriggen ger mätvärdet 0.40m/s. Identifiera dessa två intervall i figuren och förklara vad det är som skiljer dem åt. Notera också värdena på de två intervallen eftersom du ska använda dem senare i laborationen. När vi sedan skall använda den kalibrerade ultraljudsmätaren, innebär det i princip att vi läser baklänges i kalibreringskurvan. Antag att vi med ultraljudsmätaren får mätvärdet 0.48m/s. Beräkna ett 95%-igt konfidensintervall för den sanna flödeshastigheten (dvs det värde som kalibreringsriggen skulle ge). Identifiera i figuren de kurvor som används vid den grafiska bestämningen av detta konfidensintervall och förklara varför det är just dem, man skall använda.

Laboration 5, Matstat AK för CDI, HT10 9 När vi enligt det ovanstående beräknat olika konfidens- och prediktionsintervall har vi stillatigande förutsatt att mätfelen hos ultraljudsmätaren är normalfördelade med konstant varians. Var i beräkningarna utnyttjas detta antagande? Om vi vill använda kalibreringskurvan i seriösa sammanhang måste vi först utföra en modellvalidering, dvs vi måste kontrollera att den linjära regressionsmodellen ger en adekvat beskrivning av sambandet. Vi kan bland annat validera modellen genom en grafisk residualanalys. Vid en sådan residualanalys får följande tre diagram, som alla kan fås i reggui, anses vara standard: Residualer gentemot observerade eller predikterade y-värden. Residualer gentemot den oberoende variabelns värden. Residualer i normalfördelningsdiagram. Detta skall vi nu ta itu med, men låt oss göra detta med en modell anpassad till hela datamaterialet. Då kan vi också passa på att studera vissa andra egenskaper hos de olika intervallskattningarna. >> reggui(fx2,fy2) Upprepa nu beräkningarna från första frågepunkten ovan, dvs Beräkna det förväntade värdet enligt ultraljudsmätaren, då flödet enligt kalibreringsriggen är 0.40m/s. Beräkna också ett 95%-igt konfidensintervall för detta förväntade värde. Beräkna dessutom ett 95%-igt prediktionsintervall för en framtida observation från ultraljudsmätaren, då kalibreringsriggen ger mätvärdet 0.40m/s. Skriv ner de båda intervallen. Jämför intervallbredderna baserade på de 10 mätningarna med motsvarande intervallbredder för den modell som är anpassad till alla de 71 mätpunkterna, Nu är det inte säkert att du lyckats pricka in precis samma x-värde i de två fallen, men vissa allmänna iakttagelser bör ändå vara möjliga. Jämför de två konfidensintervallen. Skiljer de sig väsentligt åt (eller inte)? Hur kan det förklaras? Jämför de två prediktionsintervallen. Skiljer de sig väsentligt åt (eller inte)? Hur kan det förklaras? Innan vi törs använda den skattade regressionslinjen för prediktion, måste vi naturligtvis förvissa oss om att modellen är adekvat. Ger plottarna anledning att förkasta modellen eller anser du att du på goda grunder kan använda den skattade regressionslinjen för kalibrering av ultraljudsmätaren?