Föreläsning 4 Kap 3.5, 3.8 Material om index 732G71 Statistik B
Skötsel (y) Transformationer Ett av kraven för regressionsmodellens giltighet är att residualernas varians är konstant. Vad gör vi om så inte är fallet? Exempel: Föreliggande är ett datamaterial där vi önskar beskriva sambandet mellan privatägda fastigheters värde (X, i tusentals dollar) och hur mycket man årligen spenderar på fastighetsskötsel (Y, i dollar). Skötsel (Y) Värde (X) 1412.08 237 797.2 153.08...... 1090.84 1980.2 2000 1500 1000 500 0 50 Scatterplot of Skötsel (y) vs Värde (x) 100 150 200 Värde (x) 250 300 2
Residual Exempel (forts) Transformationer Regression Analysis: Skötsel (y) versus Värde (x) 300 200 100 Residuals Versus Värde (x) (response is Skötsel (y)) The regression equation is 0 Skötsel (y) = - 348 + 7.26 Värde (x) -100 Predictor Coef SE Coef T P Constant -348.39 76.14-4.58 0.000 Värde (x) 7.2583 0.4156 17.47 0.000 S = 146.897 R-Sq = 88.9% R-Sq(adj) = 88.6% -200-300 50 100 150 Värde (x) 200 250 300 Analysis of Variance Source DF SS MS F P Regression 1 6582759 6582759 305.06 0.000 Residual Error 38 819996 21579 Total 39 7402755 Finns tecken på ickekonstant varians bland residualerna. Ett sätt att hantera detta är genom transformering av y. Vanligaste transformationerna: y* ln y y* y 0.5 y 3
Residual Exempel (forts) Transformationer Regression Analysis: ln(y) versus Värde (x) The regression equation is ln(y) = 5.03 + 0.00951 Värde (x) Predictor Coef SE Coef T P Constant 5.0270 0.1098 45.80 0.000 Värde (x) 0.0095054 0.0005990 15.87 0.000 S = 0.211744 R-Sq = 86.9% R-Sq(adj) = 86.5% Analysis of Variance Source DF SS MS F P Regression 1 11.290 11.290 251.80 0.000 Residual Error 38 1.704 0.045 Total 39 12.993 0.4 0.2 Residuals Versus Värde (x) (response is ln(y)) Predicted Values for New Observations New Obs Fit SE Fit 95% CI 95% PI 1 7.1182 0.0432 (7.0308; 7.2056) (6.6807; 7.5557) 0.0-0.2-0.4 Values of Predictors for New Observations New Värde Obs (x) 1 220-0.6-0.8 50 100 150 Värde (x) 200 250 300 4
Exempel (forts) Transformationer Predicted Values for New Observations New Obs Fit SE Fit 95% CI 95% PI 1 7.1182 0.0432 (7.0308; 7.2056) (6.6807; 7.5557) Values of Predictors for New Observations New Värde Obs (x) 1 220 En punktskattning av den förväntade summan spenderad på fastighetsskötsel för en fastighet värd 220 tusen dollar är ln yˆ 5.03 0.0095054 220 7.12 Men prognosen är på logaritmisk skala! Antilogaritmering ger originalskala: yˆ e 7.12 1236.45 Ett 95% prognosintervall uttryckt på originalskala blir e 6.6807 y 220 e 7.5557 796.877 y220 1911.61 Med 95% säkerhet görs fastighetsskötsel för mellan $797 och $1912 per år för en fastighet värd 220 tusen dollar. 5
Residual Exempel (forts) Transformationer Regression Analysis: y**0.5 versus Värde (x) The regression equation is y**0.5 = 7.20 + 0.127 Värde (x) Predictor Coef SE Coef T P Constant 7.201 1.205 5.98 0.000 Värde (x) 0.127047 0.006577 19.32 0.000 S = 2.32479 R-Sq = 90.8% R-Sq(adj) = 90.5% Analysis of Variance Source DF SS MS F P Regression 1 2016.8 2016.8 373.17 0.000 Residual Error 38 205.4 5.4 Total 39 2222.2 5.0 Residuals Versus Värde (x) (response is y**0.5) Predicted Values for New Observations New Obs Fit SE Fit 95% CI 95% PI 1 35.151 0.474 (34.191; 36.111) (30.348; 39.954) 2.5 0.0-2.5 Values of Predictors for New Observations New Värde Obs (x) 1 220-5.0 50 100 150 Värde (x) 200 250 300 6
Exempel (forts) Transformationer Predicted Values for New Observations New Obs Fit SE Fit 95% CI 95% PI 1 35.151 0.474 (34.191; 36.111) (30.348; 39.954) Values of Predictors for New Observations New Värde Obs (x) 1 220 En punktskattning av den förväntade summan spenderad på fastighetsskötsel för en fastighet värd 220 tusen dollar är yˆ 7.20 0.127047 220 35.15 Kvadrering ger originalskala: yˆ 35.151 2 1235.59 Ett 95% prognosintervall uttryckt på originalskala blir 2 2 30.348 y220 39.954 921.001 y220 1596.32 Med 95% säkerhet görs fastighetsskötsel för mellan $921 och $1596 per år för en fastighet värd 220 tusen dollar. 7
Exempel Vad påverkar kostnaden för produktion av korrugerat papper, dvs sådant som ingår i wellpapp och kartonger? Enligt en studie kan kostnaden förklaras av en eller flera av följande variabler: produktionsmängden (PAPER) maskintid (MACHINE) overhead-kostnader (OVERHEAD) antal personarbetstimmar (LABOR) Month Cost (y) Paper (x 1 ) Machine (x 2 ) Overhead (x 3 ) Labor (x 4 ) 1 1102 550 218 112 325 2 1008 502 199 99 301...... 27 1388 704 281 142 429 8
Exempel (forts) 9
Regression Analysis: COST versus PAPER, MACHINE, OVERHEAD, LABOR The regression equation is COST = 51.7 + 0.948 PAPER + 2.47 MACHINE + 0.048 OVERHEAD - 0.0506 LABOR Predictor Coef SE Coef T P Constant 51.72 21.70 2.38 0.026 PAPER 0.9479 0.1200 7.90 0.000 MACHINE 2.4710 0.4656 5.31 0.000 OVERHEAD 0.0483 0.5250 0.09 0.927 LABOR -0.05058 0.04030-1.26 0.223 S = 11.08 R-Sq = 99.9% R-Sq(adj) = 99.9% Analysis of Variance Source DF SS MS F P Regression 4 2271423 567856 4629.17 0.000 Residual Error 22 2699 123 Total 26 2274122 Source DF Seq SS PAPER 1 2255666 MACHINE 1 15561 OVERHEAD 1 3 LABOR 1 193 10
Scattermatris Matrix Plot of PAPER; MACHINE; OVERHEAD; LABOR 200 300 400 400 600 800 1000 PAPER 750 500 400 300 MACHINE 200 200 OVERHEAD 150 100 800 600 LABOR 400 500 750 1000 100 150 200 Det råder mycket starka samband mellan modellens förklarande variabler. Innebörd: de innehåller till stor del samma information! 11
Korrelationsmatris Correlations: PAPER; MACHINE; OVERHEAD; LABOR PAPER MACHINE OVERHEAD MACHINE 0.989 0.000 OVERHEAD 0.978 0.994 0.000 0.000 Korrelationen överstiger 0.9 för varje par av modellens förklaringsvariabler! ±0.9 är en vanlig gräns för mycket hög korrelation. LABOR 0.933 0.945 0.938 0.000 0.000 0.000 Cell Contents: Pearson correlation P-Value Viktig information Mindre viktig information 12
Multikollinearitet (multikolinjäritet) Hög korrelation (normalt > ±0.9) mellan modellens förklaringsvariabler kan resultera i Fel tecken på regressionskoefficienterna (negativt där vi förväntat oss positivt tecken eller omvänt) SE Fit (s b ) överskattas, vilket resulterar i att j t = b j /s b blir för liten vilket i sin tur resulterar i att variabler som j egentligen är signifikanta förkastas ur modellen Orsaken är att det i en modell med hög korrelation mellan förklaringsvariablerna inte går att separera vad i respektive förklaringsvariabel som förklarar variationen i y. Problemet att en förklaringsvariabel är starkt linjärt beroende av en eller flera av de andra förklaringsvariablerna kallas multikollinearitet. 13
Identifiering av multikollinearitet Metod 1: Ta för vana att inför en regressionsanalys alltid göra en scattermatris och en korrelationsmatris mellan alla modellens variabler. Om två eller flera av förklaringsvariablerna har höga korrelationer med varandra, uteslut alla av dessa utom den som har högst korrelation med y. Metod 2: Matematiskt mått för graden av multikollinearitet mellan de förklarande variablerna i en regressionsmodell: Variance Inflation Factor (VIF) 14
Variance Inflation Factor (VIF) VIF där 2 R j 1 1 2 R j = förklaringsgraden i en modell där x j är responsvariabel och övriga x-variabler är förklaringsvariabler VIF antar värden mellan 1 och VIF beräknas för varje förklaringsvariabel i modellen (görs automatiskt i Minitab) Multikollinearitet föreligger om det största av dessa VIF-värden är större än 10 eller om medelvärdet av samtliga VIF-värden är betydligt större än 1 15
Exempel (forts) Regression Analysis: COST versus PAPER; MACHINE; OVERHEAD; LABOR The regression equation is COST = 51.7 + 0.948 PAPER + 2.47 MACHINE + 0.048 OVERHEAD - 0.0506 LABOR Predictor Coef SE Coef T P VIF Constant 51.72 21.70 2.38 0.026 PAPER 0.9479 0.1200 7.90 0.000 55.452 MACHINE 2.4710 0.4656 5.31 0.000 228.905 OVERHEAD 0.0483 0.5250 0.09 0.927 104.055 LABOR -0.05058 0.04030-1.26 0.223 9.347 S = 11.0756 R-Sq = 99.9% R-Sq(adj) = 99.9% Analysis of Variance Source DF SS MS F P Regression 4 2271423 567856 4629.17 0.000 Residual Error 22 2699 123 Total 26 2274122 16
Exempel (forts) Regression Analysis: COST versus PAPER; OVERHEAD; LABOR The regression equation is COST = 48.6 + 1.43 PAPER + 2.46 OVERHEAD + 0.0042 LABOR Predictor Coef SE Coef T P VIF Constant 48.64 32.04 1.52 0.143 PAPER 1.4269 0.1169 12.21 0.000 24.109 OVERHEAD 2.4616 0.3877 6.35 0.000 26.015 LABOR 0.00423 0.05753 0.07 0.942 8.733 S = 16.3581 R-Sq = 99.7% R-Sq(adj) = 99.7% Analysis of Variance Source DF SS MS F P Regression 3 2267968 755989 2825.22 0.000 Residual Error 23 6154 268 Total 26 2274122 17
Exempel (forts) Regression Analysis: COST versus PAPER; LABOR The regression equation is COST = - 73.4 + 2.04 PAPER + 0.129 LABOR Predictor Coef SE Coef T P VIF Constant -73.42 41.64-1.76 0.091 PAPER 2.0388 0.1074 18.98 0.000 7.718 LABOR 0.12873 0.08784 1.47 0.156 7.718 S = 26.5678 R-Sq = 99.3% R-Sq(adj) = 99.2% Analysis of Variance Source DF SS MS F P Regression 2 2257182 1128591 1598.91 0.000 Residual Error 24 16940 706 Total 26 2274122 18
Fastighetsexempel (från FL 1-2) Regression Analysis: Pris versus Bostadsyta; Antal rum The regression equation is Pris = 64221 + 49.7 Bostadsyta - 141 Antal rum Predictor Coef SE Coef T P VIF Constant 64221 12766 5.03 0.000 Bostadsyta 49.673 7.507 6.62 0.000 3.208 Antal rum -141 2934-0.05 0.962 3.208 S = 30047.0 R-Sq = 48.6% R-Sq(adj) = 47.9% Analysis of Variance Source DF SS MS F P Regression 2 1.25273E+11 62636682991 69.38 0.000 Residual Error 147 1.32715E+11 902824574 Total 149 2.57989E+11 Source DF Seq SS Bostadsyta 1 1.25271E+11 Antal rum 1 2071358 Correlations: Pris; Bostadsyta; Antal rum Pris Bostadsyta Bostadsyta 0.697 0.000 Antal rum 0.577 0.830 0.000 0.000 19
Är multikollinearitet alltid ett bekymmer? När den anpassade modellen skall användas för att förklara variation och samband ska modeller med multikollinearitet undvikas. Tolkningarna blir annars missvisande. När den anpassade modellen skall användas för prognoser i nya punkter är bekymret mindre eftersom anpassningen görs så att ingående x-variabler kopplar till värdet hos y så bra som möjligt. Då kan vi alltså acceptera en modell med multikollinearitet. 20
Justerad förklaringsgrad Förklaringsgraden R 2 ökar alltid när vi lägger till fler förklaringsvariabler i modellen, oavsett om dessa är signifikanta eller ej. För att kunna jämföra modeller med olika antal förklaringsvariabler 2 använder vi istället justerad förklaringsgrad ( ). R adj 2 R adj R 2 1 SSE / SST n k 1 / n 1 där k = antalet förklarande variabler i modellen Ju högre justerad förklaringsgrad, desto bättre modell. Justerad förklaringsgrad används för jämförelse av modeller, ej för tolkning. 21
Måttet C p Storhet som relaterar slumpvariansen i en anpassad modell till slumpvariansen hos modellen som inkluderar samtliga tillgängliga x-variabler (ofta kallat den maximala modellen) samt till antalet ingående parametrar C p SSE ( n 2 ( k 1)) 2 s p där s p2 är residualvariansen (dvs MSE) hos den maximala modellen och k antalet förklarande variabler i den studerade modellen Används för att jämföra modeller: C p ska vara så liten som möjligt, och samtidigt k+1 I annat fall har den anpassade modellen en för stor bias, dvs ligger snett i förhållande till verkligheten. 22
Exempel Ett företag undersöker 25 säljdistrikt med avseende på försäljning. Man vill försöka förklara y = försäljningen (SALES) i volymenheter med följande variabler: x 1 (TIME) = den tid (i månader) som säljaren (i distriktet) har varit anställd. x 2 (POTENT) = den totala industriförsäljningens volym i distriktet x 3 (ADV) = annonskostnader (i dollar) x 4 (SHARE) = företagets genomsnittliga marknadsandel i distriktet (de senaste 4 åren) x 5 (SHARECHG) = förändringen i marknadsandel i distriktet jämfört med perioden innan de senaste fyra åren. x 6 (ACCTS) = antal kontrakt som säljaren arbetat med x 7 (WORKLOAD) = faktor för arbetsbelastningen hos säljaren x 8 (RATING) = bedömningsmått på säljaren satt av försäljningsansvarig 23
Best Subsets Regression: SALES versus TIME, POTENT,... Response is SALES S W H O P A R R O S R A K A T T H E C L T I E A A C C O I M N D R H T A N Vars R-Sq R-Sq(adj) C-p S E T V E G S D G 1 56.8 55.0 67.6 881.09 X 1 38.8 36.1 104.6 1049.3 X 2 77.5 75.5 27.2 650.39 X X 2 74.6 72.3 33.1 691.11 X X 3 84.9 82.7 14.0 545.52 X X X 3 82.8 80.3 18.4 582.64 X X X 4 90.0 88.1 5.4 453.84 X X X X 4 89.6 87.5 6.4 463.95 X X X X 5 91.5 89.3 4.4 430.23 X X X X X 5 91.2 88.9 5.0 436.75 X X X X X 6 92.0 89.4 5.4 428.00 X X X X X X 6 91.6 88.9 6.1 438.20 X X X X X X 7 92.2 89.0 7.0 435.67 X X X X X X X 7 92.0 88.8 7.3 440.30 X X X X X X X 8 92.2 88.3 9.0 449.03 X X X X X X X X 24
Regression Analysis: Y (Sales) versus X1 (Time); X2 (MktPoten);... The regression equation is Y (Sales) = - 1165 + 2.27 X1 (Time) + 0.0383 X2 (MktPoten) + 0.141 X3 (Adver) + 222 X4 (MktShare) + 285 X5 (Change) + 4.38 X6 (Accts) Predictor Coef SE Coef T P Constant -1165.5 420.4-2.77 0.013 X1 (Time) 2.269 1.699 1.34 0.198 X2 (MktPoten) 0.038278 0.007547 5.07 0.000 X3 (Adver) 0.14067 0.03839 3.66 0.002 X4 (MktShare) 221.60 50.58 4.38 0.000 X5 (Change) 285.1 160.6 1.78 0.093 X6 (Accts) 4.378 3.999 1.09 0.288 S = 428.004 R-Sq = 92.0% R-Sq(adj) = 89.4% Analysis of Variance Source DF SS MS F P Regression 6 38082180 6347030 34.65 0.000 Residual Error 18 3297369 183187 Total 24 41379549 25
Regression Analysis: Y (Sales) versus X1 (Time); X2 (MktPoten);... The regression equation is Y (Sales) = - 1114 + 3.61 X1 (Time) + 0.0421 X2 (MktPoten) + 0.129 X3 (Adver) + 257 X4 (MktShare) + 325 X5 (Change) Predictor Coef SE Coef T P VIF Constant -1113.8 419.9-2.65 0.016 X1 (Time) 3.612 1.182 3.06 0.006 1.364 X2 (MktPoten) 0.042088 0.006731 6.25 0.000 1.451 X3 (Adver) 0.12886 0.03704 3.48 0.003 1.286 X4 (MktShare) 256.96 39.14 6.57 0.000 1.202 X5 (Change) 324.5 157.3 2.06 0.053 1.237 S = 430.232 R-Sq = 91.5% R-Sq(adj) = 89.3% Analysis of Variance Source DF SS MS F P Regression 5 37862659 7572532 40.91 0.000 Residual Error 19 3516890 185099 Total 24 41379549 26
27
Framåtvalsprincipen (forward selection) 1. Välj först den x-variabel som har högst absolut korrelation med y. (Blir också den variabel som i en enkel linjär regressionsmodell ger högst R 2 eller lägst SSE) 2. Testa med t- eller F-test om denna variabel blir signifikant 3. Om den blir det, fixera denna variabel i modellen, kalla den x (1). Om inte, stanna utan modell. 4. Anpassa alla modeller med x (1) och ytterligare en x-variabel, välj tillfälligt den modell som har högst R 2 (eller lägst SSE) 5. Testa med t-test eller partiellt F-test om den andra x-variabeln blir signifikant. 6. Om den blir det, fixera även denna, kalla den x (2). Om inte, stanna vid modellen med x (1). 7. Fortsätt på motsvarande sätt tills inga nya signifikanta variabler kan läggas till i modellen. 28
Stepwise Regression: Y (Sales) versus X1 (Time); X2 (MktPoten);... Forward selection. Alpha-to-Enter: 0.25 Response is Y (Sales) on 8 predictors, with N = 25 Step 1 2 3 4 5 6 Constant 709.32 50.30-327.23-1441.93-1285.94-1165.48 X6 (Accts) 21.7 19.0 15.6 9.2 8.2 4.4 T-Value 5.50 6.41 5.19 3.22 2.92 1.09 P-Value 0.000 0.000 0.000 0.004 0.009 0.288 X3 (Adver) 0.227 0.216 0.175 0.154 0.141 T-Value 4.50 4.77 4.74 4.09 3.66 P-Value 0.000 0.000 0.000 0.001 0.002 X2 (MktPoten) 0.0219 0.0382 0.0376 0.0383 T-Value 2.53 4.79 4.90 5.07 P-Value 0.019 0.000 0.000 0.000 X4 (MktShare) 190 197 222 T-Value 3.82 4.10 4.38 P-Value 0.001 0.001 0.000 X5 (Change) 263 285 T-Value 1.61 1.78 P-Value 0.124 0.093 X1 (Time) 2.3 T-Value 1.34 P-Value 0.198 S 881 650 583 454 437 428 R-Sq 56.85 77.51 82.77 90.04 91.24 92.03 R-Sq(adj) 54.97 75.47 80.31 88.05 88.94 89.38 Mallows Cp 67.6 27.2 18.4 5.4 5.0 5.4 29
Bakåtelimineringsprincipen (backward elimination) 1. Anpassa modellen med samtliga tillgängliga förklaringsvariabler. 2. Om alla förklaringsvariabler är signifikanta blir detta den slutliga modellen. 3. Om en eller flera variabler ej är signifikanta (ses i deras t-kvoter) tas den variabel bort som har lägst absolut t-kvot. 4. Anpassa en ny modell med de variabler som är kvar. Om alla förklaringsvariabler i denna är signifikanta Slutlig modell 5. Om en eller flera variabler ej är signifikanta, ta bort den med lägst absolut t-kvot. 6. Upprepa förfarandet till dess att samtliga ingående förklaringsvariabler är signifikanta. 30
Stepwise Regression: Y (Sales) versus X1 (Time); X2 (MktPoten);... Backward elimination. Alpha-to-Remove: 0.1 Response is Y (Sales) on 8 predictors, with N = 25 Step 1 2 3 4 Constant -1508-1486 -1165-1114 X1 (Time) 2.0 2.0 2.3 3.6 T-Value 1.04 1.10 1.34 3.06 P-Value 0.313 0.287 0.198 0.006 X2 (MktPoten) 0.0372 0.0373 0.0383 0.0421 T-Value 4.54 4.75 5.07 6.25 P-Value 0.000 0.000 0.000 0.000 X3 (Adver) 0.151 0.152 0.141 0.129 T-Value 3.21 3.51 3.66 3.48 P-Value 0.006 0.003 0.002 0.003 X4 (MktShare) 199 198 222 257 T-Value 2.97 3.09 4.38 6.57 P-Value 0.009 0.007 0.000 0.000 X5 (Change) 291 296 285 325 T-Value 1.56 1.80 1.78 2.06 P-Value 0.139 0.090 0.093 0.053 X6 (Accts) 5.6 5.6 4.4 T-Value 1.16 1.23 1.09 P-Value 0.262 0.234 0.288 X7 (WkLoad) 20 20 T-Value 0.59 0.61 P-Value 0.565 0.550 X8 (Rating) 8 T-Value 0.06 P-Value 0.950 S 449 436 428 430 R-Sq 92.20 92.20 92.03 91.50 R-Sq(adj) 88.31 88.99 89.38 89.26 Mallows Cp 9.0 7.0 5.4 4.4 31
Stegvis regression (stepwise regression) Genom att kombinera framåtval och bakåteliminering får vi stegvis regression: 1. Välj först den variabel som har högst korrelation med y 2. Behåll variabeln om den är signifikant 3. Lägg till en ny variabel om den blir signifikant, ta bort den gamla om den inte blir signifikant. 4. Fortsätt att lägga till och ta bort variabler till dess att inga nya signifikanta kan hittas och inga gamla kan tas bort. 32
Stepwise Regression: Y (Sales) versus X1 (Time); X2 (MktPoten);... Alpha-to-Enter: 0.15 Alpha-to-Remove: 0.15 Response is Y (Sales) on 8 predictors, with N = 25 Step 1 2 3 4 5 Constant 709.32 50.30-327.23-1441.93-1285.94 X6 (Accts) 21.7 19.0 15.6 9.2 8.2 T-Value 5.50 6.41 5.19 3.22 2.92 P-Value 0.000 0.000 0.000 0.004 0.009 X3 (Adver) 0.227 0.216 0.175 0.154 T-Value 4.50 4.77 4.74 4.09 P-Value 0.000 0.000 0.000 0.001 X2 (MktPoten) 0.0219 0.0382 0.0376 T-Value 2.53 4.79 4.90 P-Value 0.019 0.000 0.000 X4 (MktShare) 190 197 T-Value 3.82 4.10 P-Value 0.001 0.001 X5 (Change) 263 T-Value 1.61 P-Value 0.124 S 881 650 583 454 437 R-Sq 56.85 77.51 82.77 90.04 91.24 R-Sq(adj) 54.97 75.47 80.31 88.05 88.94 Mallows Cp 67.6 27.2 18.4 5.4 5.0 33
Index En indexserie är statistiska uppgifter som visar utvecklingen under en tidsperiod. Det mest kända indexet är konsumentprisindex (KPI). KPI är ett mått på prisutvecklingen i Sverige. Exempel: KPI mellan 2001 och 2008 År 2001 2002 2003 2004 2005 2006 2007 2008 KPI 267 273 278 279 280 284 291 301 34 3 4
Exempel enkla index Betrakta följande tabell över prisutvecklingen av 1 kilo torskfilé och 1 kilo falukorv under perioden 1994-2000 (årliga medelpriser i kronor). År 1994 1995 1996 1997 1998 1999 2000 Torskfilé 72.80 69.70 59.40 67.10 78.30 83.90 89.60 Falukorv 48.30 47.90 42.60 41.70 42.40 40.40 40.60 (hämtat ur Statistisk årsbok 2002) 35 3 5
Index Exempel enkla index (forts) 140 120 100 Torskfilé Falukorv 80 60 40 20 0 1994 1995 1996 1997 1998 1999 2000 36 3 6
Exempel byte av bastidpunkt Följande tabell illustrerar löneutvecklingen för kvinnor och män under åren 1974-1981. Basåret är 1947 (det vill säga, index för år 1947 är 100). År 1974 1975 1976 1977 1978 1979 1980 1981 Män 689 815 897 982 1039 1114 1223 1299 Kvinnor 886 1087 1224 1362 1459 1571 1733 1860 37 3 7
1974 1975 1976 1977 1978 1979 1980 1981 1974 1975 1976 1977 1978 1979 1980 1981 Index Index Exempel byte av bastidpunkt (forts) Män Kvinnor Män Kvinnor 250 120 200 100 150 100 80 60 40 50 20 0 0 38 3 8