SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende

Relevanta dokument
SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende

SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende

SF1911: Statistik för bioteknik

SF1901: Sannolikhetslära och statistik

SF1901: Sannolikhetslära och statistik

SF1901: Sannolikhetslära och statistik

Föreläsning 2. Kapitel 3, sid Sannolikhetsteori

SF1901: SANNOLIKHETSTEORI OCH GRUNDLÄGGANDE SANNOLIKHETSTEORI, STATISTIK BETINGADE SANNOLIKHETER, OBEROENDE. Tatjana Pavlenko.

SF1901: SANNOLIKHETSTEORI OCH STATISTIK GRUNDLÄGGANDE SANNOLIKHETSTEORI, BETINGAD SANNOLIKHETER, OBEROENDE. Tatjana Pavlenko.

Grundläggande matematisk statistik

SF1901: Sannolikhetslära och statistik

Satsen om total sannolikhet och Bayes sats

1 Föreläsning I, Mängdlära och elementär sannolikhetsteori,

1 Föreläsning I, Vecka I: 5/11-11/11 MatStat: Kap 1, avsnitt , 2.5

Kolmogorovs Axiomsystem Kolmogorovs Axiomsystem Varje händelse A tilldelas ett tal : slh att A inträar Sannolikheten måste uppfylla vissa krav: Kolmog

Matematisk statistik - Slumpens matematik

Föreläsning 1, Matematisk statistik Π + E

TMS136. Föreläsning 2

Övning 1 Sannolikhetsteorins grunder

Grundläggande matematisk statistik

Matematisk statistik 9 hp för I, Pi, C, D och fysiker Föreläsning 1: Introduktion och Sannolikhet

Sannolikhetsbegreppet

Utfall, Utfallsrummet, Händelse. Sannolikhet och statistik. Utfall, Utfallsrummet, Händelse. Utfall, Utfallsrummet, Händelse

Föreläsning G70, 732G01 Statistik A

Matematisk statistik 9hp för: C,D,I, Pi

TMS136. Föreläsning 2

TAMS79: Föreläsning 1 Grundläggande begrepp

SF1901 Sannolikhetsteori och statistik I

Betingad sannolikhet och oberoende händelser

Statistik 1 för biologer, logopeder och psykologer

Föreläsning 2, Matematisk statistik för M

TMS136. Föreläsning 1

Statistikens grunder HT, dagtid Statistiska institutionen

Introduktion till sannolikhetslära. Människor talar om sannolikheter :

Matematisk statistik 9hp Föreläsning 2: Slumpvariabel

Föreläsning 1, Matematisk statistik för M

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 1 Mängdlära Grundläggande sannolikhetsteori Kombinatorik Deskriptiv statistik

Kombinatorik och sannolikhetslära

Kap 2: Några grundläggande begrepp

händelsen som alltid inträffar. Den tomma mängden representerar händelsen som aldrig inträffar.

TMS136. Föreläsning 1

Sannolikhetslära. 1 Enkel sannolikhet. Grunder i matematik och logik (2015) 1.1 Sannolikhet och relativ frekvens. Marco Kuhlmann

SF1901: Sannolikhetslära och statistik

Sannolikhetsteori. Måns Thulin. Uppsala universitet Statistik för ingenjörer 23/ /14

Finansiell statistik, vt-05. Sannolikhetslära. Mängder En mängd är en samling element (objekt) 1, 2,, F2 Sannolikhetsteori. koppling till verkligheten

Exempel för diskreta och kontinuerliga stokastiska variabler

SF1911: Statistik för bioteknik

F2 SANNOLIKHETSLÄRA (NCT )

SF1922/SF1923: SANNOLIKHETSTEORI OCH DISKRETA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 23 mars, 2018

Föreläsning G70 Statistik A

F3 SANNOLIKHETSLÄRA (NCT ) För komplementhändelsen A till händelsen A gäller att

Matematisk statistik för D, I, Π och Fysiker. Matematisk statistik slumpens matematik. Tillämpningar för matematisk statistik.

SF1901: Sannolikhetslära och statistik. Mer om Approximationer

3 Grundläggande sannolikhetsteori

Finansiell statistik, vt-05. Slumpvariabler, stokastiska variabler. Stokastiska variabler. F4 Diskreta variabler

SF1901: SANNOLIKHETSTEORI OCH STATISTIK GRUNDLÄGGANDE SANNOLIKHETSTEORI, KORT OM BESKRIVANDE STATISTIK. Tatjana Pavlenko.

SF1901: Sannolikhetslära och statistik

Föreläsning 2, FMSF45 Slumpvariabel

Statistisk slutledning (statistisk inferens): Sannolikhetslära: GRUNDLÄGGANDE SANNOLIKHETSLÄRA. Med utgångspunkt från ett stickprov

SF1901: Sannolikhetslära och statistik. Väntevärde; Väntevärde för funktioner av s.v:er; Varians; Tjebysjovs olikhet. Jan Grandell & Timo Koski

4 Diskret stokastisk variabel

SF1901: Sannolikhetslära och statistik. Flera stokastiska variabler.

Grundläggande matematisk statistik

Institutionen för lingvistik och filologi VT 2014 (Marco Kuhlmann 2013, tillägg och redaktion Mats Dahllöf 2014).

SF1901: Sannolikhetslära och statistik

Slumpvariabler och sannolikhetsfördelningar

Statistik. Det finns tre sorters lögner: lögn, förbannad lögn och statistik

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

faderns blodgrupp sannolikheten att barnet skall få blodgrupp A0 A0 1/2 AA 1 AB 1/2 Övriga 0

Reliability analysis in engineering applications

Svar till gamla tentamenstal på veckobladen

SF1901: SANNOLIKHETSLÄRA OCH STATISTIK. MER HYPOTESPRÖVNING. χ 2 -TEST. Jan Grandell & Timo Koski

Om sannolikhet. Bengt Ringnér. August 27, Detta är introduktionsmaterial till kursen i matematisk statistik för lantmätarprogrammet

Fö relä sning 1, Kö system vä ren 2014

Matematisk Statistik och Disktret Matematik, MVE051/MSG810, VT19

Anna: Bertil: Cecilia:

SOS HT Slumpvariabler Diskreta slumpvariabler Binomialfördelning. Sannolikhetsfunktion. Slumpförsök.

Föreläsningsmanus i matematisk statistik för lantmätare, vecka 2 HT07

15.1 Mer om betingad sannolikhet

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 1

Finansiell Statistik (GN, 7,5 hp,, VT 2009) Föreläsning 2. Diskreta Sannolikhetsfördelningar. (LLL Kap 6) Stokastisk Variabel

FÖRELÄSNING 3:

Veckoblad 3. Kapitel 3 i Matematisk statistik, Blomqvist U.

SF1901: Sannolikhetslära och statistik

S0007M Statistik2: Slumpmodeller och inferens. Inge Söderkvist

5. BERÄKNING AV SANNOLIKHETER

STOKASTIK Sannolikhetsteori och statistikteori med tillämpningar

SF1901: Övningshäfte

SF1914/SF1916: SANNOLIKHETSTEORI OCH GRUNDLÄGGANDE SANNOLIKHETSTEORI, STATISTIK KORT OM BESKRIVANDE STATISTIK. Tatjana Pavlenko.

Avd. Matematisk statistik

Stokastiska Processer F2 Föreläsning 1: Repetition från grundkursen

SF1901: Sannolikhetslära och statistik

FMS012/MASB03: Matematisk statistik 9.0 hp för F+fysiker Föreläsning 1: Sannolikhet

F2 Introduktion. Sannolikheter Standardavvikelse Normalapproximation Sammanfattning Minitab. F2 Introduktion

Fö relä sning 1, Kö system 2015

Matematisk statistik TMS064/TMS063 Tentamen

cx 5 om 2 x 8 f X (x) = 0 annars Uppgift 4

Kapitel 2. Grundläggande sannolikhetslära

Sannolikhetslära. 19 februari Vad är sannolikheten att vinna om jag köper en lott?

Transkript:

SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende Jan Grandell & Timo Koski 21.01.2016 Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 1 / 39

Lärandemål Betingad sannolikhet (definition, betydelse) Lagen om total sannolikhet Bayes sats (definition, använding, betydelse) a priori sannolikhet posteriori sannolikhet Oberoende händelser Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 2 / 39

Repetition: Kolmogorovs axiomsystem Ett sannolikhetsmått P är en funktion av händelser, sådan att: (a) 0 P(A) 1; (b) P(Ω) = 1 (c) om A och B är disjunkta händelser, så gäller P(A B) = P(A)+P(B) Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 3 / 39

Sannolikhet. En händelse med sannolikhet = 1 kallas en säker händelse. Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 4 / 39

Repetition: Regler för sannolikhetskalkyl Sats P(A ) = 1 P(A). Sats P(A B) = P(A)+P(B) P(A B). Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 5 / 39

De Morgans regler Sats A (B C) = (A B) (A C) A (B C) = (A B) (A C) Sats (A B) = A B Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 6 / 39

En sats till Sats Låt A och B vara två händelser och A B. Då gäller P(A) P(B). Bevis: B = A (B A ) (rita ett Venndiagram). Det är klart att Därför ger axiom (c) A (B A ) = P(B) = P (A (B A )) = P (A)+P (B A ) P (A), ty P (B A ) 0. Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 7 / 39

Inledning (betingad sannolikhet) Låt A och B vara två händelser, dvs A,B Ω. Vad är sannolikheten, betecknad med P(B A), för B då vi vet att A har inträffat? Ω Β 01 000 111 000 111 0000 1111 0000 1111 00000 11111 00000 11111 00000 11111 00000 11111 000000 111111 000000 111111 000000 111111 000000 111111 000000 111111 000000 111111 000000 111111 00000 11111 0000 1111 000 111 000 111 Α Α B Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 8 / 39

P(B A) Vi är ledda oss till följande definition. Definition Låt A och B vara två händelser. Antag att P(A) > 0. Sannolikheten för B betingat av A betecknas med P(B A) och definieras som P(B A) = P(A B). P(A) Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 9 / 39

Betingad sannolikhet är ett sannolikhetsmått: P(B A) 0 är klart. A B A, och satsen ovan ger P(A B) P(A B) P(A) d.v.s. 1. P(A) P(A A) = P(A A) P(A) = P(A) P(A) = 1 m.a.o. A är utfallsrummet. Tag B 1 B 2 =. P(B 1 B 2 A) = P((B 1 B 2 ) A) P(A) = P((B 1 A) (B 2 A)) P(A) and by axiom (c) = P((B 1 A))+P((B 2 A) P(A) = P(B 1 A) P(A) + P(B 2 A) P(A) = P(B 1 A)+P(B 2 A). Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 10 / 39

Betingad sannolikhet: exempel Exempel (Kast med röd och vit tärning) A = summan av ögonen är högst 4. B k = vita tärningen visar k ögon. P(B k A) = 0 om k 4. Möjliga utfall, m, är 36: (v,r),v,r = 1,...6, dvs (1,1),(1,2),...(6,6). Gynnsamma utfall för A, är 6: (1,1), (1,2), (1,3), (2,1), (2,2), (3,1). Gynnsamma utfall för A B k, är 4 k: (v,r),v = k,r = 1,...4 k, dvs (k,1),(k,2),...(k,4 k) om k < 4. Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 11 / 39

Betingad sannolikhet: exempel forts. Exempel Klassiska sannolikhetsdefinitionen ger Detta ger, för k < 4, P(A) = 6 36 P(B k A) = 4 k 6 och P(A B k ) = 4 k 36. 3 6 = 1 2 k = 1 = 2 6 = 1 3 k = 2 1 6 k = 3. Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 12 / 39

Betingad sannolikhet Ofta är det lättare att ange värden till betingade sannolikheter än till obetingade, och vi utnyttar definitionen baklänges. Exempel En ohederlig person har två tärningar, en äkta och en falsk som alltid ger 6 ögon. Han väljer slumpmässigt den ena. Vad är sannolikheten för 5 resp. 6 ögon. Låt oss betrakta fallet med sex ögon. Intuitivt bör gälla att sannolikheten är 1 2 1 6 + 1 2 1 = 1 12 + 6 12 = 7 12. Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 13 / 39

Lagen om total sannolikhet Mera systematiskt gäller följande sats Sats (Lagen om total sannolikhet) Om H 1,...,H n är disjunkta händelser, har positiv sannolikhet och uppfyller hela Ω, så gäller för varje händelse A Ω att P(A) = n P(H i )P(A H i ). i=1 Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 14 / 39

Lagen om total sannolikhet Ω Η 1 Η 5 Η 2 Α Η 4 Η 3 Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 15 / 39

Lagen om total sannolikhet Bevis. Vi utnyttjar en av De Morgans regler P(A) = P(A Ω) = P(A (H 1... H n )) = P((A H 1 )... (A H n )) och sedan Kolmogorovs axiom (c) från första föreläsningen, ty (A H i ) (A H j ) = om i = j, = n n P(A H i ) = P(H i )P(A H i ). i=1 i=1 Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 16 / 39

Bayes sats Vi ska nu ge en viktig sats om vändning av händelserna i betingade sannolikheter. Sats (Bayes sats) Under samma villkor som i lagen om total sannolikhet gäller Bevis. P(H i A) = P(H i)p(a H i ) n j=1 P(H j)p(a H j ). P(H i A) = P(H i A) P(A) = P(H i A) P(H i ) P(H i) P(A) = P(A H i) P(H i) P(A). Lagen om total sannolikhet tillämpad på P(A) ger resultatet. Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 17 / 39

Bayes sats: tolkning Sannolikheten P(H i ) kallas a priori sannolikhet för H i. Sannolikheten P(H i A) kallas posteriori sannolikhet för H i. Bayes sats visar alltså hur a priori sannolikhet omvandlas till posteriori sannolikhet. Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 18 / 39

Bayesian search theory is the application of Bayesian statistics to the search for lost objects. It has been used several times to find lost sea vessels, for example the USS Scorpion. It also played a key role in the recovery of the flight recorders in the Air France Flight 447 disaster of 2009. Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 19 / 39

Logiska resonemang & sannolikhet Anta P(B A) > P(B). D.v.s., om A inträffat (är sann), blir B mer sannolik. Men då fås P(A)P(B A) P(B) > P(A) d.v.s. P(A B) > P(A). eller: om B inträffar, blir A mer sannolik. Till exempel, om det regnar, är en ytbeläggning blöt. Nu ser vi att ytbeläggningen är blöt, det är alltså mer sannolikt att det regnat. Antag P(B A) > P(B). Då gäller: 1 Om B är sant, då blir A mindre sannolik. 2 Om A är sant, då blir B mindre sannolik. En mjukversion av den vanliga logiken. Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 20 / 39

Drill på betingad sannolikhet 0 < P(A) < 1. Vilket av följande påståenden är felaktigt? a) P(Ω A) = 1. b) P(A Ω) = P(A). c) P(A A) = 0. d) P(A A) = P(A). Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 21 / 39

Thomas Bayes ca. 1701 1761 Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 22 / 39

Bayes sats: exempel Låt oss gå tillbaka till exemplet om falskspelaren. Sätt A = 6 ögon. H 1 = äkta tärningen. H 2 = falska tärningen. Då gäller P(A) = P(H 1 )P(A H 1 )+P(H 2 )P(A H 2 ) = 1 2 1 6 + 1 2 1 = 7 12, som i exemplet. Bayes sats ger vidare och P(H 1 A) = P(H 1 A) P(A) P(H 2 A) = P(H 2 A) P(A) = P(A H 1 ) P(H 1) P(A) = 1 1 62 = P(A H 2 ) P(H 2) P(A) = 1 1 2 vilket kanske inte är lika lätt att inse rent intuitivt. 12 7 = 1 7 12 7 = 6 7 Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 23 / 39

Bayes sats: screening för cancer Vi räknar på det exempel som ges av John Allen Paulos: The Math behind Screening Tests. What a positive result really means. Scientific American, January 2012. http://www.scientificamerican.com/article.cfm?id=weighing-the-positives Låt oss anta att 0.4 % av befolkningen drabbas av en form av cancer. Ett diagnostiskt test ger positivt resultat i 99.5 % av fallen, om en individ har cancer och ger positivt resultat i 1 % av fallen, om en individ inte har cancer. Om vi plockar på måfå en vuxen individ ur en stor population och testet ger ett postivt svar, vad är sannolikheten för att individen har den aktuella formen av cancer? Beteckna A 1 = individen har cancer. A 2 = individen har inte cancer. B = positivt testresultat. Vi har P (A 1 ) = 0.004,P (A 2 ) = 0.996,P (B A 1 ) = 0.995,P (B A 2 ) = 0.01 Sökt är P (A 1 B). Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 24 / 39

Bayes sats: medicinsk diagnostik P(A 1 ) = 0.004,P (A 2 ) = 0.996,P (B A 1 ) = 0.995,P (B A 2 ) = 0.01 Bayes sats ger P(A 1 B) som P(A 1 B) = = P(B A 1 )P (A 1 ) P (B A 1 )P (A 1 )+P (B A 2 )P (A 2 ) = 0.995 0.004 0.995 0.004+0.01 0.996 = 0.2855. En oväntat låg posteriori sannolikhet! Varför är detta ändå ett rimligt svar? Vilken slutsats drar vi om screening? Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 25 / 39

Bayes sats & inlärning Vi har N slantar i en urna. N 1 av dessa är hederliga i den meningen att de har två olika sidor, krona och klave. En av slantarna är falsk i den meningen att den har krona på båda sidor. Någon plockar på måfå en av slantarna utan att vi får inspektera densamma, och singlar den k ggr. Utfallet blir k kronor. Vad är sannolikheten att den valda slanten är den falska? Beteckningar: H 1 = hederlig slant,h 2 = falsk slant. A k = händelsen med k st. kronor i k singlingar. Sannolikheter enligt uppgiften: P(H 1 ) = N 1 N (antalet gynnsamma fall/totalantalet fall). P(H 2 ) = 1 N. P (A k H 1 ) = 1 (antalet 2 k gynnsamma fall/totalantalet fall, senare alt. p.g.a oberoende) och P (A k H 2 ) = 1. Sökt: P(H 2 A k ). Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 26 / 39

Bayes sats & inlärning H 1 = hederlig slant, H 2 = falsk slant. A k = händelsen med k st. kronor ik singlingar. P(H 1 ) = N 1 N,P(H 2) = 1 N. P (A k H 1 ) = 1 ochp(a 2 k k H 2 ) = 1. Sökt: P (H 2 A k ). Lagen om total sannolikhet (LTS) ger P(A k ) = P(A k H 1 )P(H 1 )+P (A k H 2 )P(H 2 ) Bayes sats ger = 1 N 1 2 k N + 1 N = 2k +N 1 2 k N P (H 2 A k ) = P(A k H 2 )P(H 2 ) P(A k ) = 2 k 2 k +N 1. Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 27 / 39

Bayes sats & inlärning H 1 = hederlig slant, H 2 = falsk slant. A k = händelsen med k st. kronor ik singlingar. P(H 1 ) = N 1 N,P(H 2) = 1 N,P(A k H 1 ) = 1 2 k och P (A k H 2 ) = 1. Observera att P (H 2 A k ) = 2 k 2 k +N 1. P (H 2 A 0 ) = 1 N = P(H 2). Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 28 / 39

Bayes sats & en inlärningskurva I figuren plottas med den sökta sannolikheten som funktion av k för k = 0,...,40 och N = 1000000 P (H 2 A k ) = 2 k 2 k +N 1. 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 5 10 15 20 25 30 35 40 Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 29 / 39

Oberoende händelser Intuitivt är två händelser A och B oberoende om inträffandet av A inte ger någon information om huruvida B inträffar eller ej. I formler 1 betyder detta Allmänt gäller ju P(B A) = P(B). P(B A) = P(A B), om P(A) > 0. P(A) 1 J.f.r med P (H 2 A 0 ) = P(H 2 ) ovan. Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 30 / 39

Oberoende händelser Multiplikation med P(A) leder oss till följande definition: Definition Två händelser A och B är oberoende om P(A B) = P(A)P(B). Definitionen ovan kräver inget villkor om positiva sannolikheter. Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 31 / 39

Oberoende händelser Det är inte självklart hur oberoende skall definieras för flera händelser. Definition Tre händelser A, B och C är oberoende om P(A B) = P(A)P(B) P(A C) = P(A)P(C) P(B C) = P(B)P(C) P(A B C) = P(A)P(B)P(C). Endast P(A B C) = P(A)P(B)P(C) räcker inte, vilket inses om vi sätter A = B och C =. Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 32 / 39

Oberoende händelser Inte heller räcker parvis oberoende, vilket ses av följande exempel: Kast med röd och vit tärning: A = vita tärningen visar jämnt antal ögon. B = röda tärningen visar jämnt antal ögon. C = jämn ögonsumma. A och B är oberoende av försöksskäl. Vidare gäller P(A C) = P(A B) = P(A)P(B) = 1 4 och P(A)P(C) = 1 4. Således är A och C oberoende. Pss. följer att B och C är oberoende. Eftersom A B C vore det inte rimligt att anse att A, B och C är oberoende. Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 33 / 39

Oberoende händelser Allmänt: Oavsett vilka händelser vi plockar ut så skall sannolikheten för snittet vara produkten av sannolikheterna. Man kan visa att om A 1,...,A n är oberoende, så är även A 1,...,A n oberoende. Detta kan verka helt självklart, med är inte helt lätt att visa. Vi nöjer oss med fallet n = 2. Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 34 / 39

Oberoende händelser Vi har P(A B ) = P((A B) ) = 1 P(A B) = 1 P(A) P(B)+P(A)P(B) = 1 P(A) P(B)(1 P(A)) = (1 P(A))(1 P(B)) = P(A )P(B ). Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 35 / 39

Oberoende händelser Sats Låt händelserna A 1,...,A n vara oberoende. Sätt B = n 1 A i, dvs. minst en av händelserna A 1,...,A n inträffar. Då gäller P(B) = 1 (1 P(A 1 ))(1 P(A 2 ))...(1 P(A n )). Bevis. ( ) P(B) = 1 P(B n ) = 1 P Ai n = 1 1 1 P(A i) = 1 n 1 (1 P(A i )). Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 36 / 39

Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 37 / 39

Stokastiska variabler: inledning nästan alla situationer som vi betraktar, kommer resultaten av slumpförsöken att vara tal, kontinerliga mätvärden eller antal. Det är praktiskt att anpassa beteckningarna till detta. Definition En stokastisk variabel s.v. (eller en slumpvariabel) X är en funktion från Ω till reella linjen. Lite löst kommer vi att uppfatta X som en beteckning för resultatet av ett slumpförsök. För ett tärningskast kan X anta ett av värdena 1, 2, 3, 4, 5 eller 6. Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 38 / 39

Stokastiska variabler Ω X X(ω) ω Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 39 / 39