729G43 Artificiell intelligens Probabilistisk logik. Arne Jönsson HCS/IDA

Storlek: px
Starta visningen från sidan:

Download "729G43 Artificiell intelligens Probabilistisk logik. Arne Jönsson HCS/IDA"

Transkript

1 729G43 Artificiell intelligens Probabilistisk logik Arne Jönsson HCS/IDA

2 Probabilistiska resonemang Osäkerhet Grundläggande sannolikhetslära Stokastiska variabler Bayes teorem Bayesianska nätverk Konstruktion Inferens HMM

3 Osäkerhet Agenten har nästan aldrig tillgång till hela sanningen om omgivningen Ofullständig eller felaktig förståelse av världen, jfr qualification problem Exempel: Mål: cykla hem efter jobbet Om inte: Jag måste jobba, Jag blir bortbjuden, Cykeln stulen eller punkterad, Huset brunnit ner, Jag blir bortrövad etc etc Kan mildra målet: komma hem nångång Eller resurserna: jag sticker nu innan jag blir bortrövad och cykeln stulen Rationella beslut fattade baserat på hur viktigt målet är jämfört med den kostnad det innebär att nå målet i termer av hur troligt det är att man lyckas

4 Osäkerhet Diagnosregel d Lufttomt(d) Punktering(d) Inte korrekt eftersom alla lufttomma däck inte punkterade d Lufttomt(d) Punktering(d) IngenVentil(d) IngenSlang(d) IntePumpat(d) qualification Funkar inte med d Punktering(d) Lufttomt(d) eftersom det kan vara pyspunka, nypunkat etc Om inget oförutsett inträffat så: Icke-monoton logik d Lufttomt(d) MPunktering(d) Punktering(d)

5 Sannolikhet Vill ha något i stil med: d Lufttomt(d) 0,8 Punktering(d) Sannolikheten för punktering givet att däcket är lufttomt är 0,8 Detta betyder att 80% av alla lufttomma däck har punktering inte att vi har 80% punktering, dvs satser är sanna eller falska med viss sannolikhet. Grad av sanning hanteras med Fuzzy logic

6 Varifrån kommer sannolikheterna Frekventistiskt perspektiv Sannolikheter är relativa frekvenser som baseras på experiment Subjektivistiskt perspektiv Sannolikheter beskriver en agents konfidens Objektivistiskt perspektiv Sannolikheterna är reala aspekter i verkligheten; objektiva sanningar, beroende på objektet, ex. sannolikheten för klave = 0,5

7 Beslutsteoretisk agent Räkna ut sannolikheter för nuvarande tillstånd baserat på percept och handling Räkna ut utfallssannolikheter för handlingar baserat på handlingsbeskrivningar och nuvarande tillstånd Välj handling med högst förväntad nyttighet givet sannolikheten att lyckas och information om handlingars nyttighet En beslutsteoretisk agent kan inte med säkerhet välja en handling, utföra den och vara säker på utfallet

8 Stokastiska variabler Stokastiska variabler P(a) betecknar sannolikheten att den stokastiska variabeln a är sann, ovillkorligt Stokastiska variabler skrivs med inledande versal, ex Punktering I boken betecknas okända stokastiska variabler med liten bokstav, P(a), vilket vi gör här också Stokastisk variabel, X, har sannolikhet för olika värden ur en värdedomänen <x 1, x 2, x n > Vanlig domän är <sant, falskt> P(Punktering=sant) = 0,2 Logiska konnektiv P(Punktering = sant Cykelpump= falskt) = 0,99

9 Konventioner P(X=sant) skrivs P(x) och P(X=falskt) skrivs P( x), P(Punktering=sant) skrivs som P(punktering) P(cykelpump punktering) = 0,1

10 Sannolikhetsfördelning Stokastisk variabels värdedomän kan ha fler olika värden P(Däcket=punkterat) = 0,2 P(Däcket=opumpat) = 0,3 P(Däcket=helt) = 0,5 P betecknar en vektor av sannolikheter P(Däcket) = <0,2, 0,3, 0,5> För domänen <sant, falskt> betecknar P(Cykelpump) alla värden, dvs P(Cykelpump=sant) och P(Cykelpump=falskt) P(Cykelpump, Punktering) betecknar alla kombinationer av värden P(cykelpump, Punktering) betecknar de fall då Cykelpump=sant medan Punktering är antingen sant eller falskt

11 Grundläggande axiom 0 P(a) 1 P(sant) = 1; P(falskt) = 0 För variabeln D med domänen d 1,..d n gäller: å i= 1 ) = 1 P(a Ú b) = P(a) + P(b) P(a Ù b) n P( D = d i a b

12 Betingad sannolikhet Sannolikheten att a är sann givet att b är sann tecknas P(a b) P(punktering luft) = 0,8, förutsatt att vi bara vet lufttomt P(punktering luft cykelpump) = 0,01, om vi vet mer Betingad sannolikhet kan definieras i termer av ovillkorlig sannolikhet P(a b) = P(a b) P(b) Produktregeln P(a b) = P(a b)p(b) P(a b) = P(b a)p(a)

13 Kedjeregeln Produktregeln för P P(A,B) = P(A B)P(B) P(A = a 1 B = b 1 ) = P(A = a 1 B = b 1 ) P(B = b 1 ) P(A = a 1 B = b 2 ) = P(A = a 1 B = b 2 ) P(B = b 2 ) Kan också skrivas P(a 1,a 2,...,a n ) = P(a n a n 1,...,a 1 )P(a n 1,...,a 1 ) fortsätt applicera P(a 1,a 2,...,a n ) = P(a n a n 1,...,a 1 )P(a n 1 a n 2..,a 1 )...P(a 2 a 1 )P(a 1 ) n P(a 1,a 2,...,a n ) = P(a i a i 1,...,a 1 ) Kedjeregeln i=1

14 Simultanfördelning, 1 Simultanfördelningen visar sannolikheten för varje möjlig kombination av värden på stokastiska variabler P(Punktering) betecknar såväl P(punktering) som P( punktering), ex P(Punktering) = <0,6, 0,4> P(Punktering) Punktering=sant 0,6 Punktering=falskt 0,4 För två variabler med tvåvärd värdedomän (t.ex. sant, falskt) blir det 2 x 2 = 4 värden, ex P(Punktering, Luft) betecknar alla kombinationer av de stokastiska variablerna Punktering och Luft

15 Simultanfördelning, 2 P(Punktering, Luft) luft luft punktering 0,1 0,4 punktering 0,4 0,1 Tabellens värden måste summeras till 1 Ur tabellen fås t.ex.: P( punktering luft) = 0,4 P(Punktering luft) = 0,1+ 0,4 = 0,5 P( punktering luft) = P( punktering luft) P( luft) = 0,4 0,4 + 0,1 = 0,8

16 Oberoende P(Punktering, Luft) ger tabell med 2x2=4 värden Fler variabler P(Punktering, Luft, Cykelpump) ger tabell med 2x2x2=8 värden För n binära stokastiska variabler har vi 2 n värden P(Tärning=6 Tärning=1) = P(Tärning=6), dvs sannolikheten för att få 6 är oberoende av tidigare tärningskast P(Punktering, Sol) är också oberoende och kan skrivas som P(Punktering) P(Sol) med 2+2 värden P(Punktering, Sol, Tandvärk, FredPåJorden) är oberoende, dvs P(Punktering) P(Sol) P(Tandvärk) P(FredPåJorden) Ger tabell med =8 värden istället för 2 4 =16 värden

17 Bayes teorem P(a b) = P(a b)p(b) P(a b) = P(b a)p(a) P(a b)p(b) = P(b a)p(a) P(b a)p(a) P(a b) = P(b) P(B A)P(A) P(A B) = P(B) Produktregeln Bayes teorem Bayesteorem för flervärda variabler

18 Bayes teorem, 2 Fördelen med Bayes teorem är att den låter oss uttrycka diagnossamband i termer av kausalsamband Kausalsamband, P(a b), b orsakar a, men vi vill ofta diagnostisera utifrån observationer Exempel P(rödaPrickar mässling) = 0,8 (kausalsamband) P(mässling) = 0,3 (ovillkorligt) P(rödaPrickar) = 0,5 Diagnostisera mässling utifrån patient med röda prickar: P(mässling rödaprickar) = P(rödaPrickar mässling)p(mässling) P(rödaPrickar) = 0,8 0,3 0,5

19 Mer Bayes P(a b) = P(b a)p(a) P(b) Eftersom vi har disjunkta händelser som fyller hela utfallsrummet kan P(b) tecknas som: P(b) = P(a)P(b a) + P( a)p(b a) a a b P(a b) = P(b a)p(a) P(a)P(b a) + P( a)p(b a)

20 Mer generell Bayes Om vi har flera möjliga orsaker till en viss observation o 2 o 1 s o n o 3 P(s) = n P(o i )P(s o i ) i=1 P(o k s) = P(s o k )P(o k ) n P(o i )P(s o i ) i=1

21 Exempel, Kahneman & Tversky, 1972 Stad med två taxibolag: Blå har 85%, Gröna har 15% Taxi inblandad i smitningsolycka Vittne säger att den var grön Test visar att vittnet blandar ihop grönt och blått 20% av fallen Hur tillförlitligt är vittnet? P(grön vittnargrön) P(vittnarGrön grön) = 0,8 P(vittnarGrön blå) = 0,2 P(vittnarGrön grön)p(grön) P(grön vittnargrön) = P(vittnarGrön) P(vittnarGrön) = P(grön)P(vittnarGrön grön) + P(blå)P(vittnarGrön Blå) P(grön vittnargrön) = 0,15 0,8 0,15 0,8 + 0,85 0,2 = 0,41

22 Normalisering, 1 P(vittnarGrön grön)p(grön) P(grön vittnargrön) = P(vittnarGrön) P(vittnarGrön blå)p(blå) P(blå vittnargrön) = P(vittnarGrön) I båda fallen har vi P(vittnarGrön) i nämnaren och egentligen är vi mest intresserade av vilken av dessa som är mest sannolik Vi normaliserar och inför: α = 1 P(vittnarGrön)

23 Normalisering, 2 Exempel. Är en individ med röda prickar marsian eller inte? P(marsian) = 0,2 P( marsian) = 1 P(marsian) = 0,8 P(rödaPrickar marsian) = 0,96 P(rödaPrickar marsian) = 0,26 OBS! P(rödaPrickar marsian) 1 P(rödaPrickar marsian) Till skillnad från P(rödaPrickar marsian) = 1 P( rödaprickar marsian) P(rödaPrickar marsian) P(marsian) P(marsian rödaprickar) = P(rödaPrickar) P(rödaPrickar marsian) P( marsian) P( marsian rödaprickar) = P(rödaPrickar) 1 Normalisera och inför α = P(rödaPrickar) P(marsian rödaprickar) = α P(rödaPrickar marsian) P(marsian) = 0,96 0,2 α = 0,19 α P( marsian rödaprickar) = α P(rödaPrickar marsian) P( marsian) = 0,26 0,8 α = 0,21 α

24 Normaliserad Bayes P(Y X)=αP(X Y)P(Y) där α är en normaliseringskonstant som ser till att P(Y X) summeras till 1 P(X Y) kausalsamband, ex mässling ger röda prickar Vi har också P(a b) P(a b) = = α P(a b) P(b) Jämför med Bayes P(a b) = P(b a)p(a) P(b) = α P(b a) P(a)

25 Exempel, taligenkänning Man vill välja det mest sannolika ord som en viss ljudsignal svarar mot P(Ord Signal) = P(Signal Ord) P(Ord) P(Signal) = α P(Signal Ord) P(Ord) P(Ord) anger hur vanligt ett visst ord är (i en viss kontext) P(Signal Ord) är den akustiska modellen och anger vilken ljudsignal ett ord oftast ger upphov till Ex: P( räv räv) = 0,7 P( oäv räv) = 0,1 P( rev räv) = 0,2

26 Villkorligt oberoende, 1 P(mässling rödaprickar feber) = α P(rödaPrickar feber mässling)p(mässling) Skalar inte upp eftersom vi har kombinationer av värden, generellt P(X 1,X 2,,X n Y) ger 2 n värden Men både röda prickar och feber beror på mässling så vi kan anta att röda prickar (feber) inte påverkas av om man har feber (röda prickar) eller inte, givet att vi vet mässling. De är villkorligt oberoende P(mässling rödaprickar feber) = α P(rödaPrickar mässling) P( feber mässling) P(mässling)

27 Villkorligt oberoende, 2 Generellt: Om variablerna X och Y är villkorligt oberoende givet variabeln Z så gäller att: P(X, Y Z) = P(X Z)P(Y Z) Vi har också varianterna: P(X Y, Z) = P(X Z) och P(Y X, Z) = P(Y Z) om X och Y villkorligt oberoende givet Z P(Feber Mässling RödaPrickar) = P(Feber Mässling) dvs sannolikheten för feber givet att man har mässling påverkas inte av om man har röda prickar eller ej

28 Naive Bayes Om en orsak kan ge upphov till flera olika effekter så kan man förenkla simultanfördelningen P(Mässling,RödaPrickar,Feber) = produktregeln = P(Mässling) P(RödaPrickar,Feber Mässling) Villkorligt oberoende ger : P(Mässling,RödaPrickar,Feber) = P(Mässling) P(Feber Mässling) P(RödaPrickar Mässling) Mer generellt P(Orsak, Effekt 1, Effekt 2,...Effekt n ) = P(Orsak) P(Effekt i Orsak) Kallas Naive Bayes eftersom den också ibland används när effekterna inte är villkorligt oberoende n i=1

29 Bayesianska nätverk Stokastiska variabler representerade som noder i ett nätverk Riktade länkar mellan par av noder En tabell med övergångssannolikheter som anger effekten på en nod från föräldarnoderna Grafen har inga riktade cykler (DAG)

30 Exempel Mässling ger feber och röda prickar. Eksem ger också röda prickar. Feber betyder att kroppstemperaturen överstiger 37 grader. Röda prickar kliar. Patienten kliar. Eksem? Stokastiska variabler Mässling Feber RödaPrickar Eksem T>37 Kliar

31 Bayesianskt nätverk Mässling Eksem Feber RödaPrickar T>37 Kliar

32 Övergångssannolikheter Ovillkorlig Mässling P(mässling) P( mässling) 0,1 0,9 Ett beroende T>37 Feber P(t>37 Feber) P( t>37 Feber) T 0,9 0,1 F 0,1 0,9 Beroende av två stokastiska variabler RödaPrickar Mässling Eksem P(rödaPrickar Mässling, Eksem) P( rödaprickar Mässling, Eksem) T T 0,8 0,2 T F 0,7 0,3 F T 0,6 0,4 F F 0,3 0,7

33 Bayesianskt nätverk P(mässling) 0,1 P(eksem) 0,8 Feber Mässling P(feber Mässling) T 0,9 Mässling Eksem F 0,1 RödaPrickar Feber T>37 RödaPrickar Kliar Mässling Eksem P(rödaPrickar Mässling, Eksem) T T 0,8 T F 0,7 F T 0,6 F F 0,3 T>37 Feber P(t>37 Feber) T 0,9 F 0,1 Kliar RödaPrickar P(kliar RödaPrickar) T 0,9 F 0,5

34 Inferens i bayesianska nät, 1 Det bayesianska nätverket beskriver domänen P(X 1 =v 1, X 2 =v 2, X n =v n ) kan beräknas utifrån föräldrarnas påverkan t.ex. P(mässling rödaprickar kliar eksem t>37 feber) = P(mässling)P(eksem)P(feber mässling)p(t>37 feber) P(rödaPrickar mässling eksem)p( kliar rödaprickar)= 0,1 0,8 0,9 0,9 0,8 0,1=0,005 Mässling Eksem Feber Röda prickar T>37 Kliar

35 Inferens i bayesianska nät, 2 Mer generellt: n P(X 1, X 2,..., X n ) = P(X i Parents(X i )) i=1 om noden X i bara beror av noder ovanför, dvs Parents(X i ) { X i 1,...,X 2,X 1 } dvs villkorligt oberoende I mässlingexemplet får t.ex. inte RödaPrickar bero av Kliar, dvs P(Kliar T>37, Feber, RödaPrickar, Mässling, Eksem) = P(Kliar RödaPrickar)

36 Inferens i bayesianska nät, 3 Betingade sannolikheter P(a b)=αp(a b) eller mer generellt P(A B)=αP(A,B) där P(A,B) kommer ur sambandet för föräldrars påverkan Exempel P(kliar eksem). Beror av såväl Mässling som RödaPrickar och räknas ut genom att summera över alla möjliga värden, dvs sant och falskt Mässling Eksem Feber Röda prickar T>37 Kliar

37 Inferens i bayesianska nät, 4! "#$%& '"(') = α, 6("#$%& 9ö:%!&$;"%&) =, 6 9ö:%!&$;"%& '"('), Fä((#$GH 6 Fä((#$GH!('"(')) -ö/ >ä@@abcd, IäJJK3LM ) 6(&ö:%!&$;"%& '"('), Fä((#$GH)6(Fä((#$GH)!('"(') =!(&ö:%!&$;"%& '"(') )ä((#$gh)!()ä((#$gh)!('"(')) +!(&ö:%!&$;"%& '"(') )ä((#$gh)!( )ä((#$gh)!('"(')) = 0,8 = 0,1 = 0,8 + 0,6 = 0,9 = 0,8 = 0,496 6( &ö:%!&$;"%& '"('), Fä((#$GH) = 0,2 = 0,1 = 0,8 + 0,2 = 0,9 = 0,8 = 0,16!("#$%& '"(')) = X(!("#$%& &ö:%!&$;"%&) = 0,496 +!("#$%& &ö:%!&$;"%&) = 0,16 = X(0,9 = 0, ,5 = 0,16) = X = 0,526!( "#$%& '"(')) = X(!( "#$%& &ö:%!&$;"%&) = 0,496 +!( "#$%& &ö:%!&$;"%&) = 0,16 = X(0,1 = 0, ,5 = 0,16) = X = 0,13 6([#$%& '"(')) =< 0,802, 0,198 > Mässling Eksem Feber Röda prickar T>37 Kliar

38 Inferens i bayesianska nät, 4 Diagnos Från effekt till orsak P( mässling kliar) Kausalitet Från orsak till effekt P(kliar mässling) Interkausalitet Mellan orsaker till samma effekt P( mässling eksem rödaprickar) Blandad inferens P(eksem kliar mässling)

39 Inferens i bayesianska nät, 5 Beräkningstungt och det generella fallet är NP-komplett Villkorliga oberoenden gör det ibland lättare Ofta approximativa lösningar

40 Konstruktion av Bayesianska nätverk 1. Ordna de stokastiska variablerna, X 1,, X n 2. För varje nod, i=1 till n 1. Stoppa in X i i nätverket 2. Lägg in bågar från de stokastiska variablerna X 1,, X i-1 så att P(X i X 1,, X i-1 ) = P(X i Parents(X i )) dvs. så att varje nod är villkorligt oberoende av de tidigare noderna i nätverket, givet sina föräldrar

41 Exempel, 1 Mässling, Feber, Röda prickar, Värk Mässling Ordning: Värk, Feber, RödaPrickar, Mässling P(Feber Värk) P(Feber) Värk RödaP P(RödaP Värk, Feber) P(RödaP Värk) P(RödaP Värk, Feber) P(RödaP Feber) P(RödaP Värk, Feber) P(RödaP) Feber P(Mässling Värk, Feber, RödaP) P(Mässling Värk, Feber) P(Mässling Värk, Feber, RödaP) P(Mässling Feber) etc P(Mässling Värk, Feber, RödaP) P(Mässling)

42 Exempel, 2 Ordning: Mässling, Feber, RödaPrickar, Värk Värk P(Feber Mässling) P(Feber) Mässling RödaP P(RödaP Mässling) P(RödaP) P(RödaP Mässling, Feber) = P(RödaP Mässling) Feber P(Värk Mässling) P(Värk) P(Värk Mässling, Feber, RödaP) = P(Värk Mässling)

43 Variabelval Kausalsamband snarare än diagnossamband Från orsak till verkan Grundorsak Variabler som påverkas direkt av grundorsaken Observerbara effekter

44 Sammanfattning, 1 Stokastisk variabel A med sannolikhet att vara sann P(A=sant), skrivs också P(a) T.ex. P(a)=0,8, eller P(A) = <0,8 0,2> P(A,B) ger tabell med 4 (2 2 ) värden n stokastiska variabler P(X 1, X n ) ger 2 n värden. Problem! a a b 0,2 0,3 b 0,4 0,1 Oberoende P(Tärning=6 Tärning = 1) = P(Tärning=6)

45 Sammanfattning, 2 Bayes teorem, från kausal(orsak)samband till diagnossamband P(b a)p(a) P(a b) = = αp(b a)p(a) P(b) P(A B) = αp(b A)P(A) Villkorligt oberoende P(Orsak Obs 1...Obs n ) = P(Orsak Obs 1 )...P(Orsak Obs n ) kombinerat med kedjeregeln P(Orsak,Obs 1...Obs n ) = P(Orsak)P(Orsak Obs 1...Obs n ) ger Naive Bayes n i=1 P(Orsak,Obs 1...Obs n ) = P(Orsak) P(Orsak Obs i )

46 Sammanfattning, 3 Bayesianskt nätverk tar hänsyn till beroenden mellan variabler Mässling och Eksem 1 värde vardera Feber, T>37 och Kliar 2 värden vardera RödaPrickar 4 värden Totalt 12 värden Feber Mässling Röda prickar Eksem T>37 Kliar Jämför: 6 stokastiska variabler ger 2 6 = 64 värden

47 Probabilistiskt resonerande över tid Bayesianska nätverk beskriver en statisk situation Världen förändras med tiden Robot som går runt i världen Medicinsk diagnos Taligenkänning etc Tillstånd som förändras över tid, X t Observationer vid en viss tidpunkt, E t Diskreta observationstillfällen Sekvens av tillstånd, X a:b

48 Övergångssannolikheter X t-2 X t-1 X t X t+1 X t+2 P(X t X 0:t-1 ) = P(X t X 0,X 1,X 2,, X t-2,x t-1 ) Problem när t ökar Markovantagandet. Nuvarande tillstånd beror bara av ett ändligt antal tidigare tillstånd Första ordningens Markov process, beror bara av föregående tillstånd P(X t X 0:t-1 ) = P(X t X t-1 ) Andra ordningens markovprocess P(X t X 0:t-1 ) = P(X t X t-2, X t-1 ) X t-2 X t-1 X t X t+1 X t+2

49 Dold markovmodell (HMM) Tillstånden i den vanliga markovmodellen observerbara I en dold markovmodell kan man bara se observationerna, E t X t-2 X t-1 X t X t+1 X t+2 E t-2 E t-1 E t E t+1 E t+2 Tillstånden är dolda, hidden Markovantagande för observationerna; de beror bara av nuvarande tillstånd P(E t X 0:t-1, E 0:t-1 ) =P(E t X t )

50 Exempel Sannolikheten för mässling beror av om man har feber eller inte Mässling t-1 Mässling t Mässling t+1 Feber t-1 Feber t Feber t+1 Villkorliga sannolikhetstabeller, ex Mässling t-1 P(Mässling t Mässling t-1 ) T F Mässling t P(Feber t Mässling t ) T F

51 Simultanfördelning Antag starttillståndet P(X 0 ) Övergångsmodellen P(X t X t-1 ) Observationsmodellen P(E t X t ) t i=1 P(X 0:t, E 1:t ) = P(X 0 ) P(X i X i 1 )P(E i X i )

52 Inferens i temporala modeller Filtrering, P(X t e 1:t ) Beräkna nuvarande sannolikhet givet alla bevis hittills Predicering, P(X t+k e 1:t ) Beräkna sannolikheten för ett framtida tillstånd Smoothing, P(X k e 1:t ) Beräkna sannolikheten för ett tidigare tillstånd Mest sannolika förklaring, argmax x1:t P(x 1:t e 1:t ) Beräkna den sekvens av tillstånd som genererat observationerna

Artificiell intelligens Probabilistisk logik

Artificiell intelligens Probabilistisk logik Probabilistiska resoemag Artificiell itelliges Probabilistisk logik Are Jösso HCS/IDA Osäkerhet Grudläggade saolikhetslära Stokastiska variabler Bayes teorem Bayesiaska ätverk Kostruktio Iferes Osäkerhet

Läs mer

Osäkerhet. Probabilistiska resonemang. Sannolikhet. Osäkerhet. ! Osäkerhet! Grundläggande sannolikhetslära. ! Bayesianska nätverk

Osäkerhet. Probabilistiska resonemang. Sannolikhet. Osäkerhet. ! Osäkerhet! Grundläggande sannolikhetslära. ! Bayesianska nätverk Probabilistiska resoemag Osäkerhet! Osäkerhet! Grudläggade saolikhetslära! Stokastiska variabler! Bayes teorem! Bayesiaska ätverk! Kostruktio! Iferes! Agete har ästa aldrig tillgåg till hela saige om omgivige!

Läs mer

Probabilistisk logik 2

Probabilistisk logik 2 729G43 Artificiell intelligens / 2016 Probabilistisk logik 2 Marco Kuhlmann Institutionen för datavetenskap Översikt Probabilistiska modeller Probabilistisk inferens 1: Betingad sannolikhet Probabilistisk

Läs mer

Probabilistisk logik 1

Probabilistisk logik 1 729G43 Artificiell intelligens / 2016 Probabilistisk logik 1 Marco Kuhlmann Institutionen för datavetenskap Osäkerhet 1.01 Osäkerhet Agenter måste kunna hantera osäkerhet. Agentens miljö är ofta endast

Läs mer

Anna: Bertil: Cecilia:

Anna: Bertil: Cecilia: Marco Kuhlmann 1 Osäkerhet 1.01 1.02 1.03 1.04 1.05 Intelligenta agenter måste kunna hantera osäkerhet. Världen är endast delvist observerbar och stokastisk. (Jmf. Russell och Norvig, 2014, avsnitt 2.3.2.)

Läs mer

de var svåra att implementera och var väldigt ineffektiva.

de var svåra att implementera och var väldigt ineffektiva. OBS! För flervalsfrågorna gäller att flera alternativ eller inget alternativ kan vara korrekt. På flervalsfrågorna kan man bara ha rätt eller fel, dvs frågan måste vara helt korrekt besvarad. Totalt kan

Läs mer

TMS136. Föreläsning 2

TMS136. Föreläsning 2 TMS136 Föreläsning 2 Sannolikheter För en händelse E skriver vi sannolikheten att E inträffar som P(E) För en händelse E skriver vi sannolikheten att E inte inträffar som P(E ) Exempel Låt E vara händelsen

Läs mer

TMS136. Föreläsning 2

TMS136. Föreläsning 2 TMS136 Föreläsning 2 Slumpförsök Med slumpförsök (random experiment) menar vi försök som upprepade gånger utförs på samma sätt men som kan få olika utfall Enkla exempel är slantsingling och tärningskast

Läs mer

Kap 2: Några grundläggande begrepp

Kap 2: Några grundläggande begrepp Kap 2: Några grundläggande begrepp Varför sannolikhetslära är viktigt? Vad menar vi med sannolikhetslära? Träddiagram? Vad är den klassiska, empiriska och subjektiva sannolikheten? Vad menar vi med de

Läs mer

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs... OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

Sannolikhetslära. 1 Enkel sannolikhet. Grunder i matematik och logik (2015) 1.1 Sannolikhet och relativ frekvens. Marco Kuhlmann

Sannolikhetslära. 1 Enkel sannolikhet. Grunder i matematik och logik (2015) 1.1 Sannolikhet och relativ frekvens. Marco Kuhlmann Marco Kuhlmann Detta kapitel behandlar grundläggande begrepp i sannolikhetsteori: enkel sannolikhet, betingad sannolikhet, lagen om total sannolikhet och Bayes lag. 1 Enkel sannolikhet Den klassiska sannolikhetsteorin,

Läs mer

Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.

Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder. OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende

SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende Jan Grandell & Timo Koski 21.01.2016 Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 1 / 39 Lärandemål Betingad

Läs mer

Statistikens grunder HT, dagtid Statistiska institutionen

Statistikens grunder HT, dagtid Statistiska institutionen Statistikens grunder 1 2013 HT, dagtid Statistiska institutionen Orsak och verkan N Kap 2 forts. Annat ord: kausalitet Något av det viktigaste för varje vetenskap. Varför? Orsakssamband ger oss möjlighet

Läs mer

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten. OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs... OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.

Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder. OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna kan man bara ha rätt eller fel, dvs frågan måste vara helt korrekt besvarad för att man skall

Läs mer

TSFS06: Bayesianska nätverk i GeNIe - kort handledning

TSFS06: Bayesianska nätverk i GeNIe - kort handledning TSFS06: Bayesianska nätverk i GeNIe - kort handledning GeNIe är en grafisk utvecklingsmiljö för inferensberäkningar med bland annat Bayesianska nätverk. Verktyget är utvecklat vid Decision Systems Laboratory,

Läs mer

Statistik 1 för biologer, logopeder och psykologer

Statistik 1 för biologer, logopeder och psykologer Innehåll 1 Grunderna i sannolikhetslära 2 Innehåll 1 Grunderna i sannolikhetslära 2 Satistik och sannolikhetslära Statistik handlar om att utvinna information från data. I praktiken inhehåller de data

Läs mer

Kombinatorik och sannolikhetslära

Kombinatorik och sannolikhetslära Grunder i matematik och logik (2018) Kombinatorik och sannolikhetslära Marco Kuhlmann Sannolikhetslära Detta avsnitt är för det mesta en kompakt sammanfattning av momentet sannolikhetslära som ingår i

Läs mer

TMS136. Föreläsning 1

TMS136. Föreläsning 1 TMS136 Föreläsning 1 Varför? Om vi gör mätningar vill vi kunna modellera och kvantifiera de osäkerheter som obönhörligen finns Om vi handlar med värdepapper vill kunna modellera och kvantifiera de risker

Läs mer

Föreläsning 2. Kapitel 3, sid Sannolikhetsteori

Föreläsning 2. Kapitel 3, sid Sannolikhetsteori Föreläsning 2 Kapitel 3, sid 47-78 Sannolikhetsteori 2 Agenda Mängdlära Kombinatorik Sannolikhetslära 3 Mängdlära Används för att hantera sannolikheter Viktig byggsten inom matematik och logik Utfallsrummet,

Läs mer

Matematisk Statistik och Disktret Matematik, MVE051/MSG810, VT19

Matematisk Statistik och Disktret Matematik, MVE051/MSG810, VT19 Matematisk Statistik och Disktret Matematik, MVE051/MSG810, VT19 Nancy Abdallah Chalmers - Göteborgs Universitet March 25, 2019 1 / 36 1. Inledning till sannolikhetsteori 2. Sannolikhetslagar 2 / 36 Lärare

Läs mer

Outline. TSFS06 Diagnos och övervakning Föreläsning 10 - Sannolikhetsbaserad diagnos och Bayesianska nätverk. Sneak-peak. Outline

Outline. TSFS06 Diagnos och övervakning Föreläsning 10 - Sannolikhetsbaserad diagnos och Bayesianska nätverk. Sneak-peak. Outline TSFS06 Diagnos och övervakning Föreläsning 10 - och Erik Frisk Institutionen för systemteknik Linköpings universitet erik.frisk@liu.se 2017-05-17 2 Sneak-peak Antag att residualerna r 1 och r 2 larmar

Läs mer

Artificiell Intelligens Lektion 7

Artificiell Intelligens Lektion 7 Laboration 6 Artificiell Intelligens Lektion 7 Neurala nätverk (Lab 6) Probabilistiska resonemang Vad? Mönsterigenkänning Lära ett neuralt nätverk att känna igen siffror Varför? Få ökad förståelse för

Läs mer

Artificiell Intelligens

Artificiell Intelligens Omtentamen Artificiell Intelligens Datum: 2014-02-20 Tid: 14.00 18.00 Ansvarig: Resultat: Hjälpmedel: Gränser: Anders Gidenstam Redovisas inom tre veckor Inga G 8p, VG 12p, Max 16p Notera: Skriv läsbart!

Läs mer

Satsen om total sannolikhet och Bayes sats

Satsen om total sannolikhet och Bayes sats Satsen om total sannolikhet och Bayes sats Satsen om total sannolikhet Ibland är det svårt att direkt räkna ut en sannolikhet pga att händelsen är komplicerad/komplex. Då kan man ofta använda satsen om

Läs mer

Resonemang under osäkerhet. Bayes Certainty factors Dempster-Schafer Fuzzy logic

Resonemang under osäkerhet. Bayes Certainty factors Dempster-Schafer Fuzzy logic Resonemang under osäkerhet Bayes Certainty factors Dempster-Schafer Fuzzy logic Varför resonera med sannolikheter? Om agenten vet tillräckligt om världen, kan den med logik få fram planer som garanterat

Läs mer

SF1901: SANNOLIKHETSTEORI OCH STATISTIK GRUNDLÄGGANDE SANNOLIKHETSTEORI, BETINGAD SANNOLIKHETER, OBEROENDE. Tatjana Pavlenko.

SF1901: SANNOLIKHETSTEORI OCH STATISTIK GRUNDLÄGGANDE SANNOLIKHETSTEORI, BETINGAD SANNOLIKHETER, OBEROENDE. Tatjana Pavlenko. SF1901: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 2 GRUNDLÄGGANDE SANNOLIKHETSTEORI, BETINGAD SANNOLIKHETER, OBEROENDE HÄNDELSER Tatjana Pavlenko 26 mars, 2015 SANNOLIKHETSGRUNDER (REPETITION) Slumpförsöket

Läs mer

Föreläsning G70, 732G01 Statistik A

Föreläsning G70, 732G01 Statistik A Föreläsning 3 732G70, 732G01 Statistik A Introduktion till sannolikhetslära Sannolikhetslära: område inom statistiken där vi studerar experiment vars utfall beror av slumpen Sannolikhet: numeriskt värde

Läs mer

SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende

SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende Jan Grandell & Timo Koski 21.01.2015 Jan Grandell & Timo Koski () Matematisk statistik 21.01.2015 1 / 1 Repetition:

Läs mer

Föreläsning G70 Statistik A

Föreläsning G70 Statistik A Föreläsning 2 732G70 Statistik A Introduktion till sannolikhetslära Sannolikhetslära: område inom statistiken där vi studerar experiment vars utfall beror av slumpen Sannolikhet: numeriskt värde (mellan

Läs mer

Statistisk slutledning (statistisk inferens): Sannolikhetslära: GRUNDLÄGGANDE SANNOLIKHETSLÄRA. Med utgångspunkt från ett stickprov

Statistisk slutledning (statistisk inferens): Sannolikhetslära: GRUNDLÄGGANDE SANNOLIKHETSLÄRA. Med utgångspunkt från ett stickprov OSÄKERHET Sannolikhetslära: Om det i ett område finns 32 % med universitetsexamen, vad är sannolikheten att ett stickprov kommer att innehålla 31-33 % med universitetsexamen? Om medelåldern i en population

Läs mer

SF1901 Sannolikhetsteori och statistik I

SF1901 Sannolikhetsteori och statistik I SF1901 Sannolikhetsteori och statistik I Jimmy Olsson Föreläsning 3 4 november 2016 1 / 28 Idag Förra gången Stokastiska variabler (Kap. 3.2) Diskret stokastisk variabel (Kap. 3.3 3.4) Kontinuerlig stokastisk

Läs mer

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012 Föreläsning 1 Repetition av sannolikhetsteori Patrik Zetterberg 6 december 2012 1 / 28 Viktiga statistiska begrepp För att kunna förstå mer avancerade koncept under kursens gång är det viktigt att vi förstår

Läs mer

SF1901: SANNOLIKHETSTEORI OCH GRUNDLÄGGANDE SANNOLIKHETSTEORI, STATISTIK BETINGADE SANNOLIKHETER, OBEROENDE. Tatjana Pavlenko.

SF1901: SANNOLIKHETSTEORI OCH GRUNDLÄGGANDE SANNOLIKHETSTEORI, STATISTIK BETINGADE SANNOLIKHETER, OBEROENDE. Tatjana Pavlenko. SF1901: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 2 GRUNDLÄGGANDE SANNOLIKHETSTEORI, BETINGADE SANNOLIKHETER, OBEROENDE HÄNDELSER Tatjana Pavlenko 30 augusti, 2016 SANNOLIKHETSGRUNDER (REPETITION) Slumpförsöket

Läs mer

Finansiell statistik, vt-05. Slumpvariabler, stokastiska variabler. Stokastiska variabler. F4 Diskreta variabler

Finansiell statistik, vt-05. Slumpvariabler, stokastiska variabler. Stokastiska variabler. F4 Diskreta variabler Johan Koskinen, Statistiska institutionen, Stockholms universitet Finansiell statistik, vt-05 F4 Diskreta variabler Slumpvariabler, stokastiska variabler Stokastiska variabler diskreta variabler kontinuerliga

Läs mer

1 Föreläsning I, Vecka I: 5/11-11/11 MatStat: Kap 1, avsnitt , 2.5

1 Föreläsning I, Vecka I: 5/11-11/11 MatStat: Kap 1, avsnitt , 2.5 1 Föreläsning I, Vecka I: 5/11-11/11 MatStat: Kap 1, avsnitt 2.1-2.2, 2.5 Introduktion till kursen. Grundläggande sannolikhetslära. Mängdlära, händelser, sannolikhetsmått Händelse följer samma räkneregler

Läs mer

Föreläsning 1, Matematisk statistik för M

Föreläsning 1, Matematisk statistik för M Föreläsning 1, Matematisk statistik för M Erik Lindström 23 mars 2015 Erik Lindström - erikl@maths.lth.se FMS035 F1 1/30 Tillämpningar Praktiska detaljer Matematisk statistik slumpens matematik Sannolikhetsteori:

Läs mer

TMS136. Föreläsning 1

TMS136. Föreläsning 1 TMS136 Föreläsning 1 Varför? Om vi gör mätningar vill vi modellera och kvantifiera de osäkerheter som obönhörligen finns Om vi handlar med värdepapper vill vi modellera och kvantifiera de risker som finns

Läs mer

Markovkedjor. Patrik Zetterberg. 8 januari 2013

Markovkedjor. Patrik Zetterberg. 8 januari 2013 Markovkedjor Patrik Zetterberg 8 januari 2013 1 / 15 Markovkedjor En markovkedja är en stokastisk process där både processen och tiden antas diskreta. Variabeln som undersöks kan både vara numerisk (diskreta)

Läs mer

I en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd.

I en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd. OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

Föreläsning 1. Grundläggande begrepp

Föreläsning 1. Grundläggande begrepp Finansiell Statistik (GN, 7,5 hp,, VT 2009) Föreläsning 1 Sannolikhetsteori (LLL Kap 5) Department of Statistics (Gebrenegus Ghilagaber, PhD, Associate Professor) Financial Statistics (Basic-level course,

Läs mer

Reliability analysis in engineering applications

Reliability analysis in engineering applications Reliability analysis in engineering applications Fredrik Carlsson Sannolikhetsteorins grunder Fördelningar och stokastiska variabler Extremvärdesfördelningar Simulering Structural Engineering - Lund University

Läs mer

Matematisk statistik - Slumpens matematik

Matematisk statistik - Slumpens matematik Matematisk Statistik Matematisk statistik är slumpens matematik. Började som en beskrivning av spel, chansen att få olika utfall. Brevväxling mellan Fermat och Pascal 1654. Modern matematisk statistik

Läs mer

Bayesiansk sannolikhetsteori

Bayesiansk sannolikhetsteori Beviskraft Bayesiansk sannolikhetsteori villkorad sannolikhet P = sannolikhet H = hypotes E = evidens P(H E) P = sannolikhet T = bevistema F = bevisfaktum P(T F) Händelseträd H E -E -H E -E hypotesen är

Läs mer

SF1922/SF1923: SANNOLIKHETSTEORI OCH DISKRETA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 23 mars, 2018

SF1922/SF1923: SANNOLIKHETSTEORI OCH DISKRETA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 23 mars, 2018 SF1922/SF1923: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 3 DISKRETA STOKASTISKA VARIABLER Tatjana Pavlenko 23 mars, 2018 PLAN FÖR DAGENSFÖRELÄSNING Repetition av betingade sannolikheter, användbara satser

Läs mer

F2 SANNOLIKHETSLÄRA (NCT )

F2 SANNOLIKHETSLÄRA (NCT ) Stat. teori gk, ht 2006, JW F2 SANNOLIKHETSLÄRA (NCT 4.1-4.2) Ordlista till NCT Random experiment Outcome Sample space Event Set Subset Union Intersection Complement Mutually exclusive Collectively exhaustive

Läs mer

SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende

SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende Jan Grandell & Timo Koski 14.01.2013 Jan Grandell & Timo Koski () Matematisk statistik 14.01.2013 1 / 25 Repetition:

Läs mer

Föreläsning 1, Matematisk statistik Π + E

Föreläsning 1, Matematisk statistik Π + E Introduktion Sannolikhetsteori Beroende Föreläsning 1, Matematisk statistik Π + E Sören Vang Andersen 4 november 2014 Sören Vang Andersen - sva@maths.lth.se FMS012 F1 1/26 Introduktion Sannolikhetsteori

Läs mer

F5 STOKASTISKA VARIABLER (NCT , samt del av 5.4)

F5 STOKASTISKA VARIABLER (NCT , samt del av 5.4) Stat. teori gk, ht 006, JW F5 STOKASTISKA VARIABLER (NCT 5.1-5.3, samt del av 5.4) Ordlista till NCT Random variable Discrete Continuous Probability distribution Probability distribution function Cumulative

Läs mer

Slumpvariabler och sannolikhetsfördelningar

Slumpvariabler och sannolikhetsfördelningar och sannolikhetsfördelningar Föreläsning 4 Sannolikhet och Statistik 5 hp Fredrik Jonsson April 2010 Översikt 1. Verklighetsanknutna exempel. Definition relativt utfallsrum. 2. Sannolikhetsfördelningar

Läs mer

Matematisk statistik för D, I, Π och Fysiker

Matematisk statistik för D, I, Π och Fysiker max/min Matematisk statistik för D, I, Π och Fysiker Föreläsning 5 Johan Lindström 25 september 218 Johan Lindström - johanl@maths.lth.se FMSF45/MASB3 F5 1/25 max/min Johan Lindström - johanl@maths.lth.se

Läs mer

Föreläsning 6, Repetition Sannolikhetslära

Föreläsning 6, Repetition Sannolikhetslära Föreläsning 6, Repetition Sannolikhetslära kap 4 Sannolikhetslära och slumpvariabler kap 5 Stickprov, medelvärden, CGS, binomialfördelning Viktiga grundbegrepp utfall, händelse, sannolikheter, betingad

Läs mer

1 Föreläsning I, Mängdlära och elementär sannolikhetsteori,

1 Föreläsning I, Mängdlära och elementär sannolikhetsteori, 1 Föreläsning I, Mängdlära och elementär sannolikhetsteori, LMA201, LMA521 1.1 Mängd (Kapitel 1) En (oordnad) mängd A är en uppsättning av element. En sådan mängd kan innehålla ändligt eller oändlligt

Läs mer

Kursombud sökes! Kursens syfte är att ge en introduktion till metoder för att förutsäga realtidsegenskaper hos betjäningssystem, i synnerhet för data- och telekommunikationssystem. Såväl enkla betjäningssystem,

Läs mer

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 1

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 1 Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 1 Sannolikhetslära (LLL Kap 5) Department of Statistics (Gebrenegus Ghilagaber, PhD, Associate Professor) Financial Statistics (Basic-level course,

Läs mer

4 Diskret stokastisk variabel

4 Diskret stokastisk variabel 4 Diskret stokastisk variabel En stokastisk variabel är en variabel vars värde bestäms av utfallet av ett slumpmässigt försök. En stokastisk variabel betecknas ofta med X, Y eller Z (i läroboken används

Läs mer

Grundläggande matematisk statistik

Grundläggande matematisk statistik Grundläggande matematisk statistik Grundbegrepp, axiomsystem, betingad sannolikhet, oberoende händelser, total sannolikhet, Bayes sats Uwe Menzel uwe.menzel@slu.se 23 augusti 2017 Slumpförsök Ett försök

Läs mer

händelsen som alltid inträffar. Den tomma mängden representerar händelsen som aldrig inträffar.

händelsen som alltid inträffar. Den tomma mängden representerar händelsen som aldrig inträffar. Marco Kuhlmann Detta är en kompakt sammanfattning av momentet sannolikhetslära som ingår i kurserna Matematik 1b och 1c på gymnasiet. 1 Grundläggande begrepp 1.01 När vi singlar slant eller kastar tärning

Läs mer

Kolmogorovs Axiomsystem Kolmogorovs Axiomsystem Varje händelse A tilldelas ett tal : slh att A inträar Sannolikheten måste uppfylla vissa krav: Kolmog

Kolmogorovs Axiomsystem Kolmogorovs Axiomsystem Varje händelse A tilldelas ett tal : slh att A inträar Sannolikheten måste uppfylla vissa krav: Kolmog Slumpvariabel (Stokastisk variabel) Resultat av ett slumpförsök - utgången kann inte kontrolleras Sannolikhet och statistik Sannolikhetsteorins grunder VT 2009 Resultatet kan inte förutspås, men vi vet

Läs mer

Statistiska metoder för säkerhetsanalys

Statistiska metoder för säkerhetsanalys F7: Bayesiansk inferens Klassisk vs Bayesiansk Två problem Klassisk statistisk inferens Frekventistisk tolkning av sannolikhet Parametrar fixa (ofta okända) storheter Skattningar och konfidensintervall

Läs mer

TENTAMEN I STATISTIKENS GRUNDER 1

TENTAMEN I STATISTIKENS GRUNDER 1 STOCKHOLMS UNIVERSITET Statistiska institutionen Michael Carlson HT2012 TENTAMEN I STATISTIKENS GRUNDER 1 2012-10-03 Skrivtid: kl 9.00-14.00 Godkända hjälpmedel: Miniräknare, språklexikon Bifogade hjälpmedel:

Läs mer

Matematisk statistik 9 hp Föreläsning 4: Flerdim

Matematisk statistik 9 hp Föreläsning 4: Flerdim Matematisk statistik 9 hp Föreläsning 4: Flerdim Johan Lindström 3+4 september 26 Johan Lindström - johanl@maths.lth.se FMS2 F4: Flerdim /5 Transformer Inversmetoden Transformation av stokastiska variabler

Läs mer

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten. OS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

Föreläsning 11. Slumpvandring och Brownsk Rörelse. Patrik Zetterberg. 11 januari 2013

Föreläsning 11. Slumpvandring och Brownsk Rörelse. Patrik Zetterberg. 11 januari 2013 Föreläsning 11 Slumpvandring och Brownsk Rörelse Patrik Zetterberg 11 januari 2013 1 / 1 Stokastiska Processer Vi har tidigare sett exempel på olika stokastiska processer: ARIMA - Kontinuerlig process

Läs mer

Föreläsning 5, FMSF45 Summor och väntevärden

Föreläsning 5, FMSF45 Summor och väntevärden Föreläsning 5, FMSF45 Summor och väntevärden Stas Volkov 2017-09-19 Stanislav Volkov s.volkov@maths.lth.se FMSFF45 F5: väntevärden 1/18 2D stokastisk variabel Tvådimensionella stokastisk variabel (X, Y)

Läs mer

Övning 1 Sannolikhetsteorins grunder

Övning 1 Sannolikhetsteorins grunder Övning 1 Sannolikhetsteorins grunder Två händelser A och B är disjunkta om {A B} =, det vill säga att snittet inte innehåller några element. Om vi har en mängd händelser A 1, A 2, A 3,..., A n, vilka är

Läs mer

Kurser inom profilen Teknisk matematik (Y)

Kurser inom profilen Teknisk matematik (Y) Matematisk Statistik Kurser inom profilen Teknisk matematik (Y) Martin Singull Matematisk Statistik MAI - LiU Linköping 9 mars 2015 Matematisk statistik Matematisk statistik handlar om: 1) Sannolikhetslära

Läs mer

HKGBB0, Artificiell intelligens

HKGBB0, Artificiell intelligens HKGBB0, Artificiell intelligens Kortfattade lösningsförslag till tentan 3 november 2005 Arne Jönsson 1. Vad karaktäriserar dagens AI-forskning jämfört med den AI-forskning som bedrevs perioden 1960-1985.

Läs mer

S0007M Statistik2: Slumpmodeller och inferens. Inge Söderkvist

S0007M Statistik2: Slumpmodeller och inferens. Inge Söderkvist Föreläsning 1 4.1 Slumpässighet 4.2 Sannolikhetsmodeller Viktiga grundbegrepp Slumpmässig (eng: random) Ett fenomen är slumpmässigt om individuella resultat är osäkra, men resultat alltid förekommer med

Läs mer

Tentamen i Matematisk Statistik, 7.5 hp

Tentamen i Matematisk Statistik, 7.5 hp Tentamen i Matematisk Statistik, 7.5 hp Distanskurs 15 januari, 2011 kl. 9.00 13.00 Maxpoäng: 30p. Betygsgränser: 12p: betyg G, 21p: betyg VG. Hjälpmedel: Miniräknare samt formelsamling som medföljer tentamenstexten.

Läs mer

Om sannolikhet. Bengt Ringnér. August 27, Detta är introduktionsmaterial till kursen i matematisk statistik för lantmätarprogrammet

Om sannolikhet. Bengt Ringnér. August 27, Detta är introduktionsmaterial till kursen i matematisk statistik för lantmätarprogrammet Om sannolikhet Bengt Ringnér August 27, 2007 1 Inledning Detta är introduktionsmaterial till kursen i matematisk statistik för lantmätarprogrammet vid LTH hösten 2007. 2 Sannolikhetsteori Sannolikhetsteori,

Läs mer

Utfall, Utfallsrummet, Händelse. Sannolikhet och statistik. Utfall, Utfallsrummet, Händelse. Utfall, Utfallsrummet, Händelse

Utfall, Utfallsrummet, Händelse. Sannolikhet och statistik. Utfall, Utfallsrummet, Händelse. Utfall, Utfallsrummet, Händelse Utfall, Utfallsrummet, Händelse Sannolikhet och statistik Sannolikhetsteorins grunder HT 2008 Uwe.Menzel@math.uu.se http://www.math.uu.se/ uwe/ Denition 2.1 Resultatet av ett slumpmässigt försök kallas

Läs mer

Filosofisk Logik (FTEA21:4) föreläsningsanteckningar/kompendium. v. 2.0, den 29/ III. Metalogik 17-19

Filosofisk Logik (FTEA21:4) föreläsningsanteckningar/kompendium. v. 2.0, den 29/ III. Metalogik 17-19 Filosofisk Logik (FTEA21:4) föreläsningsanteckningar/kompendium IV v. 2.0, den 29/4 2013 III. Metalogik 17-19 Modeller för satslogiken 18.1 Vi har tidigare sagt att en modell är en tolkning av en teori

Läs mer

Filosofisk logik Kapitel 15 (forts.) Robin Stenwall Lunds universitet

Filosofisk logik Kapitel 15 (forts.) Robin Stenwall Lunds universitet Filosofisk logik Kapitel 15 (forts.) Robin Stenwall Lunds universitet Dagens upplägg Antalet element i en mängd Kardinalitet Humes princip Cantors teorem Den universella mängden Några mängdteoretiska paradoxer

Läs mer

Fö relä sning 1, Kö system vä ren 2014

Fö relä sning 1, Kö system vä ren 2014 Fö relä sning 1, Kö system vä ren 2014 Här följer en mycket kort sammanfattning av det viktigaste i Föreläsning 1. Observera att dessa anteckningar inte kan ersätta läroboken, de är alltför kortfattade

Läs mer

Introduktion till logik

Introduktion till logik Introduktion till logik Av Johan Johansson Johan.johansson@guldstadsgymnasiet.se Logik sägs som många andra saker komma från de grekiska filosoferna, och ordet kommer också därifrån. Grekerna kallade det

Läs mer

I en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd.

I en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd. OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

Stokastiska processer

Stokastiska processer Stokastiska processer Fredrik Olsson, fredrik.olsson@iml.lth.se Avdelningen för produktionsekonomi Lunds tekniska högskola, Lunds universitet Dessa förläsningsanteckningar kommer att behandla diskreta

Läs mer

Institutionen för lingvistik och filologi VT 2014 (Marco Kuhlmann 2013, tillägg och redaktion Mats Dahllöf 2014).

Institutionen för lingvistik och filologi VT 2014 (Marco Kuhlmann 2013, tillägg och redaktion Mats Dahllöf 2014). UPPSALA UNIVERSITET Matematik för språkteknologer (5LN445) Institutionen för lingvistik och filologi VT 2014 (Marco Kuhlmann 2013, tillägg och redaktion Mats Dahllöf 2014). 9 Sannolikhet Detta kapitel

Läs mer

Artificial Intelligence

Artificial Intelligence Omtentamen Artificial Intelligence Datum: 2014-08-27 Tid: 09.00 13.00 Ansvarig: Resultat: Hjälpmedel: Gränser: Anders Gidenstam Redovisas inom tre veckor Inga G 8p, VG 12p, Max 16p Notera: Skriv läsbart!

Läs mer

Föreläsningsmanus i matematisk statistik för lantmätare, vecka 2 HT07

Föreläsningsmanus i matematisk statistik för lantmätare, vecka 2 HT07 Föreläsningsmanus i matematisk statistik för lantmätare, vecka 2 HT07 Bengt Ringnér August 31, 2007 1 Inledning Detta är preliminärt undervisningsmaterial. Synpunkter är välkomna. 2 Händelser och sannolikheter

Läs mer

FÖRELÄSNING 3:

FÖRELÄSNING 3: FÖRELÄSNING 3: 26-4-3 LÄRANDEMÅL Fördelningsfunktion Empirisk fördelningsfunktion Likformig fördelning Bernoullifördelning Binomialfördelning Varför alla dessa fördelningar? Samla in data Sammanställ data

Läs mer

Kap 2. Sannolikhetsteorins grunder

Kap 2. Sannolikhetsteorins grunder Kap 2. Sannolikhetsteorins grunder Olika händelser och deras mängbetäckningar Sats 2.7 Dragning utan återläggning av k element ur n (utan hänsyn till ordning) kan ske på ( n ) olika sätt k För två händelser

Läs mer

Filoson bakom Bayesiansk statistik med tillämpningar inom hjärnavbildning och budgivningar på ebay

Filoson bakom Bayesiansk statistik med tillämpningar inom hjärnavbildning och budgivningar på ebay Filoson bakom Bayesiansk statistik med tillämpningar inom hjärnavbildning och budgivningar på ebay Bertil Wegmann STIMA, IDA, Linköpings universitet October 5, 2017 Bertil Wegmann, STIMA, IDA, LiU Bayesiansk

Läs mer

SF1901: Sannolikhetslära och statistik

SF1901: Sannolikhetslära och statistik SF9: Sannolikhetslära och statistik Föreläsning 3. Stokastiska variabler, diskreta och kontinuerliga Jan Grandell & Timo Koski 8.9.28 Jan Grandell & Timo Koski () Matematisk statistik 8.9.28 / 45 Stokastiska

Läs mer

Tentamen MVE301 Sannolikhet, statistik och risk

Tentamen MVE301 Sannolikhet, statistik och risk Tentamen MVE30 Sannolikhet, statistik och risk 207-08-5 kl. 8:30-3:30 Examinator: Johan Jonasson, Matematiska vetenskaper, Chalmers Telefonvakt: Olof Elias, telefon: 03-7725325 Hjälpmedel: Valfri miniräknare.

Läs mer

Markovprocesser SF1904

Markovprocesser SF1904 Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 1 Markovprocesser 25 Mars 2015 Johan Westerborn Markovprocesser (1) Föreläsning 1 Föreläsningsplan 1 Kursinformation 2 Stokastiska processer

Läs mer

Tentamen MVE301 Sannolikhet, statistik och risk

Tentamen MVE301 Sannolikhet, statistik och risk Tentamen MVE30 Sannolikhet, statistik och risk 207-06-0 kl. 8:30-3:30 Examinator: Johan Jonasson, Matematiska vetenskaper, Chalmers Telefonvakt: Ivar Simonsson, telefon: 03-7725348 Hjälpmedel: Valfri miniräknare.

Läs mer

4.1 Grundläggande sannolikhetslära

4.1 Grundläggande sannolikhetslära 4.1 Grundläggande sannolikhetslära När osäkerhet förekommer kan man aldrig uttala sig tvärsäkert. Istället använder vi sannolikheter, väntevärden, standardavvikelser osv. Sannolikhet är ett tal mellan

Läs mer

Föresläsningsanteckningar Sanno II

Föresläsningsanteckningar Sanno II Föresläsningsanteckningar 1 Gammafunktionen I flera av våra vanliga sannolikhetsfördelningar ingår den s.k. gamma-funktionen. Γ(p) = 0 x p 1 e x dx vilken är definierad för alla reella p > 0. Vi ska här

Läs mer

SF1901: Sannolikhetslära och statistik. Väntevärde; Väntevärde för funktioner av s.v:er; Varians; Tjebysjovs olikhet. Jan Grandell & Timo Koski

SF1901: Sannolikhetslära och statistik. Väntevärde; Väntevärde för funktioner av s.v:er; Varians; Tjebysjovs olikhet. Jan Grandell & Timo Koski SF1901: Sannolikhetslära och statistik Föreläsning 5. Väntevärde; Väntevärde för funktioner av s.v:er; Varians; Tjebysjovs olikhet. Jan Grandell & Timo Koski 28.01.2015 Jan Grandell & Timo Koski () Matematisk

Läs mer

Matematisk statistik 9 hp för I, Pi, C, D och fysiker Föreläsning 1: Introduktion och Sannolikhet

Matematisk statistik 9 hp för I, Pi, C, D och fysiker Föreläsning 1: Introduktion och Sannolikhet Matematisk statistik 9 hp för I, Pi, C, D och fysiker Föreläsning 1: Introduktion och Sannolikhet Anna Lindgren 30+31 augusti 2016 Anna Lindgren anna@maths.lth.se FMS012/MASB03 F1: Sannolikhet 1/27 Praktiska

Läs mer

Varför är logik viktig för datavetare?

Varför är logik viktig för datavetare? Varför är logik viktig för datavetare? 1. Datavetenskap handlar ofta om att automatisera processer som tidigare styrts av människor. Intuition, intelligens och mänskliga resonemang ersätts av beräkningar.

Läs mer

Kurssammanfattning MVE055

Kurssammanfattning MVE055 Obs: Detta är enbart tänkt som en översikt och innehåller långt ifrån allt som ingår i kursen (vilket anges exakt på hemsidan). Fullständiga antaganden i satser kan saknas och fel kan förekomma så kontrollera

Läs mer

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.). STOKASTISKA VARIABLER Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.). Definition 1. En reellvärd funktion definierad på ett utfallsrum Ω kallas en (endimensionell)

Läs mer

Problemdel 1: Uppgift 1

Problemdel 1: Uppgift 1 STOCKHOLMS UNIVERSITET MT 00 MATEMATISKA INSTITUTIONEN LÖSNINGAR Avd. Matematisk statistik, CH 8 februari 0 LÖSNINGAR 8 februari 0 Problemdel : Uppgift Rätt svar är: a) X och X är oberoende och Y och Y

Läs mer

Fö relä sning 1, Kö system 2015

Fö relä sning 1, Kö system 2015 Fö relä sning 1, Kö system 2015 Här följer en kort sammanfattning av det viktigaste i Föreläsning 1. Kolla kursens hemsida minst en gång per vecka. Övningar kommer att läggas ut där, skriv ut dem och ha

Läs mer