729G43 Artificiell intelligens Probabilistisk logik. Arne Jönsson HCS/IDA
|
|
- Birgitta Bengtsson
- för 5 år sedan
- Visningar:
Transkript
1 729G43 Artificiell intelligens Probabilistisk logik Arne Jönsson HCS/IDA
2 Probabilistiska resonemang Osäkerhet Grundläggande sannolikhetslära Stokastiska variabler Bayes teorem Bayesianska nätverk Konstruktion Inferens HMM
3 Osäkerhet Agenten har nästan aldrig tillgång till hela sanningen om omgivningen Ofullständig eller felaktig förståelse av världen, jfr qualification problem Exempel: Mål: cykla hem efter jobbet Om inte: Jag måste jobba, Jag blir bortbjuden, Cykeln stulen eller punkterad, Huset brunnit ner, Jag blir bortrövad etc etc Kan mildra målet: komma hem nångång Eller resurserna: jag sticker nu innan jag blir bortrövad och cykeln stulen Rationella beslut fattade baserat på hur viktigt målet är jämfört med den kostnad det innebär att nå målet i termer av hur troligt det är att man lyckas
4 Osäkerhet Diagnosregel d Lufttomt(d) Punktering(d) Inte korrekt eftersom alla lufttomma däck inte punkterade d Lufttomt(d) Punktering(d) IngenVentil(d) IngenSlang(d) IntePumpat(d) qualification Funkar inte med d Punktering(d) Lufttomt(d) eftersom det kan vara pyspunka, nypunkat etc Om inget oförutsett inträffat så: Icke-monoton logik d Lufttomt(d) MPunktering(d) Punktering(d)
5 Sannolikhet Vill ha något i stil med: d Lufttomt(d) 0,8 Punktering(d) Sannolikheten för punktering givet att däcket är lufttomt är 0,8 Detta betyder att 80% av alla lufttomma däck har punktering inte att vi har 80% punktering, dvs satser är sanna eller falska med viss sannolikhet. Grad av sanning hanteras med Fuzzy logic
6 Varifrån kommer sannolikheterna Frekventistiskt perspektiv Sannolikheter är relativa frekvenser som baseras på experiment Subjektivistiskt perspektiv Sannolikheter beskriver en agents konfidens Objektivistiskt perspektiv Sannolikheterna är reala aspekter i verkligheten; objektiva sanningar, beroende på objektet, ex. sannolikheten för klave = 0,5
7 Beslutsteoretisk agent Räkna ut sannolikheter för nuvarande tillstånd baserat på percept och handling Räkna ut utfallssannolikheter för handlingar baserat på handlingsbeskrivningar och nuvarande tillstånd Välj handling med högst förväntad nyttighet givet sannolikheten att lyckas och information om handlingars nyttighet En beslutsteoretisk agent kan inte med säkerhet välja en handling, utföra den och vara säker på utfallet
8 Stokastiska variabler Stokastiska variabler P(a) betecknar sannolikheten att den stokastiska variabeln a är sann, ovillkorligt Stokastiska variabler skrivs med inledande versal, ex Punktering I boken betecknas okända stokastiska variabler med liten bokstav, P(a), vilket vi gör här också Stokastisk variabel, X, har sannolikhet för olika värden ur en värdedomänen <x 1, x 2, x n > Vanlig domän är <sant, falskt> P(Punktering=sant) = 0,2 Logiska konnektiv P(Punktering = sant Cykelpump= falskt) = 0,99
9 Konventioner P(X=sant) skrivs P(x) och P(X=falskt) skrivs P( x), P(Punktering=sant) skrivs som P(punktering) P(cykelpump punktering) = 0,1
10 Sannolikhetsfördelning Stokastisk variabels värdedomän kan ha fler olika värden P(Däcket=punkterat) = 0,2 P(Däcket=opumpat) = 0,3 P(Däcket=helt) = 0,5 P betecknar en vektor av sannolikheter P(Däcket) = <0,2, 0,3, 0,5> För domänen <sant, falskt> betecknar P(Cykelpump) alla värden, dvs P(Cykelpump=sant) och P(Cykelpump=falskt) P(Cykelpump, Punktering) betecknar alla kombinationer av värden P(cykelpump, Punktering) betecknar de fall då Cykelpump=sant medan Punktering är antingen sant eller falskt
11 Grundläggande axiom 0 P(a) 1 P(sant) = 1; P(falskt) = 0 För variabeln D med domänen d 1,..d n gäller: å i= 1 ) = 1 P(a Ú b) = P(a) + P(b) P(a Ù b) n P( D = d i a b
12 Betingad sannolikhet Sannolikheten att a är sann givet att b är sann tecknas P(a b) P(punktering luft) = 0,8, förutsatt att vi bara vet lufttomt P(punktering luft cykelpump) = 0,01, om vi vet mer Betingad sannolikhet kan definieras i termer av ovillkorlig sannolikhet P(a b) = P(a b) P(b) Produktregeln P(a b) = P(a b)p(b) P(a b) = P(b a)p(a)
13 Kedjeregeln Produktregeln för P P(A,B) = P(A B)P(B) P(A = a 1 B = b 1 ) = P(A = a 1 B = b 1 ) P(B = b 1 ) P(A = a 1 B = b 2 ) = P(A = a 1 B = b 2 ) P(B = b 2 ) Kan också skrivas P(a 1,a 2,...,a n ) = P(a n a n 1,...,a 1 )P(a n 1,...,a 1 ) fortsätt applicera P(a 1,a 2,...,a n ) = P(a n a n 1,...,a 1 )P(a n 1 a n 2..,a 1 )...P(a 2 a 1 )P(a 1 ) n P(a 1,a 2,...,a n ) = P(a i a i 1,...,a 1 ) Kedjeregeln i=1
14 Simultanfördelning, 1 Simultanfördelningen visar sannolikheten för varje möjlig kombination av värden på stokastiska variabler P(Punktering) betecknar såväl P(punktering) som P( punktering), ex P(Punktering) = <0,6, 0,4> P(Punktering) Punktering=sant 0,6 Punktering=falskt 0,4 För två variabler med tvåvärd värdedomän (t.ex. sant, falskt) blir det 2 x 2 = 4 värden, ex P(Punktering, Luft) betecknar alla kombinationer av de stokastiska variablerna Punktering och Luft
15 Simultanfördelning, 2 P(Punktering, Luft) luft luft punktering 0,1 0,4 punktering 0,4 0,1 Tabellens värden måste summeras till 1 Ur tabellen fås t.ex.: P( punktering luft) = 0,4 P(Punktering luft) = 0,1+ 0,4 = 0,5 P( punktering luft) = P( punktering luft) P( luft) = 0,4 0,4 + 0,1 = 0,8
16 Oberoende P(Punktering, Luft) ger tabell med 2x2=4 värden Fler variabler P(Punktering, Luft, Cykelpump) ger tabell med 2x2x2=8 värden För n binära stokastiska variabler har vi 2 n värden P(Tärning=6 Tärning=1) = P(Tärning=6), dvs sannolikheten för att få 6 är oberoende av tidigare tärningskast P(Punktering, Sol) är också oberoende och kan skrivas som P(Punktering) P(Sol) med 2+2 värden P(Punktering, Sol, Tandvärk, FredPåJorden) är oberoende, dvs P(Punktering) P(Sol) P(Tandvärk) P(FredPåJorden) Ger tabell med =8 värden istället för 2 4 =16 värden
17 Bayes teorem P(a b) = P(a b)p(b) P(a b) = P(b a)p(a) P(a b)p(b) = P(b a)p(a) P(b a)p(a) P(a b) = P(b) P(B A)P(A) P(A B) = P(B) Produktregeln Bayes teorem Bayesteorem för flervärda variabler
18 Bayes teorem, 2 Fördelen med Bayes teorem är att den låter oss uttrycka diagnossamband i termer av kausalsamband Kausalsamband, P(a b), b orsakar a, men vi vill ofta diagnostisera utifrån observationer Exempel P(rödaPrickar mässling) = 0,8 (kausalsamband) P(mässling) = 0,3 (ovillkorligt) P(rödaPrickar) = 0,5 Diagnostisera mässling utifrån patient med röda prickar: P(mässling rödaprickar) = P(rödaPrickar mässling)p(mässling) P(rödaPrickar) = 0,8 0,3 0,5
19 Mer Bayes P(a b) = P(b a)p(a) P(b) Eftersom vi har disjunkta händelser som fyller hela utfallsrummet kan P(b) tecknas som: P(b) = P(a)P(b a) + P( a)p(b a) a a b P(a b) = P(b a)p(a) P(a)P(b a) + P( a)p(b a)
20 Mer generell Bayes Om vi har flera möjliga orsaker till en viss observation o 2 o 1 s o n o 3 P(s) = n P(o i )P(s o i ) i=1 P(o k s) = P(s o k )P(o k ) n P(o i )P(s o i ) i=1
21 Exempel, Kahneman & Tversky, 1972 Stad med två taxibolag: Blå har 85%, Gröna har 15% Taxi inblandad i smitningsolycka Vittne säger att den var grön Test visar att vittnet blandar ihop grönt och blått 20% av fallen Hur tillförlitligt är vittnet? P(grön vittnargrön) P(vittnarGrön grön) = 0,8 P(vittnarGrön blå) = 0,2 P(vittnarGrön grön)p(grön) P(grön vittnargrön) = P(vittnarGrön) P(vittnarGrön) = P(grön)P(vittnarGrön grön) + P(blå)P(vittnarGrön Blå) P(grön vittnargrön) = 0,15 0,8 0,15 0,8 + 0,85 0,2 = 0,41
22 Normalisering, 1 P(vittnarGrön grön)p(grön) P(grön vittnargrön) = P(vittnarGrön) P(vittnarGrön blå)p(blå) P(blå vittnargrön) = P(vittnarGrön) I båda fallen har vi P(vittnarGrön) i nämnaren och egentligen är vi mest intresserade av vilken av dessa som är mest sannolik Vi normaliserar och inför: α = 1 P(vittnarGrön)
23 Normalisering, 2 Exempel. Är en individ med röda prickar marsian eller inte? P(marsian) = 0,2 P( marsian) = 1 P(marsian) = 0,8 P(rödaPrickar marsian) = 0,96 P(rödaPrickar marsian) = 0,26 OBS! P(rödaPrickar marsian) 1 P(rödaPrickar marsian) Till skillnad från P(rödaPrickar marsian) = 1 P( rödaprickar marsian) P(rödaPrickar marsian) P(marsian) P(marsian rödaprickar) = P(rödaPrickar) P(rödaPrickar marsian) P( marsian) P( marsian rödaprickar) = P(rödaPrickar) 1 Normalisera och inför α = P(rödaPrickar) P(marsian rödaprickar) = α P(rödaPrickar marsian) P(marsian) = 0,96 0,2 α = 0,19 α P( marsian rödaprickar) = α P(rödaPrickar marsian) P( marsian) = 0,26 0,8 α = 0,21 α
24 Normaliserad Bayes P(Y X)=αP(X Y)P(Y) där α är en normaliseringskonstant som ser till att P(Y X) summeras till 1 P(X Y) kausalsamband, ex mässling ger röda prickar Vi har också P(a b) P(a b) = = α P(a b) P(b) Jämför med Bayes P(a b) = P(b a)p(a) P(b) = α P(b a) P(a)
25 Exempel, taligenkänning Man vill välja det mest sannolika ord som en viss ljudsignal svarar mot P(Ord Signal) = P(Signal Ord) P(Ord) P(Signal) = α P(Signal Ord) P(Ord) P(Ord) anger hur vanligt ett visst ord är (i en viss kontext) P(Signal Ord) är den akustiska modellen och anger vilken ljudsignal ett ord oftast ger upphov till Ex: P( räv räv) = 0,7 P( oäv räv) = 0,1 P( rev räv) = 0,2
26 Villkorligt oberoende, 1 P(mässling rödaprickar feber) = α P(rödaPrickar feber mässling)p(mässling) Skalar inte upp eftersom vi har kombinationer av värden, generellt P(X 1,X 2,,X n Y) ger 2 n värden Men både röda prickar och feber beror på mässling så vi kan anta att röda prickar (feber) inte påverkas av om man har feber (röda prickar) eller inte, givet att vi vet mässling. De är villkorligt oberoende P(mässling rödaprickar feber) = α P(rödaPrickar mässling) P( feber mässling) P(mässling)
27 Villkorligt oberoende, 2 Generellt: Om variablerna X och Y är villkorligt oberoende givet variabeln Z så gäller att: P(X, Y Z) = P(X Z)P(Y Z) Vi har också varianterna: P(X Y, Z) = P(X Z) och P(Y X, Z) = P(Y Z) om X och Y villkorligt oberoende givet Z P(Feber Mässling RödaPrickar) = P(Feber Mässling) dvs sannolikheten för feber givet att man har mässling påverkas inte av om man har röda prickar eller ej
28 Naive Bayes Om en orsak kan ge upphov till flera olika effekter så kan man förenkla simultanfördelningen P(Mässling,RödaPrickar,Feber) = produktregeln = P(Mässling) P(RödaPrickar,Feber Mässling) Villkorligt oberoende ger : P(Mässling,RödaPrickar,Feber) = P(Mässling) P(Feber Mässling) P(RödaPrickar Mässling) Mer generellt P(Orsak, Effekt 1, Effekt 2,...Effekt n ) = P(Orsak) P(Effekt i Orsak) Kallas Naive Bayes eftersom den också ibland används när effekterna inte är villkorligt oberoende n i=1
29 Bayesianska nätverk Stokastiska variabler representerade som noder i ett nätverk Riktade länkar mellan par av noder En tabell med övergångssannolikheter som anger effekten på en nod från föräldarnoderna Grafen har inga riktade cykler (DAG)
30 Exempel Mässling ger feber och röda prickar. Eksem ger också röda prickar. Feber betyder att kroppstemperaturen överstiger 37 grader. Röda prickar kliar. Patienten kliar. Eksem? Stokastiska variabler Mässling Feber RödaPrickar Eksem T>37 Kliar
31 Bayesianskt nätverk Mässling Eksem Feber RödaPrickar T>37 Kliar
32 Övergångssannolikheter Ovillkorlig Mässling P(mässling) P( mässling) 0,1 0,9 Ett beroende T>37 Feber P(t>37 Feber) P( t>37 Feber) T 0,9 0,1 F 0,1 0,9 Beroende av två stokastiska variabler RödaPrickar Mässling Eksem P(rödaPrickar Mässling, Eksem) P( rödaprickar Mässling, Eksem) T T 0,8 0,2 T F 0,7 0,3 F T 0,6 0,4 F F 0,3 0,7
33 Bayesianskt nätverk P(mässling) 0,1 P(eksem) 0,8 Feber Mässling P(feber Mässling) T 0,9 Mässling Eksem F 0,1 RödaPrickar Feber T>37 RödaPrickar Kliar Mässling Eksem P(rödaPrickar Mässling, Eksem) T T 0,8 T F 0,7 F T 0,6 F F 0,3 T>37 Feber P(t>37 Feber) T 0,9 F 0,1 Kliar RödaPrickar P(kliar RödaPrickar) T 0,9 F 0,5
34 Inferens i bayesianska nät, 1 Det bayesianska nätverket beskriver domänen P(X 1 =v 1, X 2 =v 2, X n =v n ) kan beräknas utifrån föräldrarnas påverkan t.ex. P(mässling rödaprickar kliar eksem t>37 feber) = P(mässling)P(eksem)P(feber mässling)p(t>37 feber) P(rödaPrickar mässling eksem)p( kliar rödaprickar)= 0,1 0,8 0,9 0,9 0,8 0,1=0,005 Mässling Eksem Feber Röda prickar T>37 Kliar
35 Inferens i bayesianska nät, 2 Mer generellt: n P(X 1, X 2,..., X n ) = P(X i Parents(X i )) i=1 om noden X i bara beror av noder ovanför, dvs Parents(X i ) { X i 1,...,X 2,X 1 } dvs villkorligt oberoende I mässlingexemplet får t.ex. inte RödaPrickar bero av Kliar, dvs P(Kliar T>37, Feber, RödaPrickar, Mässling, Eksem) = P(Kliar RödaPrickar)
36 Inferens i bayesianska nät, 3 Betingade sannolikheter P(a b)=αp(a b) eller mer generellt P(A B)=αP(A,B) där P(A,B) kommer ur sambandet för föräldrars påverkan Exempel P(kliar eksem). Beror av såväl Mässling som RödaPrickar och räknas ut genom att summera över alla möjliga värden, dvs sant och falskt Mässling Eksem Feber Röda prickar T>37 Kliar
37 Inferens i bayesianska nät, 4! "#$%& '"(') = α, 6("#$%& 9ö:%!&$;"%&) =, 6 9ö:%!&$;"%& '"('), Fä((#$GH 6 Fä((#$GH!('"(')) -ö/ >ä@@abcd, IäJJK3LM ) 6(&ö:%!&$;"%& '"('), Fä((#$GH)6(Fä((#$GH)!('"(') =!(&ö:%!&$;"%& '"(') )ä((#$gh)!()ä((#$gh)!('"(')) +!(&ö:%!&$;"%& '"(') )ä((#$gh)!( )ä((#$gh)!('"(')) = 0,8 = 0,1 = 0,8 + 0,6 = 0,9 = 0,8 = 0,496 6( &ö:%!&$;"%& '"('), Fä((#$GH) = 0,2 = 0,1 = 0,8 + 0,2 = 0,9 = 0,8 = 0,16!("#$%& '"(')) = X(!("#$%& &ö:%!&$;"%&) = 0,496 +!("#$%& &ö:%!&$;"%&) = 0,16 = X(0,9 = 0, ,5 = 0,16) = X = 0,526!( "#$%& '"(')) = X(!( "#$%& &ö:%!&$;"%&) = 0,496 +!( "#$%& &ö:%!&$;"%&) = 0,16 = X(0,1 = 0, ,5 = 0,16) = X = 0,13 6([#$%& '"(')) =< 0,802, 0,198 > Mässling Eksem Feber Röda prickar T>37 Kliar
38 Inferens i bayesianska nät, 4 Diagnos Från effekt till orsak P( mässling kliar) Kausalitet Från orsak till effekt P(kliar mässling) Interkausalitet Mellan orsaker till samma effekt P( mässling eksem rödaprickar) Blandad inferens P(eksem kliar mässling)
39 Inferens i bayesianska nät, 5 Beräkningstungt och det generella fallet är NP-komplett Villkorliga oberoenden gör det ibland lättare Ofta approximativa lösningar
40 Konstruktion av Bayesianska nätverk 1. Ordna de stokastiska variablerna, X 1,, X n 2. För varje nod, i=1 till n 1. Stoppa in X i i nätverket 2. Lägg in bågar från de stokastiska variablerna X 1,, X i-1 så att P(X i X 1,, X i-1 ) = P(X i Parents(X i )) dvs. så att varje nod är villkorligt oberoende av de tidigare noderna i nätverket, givet sina föräldrar
41 Exempel, 1 Mässling, Feber, Röda prickar, Värk Mässling Ordning: Värk, Feber, RödaPrickar, Mässling P(Feber Värk) P(Feber) Värk RödaP P(RödaP Värk, Feber) P(RödaP Värk) P(RödaP Värk, Feber) P(RödaP Feber) P(RödaP Värk, Feber) P(RödaP) Feber P(Mässling Värk, Feber, RödaP) P(Mässling Värk, Feber) P(Mässling Värk, Feber, RödaP) P(Mässling Feber) etc P(Mässling Värk, Feber, RödaP) P(Mässling)
42 Exempel, 2 Ordning: Mässling, Feber, RödaPrickar, Värk Värk P(Feber Mässling) P(Feber) Mässling RödaP P(RödaP Mässling) P(RödaP) P(RödaP Mässling, Feber) = P(RödaP Mässling) Feber P(Värk Mässling) P(Värk) P(Värk Mässling, Feber, RödaP) = P(Värk Mässling)
43 Variabelval Kausalsamband snarare än diagnossamband Från orsak till verkan Grundorsak Variabler som påverkas direkt av grundorsaken Observerbara effekter
44 Sammanfattning, 1 Stokastisk variabel A med sannolikhet att vara sann P(A=sant), skrivs också P(a) T.ex. P(a)=0,8, eller P(A) = <0,8 0,2> P(A,B) ger tabell med 4 (2 2 ) värden n stokastiska variabler P(X 1, X n ) ger 2 n värden. Problem! a a b 0,2 0,3 b 0,4 0,1 Oberoende P(Tärning=6 Tärning = 1) = P(Tärning=6)
45 Sammanfattning, 2 Bayes teorem, från kausal(orsak)samband till diagnossamband P(b a)p(a) P(a b) = = αp(b a)p(a) P(b) P(A B) = αp(b A)P(A) Villkorligt oberoende P(Orsak Obs 1...Obs n ) = P(Orsak Obs 1 )...P(Orsak Obs n ) kombinerat med kedjeregeln P(Orsak,Obs 1...Obs n ) = P(Orsak)P(Orsak Obs 1...Obs n ) ger Naive Bayes n i=1 P(Orsak,Obs 1...Obs n ) = P(Orsak) P(Orsak Obs i )
46 Sammanfattning, 3 Bayesianskt nätverk tar hänsyn till beroenden mellan variabler Mässling och Eksem 1 värde vardera Feber, T>37 och Kliar 2 värden vardera RödaPrickar 4 värden Totalt 12 värden Feber Mässling Röda prickar Eksem T>37 Kliar Jämför: 6 stokastiska variabler ger 2 6 = 64 värden
47 Probabilistiskt resonerande över tid Bayesianska nätverk beskriver en statisk situation Världen förändras med tiden Robot som går runt i världen Medicinsk diagnos Taligenkänning etc Tillstånd som förändras över tid, X t Observationer vid en viss tidpunkt, E t Diskreta observationstillfällen Sekvens av tillstånd, X a:b
48 Övergångssannolikheter X t-2 X t-1 X t X t+1 X t+2 P(X t X 0:t-1 ) = P(X t X 0,X 1,X 2,, X t-2,x t-1 ) Problem när t ökar Markovantagandet. Nuvarande tillstånd beror bara av ett ändligt antal tidigare tillstånd Första ordningens Markov process, beror bara av föregående tillstånd P(X t X 0:t-1 ) = P(X t X t-1 ) Andra ordningens markovprocess P(X t X 0:t-1 ) = P(X t X t-2, X t-1 ) X t-2 X t-1 X t X t+1 X t+2
49 Dold markovmodell (HMM) Tillstånden i den vanliga markovmodellen observerbara I en dold markovmodell kan man bara se observationerna, E t X t-2 X t-1 X t X t+1 X t+2 E t-2 E t-1 E t E t+1 E t+2 Tillstånden är dolda, hidden Markovantagande för observationerna; de beror bara av nuvarande tillstånd P(E t X 0:t-1, E 0:t-1 ) =P(E t X t )
50 Exempel Sannolikheten för mässling beror av om man har feber eller inte Mässling t-1 Mässling t Mässling t+1 Feber t-1 Feber t Feber t+1 Villkorliga sannolikhetstabeller, ex Mässling t-1 P(Mässling t Mässling t-1 ) T F Mässling t P(Feber t Mässling t ) T F
51 Simultanfördelning Antag starttillståndet P(X 0 ) Övergångsmodellen P(X t X t-1 ) Observationsmodellen P(E t X t ) t i=1 P(X 0:t, E 1:t ) = P(X 0 ) P(X i X i 1 )P(E i X i )
52 Inferens i temporala modeller Filtrering, P(X t e 1:t ) Beräkna nuvarande sannolikhet givet alla bevis hittills Predicering, P(X t+k e 1:t ) Beräkna sannolikheten för ett framtida tillstånd Smoothing, P(X k e 1:t ) Beräkna sannolikheten för ett tidigare tillstånd Mest sannolika förklaring, argmax x1:t P(x 1:t e 1:t ) Beräkna den sekvens av tillstånd som genererat observationerna
Artificiell intelligens Probabilistisk logik
Probabilistiska resoemag Artificiell itelliges Probabilistisk logik Are Jösso HCS/IDA Osäkerhet Grudläggade saolikhetslära Stokastiska variabler Bayes teorem Bayesiaska ätverk Kostruktio Iferes Osäkerhet
Läs merOsäkerhet. Probabilistiska resonemang. Sannolikhet. Osäkerhet. ! Osäkerhet! Grundläggande sannolikhetslära. ! Bayesianska nätverk
Probabilistiska resoemag Osäkerhet! Osäkerhet! Grudläggade saolikhetslära! Stokastiska variabler! Bayes teorem! Bayesiaska ätverk! Kostruktio! Iferes! Agete har ästa aldrig tillgåg till hela saige om omgivige!
Läs merProbabilistisk logik 2
729G43 Artificiell intelligens / 2016 Probabilistisk logik 2 Marco Kuhlmann Institutionen för datavetenskap Översikt Probabilistiska modeller Probabilistisk inferens 1: Betingad sannolikhet Probabilistisk
Läs merProbabilistisk logik 1
729G43 Artificiell intelligens / 2016 Probabilistisk logik 1 Marco Kuhlmann Institutionen för datavetenskap Osäkerhet 1.01 Osäkerhet Agenter måste kunna hantera osäkerhet. Agentens miljö är ofta endast
Läs merAnna: Bertil: Cecilia:
Marco Kuhlmann 1 Osäkerhet 1.01 1.02 1.03 1.04 1.05 Intelligenta agenter måste kunna hantera osäkerhet. Världen är endast delvist observerbar och stokastisk. (Jmf. Russell och Norvig, 2014, avsnitt 2.3.2.)
Läs merde var svåra att implementera och var väldigt ineffektiva.
OBS! För flervalsfrågorna gäller att flera alternativ eller inget alternativ kan vara korrekt. På flervalsfrågorna kan man bara ha rätt eller fel, dvs frågan måste vara helt korrekt besvarad. Totalt kan
Läs merTMS136. Föreläsning 2
TMS136 Föreläsning 2 Sannolikheter För en händelse E skriver vi sannolikheten att E inträffar som P(E) För en händelse E skriver vi sannolikheten att E inte inträffar som P(E ) Exempel Låt E vara händelsen
Läs merTMS136. Föreläsning 2
TMS136 Föreläsning 2 Slumpförsök Med slumpförsök (random experiment) menar vi försök som upprepade gånger utförs på samma sätt men som kan få olika utfall Enkla exempel är slantsingling och tärningskast
Läs merKap 2: Några grundläggande begrepp
Kap 2: Några grundläggande begrepp Varför sannolikhetslära är viktigt? Vad menar vi med sannolikhetslära? Träddiagram? Vad är den klassiska, empiriska och subjektiva sannolikheten? Vad menar vi med de
Läs merFråga 5 (1 poäng) För att definiera ett sökproblem krävs...
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs merSannolikhetslära. 1 Enkel sannolikhet. Grunder i matematik och logik (2015) 1.1 Sannolikhet och relativ frekvens. Marco Kuhlmann
Marco Kuhlmann Detta kapitel behandlar grundläggande begrepp i sannolikhetsteori: enkel sannolikhet, betingad sannolikhet, lagen om total sannolikhet och Bayes lag. 1 Enkel sannolikhet Den klassiska sannolikhetsteorin,
Läs merAsymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs merSF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende
SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende Jan Grandell & Timo Koski 21.01.2016 Jan Grandell & Timo Koski Matematisk statistik 21.01.2016 1 / 39 Lärandemål Betingad
Läs merStatistikens grunder HT, dagtid Statistiska institutionen
Statistikens grunder 1 2013 HT, dagtid Statistiska institutionen Orsak och verkan N Kap 2 forts. Annat ord: kausalitet Något av det viktigaste för varje vetenskap. Varför? Orsakssamband ger oss möjlighet
Läs merAntag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs merFråga 5 (1 poäng) För att definiera ett sökproblem krävs...
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs merAsymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna kan man bara ha rätt eller fel, dvs frågan måste vara helt korrekt besvarad för att man skall
Läs merTSFS06: Bayesianska nätverk i GeNIe - kort handledning
TSFS06: Bayesianska nätverk i GeNIe - kort handledning GeNIe är en grafisk utvecklingsmiljö för inferensberäkningar med bland annat Bayesianska nätverk. Verktyget är utvecklat vid Decision Systems Laboratory,
Läs merStatistik 1 för biologer, logopeder och psykologer
Innehåll 1 Grunderna i sannolikhetslära 2 Innehåll 1 Grunderna i sannolikhetslära 2 Satistik och sannolikhetslära Statistik handlar om att utvinna information från data. I praktiken inhehåller de data
Läs merKombinatorik och sannolikhetslära
Grunder i matematik och logik (2018) Kombinatorik och sannolikhetslära Marco Kuhlmann Sannolikhetslära Detta avsnitt är för det mesta en kompakt sammanfattning av momentet sannolikhetslära som ingår i
Läs merTMS136. Föreläsning 1
TMS136 Föreläsning 1 Varför? Om vi gör mätningar vill vi kunna modellera och kvantifiera de osäkerheter som obönhörligen finns Om vi handlar med värdepapper vill kunna modellera och kvantifiera de risker
Läs merFöreläsning 2. Kapitel 3, sid Sannolikhetsteori
Föreläsning 2 Kapitel 3, sid 47-78 Sannolikhetsteori 2 Agenda Mängdlära Kombinatorik Sannolikhetslära 3 Mängdlära Används för att hantera sannolikheter Viktig byggsten inom matematik och logik Utfallsrummet,
Läs merMatematisk Statistik och Disktret Matematik, MVE051/MSG810, VT19
Matematisk Statistik och Disktret Matematik, MVE051/MSG810, VT19 Nancy Abdallah Chalmers - Göteborgs Universitet March 25, 2019 1 / 36 1. Inledning till sannolikhetsteori 2. Sannolikhetslagar 2 / 36 Lärare
Läs merOutline. TSFS06 Diagnos och övervakning Föreläsning 10 - Sannolikhetsbaserad diagnos och Bayesianska nätverk. Sneak-peak. Outline
TSFS06 Diagnos och övervakning Föreläsning 10 - och Erik Frisk Institutionen för systemteknik Linköpings universitet erik.frisk@liu.se 2017-05-17 2 Sneak-peak Antag att residualerna r 1 och r 2 larmar
Läs merArtificiell Intelligens Lektion 7
Laboration 6 Artificiell Intelligens Lektion 7 Neurala nätverk (Lab 6) Probabilistiska resonemang Vad? Mönsterigenkänning Lära ett neuralt nätverk att känna igen siffror Varför? Få ökad förståelse för
Läs merArtificiell Intelligens
Omtentamen Artificiell Intelligens Datum: 2014-02-20 Tid: 14.00 18.00 Ansvarig: Resultat: Hjälpmedel: Gränser: Anders Gidenstam Redovisas inom tre veckor Inga G 8p, VG 12p, Max 16p Notera: Skriv läsbart!
Läs merSatsen om total sannolikhet och Bayes sats
Satsen om total sannolikhet och Bayes sats Satsen om total sannolikhet Ibland är det svårt att direkt räkna ut en sannolikhet pga att händelsen är komplicerad/komplex. Då kan man ofta använda satsen om
Läs merResonemang under osäkerhet. Bayes Certainty factors Dempster-Schafer Fuzzy logic
Resonemang under osäkerhet Bayes Certainty factors Dempster-Schafer Fuzzy logic Varför resonera med sannolikheter? Om agenten vet tillräckligt om världen, kan den med logik få fram planer som garanterat
Läs merSF1901: SANNOLIKHETSTEORI OCH STATISTIK GRUNDLÄGGANDE SANNOLIKHETSTEORI, BETINGAD SANNOLIKHETER, OBEROENDE. Tatjana Pavlenko.
SF1901: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 2 GRUNDLÄGGANDE SANNOLIKHETSTEORI, BETINGAD SANNOLIKHETER, OBEROENDE HÄNDELSER Tatjana Pavlenko 26 mars, 2015 SANNOLIKHETSGRUNDER (REPETITION) Slumpförsöket
Läs merFöreläsning G70, 732G01 Statistik A
Föreläsning 3 732G70, 732G01 Statistik A Introduktion till sannolikhetslära Sannolikhetslära: område inom statistiken där vi studerar experiment vars utfall beror av slumpen Sannolikhet: numeriskt värde
Läs merSF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende
SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende Jan Grandell & Timo Koski 21.01.2015 Jan Grandell & Timo Koski () Matematisk statistik 21.01.2015 1 / 1 Repetition:
Läs merFöreläsning G70 Statistik A
Föreläsning 2 732G70 Statistik A Introduktion till sannolikhetslära Sannolikhetslära: område inom statistiken där vi studerar experiment vars utfall beror av slumpen Sannolikhet: numeriskt värde (mellan
Läs merStatistisk slutledning (statistisk inferens): Sannolikhetslära: GRUNDLÄGGANDE SANNOLIKHETSLÄRA. Med utgångspunkt från ett stickprov
OSÄKERHET Sannolikhetslära: Om det i ett område finns 32 % med universitetsexamen, vad är sannolikheten att ett stickprov kommer att innehålla 31-33 % med universitetsexamen? Om medelåldern i en population
Läs merSF1901 Sannolikhetsteori och statistik I
SF1901 Sannolikhetsteori och statistik I Jimmy Olsson Föreläsning 3 4 november 2016 1 / 28 Idag Förra gången Stokastiska variabler (Kap. 3.2) Diskret stokastisk variabel (Kap. 3.3 3.4) Kontinuerlig stokastisk
Läs merFöreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012
Föreläsning 1 Repetition av sannolikhetsteori Patrik Zetterberg 6 december 2012 1 / 28 Viktiga statistiska begrepp För att kunna förstå mer avancerade koncept under kursens gång är det viktigt att vi förstår
Läs merSF1901: SANNOLIKHETSTEORI OCH GRUNDLÄGGANDE SANNOLIKHETSTEORI, STATISTIK BETINGADE SANNOLIKHETER, OBEROENDE. Tatjana Pavlenko.
SF1901: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 2 GRUNDLÄGGANDE SANNOLIKHETSTEORI, BETINGADE SANNOLIKHETER, OBEROENDE HÄNDELSER Tatjana Pavlenko 30 augusti, 2016 SANNOLIKHETSGRUNDER (REPETITION) Slumpförsöket
Läs merFinansiell statistik, vt-05. Slumpvariabler, stokastiska variabler. Stokastiska variabler. F4 Diskreta variabler
Johan Koskinen, Statistiska institutionen, Stockholms universitet Finansiell statistik, vt-05 F4 Diskreta variabler Slumpvariabler, stokastiska variabler Stokastiska variabler diskreta variabler kontinuerliga
Läs mer1 Föreläsning I, Vecka I: 5/11-11/11 MatStat: Kap 1, avsnitt , 2.5
1 Föreläsning I, Vecka I: 5/11-11/11 MatStat: Kap 1, avsnitt 2.1-2.2, 2.5 Introduktion till kursen. Grundläggande sannolikhetslära. Mängdlära, händelser, sannolikhetsmått Händelse följer samma räkneregler
Läs merFöreläsning 1, Matematisk statistik för M
Föreläsning 1, Matematisk statistik för M Erik Lindström 23 mars 2015 Erik Lindström - erikl@maths.lth.se FMS035 F1 1/30 Tillämpningar Praktiska detaljer Matematisk statistik slumpens matematik Sannolikhetsteori:
Läs merTMS136. Föreläsning 1
TMS136 Föreläsning 1 Varför? Om vi gör mätningar vill vi modellera och kvantifiera de osäkerheter som obönhörligen finns Om vi handlar med värdepapper vill vi modellera och kvantifiera de risker som finns
Läs merMarkovkedjor. Patrik Zetterberg. 8 januari 2013
Markovkedjor Patrik Zetterberg 8 januari 2013 1 / 15 Markovkedjor En markovkedja är en stokastisk process där både processen och tiden antas diskreta. Variabeln som undersöks kan både vara numerisk (diskreta)
Läs merI en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd.
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs merFöreläsning 1. Grundläggande begrepp
Finansiell Statistik (GN, 7,5 hp,, VT 2009) Föreläsning 1 Sannolikhetsteori (LLL Kap 5) Department of Statistics (Gebrenegus Ghilagaber, PhD, Associate Professor) Financial Statistics (Basic-level course,
Läs merReliability analysis in engineering applications
Reliability analysis in engineering applications Fredrik Carlsson Sannolikhetsteorins grunder Fördelningar och stokastiska variabler Extremvärdesfördelningar Simulering Structural Engineering - Lund University
Läs merMatematisk statistik - Slumpens matematik
Matematisk Statistik Matematisk statistik är slumpens matematik. Började som en beskrivning av spel, chansen att få olika utfall. Brevväxling mellan Fermat och Pascal 1654. Modern matematisk statistik
Läs merBayesiansk sannolikhetsteori
Beviskraft Bayesiansk sannolikhetsteori villkorad sannolikhet P = sannolikhet H = hypotes E = evidens P(H E) P = sannolikhet T = bevistema F = bevisfaktum P(T F) Händelseträd H E -E -H E -E hypotesen är
Läs merSF1922/SF1923: SANNOLIKHETSTEORI OCH DISKRETA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 23 mars, 2018
SF1922/SF1923: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 3 DISKRETA STOKASTISKA VARIABLER Tatjana Pavlenko 23 mars, 2018 PLAN FÖR DAGENSFÖRELÄSNING Repetition av betingade sannolikheter, användbara satser
Läs merF2 SANNOLIKHETSLÄRA (NCT )
Stat. teori gk, ht 2006, JW F2 SANNOLIKHETSLÄRA (NCT 4.1-4.2) Ordlista till NCT Random experiment Outcome Sample space Event Set Subset Union Intersection Complement Mutually exclusive Collectively exhaustive
Läs merSF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende
SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende Jan Grandell & Timo Koski 14.01.2013 Jan Grandell & Timo Koski () Matematisk statistik 14.01.2013 1 / 25 Repetition:
Läs merFöreläsning 1, Matematisk statistik Π + E
Introduktion Sannolikhetsteori Beroende Föreläsning 1, Matematisk statistik Π + E Sören Vang Andersen 4 november 2014 Sören Vang Andersen - sva@maths.lth.se FMS012 F1 1/26 Introduktion Sannolikhetsteori
Läs merF5 STOKASTISKA VARIABLER (NCT , samt del av 5.4)
Stat. teori gk, ht 006, JW F5 STOKASTISKA VARIABLER (NCT 5.1-5.3, samt del av 5.4) Ordlista till NCT Random variable Discrete Continuous Probability distribution Probability distribution function Cumulative
Läs merSlumpvariabler och sannolikhetsfördelningar
och sannolikhetsfördelningar Föreläsning 4 Sannolikhet och Statistik 5 hp Fredrik Jonsson April 2010 Översikt 1. Verklighetsanknutna exempel. Definition relativt utfallsrum. 2. Sannolikhetsfördelningar
Läs merMatematisk statistik för D, I, Π och Fysiker
max/min Matematisk statistik för D, I, Π och Fysiker Föreläsning 5 Johan Lindström 25 september 218 Johan Lindström - johanl@maths.lth.se FMSF45/MASB3 F5 1/25 max/min Johan Lindström - johanl@maths.lth.se
Läs merFöreläsning 6, Repetition Sannolikhetslära
Föreläsning 6, Repetition Sannolikhetslära kap 4 Sannolikhetslära och slumpvariabler kap 5 Stickprov, medelvärden, CGS, binomialfördelning Viktiga grundbegrepp utfall, händelse, sannolikheter, betingad
Läs mer1 Föreläsning I, Mängdlära och elementär sannolikhetsteori,
1 Föreläsning I, Mängdlära och elementär sannolikhetsteori, LMA201, LMA521 1.1 Mängd (Kapitel 1) En (oordnad) mängd A är en uppsättning av element. En sådan mängd kan innehålla ändligt eller oändlligt
Läs merKursombud sökes! Kursens syfte är att ge en introduktion till metoder för att förutsäga realtidsegenskaper hos betjäningssystem, i synnerhet för data- och telekommunikationssystem. Såväl enkla betjäningssystem,
Läs merFinansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 1
Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 1 Sannolikhetslära (LLL Kap 5) Department of Statistics (Gebrenegus Ghilagaber, PhD, Associate Professor) Financial Statistics (Basic-level course,
Läs mer4 Diskret stokastisk variabel
4 Diskret stokastisk variabel En stokastisk variabel är en variabel vars värde bestäms av utfallet av ett slumpmässigt försök. En stokastisk variabel betecknas ofta med X, Y eller Z (i läroboken används
Läs merGrundläggande matematisk statistik
Grundläggande matematisk statistik Grundbegrepp, axiomsystem, betingad sannolikhet, oberoende händelser, total sannolikhet, Bayes sats Uwe Menzel uwe.menzel@slu.se 23 augusti 2017 Slumpförsök Ett försök
Läs merhändelsen som alltid inträffar. Den tomma mängden representerar händelsen som aldrig inträffar.
Marco Kuhlmann Detta är en kompakt sammanfattning av momentet sannolikhetslära som ingår i kurserna Matematik 1b och 1c på gymnasiet. 1 Grundläggande begrepp 1.01 När vi singlar slant eller kastar tärning
Läs merKolmogorovs Axiomsystem Kolmogorovs Axiomsystem Varje händelse A tilldelas ett tal : slh att A inträar Sannolikheten måste uppfylla vissa krav: Kolmog
Slumpvariabel (Stokastisk variabel) Resultat av ett slumpförsök - utgången kann inte kontrolleras Sannolikhet och statistik Sannolikhetsteorins grunder VT 2009 Resultatet kan inte förutspås, men vi vet
Läs merStatistiska metoder för säkerhetsanalys
F7: Bayesiansk inferens Klassisk vs Bayesiansk Två problem Klassisk statistisk inferens Frekventistisk tolkning av sannolikhet Parametrar fixa (ofta okända) storheter Skattningar och konfidensintervall
Läs merTENTAMEN I STATISTIKENS GRUNDER 1
STOCKHOLMS UNIVERSITET Statistiska institutionen Michael Carlson HT2012 TENTAMEN I STATISTIKENS GRUNDER 1 2012-10-03 Skrivtid: kl 9.00-14.00 Godkända hjälpmedel: Miniräknare, språklexikon Bifogade hjälpmedel:
Läs merMatematisk statistik 9 hp Föreläsning 4: Flerdim
Matematisk statistik 9 hp Föreläsning 4: Flerdim Johan Lindström 3+4 september 26 Johan Lindström - johanl@maths.lth.se FMS2 F4: Flerdim /5 Transformer Inversmetoden Transformation av stokastiska variabler
Läs merAntag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.
OS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs merFöreläsning 11. Slumpvandring och Brownsk Rörelse. Patrik Zetterberg. 11 januari 2013
Föreläsning 11 Slumpvandring och Brownsk Rörelse Patrik Zetterberg 11 januari 2013 1 / 1 Stokastiska Processer Vi har tidigare sett exempel på olika stokastiska processer: ARIMA - Kontinuerlig process
Läs merFöreläsning 5, FMSF45 Summor och väntevärden
Föreläsning 5, FMSF45 Summor och väntevärden Stas Volkov 2017-09-19 Stanislav Volkov s.volkov@maths.lth.se FMSFF45 F5: väntevärden 1/18 2D stokastisk variabel Tvådimensionella stokastisk variabel (X, Y)
Läs merÖvning 1 Sannolikhetsteorins grunder
Övning 1 Sannolikhetsteorins grunder Två händelser A och B är disjunkta om {A B} =, det vill säga att snittet inte innehåller några element. Om vi har en mängd händelser A 1, A 2, A 3,..., A n, vilka är
Läs merKurser inom profilen Teknisk matematik (Y)
Matematisk Statistik Kurser inom profilen Teknisk matematik (Y) Martin Singull Matematisk Statistik MAI - LiU Linköping 9 mars 2015 Matematisk statistik Matematisk statistik handlar om: 1) Sannolikhetslära
Läs merHKGBB0, Artificiell intelligens
HKGBB0, Artificiell intelligens Kortfattade lösningsförslag till tentan 3 november 2005 Arne Jönsson 1. Vad karaktäriserar dagens AI-forskning jämfört med den AI-forskning som bedrevs perioden 1960-1985.
Läs merS0007M Statistik2: Slumpmodeller och inferens. Inge Söderkvist
Föreläsning 1 4.1 Slumpässighet 4.2 Sannolikhetsmodeller Viktiga grundbegrepp Slumpmässig (eng: random) Ett fenomen är slumpmässigt om individuella resultat är osäkra, men resultat alltid förekommer med
Läs merTentamen i Matematisk Statistik, 7.5 hp
Tentamen i Matematisk Statistik, 7.5 hp Distanskurs 15 januari, 2011 kl. 9.00 13.00 Maxpoäng: 30p. Betygsgränser: 12p: betyg G, 21p: betyg VG. Hjälpmedel: Miniräknare samt formelsamling som medföljer tentamenstexten.
Läs merOm sannolikhet. Bengt Ringnér. August 27, Detta är introduktionsmaterial till kursen i matematisk statistik för lantmätarprogrammet
Om sannolikhet Bengt Ringnér August 27, 2007 1 Inledning Detta är introduktionsmaterial till kursen i matematisk statistik för lantmätarprogrammet vid LTH hösten 2007. 2 Sannolikhetsteori Sannolikhetsteori,
Läs merUtfall, Utfallsrummet, Händelse. Sannolikhet och statistik. Utfall, Utfallsrummet, Händelse. Utfall, Utfallsrummet, Händelse
Utfall, Utfallsrummet, Händelse Sannolikhet och statistik Sannolikhetsteorins grunder HT 2008 Uwe.Menzel@math.uu.se http://www.math.uu.se/ uwe/ Denition 2.1 Resultatet av ett slumpmässigt försök kallas
Läs merFilosofisk Logik (FTEA21:4) föreläsningsanteckningar/kompendium. v. 2.0, den 29/ III. Metalogik 17-19
Filosofisk Logik (FTEA21:4) föreläsningsanteckningar/kompendium IV v. 2.0, den 29/4 2013 III. Metalogik 17-19 Modeller för satslogiken 18.1 Vi har tidigare sagt att en modell är en tolkning av en teori
Läs merFilosofisk logik Kapitel 15 (forts.) Robin Stenwall Lunds universitet
Filosofisk logik Kapitel 15 (forts.) Robin Stenwall Lunds universitet Dagens upplägg Antalet element i en mängd Kardinalitet Humes princip Cantors teorem Den universella mängden Några mängdteoretiska paradoxer
Läs merFö relä sning 1, Kö system vä ren 2014
Fö relä sning 1, Kö system vä ren 2014 Här följer en mycket kort sammanfattning av det viktigaste i Föreläsning 1. Observera att dessa anteckningar inte kan ersätta läroboken, de är alltför kortfattade
Läs merIntroduktion till logik
Introduktion till logik Av Johan Johansson Johan.johansson@guldstadsgymnasiet.se Logik sägs som många andra saker komma från de grekiska filosoferna, och ordet kommer också därifrån. Grekerna kallade det
Läs merI en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd.
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs merStokastiska processer
Stokastiska processer Fredrik Olsson, fredrik.olsson@iml.lth.se Avdelningen för produktionsekonomi Lunds tekniska högskola, Lunds universitet Dessa förläsningsanteckningar kommer att behandla diskreta
Läs merInstitutionen för lingvistik och filologi VT 2014 (Marco Kuhlmann 2013, tillägg och redaktion Mats Dahllöf 2014).
UPPSALA UNIVERSITET Matematik för språkteknologer (5LN445) Institutionen för lingvistik och filologi VT 2014 (Marco Kuhlmann 2013, tillägg och redaktion Mats Dahllöf 2014). 9 Sannolikhet Detta kapitel
Läs merArtificial Intelligence
Omtentamen Artificial Intelligence Datum: 2014-08-27 Tid: 09.00 13.00 Ansvarig: Resultat: Hjälpmedel: Gränser: Anders Gidenstam Redovisas inom tre veckor Inga G 8p, VG 12p, Max 16p Notera: Skriv läsbart!
Läs merFöreläsningsmanus i matematisk statistik för lantmätare, vecka 2 HT07
Föreläsningsmanus i matematisk statistik för lantmätare, vecka 2 HT07 Bengt Ringnér August 31, 2007 1 Inledning Detta är preliminärt undervisningsmaterial. Synpunkter är välkomna. 2 Händelser och sannolikheter
Läs merFÖRELÄSNING 3:
FÖRELÄSNING 3: 26-4-3 LÄRANDEMÅL Fördelningsfunktion Empirisk fördelningsfunktion Likformig fördelning Bernoullifördelning Binomialfördelning Varför alla dessa fördelningar? Samla in data Sammanställ data
Läs merKap 2. Sannolikhetsteorins grunder
Kap 2. Sannolikhetsteorins grunder Olika händelser och deras mängbetäckningar Sats 2.7 Dragning utan återläggning av k element ur n (utan hänsyn till ordning) kan ske på ( n ) olika sätt k För två händelser
Läs merFiloson bakom Bayesiansk statistik med tillämpningar inom hjärnavbildning och budgivningar på ebay
Filoson bakom Bayesiansk statistik med tillämpningar inom hjärnavbildning och budgivningar på ebay Bertil Wegmann STIMA, IDA, Linköpings universitet October 5, 2017 Bertil Wegmann, STIMA, IDA, LiU Bayesiansk
Läs merSF1901: Sannolikhetslära och statistik
SF9: Sannolikhetslära och statistik Föreläsning 3. Stokastiska variabler, diskreta och kontinuerliga Jan Grandell & Timo Koski 8.9.28 Jan Grandell & Timo Koski () Matematisk statistik 8.9.28 / 45 Stokastiska
Läs merTentamen MVE301 Sannolikhet, statistik och risk
Tentamen MVE30 Sannolikhet, statistik och risk 207-08-5 kl. 8:30-3:30 Examinator: Johan Jonasson, Matematiska vetenskaper, Chalmers Telefonvakt: Olof Elias, telefon: 03-7725325 Hjälpmedel: Valfri miniräknare.
Läs merMarkovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 1 Markovprocesser 25 Mars 2015 Johan Westerborn Markovprocesser (1) Föreläsning 1 Föreläsningsplan 1 Kursinformation 2 Stokastiska processer
Läs merTentamen MVE301 Sannolikhet, statistik och risk
Tentamen MVE30 Sannolikhet, statistik och risk 207-06-0 kl. 8:30-3:30 Examinator: Johan Jonasson, Matematiska vetenskaper, Chalmers Telefonvakt: Ivar Simonsson, telefon: 03-7725348 Hjälpmedel: Valfri miniräknare.
Läs mer4.1 Grundläggande sannolikhetslära
4.1 Grundläggande sannolikhetslära När osäkerhet förekommer kan man aldrig uttala sig tvärsäkert. Istället använder vi sannolikheter, väntevärden, standardavvikelser osv. Sannolikhet är ett tal mellan
Läs merFöresläsningsanteckningar Sanno II
Föresläsningsanteckningar 1 Gammafunktionen I flera av våra vanliga sannolikhetsfördelningar ingår den s.k. gamma-funktionen. Γ(p) = 0 x p 1 e x dx vilken är definierad för alla reella p > 0. Vi ska här
Läs merSF1901: Sannolikhetslära och statistik. Väntevärde; Väntevärde för funktioner av s.v:er; Varians; Tjebysjovs olikhet. Jan Grandell & Timo Koski
SF1901: Sannolikhetslära och statistik Föreläsning 5. Väntevärde; Väntevärde för funktioner av s.v:er; Varians; Tjebysjovs olikhet. Jan Grandell & Timo Koski 28.01.2015 Jan Grandell & Timo Koski () Matematisk
Läs merMatematisk statistik 9 hp för I, Pi, C, D och fysiker Föreläsning 1: Introduktion och Sannolikhet
Matematisk statistik 9 hp för I, Pi, C, D och fysiker Föreläsning 1: Introduktion och Sannolikhet Anna Lindgren 30+31 augusti 2016 Anna Lindgren anna@maths.lth.se FMS012/MASB03 F1: Sannolikhet 1/27 Praktiska
Läs merVarför är logik viktig för datavetare?
Varför är logik viktig för datavetare? 1. Datavetenskap handlar ofta om att automatisera processer som tidigare styrts av människor. Intuition, intelligens och mänskliga resonemang ersätts av beräkningar.
Läs merKurssammanfattning MVE055
Obs: Detta är enbart tänkt som en översikt och innehåller långt ifrån allt som ingår i kursen (vilket anges exakt på hemsidan). Fullständiga antaganden i satser kan saknas och fel kan förekomma så kontrollera
Läs merResultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).
STOKASTISKA VARIABLER Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.). Definition 1. En reellvärd funktion definierad på ett utfallsrum Ω kallas en (endimensionell)
Läs merProblemdel 1: Uppgift 1
STOCKHOLMS UNIVERSITET MT 00 MATEMATISKA INSTITUTIONEN LÖSNINGAR Avd. Matematisk statistik, CH 8 februari 0 LÖSNINGAR 8 februari 0 Problemdel : Uppgift Rätt svar är: a) X och X är oberoende och Y och Y
Läs merFö relä sning 1, Kö system 2015
Fö relä sning 1, Kö system 2015 Här följer en kort sammanfattning av det viktigaste i Föreläsning 1. Kolla kursens hemsida minst en gång per vecka. Övningar kommer att läggas ut där, skriv ut dem och ha
Läs mer