Outline. TSFS06 Diagnos och övervakning Föreläsning 10 - Sannolikhetsbaserad diagnos och Bayesianska nätverk. Sneak-peak. Outline
|
|
- Emilia Sandström
- för 5 år sedan
- Visningar:
Transkript
1 TSFS06 Diagnos och övervakning Föreläsning 10 - och Erik Frisk Institutionen för systemteknik Linköpings universitet erik.frisk@liu.se Sneak-peak Antag att residualerna r 1 och r 2 larmar i beslutsstrukturen F 1 F 2 F 3 r 1 0 X X r 2 X 0 X r 3 X X 0 En konsistensbaserad ansats skulle ge de minimala diagnoserna D 1 = OK(C 1 ) OK(C 2 ) OK(C 3 ) {F 3 } D 2 = OK(C 1 ) OK(C 2 ) OK(C 3 ) {F 1 F 2 } kort introducerande demonstration i GeNIe 3 4
2 Konsistensbaserad diagnos Definition (Diagnosis) Givet en modell M och observationer O så är en modtilldelning D en diagnos omm mängden formler är konsistent. M O D 5 Exempel trippel redundans M : y 1 = x + f 1 y 2 = x + f 2 y 3 = x + f 3 OK(S i ) f i = 0 i = D 1 = OK(S 1 ) OK(S 2 ) OK(S 3 ) D 2 = OK(S 1 ) OK(S 2 ) OK(S 3 ) D 3 = OK(S 1 ) OK(S 2 ) OK(S 3 ) O = {y 1 = y 2 = 1 y 3 = 3} Konsistens hos M O D 1 är ekvivalent med att det finns en lösning (x f ) till ekvationerna 1 = x 1 = x 3 = x + f och motsvarande för M O D 2 blir 1 = x 1 = x + f 3 = x 6 Osäkerheter och konsistensbaserad diagnos Trösklar och beslut 8 Konsistens i de två fallen svarar mot att residualerna är exakt 0. r 1 = y 1 y 2 r 2 = y 1 y 3 Problem Med modellfel och mätbrus så är våra residualer aldrig exakt 0 vi trösklar våra residualer Vi avgör om vi är tillräckligt nära konsistens genom att tröskla residualer/teststorheter r(t) > J generera larm r1 r2 r3 r t [s] 8
3 Beslut under osäker information felisoleringsalgoritmen tar ej i beaktande om residualer är långt över sina trösklar eller precis över kvantiseringseffekter som kanske inte är önskvärda vill ha en mer mjuk övergång mellan besluten Beslut under osäker information är ett stort vetenskapligt fält Sannolikheter ett naturligt verktyg (men ej det enda) Konsistensbaserad till sannolikhetsbaserad diagnos Konsistens av ersätts av något i stil med M O D P(D M O) eller P(F i M O) oftast den senare pga. komplexitetsegenskaper. Diagnoser och sannolikheter Antag att residualerna r 1 och r 2 larmar i beslutsstrukturen F 1 F 2 F 3 r 1 0 X X r 2 X 0 X r 3 X X 0 En konsistensbaserad ansats skulle ge de minimala diagnoserna D 1 = OK(C 1 ) OK(C 2 ) OK(C 3 ) D 2 = OK(C 1 ) OK(C 2 ) OK(C 3 ) En sannolikhetsbaserad ansats (med enkelfelsantagande) skulle ge resultat i stil med 0.01 if B i = NF 0.85 if B i = F 1 P(B i O M) = 0.93 if B i = F if B i = F Diagnoser och sannolikheter 0.01 if B i = NF 0.85 if B i = F 1 P(B i O M) = 0.93 if B i = F if B i = F 3 felmoder vs diagnoser P(F i M O) vs. P(D i M O) Vi vill modellera processen så att vi på ett effektivt sätt kan räkna ut storheter i stil med P(D M O) eller P(F i M O) oftast den senare pga. komplexitetsegenskaper. Önskvärt men ofta ej möjligt med explicita uttryck för sannolikhetsfördelningar dynamiska och olinjära modeller x t+1 = f (x t ) + ε t stokastiska filter (E/U)-Kalman Filter partikelfilter
4 13 Tänk ett fall med två fel de möjliga felmoderna är då FM {NF f 1 f 2 f 1 &f 2 }. En residual har konstruerats för att i huvudsak detektera fel f 1 men som också är känslig för fel f 2 Sannolikhet Formel Värde A priori-sannolikhet för fel i P(f i ) i = Falsklarm P(r > J FM = NF ) 0.01 Känslighet för enkelfel f 1 P(r > J FM = f 1 ) 0.99 Känslighet för enkelfel f 2 P(r > J FM = f 2 ) 0.30 Känslighet för dubbelfel f 1 &f 2 P(r > J FM = f 1 &f 2 ) 0.99 Residualen överträder sin tröskel vad är slutsatsen deterministiskt med sannolikheterna 14 forts. Oberoende antas mellan felen dvs. direkta räkningar ger då P(FM = f 1 ) = P(f 1 f 2 ) = P(f 1 )P( f 2 ) P(r > J FM = NF )P(FM = NF ) P(FM = NF r > J) = P(r > J) = P(r > J FM = NF )P( f 1)P( f 2 ) P(r > J) P(FM = f 1 r > J) = P(r > J FM = f 1)P(FM = f 1 ) = P(r > J) = P(r > J FM = f 1)P(f 1 )P( f 2 ) P(r > J) P(FM = f 2 r > J) = P(r > J FM = f 2)P(FM = f 2 ) = P(r > J) = P(r > J FM = f 2)P( f 1 )P(f 2 ) P(r > J) P(FM = f 1 &f 2 r > J) = P(r > J FM = f 1&f 2 )P(f 1 )P(f 2 ) P(r > J) 15 = forts. Sätter man in värden fås att 27.2% if f = NF 55.0% if f = f 1 P(FM = f r > J) = 16.7% if f = f 2 1.1% if f = f 1 &f 2 Behöver ej beräkna P(r > J) Krävdes en del handräkning och exemplet var av väldigt enkel sort. Nu hur generaliserar man detta till mer allmänna problem. 16
5 Förutsättningar begränsningar notation Endast diskreta stokastiska variabler Endast statiska modeller Går att generalisera båda dessa men görs inte i den här kursen Notation Sannolikheten att en stokastisk variabel X (versal) har värdet x i (gemen) skrivs med sannolikhetsfunktionen P(X = x i ) eller kortare P(x i ). Om X endast kan ha värdena Sann eller Falsk skriver vi för P(x) och P( x) P(X = True) och P(X = False). Vill vi beskriva sannolikheterna 27.2% if f = NF 55.0% if f = f 1 P(FM = f r > J) = 16.7% if f = f 2 1.1% if f = f 1 &f 2 så kan en -notation användas P(FM r > J) = Grundläggande samband/operationer Marginalisering P(y) = P(x y) x Kedjeregeln P(x 1... x n ) = P(x i x 1... x i 1 ) i exempelvis med n = 3 P(x 1 x 2 x 3 ) = P(x 1 ) P(x 2 x 1 ) P(x 3 x 1 x 2 ) X och Y oberoende P(x y) = P(x) 20
6 Betingade sannolikheter Viktig operation är att uppdatera sannolikheter (eng. belief) när ny data (evidence) inkommer. ny data kan vara när ett test larmar eller nya mätningar görs Betingad sannolikhet P(x y) = P(x y) P(y) = P(y x)p(x). P(y) P(x) - prior P(x y) - posterior Tolkning: hur förändras kunskapen om X när vi får informationen att Y har värdet y Sannolikhetsbaserade modeller En sannolikhetsbaserad modell för de diskreta stokastiska variablerna X = {X 1... X n } är sannolikhetsfunktionen (joint probability mass function) P(x 1... x n ) som ersätter ekvationerna som relaterar variablerna i en deterministisk modell. I det introducerande exemplet tre boolska variabler A F 1 F 2 har en modell P(a f 1 f 2 ) = P(a f 1 f 2 ) P(f 1 f 2 ) P(f 2 ) = P(a f 1 f 2 ) P(f 1 ) P(f 2 ). Sannolikhetsmodell för det introducerande exemplet Sannolikhet Formel Värde A priori-sannolikhet för fel i P(f i ) i = Falsklarm P(r > J FM = NF ) 0.01 Känslighet för enkelfel f 1 P(r > J FM = f 1 ) 0.99 Känslighet för enkelfel f 2 P(r > J FM = f 2 ) 0.30 Känslighet för dubbelfel f 1 &f 2 P(r > J FM = f 1 &f 2 ) 0.99 P(a f 1 f 2 ) = P(a f 1 f 2 ) P(f 1 f 2 ) P(f 2 ) = P(a f 1 f 2 ) P(f 1 ) P(f 2 ). a f 1 f 2 P(a f 1 f 2 ) False False False False False True False True False False True True True False False True False True True True False True True True
7 Inferens i sannolikhetsmodeller Inferens i det introducerande exemplet Inferens (här) Beräkna sannolikheter för vissa variabler givet värden på andra Inferensuttryck P(x e) = P(F 1 r 1 > J 1 r 3 > J 3 ) P(x e) P(e) = α P(x e) = α z P(x e z) P(f 1 a) = α P(f 1 a) = α P(f 1 f 2 a) = f 2 = α (P(f 1 f 2 a) + P(f 1 f 2 a)) = α( ) = α Motsvarande för P( f 1 a) ger P( f 1 a) = α och alltså P(F 1 a) = α = där normaliseringsfaktorn α bestäms ur 1 = x P(x e) = α x P(x e) Notera att från de inledande räkningarna så är P(FM = f 1 a) = Beror på att FM = f 1 var enkelfelsmoden bara medans f 1 är sann även i dubbelfelsmoden FM = f 1 &f Modell och inferenskomplixitet inferens rättframt utvärdera P(x e) = α z P(x e z) n stycken (binära) variabler ger att P(x 1... x n ) har 2 n värden kombinatorisk explosion Nyckeln är att utnyttja oberoende mellan variabler jmf sannolikhetsmodellen för det introducerande exemplet. Med n oberoende (binära) variabler blir det n parametrar. n P(x 1... x n ) = P(x i ) dvs. exponentiellt antal parametrar har transformerats till linjär tillväxt. P(x 1... x n ) är gles i=1 Här kommer in i bilden 27 28
8 Utnyttja oberoende Oberoende x 1 x 2 helt oberoende x 3 beroende enbart av x 1 och x 2 och x 4 och x 5 är både beroende enbart av x 3 P(x 1 x 2 x 3 x 4 x 5 ) = P(x 1 )P(x 2 )P(x 3 x 1 x 2 )P(x 4 x 3 )P(x 5 x 3 ) vilket ger 10 parametrar istället för = 31. Betingat oberoende P(x 1 x 2 x 3 ) = P(x 1 x 2 x 3 )P(x 2 x 3 )P(x 3 ) = P(x 1 x 3 )P(x 2 x 3 )P(x 3 ) Variablerna X 1 och X 2 ej oberoende men P(x 1 x 2 x 3 ) = P(x 1 x 2 x 3 ) P(x 3 ) = P(x 1 x 3 )P(x 2 x 3 )P(x 3 ) P(x 3 ) = = P(x 1 x 3 )P(x 2 x 3 ). 29 I det introducerande exemplet med felen F 1 F 2 och alarm A så kan beroenden beskrivas med grafen Kedjeregel och beroenden ger att F 1 F 2 A P(a f 1 f 2 ) = P(a f 1 f 2 )P(f 1 f 2 )P(f 2 ) = P(a f 1 f 2 )P(f 1 )P(f 2 ) dvs. en sannolikhetstabell för varje nod i grafen karakteriserar den totala sannolikhetsfunktionen Kedjeregel för n P(x 1... x n ) = P(x i x 1... x i 1 ) = i=1 n P(x i parents(x i )) i=1 30 Bayesianskt nätverk definition Definition (Bayesian network) Let X = {X 1... X n } be a set of random variables with a finite set of values for each variable. A Bayesian network is then a pair B = G P where G is an acyclic directed graph defined on the nodes X and P a set of conditional probability tables one for each node in the graph defined as P(x 1... x n ) = P(x i parents(x i )). n P(x i parents(x i )) i=1 Ett Bayesianskt nätverk är en representation av den totala sannolikhetsfunktionen (joint probability mass function) där beroendena mellan variablerna är explicit uttryckta i den acykliska grafen. 31 Bayesianskt nätverk Det finns ej ett unikt bayes-nät för en given sannolikhetsfunktion Varje variabelordning svarar mot en viss faktorisering av sannolikhetsfunktionen F 1 F 2 P(a f 1 f 2 ) = P(f 1 )P(a f 1 )P(f 2 a f 1 ) principiellt inga hinder mot cykler i beroendegrafen men då tappar man möjligheter att göra effektiva inferensalgoritmer A 32
9 Demonstrera (earthquake.xdsl) Inferens i Burglary JohnCalls Alarm Earthquake MaryCalls B = Burglary E = Earthquake A = Alarm J = JohnCalls M = MaryCalls B J A E M B = Burglary E = Earthquake A = Alarm J = JohnCalls M = MaryCalls där P(Burglary) = och P(Earthquake) = samt B E P(A B E) falsk falsk falsk sann 0.29 sann falsk 0.94 sann sann 0.95 A P(J A) falsk 0.05 sann 0.90 M P(M A) falsk 0.01 sann 0.70 P(b j m) = α e = α e P(b e a j m) = a P(b)P(e)P(a b e)p(j a)p(m a) = a α P(b) e P(e) a P(a b e) P(j a)p(m a) }{{} beror ej på e Algoritmer för inferens Demo XPI fuel injection system Scania (XPI.xdsl) inte ämne för den här kursen kan delas in i två kategorier exakt inferens approximativ inferens exakt inferens NP-svårt variable elimination poly-tree endast en väg mellan två noder poly-trees enkla join-trees slår ihop noder för att få poly-trees 141 variabler 40 svarar mot komponenter som kan gå sönder Resten svarar mot observationer och diagnostester Många variabler har två värden men vissa har upp till 8 möjliga En ventil har exempelvis möjligheterna {Fuel leak Electrical fault Stuck or clogged Wrong pressure Emission fault Corrosion or cavitation Air leak No Fault} P(x 1... x 141 ) har i storleksordningen värden Utvecklat i examensarbetet Modeling of fuel injection system for troubleshooting Cyon. A KTH
10 '((( )'- )'- )'- )'- )'- )'- - ( )*'(('% %)'- %)'- %)'- %)'- / %)'-.. %)'- / )*'((' - ( #$ ) / & )' #)( 0 - ' )( - '(( - (. #$%& % &% '%'(( 1 1 #$ '((%& / / / 1 / /... / &#$ &%' ( -( 0 XPI fuel injection system Scania Grundproblem; ett stort antal parametrar/sannolikheter behöver bestämmas i en sannolikhetsmodell expertkunskap eller mycket data utnyttja strukturen i Bayes-nät men problem dyker upp med nod med många (säg > 4) föräldrar parametriserade noder mallar... XPI-modellen använder sig flitigt av kanoniska modeller den vanligaste är leaky or-noder. Deterministisk funktion För sambandet y = f (x) så blir sannolikhetstabellen { 1 y = f (x) P(y x) = 0 otherwise Exempelvis för or-funktionen så har vi y = x 1 x 2 x 1 x 2 P(y x 1 x 2 ) P( y x 1 x 2 ) false false 0 1 false true 1 0 true false 1 0 true true 1 0 Deterministiska modeller har 0 parametrar 39 40
11 Enkelt felisoleringsexempel (binary) Noisy model F 1 F 2 F 3 R 1 R 2 R 3 F 1 F 2 F 3 r 1 0 X X r 2 X 0 X r 3 X X 0 Noisy Deterministic X 1... X n Z 1 Z n Y x i P(z i x i ) P( z i x i ) False 0 1 True c 1 1 c 1 funktionen är or vid alarm-noderna vi vill kunna modellera falsklarm missad detektion etc. deterministiska modeller räcker inte det var ju osäkerheter som var den ursprungliga anledningen till att vi introducerade sannolikheter 41 0 parametrar i den deterministiska delen 1 parameter (c i ) per variabel linjär tillväxt i parametrar c i = 1 svarar mot deterministisk modell Att residual r 3 reagerar för fel f 1 respektive fel f 2 med sannolikhet 0.9 och 0.6 respektive kan då modelleras med noisy-or där c 1 = 0.9 och c 2 = 0.6. Inga falsklarm dock 42 (binary) Noisy-leaky model Fortsättning på felisoleringsdemodemo X 1... X n Noisy model Deterministic model Z 1 Z n Z l Y Residualnoderna är leaky-or med falsklarmssannolikhet på 0.05 samt icke-ideala tester Illustrera hur BN kan användas vid feldetektion bara felisolering falsklarm Sannolikhetestabell för leak-node tillkommer Om sannolikheten för falsklarm är 0.01 så modelleras det i exemplet genom en noisy-leaky-or enligt tidigare och P(Z l ) = Noisy-leaky-or ofta bara noisy-or Noisy-or kan generaliseras till icke-binära variabler och kallas då noisy-max 43 44
12 Probabilistiska modeller Exakt inferens och komplexitetsproblem TSFS06 Diagnos och övervakning Föreläsning 10 - och Erik Frisk Institutionen för systemteknik Linköpings universitet erik.frisk@liu.se
TSFS06: Bayesianska nätverk i GeNIe - kort handledning
TSFS06: Bayesianska nätverk i GeNIe - kort handledning GeNIe är en grafisk utvecklingsmiljö för inferensberäkningar med bland annat Bayesianska nätverk. Verktyget är utvecklat vid Decision Systems Laboratory,
Anna: Bertil: Cecilia:
Marco Kuhlmann 1 Osäkerhet 1.01 1.02 1.03 1.04 1.05 Intelligenta agenter måste kunna hantera osäkerhet. Världen är endast delvist observerbar och stokastisk. (Jmf. Russell och Norvig, 2014, avsnitt 2.3.2.)
Probabilistisk logik 2
729G43 Artificiell intelligens / 2016 Probabilistisk logik 2 Marco Kuhlmann Institutionen för datavetenskap Översikt Probabilistiska modeller Probabilistisk inferens 1: Betingad sannolikhet Probabilistisk
Tentamen med lösningsdiskussion. TSFS06 Diagnos och övervakning 1 juni, 2013, kl
Tentamen med lösningsdiskussion TSFS6 Diagnos och övervakning juni, 23, kl. 4.-8. Tillåtna hjälpmedel: TeFyMa, Beta, Physics Handbook, Reglerteknik (Glad och Ljung), Formelsamling i statistik och signalteori
Lösningsförslag/facit till Tentamen. TSFS06 Diagnos och övervakning 14 januari, 2008, kl
Lösningsförslag/facit till Tentamen TSFS06 Diagnos och övervakning 14 januari, 2008, kl. 14.00-18.00 Tillåtna hjälpmedel: TeFyMa, Beta, Physics Handbook, Reglerteknik (Glad och Ljung), Formelsamling i
Översikt. TSFS06 Diagnos och övervakning Föreläsning 9 - Multipelfelisolering med metoder från Artificell Intelligens.
Översikt TSFS06 Diagnos och övervakning Föreläsning 9 - Multipelfelisolering med metoder från Artificell Intelligens Erik Frisk Institutionen för systemteknik Linköpings universitet frisk@isy.liu.se 2015-05-06
Tentamen. TSFS06 Diagnos och övervakning 12 januari, 2012, kl
Tentamen TSFS06 Diagnos och övervakning 12 januari, 2012, kl. 14.00-18.00 Tillåtna hjälpmedel: TeFyMa, Beta, Physics Handbook, Reglerteknik (Glad och Ljung), Formelsamling i statistik och signalteori samt
Probabilistisk logik 1
729G43 Artificiell intelligens / 2016 Probabilistisk logik 1 Marco Kuhlmann Institutionen för datavetenskap Osäkerhet 1.01 Osäkerhet Agenter måste kunna hantera osäkerhet. Agentens miljö är ofta endast
Försättsblad till skriftlig tentamen vid Linköpings Universitet
Försättsblad till skriftlig tentamen vid Linköpings Universitet Datum för tentamen 2010-01-15 Sal KÅRA Tid 14-18 Kurskod TSFS06 Provkod TEN1 Kursnamn Diagnos och övervakning Institution ISY Antal uppgifter
Teststorheten är ett modellvalideringsmått Betrakta. Översikt. Modellvalideringsmått, forts. Titta lite noggrannare på testet.
Ämnen för dagen TSFS6 Diagnos och övervakning Föreläsning 5 - Konstruktion av teststorheter Erik Frisk Institutionen för systemteknik Linköpings universitet frisk@isy.liu.se 27-4-5 En teststorhet är ett
729G43 Artificiell intelligens Probabilistisk logik. Arne Jönsson HCS/IDA
729G43 Artificiell intelligens Probabilistisk logik Arne Jönsson HCS/IDA Probabilistiska resonemang Osäkerhet Grundläggande sannolikhetslära Stokastiska variabler Bayes teorem Bayesianska nätverk Konstruktion
Ämnen för dagen. TSFS06 Diagnos och övervakning Föreläsning 5 - Konstruktion av teststorheter. Beteendemoder och felmodeller.
Ämnen för dagen TSFS6 Diagnos och övervakning Föreläsning 5 - Konstruktion av teststorheter Erik Frisk Institutionen för systemteknik Linköpings universitet erik.frisk@liu.se 29-4-8 En teststorhet är ett
Översikt. TSFS06 Diagnos och övervakning Föreläsning 4 - Linjär residualgenerering och detekterbarhet. Linjär residualgenerering
TSFS6 Diagnos och övervakning Föreläsning 4 - och detekterbarhet Erik Frisk Institutionen för systemteknik Linköpings universitet erik.frisk@liu.se 21-4-3 1 2 Definition Ett propert linjärt filter R(p)
Statistiska metoder för säkerhetsanalys
F7: Bayesiansk inferens Klassisk vs Bayesiansk Två problem Klassisk statistisk inferens Frekventistisk tolkning av sannolikhet Parametrar fixa (ofta okända) storheter Skattningar och konfidensintervall
Stat. teori gk, ht 2006, JW F7 STOKASTISKA VARIABLER (NCT 5.7) Ordlista till NCT
Stat. teori gk, ht 2006, JW F7 STOKASTISKA VARIABLER (NCT 5.7) Ordlista till NCT Jointly distributed Joint probability function Marginal probability function Conditional probability function Independence
de var svåra att implementera och var väldigt ineffektiva.
OBS! För flervalsfrågorna gäller att flera alternativ eller inget alternativ kan vara korrekt. På flervalsfrågorna kan man bara ha rätt eller fel, dvs frågan måste vara helt korrekt besvarad. Totalt kan
Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012
Föreläsning 1 Repetition av sannolikhetsteori Patrik Zetterberg 6 december 2012 1 / 28 Viktiga statistiska begrepp För att kunna förstå mer avancerade koncept under kursens gång är det viktigt att vi förstår
Artificiell Intelligens
Omtentamen Artificiell Intelligens Datum: 2014-02-20 Tid: 14.00 18.00 Ansvarig: Resultat: Hjälpmedel: Gränser: Anders Gidenstam Redovisas inom tre veckor Inga G 8p, VG 12p, Max 16p Notera: Skriv läsbart!
TMS136. Föreläsning 2
TMS136 Föreläsning 2 Sannolikheter För en händelse E skriver vi sannolikheten att E inträffar som P(E) För en händelse E skriver vi sannolikheten att E inte inträffar som P(E ) Exempel Låt E vara händelsen
Prototypbaserad Inkrementell Diagnos. Anders Holst SICS, Swedish Institute of Computer Science AB
Prototypbaserad Inkrementell Diagnos Anders Holst SICS, Swedish Institute of Computer Science AB Metoder för Industriell Diagnos Datadrivna metoder Träna in en mappning från symptom till diagnoser. Kräver
Föreläsning 6, Repetition Sannolikhetslära
Föreläsning 6, Repetition Sannolikhetslära kap 4 Sannolikhetslära och slumpvariabler kap 5 Stickprov, medelvärden, CGS, binomialfördelning Viktiga grundbegrepp utfall, händelse, sannolikheter, betingad
SF1901: SANNOLIKHETSTEORI OCH STATISTIKTEORI KONSTEN ATT DRA INTERVALLSKATTNING. STATISTIK SLUTSATSER. Tatjana Pavlenko.
SF1901: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 10 STATISTIKTEORI KONSTEN ATT DRA SLUTSATSER. INTERVALLSKATTNING. Tatjana Pavlenko 25 april 2017 PLAN FÖR DAGENS FÖRELÄSNING Statistisk inferens oversikt
Tentamen. TSFS06 Diagnos och övervakning 4 juni, 2007, kl
Tentamen TSFS06 Diagnos och övervakning 4 juni, 2007, kl. 08.00-12.00 Tillåtna hjälpmedel: TeFyMa, Beta, Physics Handbook, Reglerteknik (Glad och Ljung), Formelsamling i statistik och signalteori och miniräknare.
TMS136. Föreläsning 2
TMS136 Föreläsning 2 Slumpförsök Med slumpförsök (random experiment) menar vi försök som upprepade gånger utförs på samma sätt men som kan få olika utfall Enkla exempel är slantsingling och tärningskast
Dagens föreläsning. TSFS06 Diagnos och övervakning Föreläsning 6 - Tröskling och analys av teststorheter. Tröskelsättning och beslut i osäker miljö
Dagens föreläsning TSFS6 Diagnos och övervakning Föreläsning 6 - Tröskling och analys av teststorheter Erik Frisk Institutionen för systemteknik Linköpings universitet frisk@isy.liu.se 22-3-28 Tröskelsättning
Chapter 2: Random Variables
Chapter 2: Random Variables Experiment: Procedure + Observations Observation is an outcome Assign a number to each outcome: Random variable 1 Three ways to get an rv: Random Variables The rv is the observation
För logitmodellen ges G (=F) av den logistiska funktionen: (= exp(z)/(1+ exp(z))
Logitmodellen För logitmodellen ges G (=F) av den logistiska funktionen: F(z) = e z /(1 + e z ) (= exp(z)/(1+ exp(z)) Funktionen motsvarar den kumulativa fördelningsfunktionen för en standardiserad logistiskt
Lärare i kursen. TSFS06 Diagnos och övervakning, 6hp Föreläsning 1 - Kursformalia och introduktion. Denna föreläsning - disposition.
Lärare i kursen TSFS06 Diagnos och övervakning, 6hp Föreläsning 1 - Kursformalia och introduktion Erik Frisk Institutionen för systemteknik Linköpings universitet frisk@isy.liu.se Kursansvarig: Erik Frisk
Försättsblad till skriftlig tentamen vid Linköpings Universitet
Försättsblad till skriftlig tentamen vid Linköpings Universitet Datum för tentamen 2010-08-19 Sal KÅRA Tid 14-18 Kurskod TSFS06 Provkod TEN1 Kursnamn Diagnos och övervakning Institution ISY Antal uppgifter
Resonemang under osäkerhet. Bayes Certainty factors Dempster-Schafer Fuzzy logic
Resonemang under osäkerhet Bayes Certainty factors Dempster-Schafer Fuzzy logic Varför resonera med sannolikheter? Om agenten vet tillräckligt om världen, kan den med logik få fram planer som garanterat
Vad är diagnos? Diagnos i fordon och andra tillämpningar. Varför diagnos i fordon?
Diagnos i fordon och andra tillämpningar Vad är diagnos? Diagnos är att automatiskt, och helst under normal drift, detektera fel. (ibland) isolera fel, dvs. peka ut vilken komponent som är trasig. Erik
Dagens föreläsning. TSFS06 Diagnos och övervakning Föreläsning 6 - Tröskling och analys av teststorheter. Tröskelsättning och beslut i osäker miljö
Dagens föreläsning SFS6 Diagnos och övervakning Föreläsning 6 - röskling och analys av teststorheter Erik Frisk Institutionen för systemteknik Linköpings universitet frisk@isy.liu.se 25-4-2 röskelsättning
Lärare i kursen. TSFS06 Diagnos och övervakning, 6hp Föreläsning 1 - Kursformalia och introduktion. Denna föreläsning - disposition.
Lärare i kursen TSFS06 Diagnos och övervakning, 6hp Föreläsning 1 - Kursformalia och introduktion Erik Frisk Institutionen för systemteknik Linköpings universitet frisk@isy.liu.se Kursansvarig/lektion:
4.1 Grundläggande sannolikhetslära
4.1 Grundläggande sannolikhetslära När osäkerhet förekommer kan man aldrig uttala sig tvärsäkert. Istället använder vi sannolikheter, väntevärden, standardavvikelser osv. Sannolikhet är ett tal mellan
Finansiell Statistik (GN, 7,5 hp,, VT 2009) Föreläsning 2. Diskreta Sannolikhetsfördelningar. (LLL Kap 6) Stokastisk Variabel
Finansiell Statistik (GN, 7,5 hp,, VT 009) Föreläsning Diskreta (LLL Kap 6) Department of Statistics (Gebrenegus Ghilagaber, PhD, Associate Professor) Financial Statistics (Basic-level course, 7,5 ECTS,
Lösningsförslag till Tentamen. TSFS06 Diagnos och övervakning 14 augusti, 2007, kl
Lösningsförslag till Tentamen TSFS06 Diagnos och övervakning 14 augusti, 007, kl. 14.00-18.00 Tillåtna hjälpmedel: TeFyMa, Beta, Physics Handbook, Reglerteknik (Glad och Ljung), Formelsamling i statistik
Föreläsning 12: Regression
Föreläsning 12: Regression Matematisk statistik David Bolin Chalmers University of Technology Maj 15, 2014 Binomialfördelningen Låt X Bin(n, p). Vi observerar x och vill ha information om p. p = x/n är
F5 STOKASTISKA VARIABLER (NCT , samt del av 5.4)
Stat. teori gk, ht 006, JW F5 STOKASTISKA VARIABLER (NCT 5.1-5.3, samt del av 5.4) Ordlista till NCT Random variable Discrete Continuous Probability distribution Probability distribution function Cumulative
Bayes i praktiken. exempel och reflektioner från en forskarutbildningskurs. Ralf Rittner, Arbets och Miljömedicin
Bayes i praktiken exempel och reflektioner från en forskarutbildningskurs Ralf Rittner, Arbets och Miljömedicin 2012 11 07 Bayesian Data Analysis Practical Data Analysis with BUGS using R Bendix Carstensen
Föreläsning 7 Datastrukturer (DAT037)
Föreläsning 7 Datastrukturer (DAT037) Fredrik Lindblad 1 2016-11-21 1 Slides skapade av Nils Anders Danielsson har använts som utgångspunkt. Se http://www.cse.chalmers.se/edu/year/2015/course/dat037 Förra
SF1911: Statistik för bioteknik
SF1911: Statistik för bioteknik Föreläsning 4. TK 7.11.2017 TK Matematisk statistik 7.11.2017 1 / 42 Lärandemål Betingad sannolikhet (definition, betydelse) Oberoende händelser Lagen om total sannolikhet
Föreläsning 9: NP-fullständighet
Föreläsning 9: NP-fullständighet Olika typer av problem: 1. Beslutsproblem: A(x) =Ja. 2. Optimeringsproblem: A(x) =m Vanligen max/min. 3. Konstruktionsproblem: A(x) =En struktur. Vanligen lösningen till
Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende
SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende Jan Grandell & Timo Koski 21.01.2015 Jan Grandell & Timo Koski () Matematisk statistik 21.01.2015 1 / 1 Repetition:
MVE051/MSG Föreläsning 7
MVE051/MSG810 2016 Föreläsning 7 Petter Mostad Chalmers November 23, 2016 Överblick Deskriptiv statistik Grafiska sammanfattningar. Numeriska sammanfattningar. Estimering (skattning) Teori Några exempel
Tentamen MVE301 Sannolikhet, statistik och risk
Tentamen MVE301 Sannolikhet, statistik och risk 2017-08-15 kl. 8:30-13:30 Examinator: Johan Jonasson, Matematiska vetenskaper, Chalmers Telefonvakt: Olof Elias, telefon: 031-7725325 Hjälpmedel: Valfri
Grundläggande logik och modellteori
Grundläggande logik och modellteori Kapitel 6: Binära beslutsdiagram (BDD) Henrik Björklund Umeå universitet 22. september, 2014 Binära beslutsdiagram Binära beslutsdiagram (Binary decision diagrams, BDDs)
Tentamen MVE301 Sannolikhet, statistik och risk
Tentamen MVE301 Sannolikhet, statistik och risk 2018-05-31 kl. 8:30-13:30 Examinator: Johan Jonasson, Matematiska vetenskaper, Chalmers Telefonvakt: Ivar Simonsson, telefon: 031-7725325 Hjälpmedel: Valfri
MVE051/MSG Föreläsning 14
MVE051/MSG810 2016 Föreläsning 14 Petter Mostad Chalmers December 14, 2016 Beroende och oberoende variabler Hittills i kursen har vi tittat på modeller där alla observationer representeras av stokastiska
Finansiell Statistik (GN, 7,5 hp, HT 2008) Föreläsning 2
Finansiell Statistik (GN, 7,5 hp, HT 008) Föreläsning Diskreta sannolikhetsfördelningar (LLL kap. 6) Department of Statistics (Gebrenegus Ghilagaber, PhD, Associate Professor) Financial Statistics (Basic-level
Kurskod: TAIU06 MATEMATISK STATISTIK Provkod: TENA 17 August 2015, 8:00-12:00. English Version
Kurskod: TAIU06 MATEMATISK STATISTIK Provkod: TENA 17 August 2015, 8:00-12:00 Examiner: Xiangfeng Yang (Tel: 070 2234765). Please answer in ENGLISH if you can. a. Allowed to use: a calculator, Formelsamling
TMS136. Föreläsning 1
TMS136 Föreläsning 1 Varför? Om vi gör mätningar vill vi kunna modellera och kvantifiera de osäkerheter som obönhörligen finns Om vi handlar med värdepapper vill kunna modellera och kvantifiera de risker
Filoson bakom Bayesiansk statistik med tillämpningar inom hjärnavbildning och budgivningar på ebay
Filoson bakom Bayesiansk statistik med tillämpningar inom hjärnavbildning och budgivningar på ebay Bertil Wegmann STIMA, IDA, Linköpings universitet October 5, 2017 Bertil Wegmann, STIMA, IDA, LiU Bayesiansk
Föreläsning 11. Slumpvandring och Brownsk Rörelse. Patrik Zetterberg. 11 januari 2013
Föreläsning 11 Slumpvandring och Brownsk Rörelse Patrik Zetterberg 11 januari 2013 1 / 1 Stokastiska Processer Vi har tidigare sett exempel på olika stokastiska processer: ARIMA - Kontinuerlig process
Föreläsning Datastrukturer (DAT036)
Föreläsning Datastrukturer (DAT036) Nils Anders Danielsson 2013-11-18 Idag Mer om grafer: Minsta uppspännande träd (för oriktade grafer). Prims algoritm. Kruskals algoritm. Djupet först-sökning. Cykel
Tentamen MVE302 Sannolikhet och statistik
Tentamen MVE32 Sannolikhet och statistik 219-6-5 kl. 8:3-12:3 Examinator: Johan Jonasson, Matematiska vetenskaper, Chalmers Telefonvakt: Oskar Allerbo, telefon: 31-7725325 Hjälpmedel: Valfri miniräknare.
Bayesiansk statistik utan tårar
Bayesiansk statistik utan tårar Lennart Robertson, SMHI Lånad titel A.F.M Smith A.E Gelfand American Statistician 1992 2 Innehåll Ett litet exempel Några enkla statistiska betraktelser Bayes teorem Bayesiansk
4 Diskret stokastisk variabel
4 Diskret stokastisk variabel En stokastisk variabel är en variabel vars värde bestäms av utfallet av ett slumpmässigt försök. En stokastisk variabel betecknas ofta med X, Y eller Z (i läroboken används
Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).
STOKASTISKA VARIABLER Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.). Definition 1. En reellvärd funktion definierad på ett utfallsrum Ω kallas en (endimensionell)
SF1922/SF1923: SANNOLIKHETSTEORI OCH DISKRETA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 23 mars, 2018
SF1922/SF1923: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 3 DISKRETA STOKASTISKA VARIABLER Tatjana Pavlenko 23 mars, 2018 PLAN FÖR DAGENSFÖRELÄSNING Repetition av betingade sannolikheter, användbara satser
Föreläsning 13: Multipel Regression
Föreläsning 13: Multipel Regression Matematisk statistik Chalmers University of Technology Oktober 9, 2017 Enkel linjär regression Vi har gjort mätningar av en responsvariabel Y för fixerade värden på
Exempel på tentamensuppgifter
STOCKHOLMS UNIVERSITET 4 mars 2010 Matematiska institutionen Avd. för matematisk statistik Mikael Andersson Exempel på tentamensuppgifter Uppgift 1 Betrakta en allmän I J-tabell enligt 1 2 3 J Σ 1 n 11
Föreläsning Datastrukturer (DAT037)
Föreläsning Datastrukturer (DAT037) Nils Anders Danielsson 2015-11-23 Idag Mer om grafer: Minsta uppspännande träd (för oriktade grafer). Djupet först-sökning. Minsta uppspännande träd Träd (utan rot)
SF1901 Sannolikhetsteori och statistik I
SF1901 Sannolikhetsteori och statistik I Jimmy Olsson Föreläsning 4 7 november 2017 1 / 29 Idag Förra gången Viktiga kontinuerliga fördelningar (Kap. 3.6) Fördelningsfunktion (Kap. 3.7) Funktioner av stokastiska
Vad är det? Översikt. Innehåll. Vi behöver modeller!!! Kontinuerlig/diskret. Varför modeller??? Exempel. Statiska system
Vad är det? Översikt Discrete structure: A set of discrete elements on which certain operations are defined. Discrete implies non-continuous and therefore discrete sets include finite and countable sets
Tentamen i. TDDC67 Funktionell programmering och Lisp
1 Linköpings tekniska högskola Institutionen för datavetenskap Anders Haraldsson Tentamen i TDDC67 Funktionell programmering och Lisp och äldre kurser TDDC57 Programmering, Lisp och funktionell programmering
1/31 REGRESSIONSANALYS. Statistiska institutionen, Stockholms universitet
1/31 REGRESSIONSANALYS F1 Linda Wänström Statistiska institutionen, Stockholms universitet 2/31 Kap 4: Introduktion till regressionsanalys. Introduktion Regressionsanalys är en statistisk teknik för att
Matematisk statistik 9 hp Föreläsning 3: Transformation och simulering
Matematisk statistik 9 hp Föreläsning 3: Transformation och simulering Anna Lindgren 8+9 september 216 Anna Lindgren - anna@maths.lth.se FMS12/MASB3: transform 1/11 Stokastisk variabel Kvantil Stokastisk
TAMS65 - Föreläsning 6 Hypotesprövning
TAMS65 - Föreläsning 6 Hypotesprövning Martin Singull Matematisk statistik Matematiska institutionen Innehåll Exempel Allmän beskrivning P-värde Binomialfördelning Normalapproximation TAMS65 - Fö6 1/33
TMS136. Föreläsning 5
TMS136 Föreläsning 5 Två eller flera stokastiska variabler I många situationer är det av intresse att betrakta fler än en s.v. åt gången Speciellt gör man det i statistik där man nästan alltid jobbar med
TMS136. Föreläsning 5
TMS136 Föreläsning 5 Två eller flera stokastiska variabler I många situationer är det av intresse att betrakta fler än en s.v. åt gången Speciellt gör man det i statistik där man nästan alltid jobbar med
SF1544 LABORATION 2 INTEGRATION, MONTE-CARLO OCH BLACK-SCHOLES EKVATION FÖR OPTIONER
SF1544 LABORATION INTEGRATION, MONTE-CARLO OCH BLACK-SCHOLES EKVATION FÖR OPTIONER Avsikten med denna laboration är att: - snabbt komma igång med träning på matlabprogrammering (uttnyttja gärna alla schemalagda
Kap 2. Sannolikhetsteorins grunder
Kap 2. Sannolikhetsteorins grunder Olika händelser och deras mängbetäckningar Sats 2.7 Dragning utan återläggning av k element ur n (utan hänsyn till ordning) kan ske på ( n ) olika sätt k För två händelser
The Problem. Vad är diagnos? Diagnos i fordon och andra tillämpningar. Varför diagnos i fordon? diagnos i fordon? Vad krävs?
rman Information AB. All rights reserved. he Problem Diagnos i fordon och andra tillämpningar Vad är diagnos? Diagnos är att automatiskt, och helst under normal drift, detektera fel. (ibland) isolera fel,
TENTAMEN I STATISTIKENS GRUNDER 1
STOCKHOLMS UNIVERSITET Statistiska institutionen Michael Carlson HT2012 TENTAMEN I STATISTIKENS GRUNDER 1 2012-10-03 Skrivtid: kl 9.00-14.00 Godkända hjälpmedel: Miniräknare, språklexikon Bifogade hjälpmedel:
F6 STOKASTISKA VARIABLER (NCT ) Används som modell i situation av följande slag: Slh för A är densamma varje gång, P(A) = P.
Stat. teori gk, ht 2006, JW F6 STOKASTISKA VARIABLER (NCT 5.4-5.6) Binomialfördelningen Används som modell i situation av följande slag: Ett slumpförsök upprepas n gånger (oberoende upprepningar). Varje
Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna kan man bara ha rätt eller fel, dvs frågan måste vara helt korrekt besvarad för att man skall
Kombinatorik och sannolikhetslära
Grunder i matematik och logik (2018) Kombinatorik och sannolikhetslära Marco Kuhlmann Sannolikhetslära Detta avsnitt är för det mesta en kompakt sammanfattning av momentet sannolikhetslära som ingår i
Formler och tabeller till kursen MSG830
Formler och tabeller till kursen MSG830 Deskriptiva mått För ett datamängd x 1,, x n denieras medelvärde standardavvikelse standardfelet (SEM) Sannolikheter x = 1 n n i=1 = x 1 + + x n n s = 1 n (x i x)
Matematisk statistik 9 hp Föreläsning 4: Flerdim
Matematisk statistik 9 hp Föreläsning 4: Flerdim Johan Lindström 3+4 september 26 Johan Lindström - johanl@maths.lth.se FMS2 F4: Flerdim /5 Transformer Inversmetoden Transformation av stokastiska variabler
TMS136. Föreläsning 1
TMS136 Föreläsning 1 Varför? Om vi gör mätningar vill vi modellera och kvantifiera de osäkerheter som obönhörligen finns Om vi handlar med värdepapper vill vi modellera och kvantifiera de risker som finns
Statistik 1 för biologer, logopeder och psykologer
Innehåll 1 Grunderna i sannolikhetslära 2 Innehåll 1 Grunderna i sannolikhetslära 2 Satistik och sannolikhetslära Statistik handlar om att utvinna information från data. I praktiken inhehåller de data
Föreläsning 3, Matematisk statistik Π + E
Repetition Kvantil Presentation Slumptal Transformer Inversmetoden Föreläsning 3, Matematisk statistik Π + E Sören Vang Andersen 13 november 2014 Sören Vang Andersen - sva@maths.lth.se FMS012 F3 1/19 Repetition
Tentamen MVE301 Sannolikhet, statistik och risk
Tentamen MVE301 Sannolikhet, statistik och risk 2017-06-01 kl. 8:30-13:30 Examinator: Johan Jonasson, Matematiska vetenskaper, Chalmers Telefonvakt: Ivar Simonsson, telefon: 031-7725325 Hjälpmedel: Valfri
SF1922/SF1923: SANNOLIKHETSTEORI OCH. PASSNING AV FÖRDELNING: χ 2 -METODER. STATISTIK. Tatjana Pavlenko. 14 maj 2018
SF1922/SF1923: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 14-15 PASSNING AV FÖRDELNING: χ 2 -METODER. Tatjana Pavlenko 14 maj 2018 PLAN FÖR DAGENS FÖRELÄSNING Icke-parametriska metoder. (Kap. 13.10) Det
Matematisk statistik för B, K, N, BME och Kemister
Matematisk statistik för B, K, N, BME och Kemister Föreläsning 9 Joakim Lübeck (Johan Lindström 25 september 217 Johan Lindström - johanl@maths.lth.se FMSF7/MASB2 F9 1/23 Repetition Inferens för diskret
TAMS65 - Föreläsning 6 Hypotesprövning
TAMS65 - Föreläsning 6 Hypotesprövning Martin Singull Matematisk statistik Matematiska institutionen Innehåll Exempel Allmän beskrivning p-värde Binomialfördelning Normalapproximation TAMS65 - Fö6 1/36
Upprepade mätningar och tidsberoende analyser. Stefan Franzén Statistiker Registercentrum Västra Götaland
Upprepade mätningar och tidsberoende analyser Stefan Franzén Statistiker Registercentrum Västra Götaland Innehåll Stort område Simpsons paradox En mätning per individ Flera mätningar per individ Flera
Föreläsning 2 (kap 3): Diskreta stokastiska variabler
Föreläsning 2 (kap 3): Diskreta stokastiska variabler Marina Axelson-Fisk 20 april, 2016 Idag: Diskreta stokastiska (random) variabler Frekvensfunktion och fördelningsfunktion Väntevärde Varians Några
Några extra övningsuppgifter i Statistisk teori
Statistiska institutionen Några extra övningsuppgifter i Statistisk teori 23 JANUARI 2009 2 Sannolikhetsteorins grunder 1. Tre vanliga symmetriska tärningar kastas. Om inte alla tre tärningarna visar sexa,
Logistisk regression och Indexteori. Patrik Zetterberg. 7 januari 2013
Föreläsning 9 Logistisk regression och Indexteori Patrik Zetterberg 7 januari 2013 1 / 33 Logistisk regression I logistisk regression har vi en binär (kategorisk) responsvariabel Y i som vanligen kodas
10.1 Enkel linjär regression
Exempel: Hur mycket dragkraft behövs för att en halvledare skall lossna från sin sockel vid olika längder på halvledarens ben. De halvledare vi betraktar är av samma storlek (bortsett benlängden). 70 Scatterplot
Matematisk statistik allmän kurs, MASA01:B, HT-14 Laboration 2
Lunds universitet Matematikcentrum Matematisk statistik Matematisk statistik allmän kurs, MASA01:B, HT-14 Laboration 2 Rapporten till den här laborationen skall lämnas in senast den 19e December 2014.
Försättsblad till skriftlig tentamen vid Linköpings Universitet
Försättsblad till skriftlig tentamen vid Linköpings Universitet Datum för tentamen 2010-06-01 Sal(3) U6, U7, U10 Tid 14-18 Kurskod TSFS06 Provkod TEN1 Kursnamn Diagnos och övervakning Institution ISY Antal
Kausalitet 2012-03-26. Kausalitet. Vad är kausal inferens? Seminariets agenda. P(Y a=1 =1) P(Y a=0 =1) Kausal effekt för en individ i:
Seminariets agenda Vad är kausal inferens? nna Ekman rbets- och miljömedicin Kausalitet Statistiska samband kontra kausalitet Konfounding DG ett grafiskt stöd Inverse propability weights Kausalitet ounterfactual
För logitmodellen ges G (=F) av den logistiska funktionen: (= exp(z)/(1+ exp(z))
Logitmodellen För logitmodellen ges G (=F) av den logistiska funktionen: F(z) = e z /(1 + e z ) (= exp(z)/(1+ exp(z)) Funktionen motsvarar den kumulativa fördelningsfunktionen för en standardiserad logistiskt
Tentamen MVE301 Sannolikhet, statistik och risk
Tentamen MVE30 Sannolikhet, statistik och risk 207-06-0 kl. 8:30-3:30 Examinator: Johan Jonasson, Matematiska vetenskaper, Chalmers Telefonvakt: Ivar Simonsson, telefon: 03-7725348 Hjälpmedel: Valfri miniräknare.
PROGRAMFÖRKLARING I. Statistik för modellval och prediktion. Ett exempel: vågriktning och våghöjd
Statistik för modellval och prediktion att beskriva, förklara och förutsäga Georg Lindgren PROGRAMFÖRKLARING I Matematisk statistik, Lunds universitet stik för modellval och prediktion p.1/4 Statistik