Resonemang under osäkerhet. Bayes Certainty factors Dempster-Schafer Fuzzy logic

Relevanta dokument
Probabilistisk logik 1

Anna: Bertil: Cecilia:

729G11 Artificiell Intelligens Marcus Johansson Marjo581. Fuzzy logic. Marcus Johansson Marjo581

FUZZY LOGIC. Christopher Palm chrpa087

Fuzzy Logic. När oskarpa definitioner blir kristallklara. Åsa Svensson. Linköpings Universitet. Linköping

LINKÖPINGS UNIVERSITET. Fuzzy Logic. Johan Brage 9/16/2012

729G43 Artificiell intelligens Probabilistisk logik. Arne Jönsson HCS/IDA

TMS136. Föreläsning 2

TMS136. Föreläsning 2

Utsagor (Propositioner) sammansatta utsagor sanningstabeller logisk ekvivalens predikat (öppna utsagor) kvantifierare Section

Innehållsförtekning Sida. Inledning 3 Vad är fuzzy logic? 3 Mängder 3 Medlemsfunktioner 5 Operationer 6 Fuzzification 8 Litteraturförteckning 9

Probabilistisk logik 2

SF1911: Statistik för bioteknik

MA2047 Algebra och diskret matematik

Vad är det? Översikt. Innehåll. Vi behöver modeller!!! Kontinuerlig/diskret. Varför modeller??? Exempel. Statiska system

William Hernebrink

FUZZY LOGIC. - Var går gränsen? Lovisa Rönmark lovro

D. x 2 + y 2 ; E. Stockholm ligger i Sverige; F. Månen är en gul ost; G. 3 2 = 6; H. x 2 + y 2 = r 2.

Outline. TSFS06 Diagnos och övervakning Föreläsning 10 - Sannolikhetsbaserad diagnos och Bayesianska nätverk. Sneak-peak. Outline

Fuzzy Logic Linköpings Universitet

SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende

Artificiell Intelligens II, 729g11 Linköpings universitet Fuzzy logic

Beräkning med ord. -hur en dator hanterar perception. Linköpings universitet Artificiell intelligens Erik Claesson

SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende

TMS136. Föreläsning 1

Fördjupningsarbete HT 2012 FUZZY LOGIC

Fuzzy control systems

Logik. Dr. Johan Hagelbäck.

Filosofisk logik Kapitel 15. Robin Stenwall Lunds universitet

MATEMATIKENS SPRÅK. Avsnitt 1

Fuzzy logic. Julia Birgersson, julbi

Föreläsningsanteckningar och övningar till logik mängdlära

TMS136. Föreläsning 1

Satslogik grundläggande definitioner 3. Satslogik. Uppgift 1. Satslogikens syntax (välformade formler) Satslogikens semantik (tolkningar)

1 Suddig logik och gitter

Kombinatorik och sannolikhetslära

TSFS06: Bayesianska nätverk i GeNIe - kort handledning

Sannolikhetslära. 1 Enkel sannolikhet. Grunder i matematik och logik (2015) 1.1 Sannolikhet och relativ frekvens. Marco Kuhlmann

Logik och kontrollstrukturer

Semantik och pragmatik (Serie 3)

Sanningsvärdet av ett sammansatt påstående (sats, utsaga) beror av bindeord och sanningsvärden för ingående påståenden.

Föreläsningsmanus i matematisk statistik för lantmätare, vecka 2 HT07

729G11 ARTIFICIELL INTELLIGENS 2, LINKÖPINGS UNIVERSITET. Fuzzy Logic. Caroline Allmér, caral

F5 STOKASTISKA VARIABLER (NCT , samt del av 5.4)

Övningshäfte 1: Logik och matematikens språk

Fuzzy Logic: Den oskarpa skarpheten

Filosofisk Logik (FTEA21:4) föreläsningsanteckningar/kompendium. v. 2.0, den 29/ III. Metalogik 17-19

Bayes statistik - utan förkunskaper - utan tårar

Föreläsning 3: Osäkerhet och sannolikhet

Semantik och pragmatik

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

p /\ q r DD1350 Logik för dataloger Kort repetition Fö 3 Satslogikens semantik

(N) och mängden av heltal (Z); objekten i en mängd behöver dock inte vara tal. De objekt som ingår i en mängd kallas för mängdens element.

1 Föreläsning I, Mängdlära och elementär sannolikhetsteori,

Formell logik Kapitel 1 och 2. Robin Stenwall Lunds universitet

de var svåra att implementera och var väldigt ineffektiva.

Om semantisk följd och bevis

Formell logik Kapitel 7 och 8. Robin Stenwall Lunds universitet

Digital- och datorteknik

Stat. teori gk, ht 2006, JW F7 STOKASTISKA VARIABLER (NCT 5.7) Ordlista till NCT

7, Diskreta strukturer

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.

Mängdlära. Kapitel Mängder

Semantik och pragmatik (Serie 4)

Formell logik Kapitel 3 och 4. Robin Stenwall Lunds universitet

Föreläsning 12: Repetition

LMA033/LMA515. Fredrik Lindgren. 4 september 2013

Tommy Färnqvist, IDA, Linköpings universitet. 2 Strukturer Domäner Tolkningar... 3

Statistikens grunder HT, dagtid Statistiska institutionen

Tentamen MVE301 Sannolikhet, statistik och risk

Hur fattar samhället beslut när forskarna är oeniga?

Varför är logik viktig för datavetare?

Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.

Formell logik Kapitel 5 och 6. Robin Stenwall Lunds universitet

SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende

Tentamen i. TDDC67 Funktionell programmering och Lisp

Subjektiva sannolikheter. Helge Malmgren Filosofidagarna, Umeå 2007

Lite om bevis i matematiken

BIOSTATISTISK GRUNDKURS, MASB11, VT-16, VT2 ÖVNING 1, OCH ÖVNING 2, SAMT INFÖR ÖVNING 3

DD1350 Logik för dataloger. Vad är logik?

Satsen om total sannolikhet och Bayes sats

I kursen i endimensionell analys är mängden av reella tal (eng. real number), R, fundamental.

HD-metoden och hypotesprövning. Vetenskapliga data

För logitmodellen ges G (=F) av den logistiska funktionen: (= exp(z)/(1+ exp(z))

Lotto. Singla slant. Vanliga missuppfattningar vad gäller slumpen. Slumpen och hur vi uppfattar den - med och utan tärning

Logik: sanning, konsekvens, bevis

Logik. Boolesk algebra. Logik. Operationer. Boolesk algebra

Hur måttsätta osäkerheter?

Logisk semantik I. 1 Lite om satslogik. 1.1 Konjunktioner i grammatisk bemärkelse. 1.2 Sant och falskt. 1.3 Satssymboler. 1.

Filosofisk logik Kapitel 15 (forts.) Robin Stenwall Lunds universitet

SF1901 Sannolikhetsteori och statistik I

Molly Lundberg 729G43 Kognitionsvetenskap mollu341 Artificiell Intelligens Linköpings Universitet. Fuzzy Logic. Vad är det och hur fungerar det?

Datorlingvistisk grammatik I Institutionen för lingvistik och filologi Oktober 2007 Mats Dahllöf

DD1350 Logik för dataloger. Fö 2 Satslogik och Naturlig deduktion

Övning 1 Sannolikhetsteorins grunder

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

Viktiga frågor att ställa när ett argument ska analyseras och sedan värderas:

Linjära ekvationer med tillämpningar

9. Predikatlogik och mängdlära

F2 SANNOLIKHETSLÄRA (NCT )

Transkript:

Resonemang under osäkerhet Bayes Certainty factors Dempster-Schafer Fuzzy logic

Varför resonera med sannolikheter? Om agenten vet tillräckligt om världen, kan den med logik få fram planer som garanterat fungerar Dock: agenten har nästan aldrig tillgång till hela sanningen om sin omgivning Måste agera under osäkerhet

Rationellt beslut Vad som är mest rationellt att göra beror på den relativa viktigheten hos olika mål och sannolikheten för att de olika målen skall uppnås.

Exempel: diagnos Betrakta regeln Toothache Cavity Uppenbarligen inte sann inte heller är omvändningen sann, trots att vi vet att det finns ett ganska stark samband mellan tandvärk och hål.

Sannolikhet Vad agenten vet om världen i dessa fall kan bara representeras av en viss grad av tilltro (eng. degree of belief) på olika satser. Buntar ihop vår lathet och okunskap Exempel: 80% chans att en patient med tandvärk har ett hål Kan komma från tidigare observationer eller från allmänna regler

Sannolikhet En sannolikhet är ett tal mellan 0 och 1. Representerar graden av tilltro till att satsen är sann. Egentligen bör man skilja på formalismer som verkligen använder sannolikheter och de som använder olika tilltrosmått. Baseras på de bevis (eng. evidence) agenten har och kan således förändras i och med att ny information tillkommer.

Obetingad resp. betingad sannolikhet Innan bevis har tillkommit: obetingad (prior, unconditional) sannolikhet Efter bevis: betingad (posterior, conditional) sannolikhet

Maximum expected utility En agent är rationell omm den väljer den handling som ger högst förväntad nytta, snittad över alla möjliga utfall av handlingen. Detta kallas principen MEU (maximum expected utility)

Beslutsteoretisk agent function DT-AGENT (percept) returns an action static: belief_state, probabilistic beliefs about the current state of the world action, the agent s action update belief_state based on action and percept calculate outcome probabilities for actions, given action descriptions and current belief_state select action with highest expected utility given probabilities of outcomes and utility information return action

Begrepp: stokastisk variabel Stokastisk variabel (eng. random variable) har en domän som är boolesk, diskret eller kontinuerlig Förenklad notation: cavity resp. cavity för booleska sunny, rainy etc. för diskreta när sammanhang tillåter Booleska kan kombineras med konnektiv

Begrepp: obetingad sannolikhet Den obetingade sannolikheten för en proposition a är den grad av tilltro som tilldelas a i frånvaro av annan information och skrivs: P(a) Sannolikhetsfördelning P(Weather) = <0.7, 0.2, 0.08, 0.02>

Begrepp: atomär händelse Är en fullständig specifikation av tillståndet i världen. Enklare: en tilldelning av sanningsvärden till de variabler som agenten är osäker om. Har följande egenskaper: atomära händelser är ömsesidigt uteslutande är tillsammans uttömmande av varje atomär händelse följer sant/falsk för alla propositioner varje proposition är logiskt ekvivalent med disjunktionen av de atomära händelser som har den som följd

Axiomen i sannolikhetsteori 1. Alla sannolikheter är mellan 0 och 1, dvs. för alla propositioner a gäller 0 P(a) 1 2. Nödvändigt sanna (dvs. valida) propositioner har sannolikhet 1 och nödvändigt falska propositioner har sannolikhet 0, dvs. P(true) = 1 och P(false) = 0 3. Sannolikheten för en disjunktion ges av P(a b) = P(a) + P(b) P(a b)

Konsekvenser av axiomen 1. a är ekvivalent med disjunktionen av alla atomära händelser i vilka a gäller: kalla denna mängd e(a) 2. atomära händelser är ömsesidigt uteslutande Alltså: dvs. sannolikheten för en proposition är lika med summan av sannolikheter för de atomära händelser i vilka propositionen gäller P( a) = e e( a) i P( e i )

Begrepp: betingad sannolikhet När sannolikheten för något beror på en annan händelse, pratar vi om betingad sannolikhet. Notationen P(a b) används för att beteckna sannolikheten för händelsen a givet att vi endast vet händelsen b. Samband kallas produktregeln: P(a b) = P(a b) / P(b), om P(b) > 0 alt: P(a b) = P(a b) P(b)

Joint distribution En full joint distribution tilldelar sannolikheter till alla möjliga kombinationer av atomära händelser. Exempel: toothache catch catch toothache catch catch cavity 0.108 0.012 0.072 0.008 cavity 0.016 0.064 0.144 0.576

Exempel Med denna fördelning kan vi beräkna P(cavity toothache) = P(cavity toothache) / P(toothache) = (0.108 + 0.012) / (0.108 + 0.012 + 0.016 + 0.064) = 0.8 Vad bör P( cavity toothache) vara?

Oberoende Vad händer om vi lägger till variabeln Weather (med 4 diskreta värden) i den föregående fördelningen? Hur räkna ut den nya fördelningen? Oberoende mellan variablerna a och b skrivs P(a b) = P(a), eller P(b a) = P(b), eller P(a b) = P(a) P(b)

Oberoende Vilka variabler som är oberoende baseras på kunskap om domänen Reducerar kraftigt domänrepresentationen

Begränsningar Det är naturligtvis inte alltid möjligt att ha en full joint distribution omöjligt att reda ut alla atomära händelsers enskilda sannolikheter tabellen växer dessutom exponentiellt, vilket ger ohanterligt stor tabell Vi försöker då arbeta direkt med betingade sannolikheter.

Bayes teorem Formlerna: P(a b) = P(a b) P(b) P(a b) = P(b a) P(a) ger oss följande version av Bayes teorem: P ( b a) = P( a b) P( b) P( a)

Exempel En läkare vet att hjärnhinneinflammation orsakar nackstelhet hos patienten i ca 50% av fallen. Dessutom gäller följande obetingade sannolikheter: sannolikheten att en patient har hjärnhinneinflammation är 1/50000 sannolikheten att en patient är stel i nacken är 1/20.

Exempel (forts) Låt s vara påståendet att patienten har stel nacke och låt m vara påståendet att patienten har hjärnhinneinflammation. Vi får då: P(s m) = 0.5, P(m) = 1/50000, P(s) = 1/20 Om en patient kommer in och är stel i nacken kan vi använda P(m s)= P(s m) P(m) / P(s) = (0.5*1/50000)/(1/20) = 0.0002

Generellt Bayes teorem P ( H i E ) = n k = 1 P ( H i P ( H ) k P ) ( E P ( E H i ) H k ) P(H i E) P(H i ) P(E H i ) n är sannolikheten för H i givet E är a priori -sannolikheten för H i är sannolikheten att vi kan observera E om H i är sann är antalet möjliga hypoteser

Exempel: Fångarna A, B och C. En skall avrättas nästa morgon och de två övriga benådas. Fångvaktaren säger till A att han meddelat B att han är benådad. Vad är A:s chanser att bli avrättad givet denna information?

Kombinera Antag att flera bevis pekar i samma riktning: p(cavity Toothache) = 0.8 p(cavity Catch) = 0.75 Vad kan tandläkaren dra för slutsats (angående cavity) om petverktyget fastnar i den onda tanden dvs. Vad är p(cavity Toothache Catch) Vi kan förstås läsa av detta i en full joint distribution men den approachen klarar, enligt tidigare, inte av att skala upp till många variabler.

Mer tandvärk Så låt oss försöka hitta en möjlighet att uppdatera sannolikheterna efter hand. Omskrivning: p(cavity Toothache Catch) = p(toothache Catch Cavity) p(cavity) / p(toothache Catch)) Fungerar inte då vi knappast har p(toothache Catch Cavity) Här är det ju bara två värden, men återigen så skalar det upp dåligt. Om vi har n variabler som ger indikationer så har vi 2^n kombinationer av observationer för vilka vi skulle behöva vet de betingade sannlolikheterna.

Bayesiansk uppdatering Börja med Toothache: p(cavity Toothache) = p(cavity) p(toothache Cavity) / p(toothache) När Catch observeras får vi: p(cavity Toothache Catch) = p(cavity Toothache) p(catch Toothache Cavity) / p(catch Toothache) = p(cavity) p(toothache Cavity) p(catch Toothache Cavity) p(toothache) p(catch Toothache)

Bayesiansk uppdatering Förenklingar: Vi antar att Cavity är den direkta orsaken till både Toothache och Catch. Sannolikheten för Catch beror då ej på Toothache och det faktum att Catch gäller ändrar inte sannolikheten för att Cavity orsakar Toothache.

tandvärk (forts) p(catch Cavity Toothache) = p(catch Cavity) p(toothache Cavity Catch) = p(toothache Cavity) Formlerna uttrycker det villkorliga oberoendet (eng. conditional independence) mellan Toothache och Catch givet Cavity.

tandvärk (forts) Förenkling av uppdateringsekvationen: p(cavity Toothache Catch) = p(cavity) p(toothache Cavity) p(catch Cavity) p(toothache) p(catch Toothache) p(cavity Toothache Catch) = p(cavity) p(toothache Cavity) p(catch Cavity) p(toothache) p(catch Toothache) Vi ser att nämnaren är identisk med P(Catch Toothache) vilket nu är samma sak som P(Catch) * P(Toothache)

tandvärk (forts) Vi gör oss av med p(catch Toothache). Vi vet att. p( B) i= 1 Vi kan därför byta ut p(toothache) mot p(cavity)*p(toothache Cavity) + p( Cavity)*p(Toothache Cavity) och p(catch) mot p(cavity)*p(catch Cavity) + p( Cavity)*p(Catch Cavity) = n p( A ) p( B i A i )

tandvärk (forts) p(cav T Cat) = p( Cav) p( T Cav) p( Cat Cav) ( p( Cav) p( T Cav) + p( Cav) p( T Cav)) + ( p( Cav) p( Cat Cav) + p( Cav) p( Cat Cav)) Vilket kanske inte ser så enkelt ut, men det som har hänt nu är att om vi har n stycken symptom, alla villkorligt oberoende, givet Cavity, så växer storleken på den nödvändiga tabellen nu som O(n) istället för O(2^n).

Naïve Bayes Exemplet har illustrerat ett vanligt mönster där en enstaka orsak ger ett antal effekter. P( cause, effect1, effect2,..., effectn ) = P( cause) P( effecti Cause) Ofta används denna teknik även när villkoret om villkorligt oberoende inte gäller. Vi tittar vidare på Bayesiansk klassificering i ML kursen. i

Certainty factors Vi definierar en CF för en hypotes A på följande sätt: Om CF A = 0 Om CF A = -1 Om CF A = 1 så vet vi ingenting om A så vet vi att A är falsk så vet vi att A är sann

Uppdatering av CF CF = P (1 CF ) + CF A A A där CF A P CF A är den nya CF för A är sannolikheten för A enligt de nya bevisen är nuvarande CF för A

Exempel Vi har en regel som säger, med cf 0,3 att: OM B Så A Nuvarande värde på CF A är 0,7 Om vi får bevis för B leder detta till: CF A = 0,3 (1-0,7)+0,7 = 0,79

Reglerna: Ett exempel till 1. Om hålet är kortare är 200 m så är det ganska troligt (0,7) att Nick gör par eller bättre. 2. Varje bunker runt greenen gör det mindre troligt (-0,2) 3. Om det blåser sidvind är det mindre troligt (-0,5) att scoren blir par eller bättre. Första hålet på Delsjö är 165 m, par 3, och har två greenbunkrar. Det blåser i dag sidvind. Vad är CF för par eller bättre?

Sammansatta regler med CF 1.CF för en konjunktion av fakta är den minimala CF för dessa fakta. 2. CF för en disjunktion av fakta är den maximala CF för dessa fakta. 3. CF för en slutsats, som produceras av en regel är produkten av CF för premissen och CF för regeln. (Intraregel) 4. Om flera regler ger samma slutsats kan vi kombinera CF för slutsatserna enligt CF=CF 1 +CF 2 (1-CF 1 ) (Interregel)

Exempel Vi har följande regler: R1: Om A och B så E (CF=0,5) R2: Om C eller D eller E (CF=0,7) och CF A =0,3 CF B =0,7 CF C =0,5 CF D =0,6 Beräkna CF E under antagande att vi inte har någon förhandsinformation om E.

Ett annat exempel Regler som handlar om huruvida en patient har mässlingen: OM feber och huvudvärk SÅ mässlingen OM utslag SÅ mässlingen (CF=0,5) (CF=0,8) Om vi inte har någon information om mässlingen före dessa regler och CF:arna är: feber(cf=0,9), huvudvärk(cf=0,8), utslag(cf=0,9) vad blir då CF för mässlingen efter de två reglerna?

Dempster-Schafer Vi har en omdömesram (eng. frame of discernment) Θ. Θ är uttömmande och de olika hypoteserna Θ är ömsesidigt uteslutande. Vi vill knyta någon mått på tro (eng. belief) till elementen i Θ. Vi kommer att betrakta bevis som stödjer delmängder av Θ. Varje Θ kommer att ha 2 n delmängd, där n är antalet hypoteser i Θ.

Sannolikhetsfunktion m X Θ 0 m( X ) 1 X Θ m ( X ) = 1

Uppdatering m X Y = A 2 m (A)= m ( X ) m ( Y 1 2 1 ) Om vi får m( ) 0 måste vi normalisera, vilket innebär att: om m( ) = k, så delar vi, för alla X, m(x) med 1-k. I praktiken inebär detta att vi fördelar den belief som tillhör proportionerligt.

Exempel Vi har Θ={Flue, Cold, Allergy, Pneumonia}, vilket ger oss 2 4 =16 delmängder. Till att börja med har vi m({θ})=1 och alla andra m(x)=0, vilket innebär att vi ännu inte vet något.

Exempel (forts) Nu får vi reda på att patienten har feber, vilket utgör stöd för delmängden {F, C, P} med en beliefnivå på 0,6. Vi får då (vi skriver m({ }) som { }): {F,C,P}=0,6 {Θ}=0,4

Exempel (forts) Vi ser också att patienten har snuva, vilket utgör stöd för {A, F, C} med en beliefnivå på 0,8. För att nu uppdatera använder vi {A,F,C} 0,8 {Θ} 0,2 {F,C,P} 0,6 {F,C} 0,48 {F,C,P} 0,12 {Θ} 0,4 {A,F,C} 0,32 {Θ} 0,08

Exempel (forts) Ytterligare information är att om patienten åker bort, så försvinner problemen, vilket utgör stöd åt {A} med 0,9. Vi uppdaterar: {A} 0,9 {Θ} 0,1 {F,C,} 0,48 0,432 {F,C} 0,048 {A,F,C} 0,32 {A} 0,288 {A,F,C} 0,032 {F,C,P} 0,12 0,108 {F,C,P} 0,012 Θ 0,08 {A} 0,072 {Θ} 0,008

Exempel normalisering Vi får alltså { }=0,54 och måste normalisera, dvs. skala allt med 1-0,54=0,46. 0, 288 + 0,072 { A} = = 0,783 0,46 På samma sätt får vi: {F,C}= 0,104 {A,F,C}= 0,070 {F,C,P}= 0,026 {Θ}= 0,017.

Belief-funktion Vi definierar belief-funktionen: Bel ( A) = m( X ) X A och plausibilitetsfunktionen: Pl( A) = 1 Bel( A ) C

Belief-intervall [ Bel( A), Pl( A)] Bel (som är mellan 0 och 1) mäter styrkan i bevisen som stödjer en mängd. Pl (också mellan 0 och 1) mäter hur mycket bevis som stödjer A lämnar utrymme för tro på A.

Intervall i exemplet Bel({A})=0,783 och Bel({A,F,C})=0,783+0,104+0,07=0,957 Pl({A,F,C})=1 eftersom Bel({P})=0 så Bel-Pl intervallet för {A,F,C} är: [ 0,957, 1 ]

Ett exempel Antag att vi har tre möjliga hypoteser A, B och C. Expert 1 säger att A gäller med sannolikheten 99% men det finns en minimal chans att det är C som gäller dvs. 1%. Expert 2 säger: B gäller absolut (99%) men det kan möjligen vara C (1%). Vad blir resultatet? Är detta en stark kritik mot DS theory?

Fuzzy Logic Always remember: Fuzzy logic is a logic about vagueness not a logic which is itself fuzzy (The laws of probability are, after all, not random)

Fuzzy Logic Normal logik är binär, dvs. olika utsagor är sanna eller falska. Vad innebär det för påståenden av typen: Sven är lång Johan är gammal Pelle är lång och gammal Kalle är inte lång

Fuzzy logic Fuzzy logic är en mängd matematiska principer för kunskapsrepresentation baserad på att utsagor kan vara delvis sanna. Vi säger att någonting är delvis medlem i en fuzzymängd. Hur mycket medlem A är i en fuzzymängd varierar mellan 0 och 1. Binär logik är därmed en delmängd av fuzzy logic. Detta gäller senare även för operatorerna.

Fuzzy logic Ofta väljer vi att rita fuzzymängder. Graden av medlemskap plottas då som funktion av ett crisp value. I system som internt använder sig av fuzzy logic, t.ex. för inferens, måste naturligtvis dessa figurer omvandlas till funktioner. Man kan välja olika funktioner för att representera de kontinuerliga fuzzymängderna. Typiska exempel är logistiska (sigmoider) eller gaussians, men mest vanligt är trots allt linjära funktoner.

Fuzzy logic - Exempel De tre olika fuzzymängderna långa, korta och medellånga kan då t.ex. Representeras med följande vektorer: Lång = (0/180,1/190) Kort = (1/160, 0/170) Medellånga = (0/165, 1/175, 0/185)

Linguistic variables and hedges En linguistic variable är en fuzzy variabel som kan få ett linguistic value. John is tall. John är en linguistic variable som antar värdet tall. Vi skall senare använda detta för att uttrycka regler av typen: IF speed is slow THEN stopping distance is short. IF wind is strong THEN sailing is good.

Linguistic variables and hedges Hedges är termer som modifierar formen på en fuzzymängd. Exempel: All purpose: very, quite, extremely Truth-values: quite true, mostly false. Probabilities: Likely, not likely Quantifiers: most, several, few Possibilities: almost impossible, quite possible

Exempel Grafiskt kan vi se en operator som very modifiera utseendet på en fuzzymängd. Om vi utgår från linjära funktioner för tall, short och average så kommer very tall och very small vara delmängder av tall och small.

Hedges matematiska uttryck A little [ ( )] 1.3 Slightly Very µ A x 1.7 [ µ ( )] A x [ µ ( )] 2 A x Extremely Very Very [ µ ( )] A x 3 [ µ ( )] 4 A x

Hedges matematiska uttryck More or less µ ( ) A x Somewhat µ ( ) A x Indeed 0 0.5 µ A 2[ µ ( )] A x 2 0.5 µ A 1 1 2[1 µ ( )] 2 A x

Operationer på fuzzy sets Union Snitt Komplement µ ( ) max[ ( ), B( )] ( ) B( ) A B x = µ A x µ x = µ A x µ x µ ( ) min[ ( ), B( )] ( ) B( ) A B x = µ A x µ x = µ A x µ x µ ( x) = 1 µ ( x) A A Innehåller (motsats till delmängd av)

Fuzzy regler IF x is A THEN y is B x och y är linguistic variables och A och B är linguistic values bestämda av fuzzy mängder.

Fuzzy inference Fuzzy inference har fyra steg: 1. Fuzzification Fuzzifiera crisp values 2. Rule evaluation (Inference) Kör alla regler 3. Aggregation of rule outputs (Composition) Kombinera output från alla regler 4. Defuzzification Återgå till vanliga, crisp values.

Fuzzy inference Steg 2-4 kan göras på olika sätt. Det vanligaste är dock att man använder: min-max inference-composition följt av centroid defuzzification. Eller sum-prod inference-composition följt av Maximum defuzzification.

Fuzzy inference Min inferencing The consequent membership function is cut at the level of the antecedent truth. (called α) Max composition The list of clipped consequent membership functions are combined into one fuzzy set per output variable using the maximum membership value. Centroid defuzzification The center of gravity of the resulting fuzzy set is returned as the crisp value.