Mycket kortfattade lösningsförslag till tenta i AI 6 nov 2003

Relevanta dokument
Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.

de var svåra att implementera och var väldigt ineffektiva.

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.

Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.

I en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd.

Antag att följande träd genereras i ett spelförande program om vi applicerar evalueringsfunktionen

I en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd.

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

HKGBB0, Artificiell intelligens

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

Vad behövs för att skapa en tillståndsrymd?

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.

Föreläsning 1. Introduktion. Vad är en algoritm?

Sökning. Sökning. Köoperationer. Generell sökalgoritm

Probabilistisk logik 2

Artificial Intelligence

Anna: Bertil: Cecilia:

A B C D E F A B C D E F (3) Svar: Tabellen ger grafen:

Asymptotisk komplexitetsanalys

Artificiell Intelligens Övningsuppgifter

Partiell parsning Parsning som sökning

Datastrukturer och algoritmer. Föreläsning 15 Inför tentamen

Stokastiska processer och simulering I 24 maj

Tekniker för storskalig parsning: Grundbegrepp

Probabilistisk logik 1

TDDA94 LINGVISTIK, 3 poäng tisdag 19 december 2000

Tentamenskod: Inga hjälpmedel är tillåtna

Djupstruktur och ytstruktur

729G43 Artificiell intelligens Planering

GRIDWORLD OCH MDP PROJEKTRAPPORT 729G43 MICHAEL JONASSON

Regression med Genetiska Algoritmer

Syntaktisk parsning (Jurafsky & Martin kapitel 13)

TSFS06: Bayesianska nätverk i GeNIe - kort handledning

Optimeringslära Kaj Holmberg

Algoritmer, datastrukturer och komplexitet

Tentamen Datastrukturer för D2 DAT 035

Artificiell Intelligens Lektion 4

Lektion 2: Sökagenter. Robin Keskisärkkä

729G43 Artificiell intelligens Sökning

Optimeringslära Kaj Holmberg

Föreläsning 2 (kap 3): Diskreta stokastiska variabler

Föreläsning 8: Intro till Komplexitetsteori

Tänk på följande saker när du skriver tentan:

DD1350 Logik för dataloger. Fö 7 Predikatlogikens semantik

Tentamen: Programutveckling ht 2015

ÖVNINGSUPPGIFTER KAPITEL 9

4 Diskret stokastisk variabel

Programkonstruktion och Datastrukturer

Algoritmer, datastrukturer och komplexitet

Grundläggande logik och modellteori (5DV102)

Beräkning med ord. -hur en dator hanterar perception. Linköpings universitet Artificiell intelligens Erik Claesson

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3

729G43 Artificiell intelligens Introduktion. Arne Jönsson HCS/IDA

TENTAMEN: Algoritmer och datastrukturer. Läs detta!

ÖVNINGSUPPGIFTER KAPITEL 9

Föreläsning 6 Datastrukturer (DAT037)

Tentamen. 2D4135 vt 2004 Objektorienterad programmering, design och analys med Java Torsdagen den 3 juni 2004 kl

Dynamisk programmering. Dynamisk programmering. Dynamisk programmering. Dynamisk programmering

TAOP33/TEN 2 KOMBINATORISK OPTIMERING GRUNDKURS

1 Begrepp och Hypoteser. 2 Inlärning genom sökning. 3 Objektiv inlärning. Inlärning av en boolsk funktion från exempel.

Kunskapsrepresentation

ÖVNINGSUPPGIFTER KAPITEL 9

Förstärkande inlärning med fokus på Q-learning

729G43 Artificiell intelligens Probabilistisk logik. Arne Jönsson HCS/IDA

Markovkedjor. Patrik Zetterberg. 8 januari 2013

TDDB56 DALGOPT Algoritmer och Optimering Tentamen , 8 13

Optimeringslära Kaj Holmberg

729G04 - Diskret matematik. Lektion 4

Föreläsning 1. Introduktion och sökning i graf. Vad är en algoritm?

Artificial Intelligence

Sökning och sortering

Krafts olikhet. En momentant avkodbar kod (prefixkod) med kodordslängderna l 1,...,l N existerar om och endast om. 2 l i. 1 i=1

Programmering II (ID1019) :00-17:00

Föreläsning 9 Innehåll

Programmering II (ID1019) :00-11:00

Föreläsning 6 Datastrukturer (DAT037)

Föreläsning Datastrukturer (DAT036)

TENTAMEN I STATISTIKENS GRUNDER 1

Relativa, kriteriebaserade och målrelaterade betyg. Målrelaterade kriterier. Relationen betygskriterier lärandemål

MA2047 Algebra och diskret matematik

Interpolation Modellfunktioner som satisfierar givna punkter

Tillämpad Programmering (ID1218) :00-13:00

Algoritmanalys. Inledning. Informationsteknologi Malin Källén, Tom Smedsaas 1 september 2016

Innehåll. Föreläsning 11. Organisation av Trie. Trie Ytterligare en variant av träd. Vi har tidigare sett: Informell specifikation

Kimmo Eriksson Professor i tillämpad matematik

Motivering till språkträning

En typisk medianmorot

Introduktion till programmering SMD180. Föreläsning 9: Tupler

Föreläsning 2. Kortaste vägar i grafer.

TDDI16 Datastrukturer och algoritmer. Algoritmanalys

Grundläggande logik och modellteori

Filosofisk logik Kapitel 15. Robin Stenwall Lunds universitet

OBS! Vi har nya rutiner.

Datorlingvistisk grammatik

Tentamen Datastrukturer D DAT 035/INN960 (med mycket kortfattade lösningsförslag)

Föreläsning Datastrukturer (DAT037)

729G43 Artificiell intelligens. Introduktion. Introduktion. Kursöversikt. Kursens organisation. Arne Jönsson HCS/IDA

hur väl kursens lärandemål uppfylls Syften med betygskriterier Uppgift i grupper om fyra Betygskriterier är bra men kräver ny examination

Transkript:

2003-12-02 Institutionen för datavetenskap Arne Jönsson/* Mycket kortfattade lösningsförslag till tenta i AI 6 nov 2003 1. Förklara de olika egenskaper en omgivning kan ha och ge exempel på en omgivning som är partiellt observerbar, stokastisk, sekvensiell, dynamisk, kontinuerlig med flera agenter. (3) Partiellt observerbar omgivning har inte all relevant information tillgänglig för att välja handling. I en stokastisk omgivning är inte nästa tillstånd fullständigt givet utifrån nuvarande tillstånd utan det kan hända saker som gör att agenten inte hamnar där den trodde. En sekvensiell omgivning kan inte delas i episoder av att varsebli och handla utan handlingar kan påverka framtiden betydligt längre fram. I en dynamisk omgivning kan det hända saker medans agenten tänker. En kontinuerlig omgivning har inte tiden delad i diskreta enheter och flera agenter innebär att agenten måste på något sätt ta hänsyn till andra agenter. Ett exempel på ett system med alla dessa egenskaperna är en taxibilsagent. 2. Förlara begreppet asymptotiskt beteende? En algoritm har följande tidskomplexitet T(n 3 + n 2 + 4n + 6). Vilken asymptotisk komplexitet har algoritmen, dvs skriv om T() till O()? (2) Asymptotiskt beteende innebär att man undersöker algoritmens beteende för stora tal, stora n i exemplet. T(n 3 + n 2 + 4n + 6) får då en komplexitet som bara beror av det största talet, dvs O(n 3 ). 3. Beskriv dubbelriktad sökning, dess tillämpbarhet och begränsningar. Redogör för dess egenskaper (komplett, optimal, samt tids- och minnesåtgång). (3) Dubbelriktad sökning söker en lösning genom att samtidigt expandera noder från startoch måltillstånden. Metoden kan bara användas när man har såväl kända mål-som starttillstånd och då man kan köra nodexpanderingsfunktionen baklänges, dvs då man kan generera alla möjliga föregående tillstånd från en nod, inte bara de möjliga efterföljande tillstånden, vilket inte alltid är möjligt. Metoden är optimal och komplett om man använder en sådan sökmetod, t.ex. bredden först (för djupet först dubbelriktad sökning är den inte ens komplett). Metoden har i teorin exponentiell tids- och minneskomplexitet. Emellertid, med förgreningsfaktorn b och en lösning på sökdjupet d, får metoden en tids-respektive minneskomplexitet på O(b d/2 ) vilket blir en väldig förbättring, ex med b=10 och d=10 får en vanlig bredden först 10 10 = 10.000.000.000 noder medan dubbelrikatd sökning klarar sig med 10 5 =10.000. 4. Vid constraint satisfaction sökning finns det ett antal heuristiker som kan användas för att förbättra sökningen. Beskriv en lämplig heuristik för att välja variabel och en för att välja värde.vilka intuitioner ligger bakom dessa heuristiker? (3) För att välja variabel väljer man den som är mest begränsad (MRV: minimum remaining values) eftersom den leder till att sökningen misslyckas så fort som möjligt och algoritmen därför inte i onödan går igenom en massa andra variabler när det ändå kommer att bli fel för den mest begränsade. När man väljer värde väljer man det minst begränsande eftersom algoritmen då har fler värden kvar till de andra variablerna. 5. Gör rimliga antaganden och översätt följande meningar till predikatlogiska uttryck: Höjdare som roffar åt sig är omoraliska Om företaget reparerar ens egen lägenhet roffar man åt sig Några höjdare har låtit företaget reparera sin egen lägenhet Direktörer och politiker är höjdare och visa med resolution att: Någon som inte är politiker är omoralisk (4)

x Höjdare(x) RoffarÅtSig(x) Omoralisk(x) x FöretagetReparerarLägenhetÅt(x) RoffarÅtSig(x) x Höjdare(x) FöretagetReparerarLägenhetÅt(x) x Direktör(x) Politiker(x) Höjdare(x) x Politiker(x) Omoralisk(x) Konverteringen (med variabelstandardisering och uppdelning av konjunktionen direkt) ger: (1) Höjdare(x) RoffarÅtSig(x) Omoralisk(x) (2) FöretagetReparerarLägenhetÅt(y) RoffarÅtSig(y) (3) Höjdare(S) [där S är en Skolemkonstant] (4) FöretagetReparerarLägenhetÅt(S) [där S är samma Skolemkonstant] (5) Direktör(z) Höjdare(z) (6) Politiker(v) Höjdare(v) (7) w Politiker(w) Omoralisk(w) w ( Politiker(w) Omoralisk(w)) Politiker(w) Omoralisk(w) Resoltion: (7)+(6) ger (8) Omoralisk(v) Höjdare(v) (8)+(1) ger (9) RoffarÅtSig(x) (9)+(2) ger (10) FöretagetReparerarLägenhetÅt(y) (10)+(4) med {y/s} ger en tom klausul 6. Förklara vad som menas med taxonomi, ärvning, fysisk uppdelning samt substanser vid representation av kategorier och objekt i en ontologi. (3) En taxonomi är en ordnad beskrivning av kategorier och objekt. För att detta skall fungera måste man göra kategorier till objekt i språket (reification) så att man kan prata om kategorier på samma sätt som vanliga objekt. Taxonomin är hierarkisk och kategorier kan ärva egenskaper. Man pratar om ISA-hierarkier. (En figur här kan vara på sin plats.) Vid egenskapsärvning får kategorier tillgång till attribut och värden som finns lagrade hos kategorier högre upp i taxonomin. Fördelen är att man får en mer ekonomisk egenskapslagring genom att egenskaper lagras så generellt som möjligt. Många objekt kan delas upp fysiskt med hjälp av PartOf-relationen, som är transitiv, dvs PartOf(x,y) PartOf(y,z) PartOf(x,z). Detta används för sammansatta objekt och gör att man kan hitta relationen mellan delarna i ett objekt. Substanser kännetecknas av att man inte kan dela upp dem i individer. Substanser har såväl inre som yttre egenskaper och ärvningen blir annorlunda för dessa. De yttre egenskaperna ärvs som vanligt, t.ex. en kopp kaffe som dricks upp till hälften är bara en halv kopp kaffe, medan de inre egenskaperna, t.ex. att vara brunt, koffeinrikt och uppiggande (eller vad man nu tycker) är desamma även för den halva koppen kaffe. På samma sätt är de yttre egenskaperna hos det kallnade kaffet kallt kaffe även för en klunk kaffe medan de inre egenskaperna att koka vid ungefär 100 grader är desamma för såväl den halva koppen kallt kaffe som för kalla klunken kaffe som man drack.

7. Visa hur planeringsgrafen, med mutexlänkar, ser ut vid planering från initialtillståndet Init(Potatis(Pot) Skalad(Pot)) till måltillståndet Goal(Skalad(Pot)) med handlingen OP (Action: Skala(Pot), Predcond: Potatis(Pot) Skalad(Pot), Effekt: Skalad(Pot)) (3) S 0 A 0 S 1 Potatis(Pot) Potatis(Pot) Skalad(Pot) Skala(Pot) Mutex Skalad(Pot) Mutex Skalad(Pot) 8. Visa hur man kan räkna ut P( T M F S Br Bi ) i nedanstående Bayesianska nätverk? (Du behöver inte räkna ut sannolikheten). (3) P(T) T S P(S) Br P(Br) 0,6 0,8 0,6 T P(Bi) Bi M T S Br P(M) T 0,9 T T T 0,9 F 0,4 T T F 0,3 M P(F) T 0,9 F 0,4 F T F T 0,2 T F F 0,03 F T T 0,3 F T F 0,03 F F T 0,02 F F F 0,01 Eftersom alla värden är givna kan vi använda den sammanslagna sannolikhetsfördelningen som lyder: n Px ( 1, x 2,,, x n ) = Px i Parents( x i ) i = 1 vilket ger P( T M F S Br Bi ) = P( T)*P( S)*P(Br)*P( Bi T)* P(M T S Br)*P(F M) = 0,4*0,2*0,6*0,6*0,02*0,9=0,00052

9. Visa hur beslutsträdsinlärning fungerar genom att visa hur beslutsträdet skapas ur följande exempel: Exempel Attribut Typ Bäst före Färg Storlek Drickbar x1 Mini Inte utgått Vit 1 dl Ja x2 Lätt Utgått Blå 1 liter Nej x3 Mini Utgått Grön 1 liter Nej x4 Lätt Utgått Vit 1 liter Ja x5 Lätt Utgått Grön 3 dl Nej x6 Mellan Utgått Blå 1 liter Ja x7 Mini Utgått Grön 1 dl Ja x8 Mini Inte utgått Grön 3 dl Nej x9 Mellan Inte utgått Vit 1 liter Ja x10 Mellan Inte utgått Blå 3 dl Ja Du behöver inte skapa det optimala beslutsträdet. (3) Man väljer ett attribut att undersöka och ser efter hur många positiva respektive negativa exempel som finns. Finns det bara negativa eller positiva är man klar annars letar man nytt attribut att förgrena mot. Saknas attribut när man har val kvar misslyckas inlärningen och har man ett attribut som saknar exempel får man ta till ett defaultvärde. En variant, som troligen inte ger optimalt träd, är följande: x4 x7 1dl x3 Utgått BästFöre x4, x6, x7 x2, x3, x5 Färg Vit Blå x7 Grön x6 x3, x5 x2 Storlek Typ 1 liter 3 dl Mellan x5 x6 Lätt x2 Inte utgått x1, x9,x10 x8 Färg Vit x1, x9 Mini Grön x8 DEF Blå x10

10. Visa hur en treingångars perceptron (x 0, x 1, x 2 ) med en fast ingång x 0 = -1 lär sig följande funktion. x 1 x 2 y 0 0 0 0 1 0 1 0 1 1 1 0 Antag att w 0 =1 och att den inte uppdateras under inlärningen. Perceptronen använder följande stegfunktion: fx ( ) = 1 omm x 0 0 omm x < 0 När perceptronen startar är w 1 = 0,2 och w 2 = 0,5. Förstärkningsfaktorn α = 0,5 och följande träningsmängd används: (x 1, x 2 ) = ((0, 0) (0, 1) (1, 0) (1, 1) (1, 0) (0, 1) (1, 0) (1, 1) (1, 0)). (3) Utgången kan tecknas som y = -1 + (x 1 *w 1 + x 2 *w 2 ). Förväntat värde kallar vi för T och skillnaden mellan förväntad och erhållen för E. Uppdateringen av vikterna följer formeln w j = w j + α Ε x j där j=1,2. Om vi tänker oss att varje varv i inlärningen uppdaterar vikterna och uppdaterar tabellen på raden under så att de vikter som används är de som finns på raden får vi följande tabell för hur vikterna uppdateras givet sekvensen ovan: x 1 x 2 w 1 w 2 y T E 0 0 0,2 0,5 0 0 0 0 1 0,2 0,5 0 0 0 1 0 0,2 0,5 0 1 1 1 1 0,7 0,5 1 0-1 1 0 0,2 0 0 1 1 0 1 0,7 0 0 0 0 1 0 0,7 0 0 1 1 1 1 1,2 0 1 0-1 1 0 0,7-0,5 0 1 1 1,2-0,5

11. Visa hur charten (inaktiva bågar räcker) ser ut efter parsning av meingen Hon äter sushi med bröd. Utnyttja följande lexikon och grammatik: N bröd N sushi PRO Hon P med V äter S NP VP VP V NP PP VP V NP PP P NP NP N PP NP N NP PRO (4) S NP VP. S NP VP. VP V NP PP. VP V NP. VP V NP. NP N PP. NP PRO. PP P NP. NP N. NP N. PRO Hon. V äter. N sushi. P med. N bröd. Hon äter sushi med bröd