Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.

Relevanta dokument
Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.

de var svåra att implementera och var väldigt ineffektiva.

Vad behövs för att skapa en tillståndsrymd?

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

I en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd.

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.

I en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd.

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.

Mycket kortfattade lösningsförslag till tenta i AI 6 nov 2003

Antag att följande träd genereras i ett spelförande program om vi applicerar evalueringsfunktionen

HKGBB0, Artificiell intelligens

729G43 Artificiell intelligens / Maskininlärning 3. Marco Kuhlmann

729G43 Artificiell intelligens (2016) Maskininlärning 3. Marco Kuhlmann Institutionen för datavetenskap

Probabilistisk logik 1

Anna: Bertil: Cecilia:

Probabilistisk logik 2

Sökning. Sökning. Köoperationer. Generell sökalgoritm

729G43 Artificiell intelligens Probabilistisk logik. Arne Jönsson HCS/IDA

A B C D E F A B C D E F (3) Svar: Tabellen ger grafen:

ARTIFICIELLA NEURALA NÄT. MARCO KUHLMANN Institutionen för datavetenskap

Artificial Intelligence

Kunskapsrepresentation

40 5! = 1, ! = 1, Om man drar utan återläggning så kan sannolikheten beräknas som 8 19

Satsen om total sannolikhet och Bayes sats

729G43 Artificiell intelligens Planering

Artificial Intelligence

729G43 Artificiell intelligens (2016) Maskininlärning 2. Marco Kuhlmann Institutionen för datavetenskap

Artificiella Neuronnät

Artificiell Intelligens Lektion 7

Beräkning med ord. -hur en dator hanterar perception. Linköpings universitet Artificiell intelligens Erik Claesson

Matematisk statistik för D, I, Π och Fysiker

729G43 Artificiell intelligens Introduktion. Arne Jönsson HCS/IDA

Regression med Genetiska Algoritmer

Speciell användning av heltalsvariabler. Heltalsprogrammering. Antingen-eller-villkor: Exempel. Speciell användning av heltalsvariabler

Enlagersnät Flerlagersnät Generalisering. Artificiella Neuronnät

Föreläsning 1. Introduktion. Vad är en algoritm?

729G43 Artificiell intelligens Sökning

Krafts olikhet. En momentant avkodbar kod (prefixkod) med kodordslängderna l 1,...,l N existerar om och endast om. 2 l i. 1 i=1

Algoritmer, datastrukturer och komplexitet

Tänk på följande saker när du skriver tentan:

Normalisering av meningar inför resolution 3. Steg 1: Eliminera alla och. Steg 2: Flytta alla negationer framför atomära formler

Artificiell Intelligens

Optimalitetsvillkor. Optimum? Matematisk notation. Optimum? Definition. Definition

Stokastiska signaler. Mediesignaler

Monte Carlo-metoder. Bild från Monte Carlo

Prototypbaserad Inkrementell Diagnos. Anders Holst SICS, Swedish Institute of Computer Science AB

Markovkedjor. Patrik Zetterberg. 8 januari 2013

Algoritmer, datastrukturer och komplexitet

Algoritmanalys. Inledning. Informationsteknologi Malin Källén, Tom Smedsaas 1 september 2016

729G43 Artificiell intelligens / Maskininlärning 2. Marco Kuhlmann

Kunskapsbaserad agent. Kunskapsrepresentation. Wumpus-världen. Wumpusvärlden. Bris. Bris. Bris. Bris. Bris. Bris. Stank. Stank.

Artificiell intelligens Probabilistisk logik

TAMS17/TEN1 STATISTISK TEORI FK TENTAMEN ONSDAG 10/ KL

729G43 Artificiell intelligens. Introduktion. Introduktion. Kursöversikt. Kursens organisation. Arne Jönsson HCS/IDA

1 Minkostnadsflödesproblem i nätverk

OBS! Vi har nya rutiner.

Föreläsning 1. Introduktion och sökning i graf. Vad är en algoritm?

OBS! Vi har nya rutiner.

Komplexitetsklasser och repetition

min c 1 x 1 + c 2 x 2 då x 1 + x 2 = 1, x 1 {0, 1}, x 2 {0, 1} plus andra bivillkor. Vi måste göra k st av n alternativ:

Filosofisk Logik (FTEA21:4) föreläsningsanteckningar/kompendium. v. 2.0, den 29/ III. Metalogik 17-19

Statistikens grunder HT, dagtid Statistiska institutionen

FÖRELÄSNING 2, TDDC74, VT2018 BEGREPP PROBLEMLÖSNING MED HJÄLP AV FALLANALYS PROBLEMLÖSNING MED HJÄLP AV REKURSION

Föreläsning 5 Innehåll

, för 0 < x < θ; Uppgift 2

Föreläsning 5: Kardinalitet. Funktioners tillväxt

Optimering och simulering: Hur fungerar det och vad är skillnaden?

Introduktion till algoritmer - Lektion 4 Matematikgymnasiet, Läsåret Lektion 4

DD1350 Logik för dataloger. Fö 7 Predikatlogikens semantik

Försök att skriva svaren inom det utrymme som finns på sidan. Skriv tydligt! Svara sammanhängande och med enkla, tydliga meningar.

Exempel ode45 parametrar Miniprojekt 1 Rapport. Problemlösning. Anastasia Kruchinina. Uppsala Universitet. Januari 2016

PROBLEMLÖSNING. ! GPS! Mål medel analys! Problemlösning i programmering. Lars-Erik Janlert 2007

Komponentvisa operationer,.-notation Multiplikation (*), division (/) och upphöj till (ˆ) av vektorer följer vanliga vektoralgebraiska

Föreläsning 5. Rekursion

F6 STOKASTISKA VARIABLER (NCT ) Används som modell i situation av följande slag: Slh för A är densamma varje gång, P(A) = P.

Tommy Färnqvist, IDA, Linköpings universitet

min c 1 x 1 + c 2 x 2 då x 1 + x 2 = 1, x 1 {0, 1}, x 2 {0, 1} plus andra bivillkor. Vi måste göra k st av n alternativ:


Kapitel 4: SAMBANDET MELLAN VARIABLER: REGRESSIONSLINJEN

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

Stat. teori gk, ht 2006, JW F7 STOKASTISKA VARIABLER (NCT 5.7) Ordlista till NCT

Multipel tilldelning. Introduktion till programmering D0009E. Föreläsning 6: Iteration. while-satsen. Kom ihåg. Snurror kontra rekursion

TNSL05 Optimering, Modellering och Planering. Föreläsning 6

Algoritmer, datastrukturer och komplexitet

Teoretisk del. Facit Tentamen TDDC (6)

Outline. TSFS06 Diagnos och övervakning Föreläsning 10 - Sannolikhetsbaserad diagnos och Bayesianska nätverk. Sneak-peak. Outline

Föreläsning 9: Turingmaskiner och oavgörbarhet. Turingmaskinen. Den maximalt förenklade modell för beräkning vi kommer använda är turingmaskinen.

Inledning. Vad är ett datorprogram, egentligen? Olika språk. Problemlösning och algoritmer. 1DV433 Strukturerad programmering med C Mats Loock

Härledning av Black-Littermans formel mha allmänna linjära modellen

Matematisk statistik 9 hp Föreläsning 3: Transformation och simulering

ANN fk. Örjan Ekeberg. Framåtkopplade Nät. återkopplade nät. Olika arkitekturer. BackPropagation through Time. Kalman-Filter tekniker

Introduktion till programmering

Artificiell Intelligens Övningsuppgifter

b) Beräkna sannolikheten för att en person med språkcentrum i vänster hjärnhalva är vänsterhänt. (5 p)

SF1901 Sannolikhetsteori och statistik I

. (2p) 2x + 2y + z = 4 y + 2z = 2 4x + 3y = 6

Transkript:

OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet felaktiga är positiv. Totalt kan man ha 32 poäng. För godkänt på denna tenta krävs 14 poäng och för VG 20 poäng. Fråga 1 (1 poäng) Vilka av följande beskrivningar av karakteristika för en omgivning är korrekta? I en deterministisk omgivning beror nästa tillstånd bara av agentens handling. En omgivning är episodisk om handlingar inte beror av vad som hänt tidigare. Partiellt observerbar omgivning innebär att sensorerna inte ger all information. Att en omgivning är kontinuerlig betyder att det kan hända saker medans agenten fattar sitt beslut. Fråga 2 (1 poäng) Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder. man försöker göra effektivare sökningar. tiden för en sökning växer exponentiellt. tidskomplexitetsuttryck av typen T (30n 4 + 40n 2 ) förenklas till O(n 4 ) där O betyder Ordo. Fråga 3 (1 poäng) En målstyrd agent... utnyttjar en modell av verkligheten för att fatta beslut. kan bara välja att följa vägen till ett mål. hanterar inte osäkerhet. kan inte planera. Fråga 4 (1 poäng) När man värderar sökstrategier... kör man algoritmen på samma indata vid undersökning av tidskomplexiteten. kör man algoritmen på olika indata för att undersöka minneskomplexiteten. tar man inte hänsyn till den tid det tar att generera en lösning. är det viktigt att undvika att samma tillstånd genereras flera gånger. Fråga 5 (1 poäng) Vilka av dessa sökstrategier är kompletta? Djupet först. Uniform Cost. Djupbegränsad sökning. Dubbelriktad sökning. Fråga 6 (1 poäng) Greedy Search är en sökmetod som... har minneskomplexitet O(bd). Sida 1

kräver att den uppskattade kostnaden till målet underskattas. är komplett. blir bättre med bättre heuristik. Fråga 7 (1 poäng) Vilka heuristiker gör constraint satisfaction bättre? Att välja den variabel som ger flest återstående värden. Att välja det minst begränsande värdet. Vid konflikt tar man bort den variabel som har flest återstående värden. Vid konflikt byter man värde på den variabel som sist tilldelades ett värde, sk. kronologisk backtracking. Fråga 8 (1 poäng) Suceesor-stateaxiom... används för att avgöra vilken handling som är bäst att utföra härnäst i ett visst tillstånd. kombinerar effekt- och frameaxiom. kan se ut såhär: a, x, sholding(x, Result(a, s)) [((a = Grab) P resent(x, s) P ortable(x)) (Holding(x, s) (a Release))] gör att man inte explicit behöver räkna upp alla frameaxiom. Fråga 9 (1 poäng) Vilka av följande är resolutionsstrategier? Set of goals. Conflict-directed backtracking. Decision-support. Unit preference. Fråga 10 (1 poäng) När man skapar en generell ontologi... vill man kunna representera alla relationer mellan objekt. hanterar man händelser med händelse(event)logik istället för situationslogik. representerar man kategorier som objekt i språket genom reification. använder man generella datainsamlingsmetoder. Fråga 11 (1 poäng) Strukturerade kunskapsrepresentationer som t.ex. frames... är inspirerade av den kognitiva psykologins teorier om episodiskt minne. gör det enklare att hantera egenskapsärvning. hanterar frameproblemet. kan uttryckas i logik. Fråga 12 (1 poäng) Vilka av följande är korrekta relationer i Allens temporala logik? i, j Meet(i, j) T ime(end(i)) = T ime(end(j)) i, j After(j, i) T ime(end(i) < T ime(start(j)) Sida 2

i, j Before(j, i) T ime(end(i) < T ime(start(j)) i, j Overlap(i, j) T ime(start(j)) T ime(start(i)) T ime(end(j)) T ime(end(i)) Fråga 13 (1 poäng) Planering till skillnad från sökning... arbetar med kompletta tillståndsvektorer. kan välja handling utifrån dess effekter. får snabbt fram en sekvens av handlingar. kan arbeta med flera delplaner samtidigt. Fråga 14 (1 poäng) Vad representerar en planeringsgraf vid partialordningsplanering? Alla tänkbara tillstånd. De tillstånd som är tillåtna. Den hierarkiska strukturen. Alla villkorliga planer. Fråga 15 (1 poäng) Resursplanering... använder formeln LS(Op i 1 ) = LS(Op i ) Duration(Op i 1 ). använder formeln LS(Op i+1 ) = LS(Op i ) Duration(Op i+1 ). använder mindre resurser vid planeringen. skapar planer som tar hänsyn till den tid det tar att utföra en handling. Fråga 16 (1 poäng) För stokastiska variabler gäller: n i=1 P (D = d i) = 1 P (a) betecknar den ovillkorliga sannolikheten för den stokastiska variablen a. P (a) 1 P (a) P (a b) = P (a b) P (a) Fråga 17 (1 poäng) Normalisering av probabilistiska uttryck... används för att säkerställa att sannolikheterna aldrig blir större än 1. gör att vi slipper räkna ut nämnaren i Bayes teorem. gör att vi kan teckna Bayes teorem som P (a b) = αp (b a)p (b). kan bara användas då vi har villkorligt oberoende stokastiska variabler. Fråga 18 (1 poäng) Om X och Y är villkorligt oberoende givet Z så gäller: P(X Y, Z) = P(X Z) P(X Y, Z) = P(Y Z) P(X, Y Z) = P(X Z) P(X, Y Z) = P(Y Z) Sida 3

Fråga 19 (1 poäng) Genetiska algoritmer... utnyttjar kunskap om problemets genetiska variation. måste innehålla någon form av slump för att inte fastna i lokalt optimum. använder operationer inspirerade från naturlig genetisk variation. kan bara lösa linjärt separerbara problem. Fråga 20 (1 poäng) Traditionell hyptesinlärning... Fråga 21 (1 poäng) Perceptroner... använder positiva exempel för att generalisera sin modell. använder positiva exempel för att specificera sin modell. utnyttjar specifika exempel för att skapa en specifik beskrivning. måste minnas alla gamla exempel. kan lära sig alla linjärt separerbara problem. uppdaterar vikterna, w i med en funktion som ser ut såhär: w i = w i + β(t y)x i där t är förväntad utdata, x indata och y är erhållen utdata. kan användas för klassificering. är ineffektiva. Fråga 22 (1 poäng) Gradient Backpropagation... fungerar bäst med diskreta aktiveringsfunktioner. uppdaterar vikterna iterativt tills dess att felet, i, är noll. antar att fel i dolda lager är proportionella mot fel i lagret efter. minimerar felet genom att söka i gradientens riktning. Sida 4

Fråga 23 (4 poäng) Gör rimliga antaganden och översätt följande meningar till predikatlogiska uttryck: Schackvärldsmästare är klipska Magnus är schackvärldsmästare och norrman Klipska norrmän är glada och rika och visa med resolution att Det finns glada norrmän Sida 5

Fråga 24 (3 poäng) Skapa ett Bayesianskt nätverk med övergångssannolikhetstabeller, med sannolikheter som du kan hitta på själv, för de stokastiska variablerna: Eld, Rök, Hosta, Rökning. Beräkna också P (eld rök hosta rökning). Du behöver inte räkna ut svaret. Sida 6

Fråga 25 (3 poäng) I tabellen listas ett antal exempel på om man har bil eller inte beroende på attributen Ålder, Kön och Inkomst. Teckna uttrycken för hur mycket information som fortfarande behövs då man delar vid de olika attributen Ålder, Kön och Inkomst i tabellen nedan. Du behöver inte räkna ut något. Använd entropi som informationsmått. Formeln för entropi: I(P (v 1 ), P (v 2 )...P (v n )) = n P (v i )log 2 (P (v i )) i=1 Attribut Exempel Ålder Kön Inkomst Har bil x1 20-40 Man >40000 Ja x2 <20 Man <20000 Ja x3 >40 Kvinna >40000 Nej x4 >40 Kvinna 20000-40000 Ja x5 >40 Man 20000-40000 Nej x6 20-40 Man <20000 Ja x7 20-40 Kvinna 20000-40000 Ja x8 <20 Kvinna >40000 Nej Sida 7