Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

Relevanta dokument
Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.

Vad behövs för att skapa en tillståndsrymd?

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.

Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.

Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.

de var svåra att implementera och var väldigt ineffektiva.

I en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd.

I en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd.

ARTIFICIELLA NEURALA NÄT. MARCO KUHLMANN Institutionen för datavetenskap

HKGBB0, Artificiell intelligens

Antag att följande träd genereras i ett spelförande program om vi applicerar evalueringsfunktionen

729G43 Artificiell intelligens / Maskininlärning 3. Marco Kuhlmann

Probabilistisk logik 1

A B C D E F A B C D E F (3) Svar: Tabellen ger grafen:

729G43 Artificiell intelligens Probabilistisk logik. Arne Jönsson HCS/IDA

Grundläggande logik och modellteori (5DV102)

Mycket kortfattade lösningsförslag till tenta i AI 6 nov 2003

Artificiell Intelligens Övningsuppgifter

Probabilistisk logik 2

Linköpings universitet

TANA17 Matematiska beräkningar med Matlab

Tänk på följande saker när du skriver tentan:

729G43 Artificiell intelligens Planering

SF1901 Sannolikhetsteori och statistik I

Anna: Bertil: Cecilia:

Artificial Intelligence

TMS136. Föreläsning 2

729G43 Artificiell intelligens (2016) Maskininlärning 3. Marco Kuhlmann Institutionen för datavetenskap

Neurala nätverk och språkigenkänning. Henrik Linnarsson. Linköping University

Vektorer, matriser, nätverk - några elementa

Veckoblad 1, Linjär algebra IT, VT2010

ANN fk. Örjan Ekeberg. Framåtkopplade Nät. återkopplade nät. Olika arkitekturer. BackPropagation through Time. Kalman-Filter tekniker

DD1361 Programmeringsparadigm HT15

Lektion 8: Konstruktion av semantiska tablåer för PTL-formler

Artificiella Neuronnät

Regression med Genetiska Algoritmer

Enlagersnät Flerlagersnät Generalisering. Artificiella Neuronnät

Sub-symbolisk kognition & Konnektionism. Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén,

DD1361 Programmeringsparadigm HT17

TMS136. Föreläsning 2

TSFS06: Bayesianska nätverk i GeNIe - kort handledning

SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende

729G43 Artificiell intelligens (2016) Maskininlärning 2. Marco Kuhlmann Institutionen för datavetenskap

Tentamenskod: Inga hjälpmedel är tillåtna

DD1361 Programmeringsparadigm HT16

Vidare får vi S 10 = 8, = 76, Och då är 76

Grundläggande matematisk statistik

TAIU07 Matematiska beräkningar med Matlab

729G43 Artificiell intelligens Introduktion. Arne Jönsson HCS/IDA

Kolmogorovs Axiomsystem Kolmogorovs Axiomsystem Varje händelse A tilldelas ett tal : slh att A inträar Sannolikheten måste uppfylla vissa krav: Kolmog

Artificiell intelligens

Figure 1: Blockdiagram. V (s) + G C (s)y ref (s) 1 + G O (s)

Kombinatorik och sannolikhetslära

FÖRELÄSNING 3:

Avd. Matematisk statistik

Matematisk statistik TMS064/TMS063 Tentamen

GRIDWORLD OCH MDP PROJEKTRAPPORT 729G43 MICHAEL JONASSON

Lösningsförslag till tentamen i SF1861 Optimeringslära för T. Torsdag 28 maj 2010 kl

TMS136. Föreläsning 1

Grundläggande logik och modellteori

Artificiell Intelligens Lektion 7

Föreläsning 6, Repetition Sannolikhetslära

Kognitiv Modellering

Satsen om total sannolikhet och Bayes sats

Lösningar kommer att läggas ut på kurshemsidan första arbetsdagen efter tentamenstillfället. Resultat meddelas via epost från LADOK.

Utfall, Utfallsrummet, Händelse. Sannolikhet och statistik. Utfall, Utfallsrummet, Händelse. Utfall, Utfallsrummet, Händelse

Att programmera en Beethoven

Neurovetenskap 30/08/2013. Kognitiv neurovetenskap. Lober. Olika färg, olika vävnadsstruktur. Hjärnbarken

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

TENTAMEN I STATISTIKENS GRUNDER 1

729G43 Artificiell intelligens / Maskininlärning 2. Marco Kuhlmann

Statistikens grunder HT, dagtid Statistiska institutionen

2D Potentialen i en nervcell definieras normalt som skillnaden i spänning mellan dess axon och dendrit.

Vektorgeometri för gymnasister

Figur 2: Bodediagrammets amplitudkurva i uppgift 1d

Avd. Matematisk statistik

PROBLEMLÖSNING. ! GPS! Mål medel analys! Problemlösning i programmering. Lars-Erik Janlert 2007

Tentamentsskrivning: Matematisk Statistik med Metoder MVE490 1

Monte Carlo-metoder. Bild från Monte Carlo

729G43 Artificiell intelligens. Introduktion. Introduktion. Kursöversikt. Kursens organisation. Arne Jönsson HCS/IDA

Lektion 1: Fördelningar och deskriptiv analys

Uppsala Universitet Matematiska Institutionen Thomas Erlandsson

med hjälp av Deep Reinforcement Learning

Lösningar till utvalda uppgifter i kapitel 1

Artificial Intelligence

Tentamen. 2D4135 vt 2004 Objektorienterad programmering, design och analys med Java Torsdagen den 3 juni 2004 kl

729G43 Artificiell intelligens Maskininlärning. Arne Jönsson HCS/IDA

Tentamen i Digitalteknik, EIT020

Övningshäfte 1: Logik och matematikens språk

Prototypbaserad Inkrementell Diagnos. Anders Holst SICS, Swedish Institute of Computer Science AB

Extrauppgifter i matematisk statistik

{ 1, om i = j, e i e j = 0, om i j.

Trädstrukturer och grafer

LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2

x 23 + y 160 = 1, 2 23 = ,

Problemdel 1: Uppgift 1

REGLERTEKNIK KTH. REGLERTEKNIK AK EL1000/EL1110/EL1120 Kortfattade lösningsförslag till tentamen , kl

Transkript:

OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet felaktiga är positiv. otalt kan man ha 25 poäng. För godkänt krävs 13 poäng och för VG 19 poäng. Fråga 1 (1 poäng) I vilken typ av omgivning verkar en gräsklipparrobot i en vanlig trädgård? Observerbar, deterministisk och statisk. Partiellt observerbar, stokastisk och kontinuerlig. Observerbar, stokastisk och episodisk. Partiellt observerbar, deterministisk och diskret. Fråga 2 (1 poäng) En nyttobaserad agent... kan inte planera en sekvens av handlingar. har en intern kunskapsrepresentation av omgivningen. hanterar osäkerhet. behöver inte göra observationer av omgivningen. Fråga 3 (1 poäng) För att definiera ett sökproblem krävs... ett måltillstånd. ett sökträd med alla möjliga tillstånd. alla handlingar som överför ett befintligt tillstånd till ett nytt tillstånd en sekvens av handlingar från starttillstånd till måltillstånd. Fråga 4 (1 poäng) Vilka av dessa sökstrategier är optimala? Bredden först. Greedy search. Djupet först. A* med tillåten heursitik. Fråga 5 (1 poäng) Unifiering... av P(x, y) och z(1, 2) ger substitutionen {z/p, x/1, y/2}. av R(x, 1) och R(y, x) ger substitutionen {y/1, x/1}. av R(a, b, c) och S(b, c, 1) ger substitutionen {R/S, a/1, b/1, c/1} av S(h(x), y) och S(x, 1) ger substitutionen {x/h(x), y/1}. Sida 1

Fråga 6 (1 poäng) Antag att man kör α β-cutoff på trädet i figur 1. Vad gäller då? A B C 5 4 3 6 5 4 8 2 4 5 8 5 2 1 9 0 7 0 3 4 Figur 1: räd genererat av en min-max-sökning Agenten väljer att gå ner i första vänstra grenen, A, eftersom bästa noden är den längst till vänster, 5. I den mittersta grenen, B, kommer bara de två noderna längst till Fråga 7 (1 poäng) Frame-axiom... vänster, 2 och 4, att genereras. Alla noderna i den vänstra grenen, A, kommer att genereras. I den högra grenen, C, genereras bara noderna i det vänstra delträdet (9, 0 och 7). används för att avgöra vilken handling som är bäst att utföra härnäst i ett visst tillstånd. kan se ut såhär: a, x, s Holding(x, s) (a Grab) (P resent(x, s) P ortable(x)) Holding(x, Result(a, s). kan se ut så här: a, x, sholding(x, Result(a, s)) [((a = Grab) P resent(x, s) P ortable(x)) (Holding(x, s) (a Release)). säkerställer att alla tillstånd som inte påverkas av en handling uppdateras. Fråga 8 (1 poäng) Vilka av följande är korrekta relationer i Allens temporala logik? i, j Meet(i, j) ime(end(i)) = ime(start(j)) i, j After(j, i) ime(end(j) < ime(start(i)) i, j Before(j, i) ime(end(i) < ime(start(j)) i, j During(i, j) ime(start(j)) ime(start(i)) ime(end(j)) ime(end(i)) Sida 2

Fråga 9 (1 poäng) Planering till skillnad från sökning... kan arbeta med flera delplaner samtidigt. låter agenten resonera om tillstånd och handlingar. kan testa om målet är uppfyllt. utgår från Closed World assumption. Fråga 10 (1 poäng) Partialordningsplanerare... ordnar operatorer först då en konflikt uppstår. klarar inte handlingar som negerar en annan handlings preconditions. kan skapa planer med olika handlingssekvenser. bygger hierarkiska planer. Fråga 11 (1 poäng) En simultanfördelning på tre stycken stokastiska variabler... har 8 möjliga utfall utgår från att variablerna är ömsesidigt uteslutande är en likformig fördelning kan representeras genom ett bayesianskt nätverk Fråga 12 (1 poäng) För det bayesianska nätverket i figur 2 gäller följande: P(a) 0,9 P(b) 0,6 A B A B F F 0,1 F 0,2 F 0,1 P(c A,B) 0,9 C E D C F F 0,1 F 0,5 F 0,1 B P(d B) 0,3 F 0,6 D P(e C,D) 0,2 Figur 2: Bayesianskt nätverk P (a b c) = 0, 9 0, 6 0, 9. Antal värden i simultanfördelningen är 32. P (e a) = P (e C) P (C a, B) P ( e c d) är 0,5. Sida 3

Fråga 13 (1 poäng) Vilka stora motgångar hämmade utvecklingen av neurala nät i början? Perceptroner kunde bara hantera linjärt separerbara problem. Ej deriverbara stegfunktioner gav oberäkneligt beteende. Det fanns inga algoritmer för inlärning av nätverk med flera lager noder. Perceptroner och artificiella neurala nätverk överinlärde exemplen. Fråga 14 (1 poäng) Ett neuronalt nät med ett enda dolda lager bestående av sigmoid-neuroner ska tränas med backpropagation och mean squared error. Vilka påståenden är sanna? Vikterna uppdateras som mest när in-signalerna till det dolda lagret är nära noll och felet är stort. Vikterna uppdateras som mest när ut-signalerna från (aktiveringen av) det dolda lagret är nära noll och felet är stort. När in-signalerna till det dolda lagret är starkt negativa uppdateras vikterna nästan inte alls. Efter ett ändligt antal steg hittar träningsproceduren de globalt optimala vikterna till och från det dolda lagret. Fråga 15 (1 poäng) Genetisk programmering... ger alltid optimala lösningar. innebär att varje generation alltid är bättre än den föregående föräldragenerationen. är exempel på övervakad inlärning. är bereoende av en bra utvärderingsfunktion för att slutresultatet ska bli bra. Sida 4

Fråga 16 (4 poäng) Gör rimliga antaganden och översätt följande meningar till predikatlogiska uttryck: Kogvetare har hjärna Man säger inte dumma saker om man tänker efter före Har man hjärna tänker man efter före Jimmie säger dumma saker och visa med resolution att Alla är inte kogvetare Svar: (1) t Kogvetare(t) h Hjärna(h) Har(t,h) (2) d änkerefterföre(d) SägerDummaSaker(d) (3) s,g Hjärna(g) Har(s,g) änkerefterföre(s) (4) SägerDummaSaker(Jimmie) och det som skall visas: (5) x Kogvetare(x) efter konvertering fås: (1) Kogvetare(t) (Hjärna(S(t)) Har(t,S(t))) (1a) Kogvetare(t) Hjärna(S(t)) (1b) Kogvetare(t) Har(t,S(t)) (2) änkerefterföre(d) SägerDummaSaker(d) (3) Hjärna(g) Har(s,g) änkerefterföre(s) (4) SägerDummaSaker(Jimmie) (5) x Kogvetare(x) x Kogvetare(x) Kogvetare(x) och sen ger resolution t.ex. (5) + (1a) med {x/t} ger: (6) Hjärna(S(t)) (6) + (3) med {g/s(t)} ger: (7) Har(s,S(t)) änkerefterföre(s) (7) + (2) med {d/s} ger: (8) Har(s,S(t)) SägerDummaSaker(s) (8) + (1b) med {t/s} ger: (9) Kogvetare(s) SägerDummaSaker(s) (9) + (5) med {x/s} ger: (10) SägerDummaSaker(s) (10) + (4) med {s/jimmie} ger en tom klausul, dvs x Kogvetare(x). Sida 5

Fråga 17 (3 poäng) I en mojängfabrik tillverkas 40% av mojängerna vid maskin 1 och de övriga vid maskin 2. Maskinerna tillverkar en viss andel defekta mojänger; denna andel är 3% för maskin 1 och 6% för maskin 2. 1. Översätt uppgifterna till sannolikheter. Använd händelserna M 1 mojängen tillverkas vid maskin 1, M 2 mojängen tillverkas vid maskin 2 och D mojängen är defekt. 2. Hur stor är sannolikheten att en slumpmässigt vald mojäng är defekt? Ange en formel; du behöver inte räkna ut resultatet. 3. En kund påträffar en defekt mojäng. Hur stor är sannolikheten att den har tillverkats vid maskin 2? Ange en formel; du behöver inte räkna ut resultatet. Svar: 1. P (M 1 ) = 0,4, P (M 2 ) = 0,6, P (D M 1 ) = 0,03, P (D M 2 ) = 0,06 2. Eftersom M 1 och M 2 är disjunkta händelser har vi P (D) = P (M 1 )P (D M 1 ) + P (M 2 )P (D M 2 ) = 0,4 0,03 + 0,6 0,06 = 0,048 Den efterfrågade sannolikheten är därmed 4,8%. 3. Enligt Bayes regel har vi P (M 2 D) = P (D M 2)P (M 2 ) P (D) = 0,06 0,6 0,048 = 0, 75 Den efterfrågade sannolikheten är därmed 75%. Sida 6

Fråga 18 (3 poäng) Vid träningen av en perceptron (utsignal 0 eller 1) uppdateras viktvektorn w genom att addera vektorn (y y)x där x är ett träningsexempel, y är perceptronens utsignal och y är guldstandard-utsignalen. Antag att perceptronen har bias 0. w Figur 3: Perceptron Figur 3 visar hur en viktvektor w kan se ut. Rita in två vektorer x 1 och x 0 så att perceptronens utsignal för dessa vektorer blir 1 respektive 0. Rita sedan in de respektive uppdateringsvektorerna. Motivera dina svar. Svar: w x 1 x 0 Giltiga lösningar för x 1 är vektorer med origo (0, 0) som pekar in i den gröna arean; för dessa vektorer får man en positiv skalärprodukt och därför utsignalen 1. Giltiga lösningar för x 0 är vektorer med origo (0, 0) som pekar åt motsatta hållet, inklusive vektorer som ligger precis på gränsen på den gröna arean; för dessa vektorer får man en icke-positiv skalärprodukt och därför utsignalen 0. Sida 7