Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

Relevanta dokument
Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

Vad behövs för att skapa en tillståndsrymd?

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.

Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.

Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.

de var svåra att implementera och var väldigt ineffektiva.

I en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd.

I en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd.

ARTIFICIELLA NEURALA NÄT. MARCO KUHLMANN Institutionen för datavetenskap

HKGBB0, Artificiell intelligens

Antag att följande träd genereras i ett spelförande program om vi applicerar evalueringsfunktionen

729G43 Artificiell intelligens / Maskininlärning 3. Marco Kuhlmann

Probabilistisk logik 1

A B C D E F A B C D E F (3) Svar: Tabellen ger grafen:

Mycket kortfattade lösningsförslag till tenta i AI 6 nov 2003

Linköpings universitet

Grundläggande logik och modellteori (5DV102)

729G43 Artificiell intelligens Planering

729G43 Artificiell intelligens Probabilistisk logik. Arne Jönsson HCS/IDA

Artificiell Intelligens Övningsuppgifter

729G43 Artificiell intelligens (2016) Maskininlärning 3. Marco Kuhlmann Institutionen för datavetenskap

Probabilistisk logik 2

Tänk på följande saker när du skriver tentan:

ANN fk. Örjan Ekeberg. Framåtkopplade Nät. återkopplade nät. Olika arkitekturer. BackPropagation through Time. Kalman-Filter tekniker

Anna: Bertil: Cecilia:

Regression med Genetiska Algoritmer

Sub-symbolisk kognition & Konnektionism. Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén,

Artificial Intelligence

Lektion 8: Konstruktion av semantiska tablåer för PTL-formler

Artificiella Neuronnät

Enlagersnät Flerlagersnät Generalisering. Artificiella Neuronnät

Neurala nätverk och språkigenkänning. Henrik Linnarsson. Linköping University

TANA17 Matematiska beräkningar med Matlab

DD1361 Programmeringsparadigm HT15

729G43 Artificiell intelligens Introduktion. Arne Jönsson HCS/IDA

TSFS06: Bayesianska nätverk i GeNIe - kort handledning

Artificiell intelligens

SF1901 Sannolikhetsteori och statistik I

Tentamenskod: Inga hjälpmedel är tillåtna

DD1361 Programmeringsparadigm HT17

729G43 Artificiell intelligens (2016) Maskininlärning 2. Marco Kuhlmann Institutionen för datavetenskap

TMS136. Föreläsning 2

Lösningsförslag till tentamen i SF1861 Optimeringslära för T. Torsdag 28 maj 2010 kl

Vektorer, matriser, nätverk - några elementa

Kognitiv Modellering

Neurovetenskap 30/08/2013. Kognitiv neurovetenskap. Lober. Olika färg, olika vävnadsstruktur. Hjärnbarken

Avd. Matematisk statistik

DD1361 Programmeringsparadigm HT16

2D Potentialen i en nervcell definieras normalt som skillnaden i spänning mellan dess axon och dendrit.

GRIDWORLD OCH MDP PROJEKTRAPPORT 729G43 MICHAEL JONASSON

Tentamentsskrivning: Matematisk Statistik med Metoder MVE490 1

729G43 Artificiell intelligens. Introduktion. Introduktion. Kursöversikt. Kursens organisation. Arne Jönsson HCS/IDA

med hjälp av Deep Reinforcement Learning

Att programmera en Beethoven

SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende

Grundläggande logik och modellteori

Tentamen i Digitalteknik, EIT020

Tentamen i Statistik, STA A10 och STA A13 (9 poäng) Måndag 14 maj 2007, Kl

Rättningstiden är i normalfall 15 arbetsdagar, till detta tillkommer upp till 5 arbetsdagar för administration, annars är det detta datum som gäller:

Programkonstruktion och. Datastrukturer

PROBLEMLÖSNING. ! GPS! Mål medel analys! Problemlösning i programmering. Lars-Erik Janlert 2007

FÖRELÄSNING 3:

TMS136. Föreläsning 2

Kombinatorik och sannolikhetslära

Kurs: HF1012, Matematisk statistik Lärare: Armin Halilovic Datum: Tisdag 12 april 2016 Skrivtid: 8:15-10:00

Kurs: HF1012, Matematisk statistik Lärare: Armin Halilovic Datum: Tisdag 12 april 2016 Skrivtid: 8:15-10:00

TENTAMEN I STATISTIKENS GRUNDER 1

1 Minkostnadsflödesproblem i nätverk

Monte Carlo-metoder. Bild från Monte Carlo

Tentamen. 2D4135 vt 2004 Objektorienterad programmering, design och analys med Java Torsdagen den 3 juni 2004 kl

Statistikens grunder HT, dagtid Statistiska institutionen

TAOP33/TEN 2 KOMBINATORISK OPTIMERING GRUNDKURS

Tentamen i EDA320 Digitalteknik för D2

Trädstrukturer och grafer

Avd. Matematisk statistik

729G43 Artificiell intelligens Maskininlärning. Arne Jönsson HCS/IDA

Artificial Intelligence

Förstärkande inlärning med fokus på Q-learning

Grundläggande matematisk statistik

Självlärande Othello-spelare

Kolmogorovs Axiomsystem Kolmogorovs Axiomsystem Varje händelse A tilldelas ett tal : slh att A inträar Sannolikheten måste uppfylla vissa krav: Kolmog

Adaptiva algoritmer och intelligenta maskiner, 2005 Hemtentamen

0 om x < 0, F X (x) = c x. 1 om x 2.

Centrala begrepp i prolog och logikprogrammering. Annamaris lista

1(15) Bilaga 1. Av Projekt Neuronnätverk, ABB Industrigymnasium, Västerås Vt-05

Matematisk statistik TMS064/TMS063 Tentamen

Extrauppgifter i matematisk statistik

Tentamentsskrivning: Matematisk Statistik med Metoder MVE490 1

TAOP33/TEN 2 KOMBINATORISK OPTIMERING GRUNDKURS för D och C

729G43 Artificiell intelligens / Maskininlärning 2. Marco Kuhlmann

Föreläsning 6, Repetition Sannolikhetslära

Lektion 1: Fördelningar och deskriptiv analys

SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016

Föreläsning 6: Nätverksoptimering

TAIU07 Matematiska beräkningar med Matlab

x 23 + y 160 = 1, 2 23 = ,

SF1915 Sannolikhetsteori och statistik 6 hp. χ 2 -test

Tentamen i Sannolikhetslära och statistik Kurskod S0008M

Transkript:

OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet felaktiga är positiv. otalt kan man ha 25 poäng. För godkänt krävs 13 poäng och för VG 19 poäng. Fråga 1 (1 poäng) I vilken typ av omgivning verkar en gräsklipparrobot i en vanlig trädgård? Observerbar, deterministisk och statisk. Partiellt observerbar, stokastisk och kontinuerlig. Observerbar, stokastisk och episodisk. Partiellt observerbar, deterministisk och diskret. Fråga 2 (1 poäng) En nyttobaserad agent... kan inte planera en sekvens av handlingar. har en intern kunskapsrepresentation av omgivningen. hanterar osäkerhet. behöver inte göra observationer av omgivningen. Fråga 3 (1 poäng) För att definiera ett sökproblem krävs... ett måltillstånd. ett sökträd med alla möjliga tillstånd. alla handlingar som överför ett befintligt tillstånd till ett nytt tillstånd en sekvens av handlingar från starttillstånd till måltillstånd. Fråga 4 (1 poäng) Vilka av dessa sökstrategier är optimala? Bredden först. Greedy search. Djupet först. Fråga 5 (1 poäng) Unifiering... A* med tillåten heursitik. av P(x, y) och z(1, 2) ger substitutionen {z/p, x/1, y/2}. av R(x, 1) och R(y, x) ger substitutionen {y/1, x/1}. av R(a, b, c) och S(b, c, 1) ger substitutionen {R/S, a/1, b/1, c/1} av S(h(x), y) och S(x, 1) ger substitutionen {x/h(x), y/1}. Sida 1

Fråga 6 (1 poäng) Antag att man kör α β-cutoff på trädet i figur 1. Vad gäller då? A B C 5 4 3 6 5 4 8 2 4 5 8 5 2 1 9 0 7 0 3 4 Fråga 7 (1 poäng) Frame-axiom... Figur 1: räd genererat av en min-max-sökning Agenten väljer att gå ner i första vänstra grenen, A, eftersom bästa noden är den längst till vänster, 5. I den mittersta grenen, B, kommer bara de två noderna längst till vänster, 2 och 4, att genereras. Alla noderna i den vänstra grenen, A, kommer att genereras. I den högra grenen, C, genereras bara noderna i det vänstra delträdet (9, 0 och 7). används för att avgöra vilken handling som är bäst att utföra härnäst i ett visst tillstånd. kan se ut såhär: a, x, s Holding(x, s) (a Grab) (P resent(x, s) P ortable(x)) Holding(x, Result(a, s). kan se ut så här: a, x, sholding(x, Result(a, s)) [((a = Grab) P resent(x, s) P ortable(x)) (Holding(x, s) (a Release)). säkerställer att alla tillstånd som inte påverkas av en handling uppdateras. Fråga 8 (1 poäng) Vilka av följande är korrekta relationer i Allens temporala logik? i, j Meet(i, j) ime(end(i)) = ime(start(j)) i, j After(j, i) ime(end(j) < ime(start(i)) i, j Before(j, i) ime(end(i) < ime(start(j)) i, j During(i, j) ime(start(j)) ime(start(i)) ime(end(j)) ime(end(i)) Sida 2

Fråga 9 (1 poäng) Planering till skillnad från sökning... kan arbeta med flera delplaner samtidigt. låter agenten resonera om tillstånd och handlingar. kan testa om målet är uppfyllt. utgår från Closed World assumption. Fråga 10 (1 poäng) Partialordningsplanerare... ordnar operatorer först då en konflikt uppstår. klarar inte handlingar som negerar en annan handlings preconditions. kan skapa planer med olika handlingssekvenser. bygger hierarkiska planer. Fråga 11 (1 poäng) En simultanfördelning på tre stycken stokastiska variabler... har 8 möjliga utfall utgår från att variablerna är ömsesidigt uteslutande är en likformig fördelning kan representeras genom ett bayesianskt nätverk Fråga 12 (1 poäng) För det bayesianska nätverket i figur 2 gäller följande: P(a) 0,9 P(b) 0,6 A B A F F 0,1 F 0,2 F 0,1 B P(c A,B) 0,9 C E D C F F 0,1 F 0,5 F 0,1 B P(d B) 0,3 F 0,6 D P(e C,D) 0,2 Figur 2: Bayesianskt nätverk P (a b c) = 0, 9 0, 6 0, 9. Antal värden i simultanfördelningen är 32. P (e a) = P (e C) P (C a, B) P ( e c d) är 0,5. Sida 3

Fråga 13 (1 poäng) Vilka stora motgångar hämmade utvecklingen av neurala nät i början? Perceptroner kunde bara hantera linjärt separerbara problem. Ej deriverbara stegfunktioner gav oberäkneligt beteende. Det fanns inga algoritmer för inlärning av nätverk med flera lager noder. Perceptroner och artificiella neurala nätverk överinlärde exemplen. Fråga 14 (1 poäng) Ett neuronalt nät med ett enda dolda lager bestående av sigmoid-neuroner ska tränas med backpropagation och mean squared error. Vilka påståenden är sanna? Vikterna uppdateras som mest när in-signalerna till det dolda lagret är nära noll och felet är stort. Vikterna uppdateras som mest när ut-signalerna från (aktiveringen av) det dolda lagret är nära noll och felet är stort. När in-signalerna till det dolda lagret är starkt negativa uppdateras vikterna nästan inte alls. Efter ett ändligt antal steg hittar träningsproceduren de globalt optimala vikterna till och från det dolda lagret. Fråga 15 (1 poäng) Genetisk programmering... ger alltid optimala lösningar. innebär att varje generation alltid är bättre än den föregående föräldragenerationen. är exempel på övervakad inlärning. är bereoende av en bra utvärderingsfunktion för att slutresultatet ska bli bra. Sida 4

Fråga 16 (4 poäng) Gör rimliga antaganden och översätt följande meningar till predikatlogiska uttryck: Kogvetare har hjärna Man säger inte dumma saker om man tänker efter före Har man hjärna tänker man efter före Jimmie säger dumma saker och visa med resolution att Alla är inte kogvetare Sida 5

Fråga 17 (3 poäng) I en mojängfabrik tillverkas 40% av mojängerna vid maskin 1 och de övriga vid maskin 2. Maskinerna tillverkar en viss andel defekta mojänger; denna andel är 3% för maskin 1 och 6% för maskin 2. 1. Översätt uppgifterna till sannolikheter. Använd händelserna M 1 mojängen tillverkas vid maskin 1, M 2 mojängen tillverkas vid maskin 2 och D mojängen är defekt. 2. Hur stor är sannolikheten att en slumpmässigt vald mojäng är defekt? Ange en formel; du behöver inte räkna ut resultatet. 3. En kund påträffar en defekt mojäng. Hur stor är sannolikheten att den har tillverkats vid maskin 2? Ange en formel; du behöver inte räkna ut resultatet. Sida 6

Fråga 18 (3 poäng) Vid träningen av en perceptron (utsignal 0 eller 1) uppdateras viktvektorn w genom att addera vektorn (y y)x där x är ett träningsexempel, y är perceptronens utsignal och y är guldstandard-utsignalen. Antag att perceptronen har bias 0. w Figur 3: Perceptron Figur 3 visar hur en viktvektor w kan se ut. Rita in två vektorer x 1 och x 0 så att perceptronens utsignal för dessa vektorer blir 1 respektive 0. Rita sedan in de respektive uppdateringsvektorerna. Motivera dina svar. Sida 7