ARTIFICIELLA NEURALA NÄT. MARCO KUHLMANN Institutionen för datavetenskap
|
|
- Torbjörn Andreasson
- för 7 år sedan
- Visningar:
Transkript
1 ARTIFICIELLA NEURALA NÄT MARCO KUHLMANN Institutionen för datavetenskap
2 Example Alt Bar Fri Hun Pat Price Rain Res Type Est WillWait 1 Yes No No Yes Some $$$ No Yes French 0 10 Yes 2 Yes No No Yes Full $ No No Thai No 3 No Yes No No Some $ No No Burger 0 10 Yes 4 Yes No Yes Yes Full $ No No Thai Yes 5 Yes No Yes No Full $$$ No Yes French >60 No 6 No Yes No Yes Some $$ Yes Yes Italian 0 10 Yes 7 No Yes No No None $ Yes No Burger 0 10 No 8 No No No Yes Some $$ Yes Yes Thai 0 10 Yes 9 No Yes Yes No Full $ Yes No Burger >60 No 10 Yes Yes Yes Yes Full $$$ No Yes Italian No 11 No No No No None $ No No Thai 0 10 No 12 Yes Yes Yes Yes Full $ No No Burger Yes
3 Klassificering Klassificering är en övervakad maskininlärningsuppgift som går ut på att tilldela ett indatum en klass. Exempel: Givet en situation, vilken aktion ska agenten utföra? Datamängden består av par (datum, klass). Exempel: (restaurangsituation, värd att vänta?) Under träningen ser systemet både datumet och dess klass. I testfasen ser systemet endast datumet och ska predicera klassen.
4 MNIST MNIST-databasen består av handskrivna siffror (bilder) tillsammans med ett facit (rätt siffra) för varje bild.!! Hur bygger man ett system som tar in en bild och identifierar vilken siffra bilden föreställler?
5 Översikt Perceptroner Perceptroninlärning Sigmoid-neuroner Inlärning i neurala nät Backpropagation
6 Perceptroner
7 Perceptroner Perceptronen är en av de enklaste artificiella neuroner. Modellen utvecklades kring 1960 av den amerikanska psykologen och datalogen Frank Rosenblatt. Perceptronen är inspirerad av neurobiologiska arbeten, men är själv ingen neurobiologisk utan en datalogisk modell.
8 En neuron dendriter synapser med andra neuroner axon cellkropp
9 Kommunikation mellan neuroner Neuroner kan kommunicera via synapser, kopplingar mellan en sändande och en mottagande neuron. En neuron mottar signaler via dess dendriter. De mottagna signalerna ackumuleras i cellkroppen. Om den ackumulerade signalen är tillräckligt stor alstras en nervimpuls. Nervimpulsen alstrar signaler till andra neuroner.
10 Perceptron-modellen in-signal x 1 w 1 viktad koppling y ut-signal, aktivering x 2 w 2 1. Beräkna invärdet som den viktade summan av alla in-signaler. 2. Beräkna ut-signalen med en aktiveringsfunktion.
11 Stegfunktionen med tröskelvärde y 1 tröskelvärde 0 in
12 Exempel in-signal x 1 w 1 viktad koppling y ut-signal, aktivering x 2 w 2 in = w 1 x 1 + w 2 x 2 y = f(in) = f(w 1 x 1 + w 2 x 2 )
13 In-signaler och vikter som vektorer Vi modellerar in-signaler och vikter som vektorer. Med detta perspektiv är invärdet identisk med skalärprodukten av viktvektorn w och in-signalvektorn x: in = =
14 Bias istället för tröskelvärde med tröskelvärde y = 0 om 1 om w x w x > tröskelvärdet tröskelvärdet med bias b y = 0 om 1 om w x + b 0 w x + b > 0
15 Perceptron med bias 1 x 1 w 1 b bias y x 2 w 2 in = w 1 x 1 + w 2 x 2 + b y = f(in) = f(w 1 x 1 + w 2 x 2 + b)
16 Stegfunktionen y 1 0 in
17 Exempel: NAND Perceptron med w 1 = w 2 = 2 och b = 3 x1 x2 w1 x1 + w2 x2 + b y
18 Exempel: NAND Perceptron med w 1 = w 2 = 2 och b = 3 x1 x2 w1 x1 + w2 x2 + b y
19 Perceptroninlärning
20 Perceptroninlärning Perceptroner kan lära sig linjärt separerbara problem. Inlärningen går ut på att lära sig vikterna (= viktvektorn).
21 Förenkling För att beskriva inlärningsalgoritmerna bortser vi från bias; den kan modelleras som en extra insignal som alltid är på.
22 Inlärningsalgoritm Börja med att sätta w 0 (nollvektorn). För varje par (x, y*) i träningsmängden: 1. Beräkna utsignalen: y f(w x) 2. Uppdatera vikterna: w w + (y* y)x
23 Analys av inlärningsalgoritmen Fall 1: y* = y w w + 0 Vikterna förblir oförändrade. Fall 2: y* = 1, y = 0 Fall 3: y* = 0, y = 1 w w + x w w x Vikterna flyttas bort från träningsexemplet, i riktning mot guldstandarden.
24 Skalärprodukt w = (+1, +1) x = (+1, +1) w x = +2
25 Skalärprodukt w = (+1, +1) x = ( 1, 1) w x = 2
26 Skalärprodukt x = ( 1, +1) w = (+1, +1) w x = ±0
27 Skalärprodukt w w x > 0 w x < 0 w x ± 0
28 Korrekt klassificerat negativt exempel y y 0 0 w x
29 Korrekt klassificerat positivt exempel y y w 1 1 x
30 Felaktigt klassificerat negativt exempel y y 0 0 x w 1 1 x
31 Felaktigt klassificerat negativt exempel y y 0 0 w x
32 Felaktigt klassificerat positivt exempel y y 0 0 w x 1 1 x
33 Felaktigt klassificerat positivt exempel y y w 1 1 x
34 Analys av inlärningsalgoritmen Fall 1: y* = y w w + 0 Vikterna förblir oförändrade. Fall 2: y* = 1, y = 0 Fall 3: y* = 0, y = 1 w w + x w w x Vikterna flyttas bort från träningsexemplet, i riktning mot guldstandarden.
35 Generalisering till flera klasser x 1 x 2 x 3 x 4 1. en perceptron för varje klass 2. ingen stegfunktion utdata är en vektor 3. predicerad klass = perceptron med högst aktivering
36 Generalisering till flera klasser x 1 a x 2 x 3 x 4 b c score(a) = w a x score(b) = w b x score(c) = w c x
37 Generalisering till flera klasser x 1 a x 2 x 3 x 4 b c score(a) = w a x score(b) = w b x score(c) = w c x
38 Generalisering till flera klasser x 1 a x 2 x 3 x 4 b c score(a) = w a x score(b) = w b x score(c) = w c x
39 Generalisering till flera klasser x 1 a x 2 x 3 x 4 b c score(a) = w a x score(b) = w b x score(c) = w c x
40 Generalisering till flera klasser x 1 a x 2 x 3 x 4 b c score(a) = w a x score(b) = w b x score(c) = w c x predicerad klass = argmax x score(x)
41 Inlärningsalgoritm Börja med att sätta w 0 (nollvektorn). För varje par (x, y*) i träningsmängden: 1. Beräkna utsignalen: y w x 2. Uppdatera vikterna: w w + (y* y)
42 Sigmoid-neuroner
43 Sigmoid-neuroner Sigmoid-neuroner har samma uppbyggnad som perceptroner, men en annan aktiveringsfunktion. De kan inte bara signalera 0 eller 1 som perceptroner, men godtyckliga reella tal i denna intervall.
44 Sigmoidfunktionen y 1 (in) = in 0 in
45 Jämförelse av aktiveringsfunktionerna y y in 0 in stegfunktionen sigmoidfunktionen
46 Vad kan ett neuralt nät lära sig? perceptroner sigmoid-neuroner linjärt separerbart inte linjärt separerbart
47 Flerlagersnätverk indatalagret (input layer) utdatalagret (output layer) dolda lagret (hidden layer)
48 Ett enkelt flerlagersnätverk w 12 w y 1 in 2 y 2 in 3 y 3
49 Ett enkelt flerlagersnätverk w 12 w y 1 in 2 y 2 in 3 y 3 y 1 = x in 2 = w 12 y 1 y 2 = σ(in 2 ) in 3 = w 23 y 2 y 3 = σ(in 3 )
50 Inlärning i neurala nät
51 Grundidé Vid övervakad inlärning består träningsdatan av par (x, y*) där x är ett indatum och y* är målvärdet. Idé för en inlärningsalgoritm: Prova att ändra vikterna och testa om nätets utsignal kommer närmare målvärdet. Sigmoid-funktionens jämna form gör att små ändringar i vikterna resulterar i endast en liten ändring i utsignalen.
52 Att mäta hur mycket fel nätet gör Vi behöver kunna mäta hur bra vårt nät har lärt sig. För att göra detta mäter vi avvikelsen mellan målvärdet och nätets utsignal, dvs. hur mycket fel nätet gör. Ett konkret mått är mean squared error som kvantifiera felet för utsignalen y relativt till målvärdet y som () = 1 2 2
53 Mean squared error E y* y
54 Gradient descent: Intuition Vi vill ändra nätets vikter på ett sådant sätt att felet minimeras. Utan vidare information kan vi bara ändra vikterna på måfå och hoppas att felet blir mindre med tiden. Men om felfunktionen är snäll (deriverbar) så kan vi räkna ut dess gradient och gå i den riktningen.
55 Gradient descent: Intuition w 23 felets dal w 12
56 Gradient descent: Intuition w 23 felets dal gradient w 12
57 Gradient descent, matematiskt Om vi förflyttar oss en liten bit Δw 12 i w 12 -riktningen och en liten bit Δw 23 i w 23 -riktningen, då ändras felet E som så: partiell derivata av E med avseende på w12
58 Gradient descent, matematiskt Gradient descent väljer Δw 12 och Δw 12 så att ΔE blir negativt, dvs. felet blir mindre över tiden:!! 12 = = 23 Värdet η heter inlärningsparametern. Genom att höja eller sänka den kan man ta inflytande över hur stora steg gradient descent tar.
59 Hur man räknar ut gradienten w 23 E w 12
60 Hur man räknar ut gradienten w 23 E/ w 23 E/ w 12 w 12
61 Gradient descent Börja med en godtycklig viktvektor w. Upprepa följande steg tills felet blir tillräckligt litet: Givet den aktuella viktvektorn w, räkna ut E. Sätt den nya viktvektorn till w η E.
62 Stochastic gradient descent Vid gradient descent måste man gå över hela träningsdatan för att beräkna uppdateringen till vikterna. Vid stochastic gradient descent tar man ett datum i taget. En kompromiss är att dela upp data i små buntar (minibatches) och uppdatera efter att ha sett all data i en bunt.
63 Backpropagation
64 Backpropagation-algoritmen Backpropagation-algoritmen är en effektiv algoritm för att räkna ut gradienten E, vektorn med alla partiella derivator E/ w i.
65 Ett enkelt flerlagersnätverk w 12 w y 1 in 2 y 2 in 3 y 3 y 1 = x in 2 = w 12 y 1 y 2 = σ(in 2 ) in 3 = w 23 y 2 y 3 = σ(in 3 )
66 Ett enkelt flerlagersnätverk w 12 w 23 y 1 σ σ E in 2 y 2 in 3 y 3 e x y Vi vill beräkna E/ w 12 och E/ w 23.
67 Kedjeregeln till hjälp Kedjeregeln för derivator ger oss följande ekvationer: = 3 in in 3 23 = 3 in 3 2 in in 3 2 in 2 12 Viktigt: Alla funktioner i nätet måste vara deriverbara! 3 = 3 3 in 3 = (in 3 )(1 (in 3 )) in 3 23 = 2 in 3 2 = 23
68 Backpropagation-algoritmen Forward pass: räkna ut alla invärden (in 2, in 3 ) och aktiveringar (y 2, y 3 ) Backward pass: räkna ut alla partiella derivata (använder forward-värdena)
69 Backpropagation-algoritmen Beräkningarna av de partiella derivatorna kan återanvända partiella derivator som räknats ut tidigare i backward pass. Man kan därför räkna ut gradienterna lager för lager, med utlagret som början. Detta är effektivt även för djupa nät. Beräkningstiden är linjär i antalet lager.
70 Översikt Perceptroner Perceptroninlärning Sigmoid-neuroner Inlärning i neurala nät Backpropagation
729G43 Artificiell intelligens / Maskininlärning 2. Marco Kuhlmann
729G43 Artificiell intelligens / 2015 Maskininlärning 2 Marco Kuhlmann Förra gången: Linjär regression Gradientsökning Vandra ner i felets dal. Steg 0: Börja med ett godtyckligt värde för θ. Steg 1: Räkna
Läs mer729G43 Artificiell intelligens / Maskininlärning 3. Marco Kuhlmann
729G43 Artificiell intelligens / 2015 Maskininlärning 3 Marco Kuhlmann Förra gången: Perceptroninlärning Beslutsregel predicerat y-värde Exempel: AND Välj parametrar θ 0, θ 1, θ 2 sådana att perceptronen
Läs mer729G43 Artificiell intelligens (2016) Maskininlärning 2. Marco Kuhlmann Institutionen för datavetenskap
729G43 Artificiell intelligens (2016) Maskininlärning 2 Marco Kuhlmann Institutionen för datavetenskap Förra gången: Gradientsökning tangentens lutning i punkt θ steglängdsfaktor Översikt Introduktion
Läs mer729G43 Artificiell intelligens (2016) Maskininlärning 3. Marco Kuhlmann Institutionen för datavetenskap
729G43 Artificiell intelligens (2016) Maskininlärning 3 Marco Kuhlmann Institutionen för datavetenskap Modell med vektornotation parametervektor särdragsvektor Perceptron kombinerar linjär regression med
Läs merLinköpings universitet
Översikt Kognitionsvetenskaplig introduktionskurs Föreläsning 4 Informationsbearbetningsmodeller Vad är kognitionsvetenskap? Kort bakgrund/historik Representation och bearbetning av information Vetenskapliga
Läs merFråga 5 (1 poäng) För att definiera ett sökproblem krävs...
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs merEnlagersnät Flerlagersnät Generalisering. Artificiella Neuronnät
Artificiella Neuronnät 1 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund 2 Begränsningar Träning av enlagersnät 3 Möjliga avbildningar Backprop algoritmen Praktiska problem
Läs merFråga 5 (1 poäng) För att definiera ett sökproblem krävs...
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs mer729G43 Artificiell intelligens / Maskininlärning 1. Marco Kuhlmann
729G43 Artificiell intelligens / 2015 Maskininlärning 1 Marco Kuhlmann Introduktion Maskininlärning Tack vare maskininlärning kan AI-system idag bl.a. producera och förstå naturligt språk kontrollera maskiner,
Läs merArtificiella Neuronnät
Artificiella Neuronnät 2 3 4 2 (ANN) Inspirerade av hur nervsystemet fungerar Parallell bearbetning Vi begränsar oss här till en typ av ANN: Framåtkopplade nät med lagerstruktur 3 4 Fungerar i princip
Läs mer729G43 Artificiell intelligens (2016) Maskininlärning 1. Marco Kuhlmann Institutionen för datavetenskap
729G43 Artificiell intelligens (2016) Maskininlärning 1 Marco Kuhlmann Institutionen för datavetenskap Introduktion Maskininlärning Tack vare maskininlärning kan AI-system idag bl.a. producera och förstå
Läs merNeurala nätverk och språkigenkänning. Henrik Linnarsson. Linköping University
Neurala nätverk och språk Henli807!1 Neurala nätverk och språkigenkänning Henrik Linnarsson Linköping University Neurala nätverk och språk Henli807!2 RNN, LSTM och språkigenkänning Inledning Idag är språkigenkänning
Läs mer729G43 Artificiell intelligens Maskininlärning. Arne Jönsson HCS/IDA
729G43 Artificiell intelligens Maskininlärning Arne Jönsson HCS/IDA Maskininlärning Introduktion Beslutsträdsinlärning Hypotesinlärning Linjär regression Vektorer Perceptroner Artificiella Neurala Nät
Läs merVad behövs för att skapa en tillståndsrymd?
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs merNeuronnätsbaserad agent
2001-10-05 Torbjörn Bäckmark Sammanfattning Jag har undersökt möjligheten att utveckla en agent som använder neurala nätverk för övervakning av börssystem. Jag har tittat på sambandet mellan köp- och säljvolymer
Läs mer2D Potentialen i en nervcell definieras normalt som skillnaden i spänning mellan dess axon och dendrit.
2D1432 Artificiella Neuronnät och andra lärande system Lösningsförslag till Tentamen 2003-03-06 Inga hjälpmedel. Uppgift 1 Vilka av följande påståenden är sanna? Korrigera de som är fel. 1. Potentialen
Läs merAtt programmera en Beethoven
Linköpings universitet Att programmera en Beethoven Fördjupning inom Neurala nätverk och LSTM 2018-01-03 Innehåll 1 Inledning- Musik och artificiell intelligens... 2 1.1 Historia... 2 1.2 Bakgrund AIVA...
Läs merSub-symbolisk kognition & Konnektionism. Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén,
Sub-symbolisk kognition & Konnektionism Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén, mats.andren@liu.se 1 Konnektionism Neutrala nät baseras på en (förenklad) modell av hur hjärnan fungerar.
Läs merANN fk. Örjan Ekeberg. Framåtkopplade Nät. återkopplade nät. Olika arkitekturer. BackPropagation through Time. Kalman-Filter tekniker
Hantering av Tid Återkopplade Återkopplade Återkopplade t Återkopplade Återkopplade Temporala signaler är svåra Gör om temporal signal till spatial t 1 t 2 t 3 t 4 Återkopplade t Enklaste formen Neuronal
Läs merArtificiell Intelligens Lektion 7
Laboration 6 Artificiell Intelligens Lektion 7 Neurala nätverk (Lab 6) Probabilistiska resonemang Vad? Mönsterigenkänning Lära ett neuralt nätverk att känna igen siffror Varför? Få ökad förståelse för
Läs merKognitiv Modellering
Kognitiv Modellering Mårten Szymanowski 20 januari 2004 Innehåll 1 Kognitiv Modellering 2 1.1 Varför?................................ 2 2 Grundläggande psykologiska fenomen 3 2.1 Stimulusgeneralisering........................
Läs merSELF- ORGANIZING MAPS
LINKÖPINGS UNIVERSITET Kognitionsvetenskapliga Programmet Examinator: Arne Jönsson SELF- ORGANIZING MAPS - Ett fördjupningsarbete inom Artificiell Intelligens Fack 52 katwa676@student.liu.se Sammanfattning
Läs merAsymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs merMVE035. Sammanfattning LV 1. Blom, Max. Engström, Anne. Cvetkovic Destouni, Sofia. Kåreklint, Jakob. Hee, Lilian.
MVE035 Sammanfattning LV 1 Blom, Max Engström, Anne Cvetkovic Destouni, Sofia Kåreklint, Jakob Hee, Lilian Hansson, Johannes 11 mars 2017 1 Partiella derivator Nedan presenteras en definition av partiell
Läs merInlärning utan övervakning
Översikt Biologiska mekanismer bakom inlärning Inlärning utan övervakning Inlärning utan övervakning Hebbiansk modellinlärning Självorganisering Arbetsfördelning mellan noder i ett lager som utvecklas
Läs merOptimering av hyperparametrar till artificiella neurala nätverk med genetiska algoritmer.
Optimering av hyperparametrar till artificiella neurala nätverk med genetiska algoritmer. Simon Stensson Juni 6, 2016 Abstract This master thesis explores the feasibility of using genetic algorithms in
Läs mer1(15) Bilaga 1. Av Projekt Neuronnätverk, ABB Industrigymnasium, Västerås Vt-05
1(15) Bilaga 1 2(15) Neuronnätslaboration Räknare Denna laboration riktar sig till gymnasieelever som går en teknisk utbildning och som helst har läst digitalteknik samt någon form av styrteknik eller
Läs merde var svåra att implementera och var väldigt ineffektiva.
OBS! För flervalsfrågorna gäller att flera alternativ eller inget alternativ kan vara korrekt. På flervalsfrågorna kan man bara ha rätt eller fel, dvs frågan måste vara helt korrekt besvarad. Totalt kan
Läs merVektorer, matriser, nätverk - några elementa
Vektorer, matriser, nätverk - några elementa Innehåll: Vektorer Radvektorer och kolumnvektorer Operationer med vektorer Input- och outputvektorer i neurala nätverk Utvikning om kompetitiva nät Matriser
Läs merPredicted Future - att förutsäga aktiekurser med artificiella neuronnät
Predicted Future - att förutsäga aktiekurser med artificiella neuronnät Kandidatarbete inom Data- och informationsteknik LINUS FÄRNSTRAND OSCAR SÖDERLUND NIKLAS LÖNNERFORS EMIL BERNERSKOG TOBIAS AXELL
Läs merAntag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.
OS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs merI en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd.
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs merNeurala nätverk vid bildsökning
Neurala nätverk vid bildsökning Carl-Johan Rosén Sammanfattning I denna rapport diskuteras situationen för neurala nätverk inom bildsökningsområdet. Först beskrivs några grundläggande metoder för bildsökning
Läs merPerceptron som ordklasstaggare: ett fördjupningsarbete i 729G43 -Artificiell Intelligens
Perceptron som ordklasstaggare: ett fördjupningsarbete i 729G43 -Artificiell Intelligens Niklas Blomstrand Linköpings Universitet Inledning Att veta vilken ordklass ett ord tillhör är en viktig del i bearbetning
Läs merEXAMENSARBETE. En jämförande studie kring inlärning hos levande organismer och artificiell intelligens.
EXAMENSARBETE 2008:103 CIV En jämförande studie kring inlärning hos levande organismer och artificiell intelligens. Dennis Pihl Marcus Skog Luleå tekniska universitet Civilingenjörsprogrammet Ergonomisk
Läs merTDDD02 Språkteknologi för informationssökning (2016) Ordklasstaggning. Marco Kuhlmann Institutionen för datavetenskap
TDDD02 Språkteknologi för informationssökning (2016) Ordklasstaggning Marco Kuhlmann Institutionen för datavetenskap Ordklasstaggning Tagga varje ord i en sekvens av ord (oftast en mening) med dess korrekta
Läs merNeuronen 11/22/2012. Översikt. Artificiell nod. Kommunikation. Neuronen som detektor. Syftet med återstående föreläsningarna
Översikt Neuronen Biologisk neuron Artificiell nod/enhet Organisering i nät Interaktiva nätverk med inhibering Övergripande beräkningsprincip Parallel constraint satisfaction Syftet med återstående föreläsningarna
Läs merAntag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.
OS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs merModeller och simulering av språkprocessning
Modeller och simulering av språkprocessning Seriell processmodell + parallell processmodell Parallell modell med 2-vägsförbindelser Artificiellt neuralt nätverk (ANN) Interaktiv aktiverings-modell (IAM)
Läs merAsymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna kan man bara ha rätt eller fel, dvs frågan måste vara helt korrekt besvarad för att man skall
Läs merTavelpresentation. Gustav Hallberg Jesper Strömberg Anthon Odengard Nils Tornberg Fredrik Blomgren Alexander Engblom. Januari 2018
Tavelpresentation Gustav Hallberg Jesper Strömberg Anthon Odengard Nils Tornberg Fredrik Blomgren Alexander Engblom Januari 2018 1 Partiella derivator och deriverbarhet Differentierbarhet i en variabel
Läs merI en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd.
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs merSF1625 Envariabelanalys Lösningsförslag till tentamen
SF1625 Envariabelanalys Lösningsförslag till tentamen 216-6-1 1. Derivera nedanstående funktioner med avseende på x och ange för vilka x derivatan existerar. Endast svar krävs. A. f(x) = arctan 1 x B.
Läs mer1. Vi skriver upp ekvationssystemet i matrisform och gausseliminerar tills vi når trappstegsform,
Lösningsförslag, Matematik 2, E, I, M, Media och T, 2 2 8.. Vi skriver upp ekvationssystemet i matrisform och gausseliminerar tills vi når trappstegsform, 2 2 2 a 2 2 2 a 2 2-2 2 a 7 7 2 a 7 7-7 2 a +
Läs merProv 1 2. Ellips 12 Numeriska och algebraiska metoder lösningar till övningsproven uppdaterad 20.5.2010. a) i) Nollställen för polynomet 2x 2 3x 1:
Ellips Numeriska och algebraiska metoder lösningar till övningsproven uppdaterad.. Prov a) i) ii) iii) =,, = st 9,876 =,9876,99 = 9,9,66,66 =,7 =,7 Anmärkning. Nollor i början av decimaltal har ingen betydelse
Läs merKandidatuppsats. Jämförelse mellan neurala nätverk baserad AI och state-of-the-art AI i racing spel. Simon Karlsson, Christopher Jensen
Kandidatuppsats Jämförelse mellan neurala nätverk baserad AI och state-of-the-art AI i racing spel Simon Karlsson, Christopher Jensen Sammanfattning Denna rapport jämför prestandan mellan state-of-the-art
Läs merTentamen i Digitalteknik, EITF65
Elektro- och informationsteknik Tentamen i Digitalteknik, EITF65 3 januari 2018, kl. 14-19 Skriv anonymkod och identifierare, eller personnummer, på alla papper. Börja en ny uppgift på ett nytt papper.
Läs merMATEMATIK GU. LLMA60 MATEMATIK FÖR LÄRARE, GYMNASIET Analys, ht 2014. Block 5, översikt
MATEMATIK GU H4 LLMA6 MATEMATIK FÖR LÄRARE, GYMNASIET Analys, ht 24 I block 5 ingår följande avsnitt i Stewart: Kapitel 2, utom avsnitt 2.4 och 2.6; kapitel 4. Block 5, översikt Första delen av block 5
Läs merHKGBB0, Artificiell intelligens
HKGBB0, Artificiell intelligens Kortfattade lösningsförslag till tentan 3 november 2005 Arne Jönsson 1. Vad karaktäriserar dagens AI-forskning jämfört med den AI-forskning som bedrevs perioden 1960-1985.
Läs merFel- och störningsanalys
Fel- och störningsanalys Terminologi Antag att x är ett exakt värde och x är en approximation av x. Vi kallar då absoluta felet i x = x x, relativa felet i x = x x x. Ofta känner vi inte felet precis utan
Läs merTentamen i Analys B för KB/TB (TATA09/TEN1) kl 14 19
LINKÖPINGS UNIVERSITET Matematiska Institutionen Joakim Arnlind Tentamen i Analys B för KB/TB (TATA9/TEN) 23-8-22 kl 4 9 Inga hjälpmedel är tillåtna. Varje uppgift kan ge maximalt 3 poäng. Betygsgränser:
Läs mer729G43. Neurala faltningsnät MASKINSYN PÅ SVENSKA VENDELA FOLKER ÅKERLIND
729G43 Neurala faltningsnät MASKINSYN PÅ SVENSKA VENDELA FOLKER ÅKERLIND Innehållsförteckning Bakgrund... 2 Historia... 2 ImageNet... 2 Avgränsningar och språk... 3 Artificiella neurala nät... 3 Tillbakaspridning...
Läs merAnvändarverifiering från webbkamera Sami Alajarva
Institutionen för kommunikation och information Examensarbete i Datalogi 20p C-nivå Vårterminen 2007 Användarverifiering från webbkamera Sami Alajarva Användarverifiering från Webbkamera Examensrapport
Läs merInlärningens geometri Populärföreläsning SF1611, Introduktionskurs i matematik. Timo Koski
Populärföreläsning SF1611, Introduktionskurs i matematik. Timo Koski 22.09.2014 En grundläggande form av inlärning är att inhämta kunskap ur valda exempel. Med ett exempel avses information om ett föremål
Läs merNeuronnätsbaserad identifiering av processparametrar vid tillverkning av pappersmassa
Neuronnätsbaserad identifiering av processparametrar vid tillverkning av pappersmassa Examensarbete utfört vid Bildbehandling Tekniska Högskolan i Linköping THORD ANDERSSON MIKAEL KARLSSON Reg nr: LiTH-ISY-EX-1709
Läs merLaboration i Fourieranalys för F2, TM2, Kf2 2011/12 Signalanalys med snabb Fouriertransform (FFT)
Laboration i Fourieranalys för F2, TM2, Kf2 2011/12 Signalanalys med snabb Fouriertransform (FFT) Den här laborationen har två syften: dels att visa hur den snabba Fouriertransformen fungerar och vad man
Läs merFel- och störningsanalys
Fel- och störningsanalys 1 Terminologi Antag att x är ett exakt värde och x är en approximation av x. Vi kallar då absoluta felet i x = x x, relativa felet i x = x x x. Ofta känner vi inte felet precis
Läs merAntag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs mer14. Minsta kvadratmetoden
58 MINSTA KVADRATMETODEN. Minsta kvadratmetoden Eempel.. Det är inte så svårt att komma åt en trasig lampa på golvet för att byta den. Det är bara att gå fram till den. Hur är det om lampan hänger i taket?
Läs merKOKBOKEN 1. Håkan Strömberg KTH STH
KOKBOKEN 1 Håkan Strömberg KTH STH Hösten 2006 Håkan Strömberg 2 KTH Syd Innehåll Olikheter.................................... 6................................. 6 Uppgift 2.................................
Läs merMer om analytisk geometri
1 Onsdag v 5 Mer om analytisk geometri Determinanter: Då man har en -matris kan man till den associera ett tal determinanten av som också skrivs Determinanter kommer att repeteras och studeras närmare
Läs mer= 0 vara en given ekvation där F ( x,
DERIVERING AV IMPLICIT GIVNA FUNKTIONER Eempel. Vi betraktar som en funktion av och,,), given på implicit form genom + + 6 0. Bestäm partiella derivator och i punkten P,, ) a) med hjälp av implicit derivering
Läs merFöreläsning 7: Klassificering, minsta kvadratproblem, SVD, forts.
Föreläsning 7: Klassificering, minsta kvadratproblem, SVD, forts. Berkant Savas Tillämpad matematik i natur och teknikvetenskap, TNA5 Institutionen för teknik och naturvetenskap Linköpings universitet
Läs merProbabilistisk logik 2
729G43 Artificiell intelligens / 2016 Probabilistisk logik 2 Marco Kuhlmann Institutionen för datavetenskap Översikt Probabilistiska modeller Probabilistisk inferens 1: Betingad sannolikhet Probabilistisk
Läs merNEURAL MASKINÖVERSÄTTNING
Linköpings universitet 729G43 NEURAL MASKINÖVERSÄTTNING Moa Wallin Inledning Manuell översättning är en mycket tidskrävande process som kräver stor kunskap och bred kompetens och behovet av översättning
Läs merGoogles sidrankning - linjär algebra värt en förmögenhet
Googles sidrankning - linjär algebra värt en förmögenhet Outline 1 Sökmotorer 2 Grafteori Linjär algebra 3 Målet Utifrån användarens sökord lista de mest relevanta webbsidorna. Dessutom i en ordning som
Läs merSjälvlärande Othello-spelare
Självlärande Othello-spelare Kan en dator lära sig att spela Othello? KLAS BJÖRKQVIST och JOHAN WESTER Examensarbete Stockholm, Sverige 2010 Självlärande Othello-spelare Kan en dator lära sig att spela
Läs mer1. (Dugga 1.1) (a) Bestäm v (3v 2u) om v = . (1p) and u =
Kursen bedöms med betyg,, 5 eller underkänd, där 5 är högsta betyg. För godkänt betyg krävs minst poäng från uppgifterna -7. Var och en av dessa sju uppgifter kan ge maximalt poäng. För var och en av uppgifterna
Läs merÖVN 6 - DIFFERENTIALEKVATIONER OCH TRANSFORMMETODER - SF Nyckelord och innehåll. a n (x x 0 ) n.
ÖVN 6 - DIFFERENTIALEKVATIONER OCH TRANSFORMMETODER - SF683 HTTP://KARLJODIFFTRANS.WORDPRESS.COM KARL JONSSON Nyckelord och innehåll Potensserielösningar Analytiska funktioner Konvergensradie Rot- och
Läs merArtificiella neurala nätverk
Artificiella neurala nätverk En introduktion i anslutning till H. Malmgren: Inlärning och minne i neurala nätverk. Studentlitteratur 2007 Helge Malmgren, januari 2008 Vad är ett ANN, och vad har man dom
Läs merDIGITAL KOMMUNIKATION
EN KOR SAMMANFANING AV EORIN INOM DIGIAL KOMMUNIKAION Linjär kod En binär linjär kod kännetecknas av att summan av två kodord också är ett kodord. Ett specialfall är summan av ett kodord med sig själv
Läs merTräning av Artificiella Neuronnät med Motexempel Utvalda av Expertpanel (HS-IDA-EA )
Träning av Artificiella Neuronnät med Motexempel Utvalda av Expertpanel (HS-IDA-EA-01-109) Christer Larsson (a98chrla@student.his.se) Institutionen för datavetenskap Högskolan i Skövde, Box 408 S-54128
Läs mer6.1 Skalärprodukt, norm och ortogonalitet. TMV141 Linjär algebra E VT 2011 Vecka 6. Lärmål 6.1. Skalärprodukt. Viktiga begrepp
6.1 Skalärprodukt, norm och ortogonalitet TMV141 Linjär algebra E VT 2011 Vecka 6 Skalärprodukt Norm/längd Normerad vektor/enhetsvektor Avståndet mellan två vektorer Ortogonala vektorer Ortogonala komplementet
Läs merVektorgeometri för gymnasister
Vektorgeometri för gymnasister Per-Anders Svensson http://homepage.lnu.se/staff/psvmsi/vektorgeometri/gymnasiet.html Fakulteten för teknik Linnéuniversitetet Linjära avbildningar I Innehåll En liten tillbakablick:
Läs merTavelpresentation - Flervariabelanalys. 1E January 2017
Tavelpresentation - Flervariabelanalys 1E January 2017 1 Innehåll 1 Partiella derivator 3 2 Differentierbarhet 3 3 Kedjeregeln 4 3.1 Sats 2.3.4............................... 5 3.2 Allmänna kedjeregeln........................
Läs merRegression med Genetiska Algoritmer
Regression med Genetiska Algoritmer Projektarbete, Artificiell intelligens, 729G43 Jimmy Eriksson, jimer336 770529-5991 2014 Inledning Hur många kramar finns det i världen givet? Att kunna estimera givet
Läs merProgrammering eller Datalogiskt tänkande
Programmering eller Datalogiskt tänkande I förskolan handlar programmering om att få en begynnande förståelse vad det kan innebära. Barnen ges ett kreativt utrymme och har möjlighet att forma sin egen
Läs merStatistisk mönsterigenkänning
Statistisk mönsterigenkänning Jonas Sandström Artificiell intelligens II Linköpings universitet HT 2011 Innehållsförteckning 1. Innehållsförteckning sid 2 2. Inledning sid 3 3. Statistisk mönsterigenkänning
Läs merFöreläsningsplanering och lektionsplanering 764G01
Föreläsningsplanering och lektionsplanering 764G01 Uppgifter märkta med B är från boken, U från utdelat material och P från problemsamlingen. Uppgifter i kursiv stil rekommenderas för dem som vill fördjupa
Läs merP Q = ( 2, 1, 1), P R = (0, 1, 0) och QR = (2, 2, 1). arean = 1 2 P Q P R
1 Matematiska Institutionen KTH Lösningar till några övningar på geometri och vektorer inför lappskrivning nummer 2 på kursen Linjär algebra II, SF1604, vt11. 1. En triangel har hörn i punkterna (1, 2,
Läs merEtt Neuralt Nätverk Tittar På Kläder
[Skriv här] [Skriv här] [Skriv här] 2019 Ett Neuralt Nätverk Tittar På Kläder ETT KONVOLUTIONELLT NEURALT NÄTVERK KATEGORISERAR FASHION MNIST DATASETET WILHELM BRODIN, WILBR797 1.1 Inledning En människas
Läs mer1. Gradient och riktningsderivata till funktioner av två variabler (2.7) 2. Gradient och riktningsderivata till funktioner av tre variabler (2.
Lektion 5 Innehål 1. Gradient och riktningsderivata till funktioner av två variabler (2.7) 2. Gradient och riktningsderivata till funktioner av tre variabler (2.7) Innehål 1. Gradient och riktningsderivata
Läs mer(a) Bestäm för vilka värden på den reella konstanten c som ekvationssystemet är lösbart. (b) Lös ekvationssystemet för dessa värden på c.
UPPSALA UNIVERSITET Matematiska institutionen Jörgen Östensson Prov i matematik X, geo, frist, lärare LINJÄR ALGEBRA och GEOMETRI I 200 0 08 Skrivtid: 8.00.00. Tillåtna hjälpmedel: Skrivdon. Lösningarna
Läs merRÄKNEOPERATIONER MED VEKTORER LINJÄRA KOMBINATIONER AV VEKTORER ----------------------------------------------------------------- Låt u vara en vektor med tre koordinater, u = x, Vi säger att u är tredimensionell
Läs merMATLAB the Matrix Laboratory. Introduktion till MATLAB. Martin Nilsson. Enkel användning: Variabler i MATLAB. utvecklat av MathWorks, Inc.
Introduktion till MATLAB Martin Nilsson Avdelningen för teknisk databehandling Institutionen för informationsteknologi Uppsala universitet MATLAB the Matrix Laboratory utvecklat av MathWorks, Inc. Matematisk
Läs merA B C D E F A B C D E F (3) Svar: Tabellen ger grafen:
1. Russel & Norvig menar att man kan utveckla AI-system som antingen tänker som en människa, handlar som en människa, tänker rationellt eller handlar rationellt. Förklara och exemplifiera dessa fyra synsätt.
Läs merLösningsförslag till övningsuppgifter, del V
Lösningsförslag till övningsuppgifter, del V Obs! Preliminär version! Ö.1. (a) Vi kan lösa uppgiften genom att helt enkelt räkna ut avståndet mellan vart och ett av de ( 7 ) = 1 paren. Först noterar vi
Läs merMiniprojekt: Vattenledningsnätet i Lutorp 1
26 mars 212 Miniprojekt 1 (5) Beräkningsvetenskap I Institutionen för informationsteknologi Teknisk databehandling Besöksadress: MIC hus 2, Polacksbacken Lägerhyddsvägen 2 Postadress: Box 337 751 5 Uppsala
Läs merVeckoblad 1, Linjär algebra IT, VT2010
Veckoblad, Linjär algebra IT, VT Under den första veckan ska vi gå igenom (i alla fall stora delar av) kapitel som handlar om geometriska vektorer. De viktigaste teoretiska begreppen och resultaten i kapitlet
Läs merRepetition, Matematik 2 för lärare. Ï x + 2y - 3z = 1 Ô Ì 3x - y + 2z = a Ô Á. . Beräkna ABT. Beräkna (AB) T
Repetition, Matematik 2 för lärare Ï -2x + y + 2z = 3 1. Ange för alla reella a lösningsmängden till ekvationssystemet Ì ax + 2y + z = 1. Ó x + 3y - z = 4 2. Vad är villkoret på talet a för att ekvationssystemet
Läs merSammanfattning av föreläsning 4. Modellbygge & Simulering, TSRT62. Föreläsning 5. Identifiering av olinjära modeller
Sammanfattning av föreläsning 4 Modellbygge & Simulering, TSRT62 Föreläsning 5. Identifiering av olinjära modeller Reglerteknik, ISY, Linköpings Universitet Linjära parametriserade modeller: ARX, ARMAX,
Läs merDagens ämnen. Linjära ekvationssystem: Successiv elimination Vektorer Definitionen Grundläggande räkneoperationer Bas och koordinater Ortsvektorer
Dagens ämnen Linjära ekvationssystem: Successiv elimination Vektorer Definitionen Grundläggande räkneoperationer Bas och koordinater Ortsvektorer Linjära ekvationer Med en linjär ekvation i n variabler,
Läs merx +y +z = 2 2x +y = 3 y +2z = 1 x = 1 + t y = 1 2t z = t 3x 2 + 3y 2 y = 0 y = x2 y 2.
Lösningar till tentamen i Inledande matematik för M/TD, TMV155/175 Tid: 2006-10-27, kl 08.30-12.30 Hjälpmedel: Inga Betygsgränser, ev bonuspoäng inräknad: 20-29 p. ger betyget 3, 30-39 p. ger betyget 4
Läs merLösningar till MVE021 Linjär algebra för I
Lösningar till MVE Linjär algebra för I 7-8-9 (a Vektorer är ortogonala precis när deras skalärprodukt är Vi har u v 8 5h + h h 5h + 6 (h (h När h och när h (b Låt B beteckna basen {v, v } Om vi sätter
Läs merArtificiella neurala nätverk för punktabsorberande vågkraftverk: Energiuppskattning och aktiv styrning.
UPTEC F 16047 Examensarbete 30 hp Augusti 2016 Artificiella neurala nätverk för punktabsorberande vågkraftverk: Energiuppskattning och aktiv styrning. Abstract Artificial neural network for wave energy
Läs merSF1625 Envariabelanalys
Föreläsning 5 Institutionen för matematik KTH 5 september 2017 Hur mycket behöver man jobba? Vi har ett gemensamt ansvar: Jag visar vad som behöver göras Men det är ni som måste göra det Viktigt faktum:
Läs merVektorgeometri för gymnasister
Vektorgeometri för gymnasister Per-Anders Svensson http://homepage.lnu.se/staff/psvmsi/vektorgeometri/gymnasiet.html Fakulteten för teknik Linnéuniversitetet Areor, vektorprodukter, volymer och determinanter
Läs merUppsala Universitet Matematiska Institutionen Thomas Erlandsson
Uppsala Universitet Matematiska Institutionen Thomas Erlandsson MATRISER MED MERA VEKTORRUM DEFINITION Ett vektorrum V är en mängd av symboler u som vi kan addera samt multiplicera med reella tal c så
Läs merAlgoritmer och maskininlärning
Algoritmer och maskininlärning Olof Mogren Chalmers tekniska högskola 2016 De här företagen vill Tjäna pengar Hitta mönster i stora datamängder Göra förutsägelser Klassificera data Förstå människan Maskininlärning
Läs merVälkomna till TSRT19 Reglerteknik M Föreläsning 9
Välkomna till TSRT19 Reglerteknik M Föreläsning 9 Sammanfattning av föreläsning 8 Prestandabegränsningar Robusthet Mer generell återkopplingsstruktur Sammanfattning av förra föreläsningen H(s) W(s) 2 R(s)
Läs mer