ARTIFICIELLA NEURALA NÄT. MARCO KUHLMANN Institutionen för datavetenskap

Storlek: px
Starta visningen från sidan:

Download "ARTIFICIELLA NEURALA NÄT. MARCO KUHLMANN Institutionen för datavetenskap"

Transkript

1 ARTIFICIELLA NEURALA NÄT MARCO KUHLMANN Institutionen för datavetenskap

2 Example Alt Bar Fri Hun Pat Price Rain Res Type Est WillWait 1 Yes No No Yes Some $$$ No Yes French 0 10 Yes 2 Yes No No Yes Full $ No No Thai No 3 No Yes No No Some $ No No Burger 0 10 Yes 4 Yes No Yes Yes Full $ No No Thai Yes 5 Yes No Yes No Full $$$ No Yes French >60 No 6 No Yes No Yes Some $$ Yes Yes Italian 0 10 Yes 7 No Yes No No None $ Yes No Burger 0 10 No 8 No No No Yes Some $$ Yes Yes Thai 0 10 Yes 9 No Yes Yes No Full $ Yes No Burger >60 No 10 Yes Yes Yes Yes Full $$$ No Yes Italian No 11 No No No No None $ No No Thai 0 10 No 12 Yes Yes Yes Yes Full $ No No Burger Yes

3 Klassificering Klassificering är en övervakad maskininlärningsuppgift som går ut på att tilldela ett indatum en klass. Exempel: Givet en situation, vilken aktion ska agenten utföra? Datamängden består av par (datum, klass). Exempel: (restaurangsituation, värd att vänta?) Under träningen ser systemet både datumet och dess klass. I testfasen ser systemet endast datumet och ska predicera klassen.

4 MNIST MNIST-databasen består av handskrivna siffror (bilder) tillsammans med ett facit (rätt siffra) för varje bild.!! Hur bygger man ett system som tar in en bild och identifierar vilken siffra bilden föreställler?

5 Översikt Perceptroner Perceptroninlärning Sigmoid-neuroner Inlärning i neurala nät Backpropagation

6 Perceptroner

7 Perceptroner Perceptronen är en av de enklaste artificiella neuroner. Modellen utvecklades kring 1960 av den amerikanska psykologen och datalogen Frank Rosenblatt. Perceptronen är inspirerad av neurobiologiska arbeten, men är själv ingen neurobiologisk utan en datalogisk modell.

8 En neuron dendriter synapser med andra neuroner axon cellkropp

9 Kommunikation mellan neuroner Neuroner kan kommunicera via synapser, kopplingar mellan en sändande och en mottagande neuron. En neuron mottar signaler via dess dendriter. De mottagna signalerna ackumuleras i cellkroppen. Om den ackumulerade signalen är tillräckligt stor alstras en nervimpuls. Nervimpulsen alstrar signaler till andra neuroner.

10 Perceptron-modellen in-signal x 1 w 1 viktad koppling y ut-signal, aktivering x 2 w 2 1. Beräkna invärdet som den viktade summan av alla in-signaler. 2. Beräkna ut-signalen med en aktiveringsfunktion.

11 Stegfunktionen med tröskelvärde y 1 tröskelvärde 0 in

12 Exempel in-signal x 1 w 1 viktad koppling y ut-signal, aktivering x 2 w 2 in = w 1 x 1 + w 2 x 2 y = f(in) = f(w 1 x 1 + w 2 x 2 )

13 In-signaler och vikter som vektorer Vi modellerar in-signaler och vikter som vektorer. Med detta perspektiv är invärdet identisk med skalärprodukten av viktvektorn w och in-signalvektorn x: in = =

14 Bias istället för tröskelvärde med tröskelvärde y = 0 om 1 om w x w x > tröskelvärdet tröskelvärdet med bias b y = 0 om 1 om w x + b 0 w x + b > 0

15 Perceptron med bias 1 x 1 w 1 b bias y x 2 w 2 in = w 1 x 1 + w 2 x 2 + b y = f(in) = f(w 1 x 1 + w 2 x 2 + b)

16 Stegfunktionen y 1 0 in

17 Exempel: NAND Perceptron med w 1 = w 2 = 2 och b = 3 x1 x2 w1 x1 + w2 x2 + b y

18 Exempel: NAND Perceptron med w 1 = w 2 = 2 och b = 3 x1 x2 w1 x1 + w2 x2 + b y

19 Perceptroninlärning

20 Perceptroninlärning Perceptroner kan lära sig linjärt separerbara problem. Inlärningen går ut på att lära sig vikterna (= viktvektorn).

21 Förenkling För att beskriva inlärningsalgoritmerna bortser vi från bias; den kan modelleras som en extra insignal som alltid är på.

22 Inlärningsalgoritm Börja med att sätta w 0 (nollvektorn). För varje par (x, y*) i träningsmängden: 1. Beräkna utsignalen: y f(w x) 2. Uppdatera vikterna: w w + (y* y)x

23 Analys av inlärningsalgoritmen Fall 1: y* = y w w + 0 Vikterna förblir oförändrade. Fall 2: y* = 1, y = 0 Fall 3: y* = 0, y = 1 w w + x w w x Vikterna flyttas bort från träningsexemplet, i riktning mot guldstandarden.

24 Skalärprodukt w = (+1, +1) x = (+1, +1) w x = +2

25 Skalärprodukt w = (+1, +1) x = ( 1, 1) w x = 2

26 Skalärprodukt x = ( 1, +1) w = (+1, +1) w x = ±0

27 Skalärprodukt w w x > 0 w x < 0 w x ± 0

28 Korrekt klassificerat negativt exempel y y 0 0 w x

29 Korrekt klassificerat positivt exempel y y w 1 1 x

30 Felaktigt klassificerat negativt exempel y y 0 0 x w 1 1 x

31 Felaktigt klassificerat negativt exempel y y 0 0 w x

32 Felaktigt klassificerat positivt exempel y y 0 0 w x 1 1 x

33 Felaktigt klassificerat positivt exempel y y w 1 1 x

34 Analys av inlärningsalgoritmen Fall 1: y* = y w w + 0 Vikterna förblir oförändrade. Fall 2: y* = 1, y = 0 Fall 3: y* = 0, y = 1 w w + x w w x Vikterna flyttas bort från träningsexemplet, i riktning mot guldstandarden.

35 Generalisering till flera klasser x 1 x 2 x 3 x 4 1. en perceptron för varje klass 2. ingen stegfunktion utdata är en vektor 3. predicerad klass = perceptron med högst aktivering

36 Generalisering till flera klasser x 1 a x 2 x 3 x 4 b c score(a) = w a x score(b) = w b x score(c) = w c x

37 Generalisering till flera klasser x 1 a x 2 x 3 x 4 b c score(a) = w a x score(b) = w b x score(c) = w c x

38 Generalisering till flera klasser x 1 a x 2 x 3 x 4 b c score(a) = w a x score(b) = w b x score(c) = w c x

39 Generalisering till flera klasser x 1 a x 2 x 3 x 4 b c score(a) = w a x score(b) = w b x score(c) = w c x

40 Generalisering till flera klasser x 1 a x 2 x 3 x 4 b c score(a) = w a x score(b) = w b x score(c) = w c x predicerad klass = argmax x score(x)

41 Inlärningsalgoritm Börja med att sätta w 0 (nollvektorn). För varje par (x, y*) i träningsmängden: 1. Beräkna utsignalen: y w x 2. Uppdatera vikterna: w w + (y* y)

42 Sigmoid-neuroner

43 Sigmoid-neuroner Sigmoid-neuroner har samma uppbyggnad som perceptroner, men en annan aktiveringsfunktion. De kan inte bara signalera 0 eller 1 som perceptroner, men godtyckliga reella tal i denna intervall.

44 Sigmoidfunktionen y 1 (in) = in 0 in

45 Jämförelse av aktiveringsfunktionerna y y in 0 in stegfunktionen sigmoidfunktionen

46 Vad kan ett neuralt nät lära sig? perceptroner sigmoid-neuroner linjärt separerbart inte linjärt separerbart

47 Flerlagersnätverk indatalagret (input layer) utdatalagret (output layer) dolda lagret (hidden layer)

48 Ett enkelt flerlagersnätverk w 12 w y 1 in 2 y 2 in 3 y 3

49 Ett enkelt flerlagersnätverk w 12 w y 1 in 2 y 2 in 3 y 3 y 1 = x in 2 = w 12 y 1 y 2 = σ(in 2 ) in 3 = w 23 y 2 y 3 = σ(in 3 )

50 Inlärning i neurala nät

51 Grundidé Vid övervakad inlärning består träningsdatan av par (x, y*) där x är ett indatum och y* är målvärdet. Idé för en inlärningsalgoritm: Prova att ändra vikterna och testa om nätets utsignal kommer närmare målvärdet. Sigmoid-funktionens jämna form gör att små ändringar i vikterna resulterar i endast en liten ändring i utsignalen.

52 Att mäta hur mycket fel nätet gör Vi behöver kunna mäta hur bra vårt nät har lärt sig. För att göra detta mäter vi avvikelsen mellan målvärdet och nätets utsignal, dvs. hur mycket fel nätet gör. Ett konkret mått är mean squared error som kvantifiera felet för utsignalen y relativt till målvärdet y som () = 1 2 2

53 Mean squared error E y* y

54 Gradient descent: Intuition Vi vill ändra nätets vikter på ett sådant sätt att felet minimeras. Utan vidare information kan vi bara ändra vikterna på måfå och hoppas att felet blir mindre med tiden. Men om felfunktionen är snäll (deriverbar) så kan vi räkna ut dess gradient och gå i den riktningen.

55 Gradient descent: Intuition w 23 felets dal w 12

56 Gradient descent: Intuition w 23 felets dal gradient w 12

57 Gradient descent, matematiskt Om vi förflyttar oss en liten bit Δw 12 i w 12 -riktningen och en liten bit Δw 23 i w 23 -riktningen, då ändras felet E som så: partiell derivata av E med avseende på w12

58 Gradient descent, matematiskt Gradient descent väljer Δw 12 och Δw 12 så att ΔE blir negativt, dvs. felet blir mindre över tiden:!! 12 = = 23 Värdet η heter inlärningsparametern. Genom att höja eller sänka den kan man ta inflytande över hur stora steg gradient descent tar.

59 Hur man räknar ut gradienten w 23 E w 12

60 Hur man räknar ut gradienten w 23 E/ w 23 E/ w 12 w 12

61 Gradient descent Börja med en godtycklig viktvektor w. Upprepa följande steg tills felet blir tillräckligt litet: Givet den aktuella viktvektorn w, räkna ut E. Sätt den nya viktvektorn till w η E.

62 Stochastic gradient descent Vid gradient descent måste man gå över hela träningsdatan för att beräkna uppdateringen till vikterna. Vid stochastic gradient descent tar man ett datum i taget. En kompromiss är att dela upp data i små buntar (minibatches) och uppdatera efter att ha sett all data i en bunt.

63 Backpropagation

64 Backpropagation-algoritmen Backpropagation-algoritmen är en effektiv algoritm för att räkna ut gradienten E, vektorn med alla partiella derivator E/ w i.

65 Ett enkelt flerlagersnätverk w 12 w y 1 in 2 y 2 in 3 y 3 y 1 = x in 2 = w 12 y 1 y 2 = σ(in 2 ) in 3 = w 23 y 2 y 3 = σ(in 3 )

66 Ett enkelt flerlagersnätverk w 12 w 23 y 1 σ σ E in 2 y 2 in 3 y 3 e x y Vi vill beräkna E/ w 12 och E/ w 23.

67 Kedjeregeln till hjälp Kedjeregeln för derivator ger oss följande ekvationer: = 3 in in 3 23 = 3 in 3 2 in in 3 2 in 2 12 Viktigt: Alla funktioner i nätet måste vara deriverbara! 3 = 3 3 in 3 = (in 3 )(1 (in 3 )) in 3 23 = 2 in 3 2 = 23

68 Backpropagation-algoritmen Forward pass: räkna ut alla invärden (in 2, in 3 ) och aktiveringar (y 2, y 3 ) Backward pass: räkna ut alla partiella derivata (använder forward-värdena)

69 Backpropagation-algoritmen Beräkningarna av de partiella derivatorna kan återanvända partiella derivator som räknats ut tidigare i backward pass. Man kan därför räkna ut gradienterna lager för lager, med utlagret som början. Detta är effektivt även för djupa nät. Beräkningstiden är linjär i antalet lager.

70 Översikt Perceptroner Perceptroninlärning Sigmoid-neuroner Inlärning i neurala nät Backpropagation

729G43 Artificiell intelligens / Maskininlärning 2. Marco Kuhlmann

729G43 Artificiell intelligens / Maskininlärning 2. Marco Kuhlmann 729G43 Artificiell intelligens / 2015 Maskininlärning 2 Marco Kuhlmann Förra gången: Linjär regression Gradientsökning Vandra ner i felets dal. Steg 0: Börja med ett godtyckligt värde för θ. Steg 1: Räkna

Läs mer

729G43 Artificiell intelligens / Maskininlärning 3. Marco Kuhlmann

729G43 Artificiell intelligens / Maskininlärning 3. Marco Kuhlmann 729G43 Artificiell intelligens / 2015 Maskininlärning 3 Marco Kuhlmann Förra gången: Perceptroninlärning Beslutsregel predicerat y-värde Exempel: AND Välj parametrar θ 0, θ 1, θ 2 sådana att perceptronen

Läs mer

729G43 Artificiell intelligens (2016) Maskininlärning 2. Marco Kuhlmann Institutionen för datavetenskap

729G43 Artificiell intelligens (2016) Maskininlärning 2. Marco Kuhlmann Institutionen för datavetenskap 729G43 Artificiell intelligens (2016) Maskininlärning 2 Marco Kuhlmann Institutionen för datavetenskap Förra gången: Gradientsökning tangentens lutning i punkt θ steglängdsfaktor Översikt Introduktion

Läs mer

729G43 Artificiell intelligens (2016) Maskininlärning 3. Marco Kuhlmann Institutionen för datavetenskap

729G43 Artificiell intelligens (2016) Maskininlärning 3. Marco Kuhlmann Institutionen för datavetenskap 729G43 Artificiell intelligens (2016) Maskininlärning 3 Marco Kuhlmann Institutionen för datavetenskap Modell med vektornotation parametervektor särdragsvektor Perceptron kombinerar linjär regression med

Läs mer

Linköpings universitet

Linköpings universitet Översikt Kognitionsvetenskaplig introduktionskurs Föreläsning 4 Informationsbearbetningsmodeller Vad är kognitionsvetenskap? Kort bakgrund/historik Representation och bearbetning av information Vetenskapliga

Läs mer

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs... OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

Enlagersnät Flerlagersnät Generalisering. Artificiella Neuronnät

Enlagersnät Flerlagersnät Generalisering. Artificiella Neuronnät Artificiella Neuronnät 1 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund 2 Begränsningar Träning av enlagersnät 3 Möjliga avbildningar Backprop algoritmen Praktiska problem

Läs mer

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs... OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

729G43 Artificiell intelligens / Maskininlärning 1. Marco Kuhlmann

729G43 Artificiell intelligens / Maskininlärning 1. Marco Kuhlmann 729G43 Artificiell intelligens / 2015 Maskininlärning 1 Marco Kuhlmann Introduktion Maskininlärning Tack vare maskininlärning kan AI-system idag bl.a. producera och förstå naturligt språk kontrollera maskiner,

Läs mer

Artificiella Neuronnät

Artificiella Neuronnät Artificiella Neuronnät 2 3 4 2 (ANN) Inspirerade av hur nervsystemet fungerar Parallell bearbetning Vi begränsar oss här till en typ av ANN: Framåtkopplade nät med lagerstruktur 3 4 Fungerar i princip

Läs mer

729G43 Artificiell intelligens (2016) Maskininlärning 1. Marco Kuhlmann Institutionen för datavetenskap

729G43 Artificiell intelligens (2016) Maskininlärning 1. Marco Kuhlmann Institutionen för datavetenskap 729G43 Artificiell intelligens (2016) Maskininlärning 1 Marco Kuhlmann Institutionen för datavetenskap Introduktion Maskininlärning Tack vare maskininlärning kan AI-system idag bl.a. producera och förstå

Läs mer

Neurala nätverk och språkigenkänning. Henrik Linnarsson. Linköping University

Neurala nätverk och språkigenkänning. Henrik Linnarsson. Linköping University Neurala nätverk och språk Henli807!1 Neurala nätverk och språkigenkänning Henrik Linnarsson Linköping University Neurala nätverk och språk Henli807!2 RNN, LSTM och språkigenkänning Inledning Idag är språkigenkänning

Läs mer

729G43 Artificiell intelligens Maskininlärning. Arne Jönsson HCS/IDA

729G43 Artificiell intelligens Maskininlärning. Arne Jönsson HCS/IDA 729G43 Artificiell intelligens Maskininlärning Arne Jönsson HCS/IDA Maskininlärning Introduktion Beslutsträdsinlärning Hypotesinlärning Linjär regression Vektorer Perceptroner Artificiella Neurala Nät

Läs mer

Vad behövs för att skapa en tillståndsrymd?

Vad behövs för att skapa en tillståndsrymd? OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

Neuronnätsbaserad agent

Neuronnätsbaserad agent 2001-10-05 Torbjörn Bäckmark Sammanfattning Jag har undersökt möjligheten att utveckla en agent som använder neurala nätverk för övervakning av börssystem. Jag har tittat på sambandet mellan köp- och säljvolymer

Läs mer

2D Potentialen i en nervcell definieras normalt som skillnaden i spänning mellan dess axon och dendrit.

2D Potentialen i en nervcell definieras normalt som skillnaden i spänning mellan dess axon och dendrit. 2D1432 Artificiella Neuronnät och andra lärande system Lösningsförslag till Tentamen 2003-03-06 Inga hjälpmedel. Uppgift 1 Vilka av följande påståenden är sanna? Korrigera de som är fel. 1. Potentialen

Läs mer

Att programmera en Beethoven

Att programmera en Beethoven Linköpings universitet Att programmera en Beethoven Fördjupning inom Neurala nätverk och LSTM 2018-01-03 Innehåll 1 Inledning- Musik och artificiell intelligens... 2 1.1 Historia... 2 1.2 Bakgrund AIVA...

Läs mer

Sub-symbolisk kognition & Konnektionism. Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén,

Sub-symbolisk kognition & Konnektionism. Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén, Sub-symbolisk kognition & Konnektionism Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén, mats.andren@liu.se 1 Konnektionism Neutrala nät baseras på en (förenklad) modell av hur hjärnan fungerar.

Läs mer

ANN fk. Örjan Ekeberg. Framåtkopplade Nät. återkopplade nät. Olika arkitekturer. BackPropagation through Time. Kalman-Filter tekniker

ANN fk. Örjan Ekeberg. Framåtkopplade Nät. återkopplade nät. Olika arkitekturer. BackPropagation through Time. Kalman-Filter tekniker Hantering av Tid Återkopplade Återkopplade Återkopplade t Återkopplade Återkopplade Temporala signaler är svåra Gör om temporal signal till spatial t 1 t 2 t 3 t 4 Återkopplade t Enklaste formen Neuronal

Läs mer

Artificiell Intelligens Lektion 7

Artificiell Intelligens Lektion 7 Laboration 6 Artificiell Intelligens Lektion 7 Neurala nätverk (Lab 6) Probabilistiska resonemang Vad? Mönsterigenkänning Lära ett neuralt nätverk att känna igen siffror Varför? Få ökad förståelse för

Läs mer

Kognitiv Modellering

Kognitiv Modellering Kognitiv Modellering Mårten Szymanowski 20 januari 2004 Innehåll 1 Kognitiv Modellering 2 1.1 Varför?................................ 2 2 Grundläggande psykologiska fenomen 3 2.1 Stimulusgeneralisering........................

Läs mer

SELF- ORGANIZING MAPS

SELF- ORGANIZING MAPS LINKÖPINGS UNIVERSITET Kognitionsvetenskapliga Programmet Examinator: Arne Jönsson SELF- ORGANIZING MAPS - Ett fördjupningsarbete inom Artificiell Intelligens Fack 52 katwa676@student.liu.se Sammanfattning

Läs mer

Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.

Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder. OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

MVE035. Sammanfattning LV 1. Blom, Max. Engström, Anne. Cvetkovic Destouni, Sofia. Kåreklint, Jakob. Hee, Lilian.

MVE035. Sammanfattning LV 1. Blom, Max. Engström, Anne. Cvetkovic Destouni, Sofia. Kåreklint, Jakob. Hee, Lilian. MVE035 Sammanfattning LV 1 Blom, Max Engström, Anne Cvetkovic Destouni, Sofia Kåreklint, Jakob Hee, Lilian Hansson, Johannes 11 mars 2017 1 Partiella derivator Nedan presenteras en definition av partiell

Läs mer

Inlärning utan övervakning

Inlärning utan övervakning Översikt Biologiska mekanismer bakom inlärning Inlärning utan övervakning Inlärning utan övervakning Hebbiansk modellinlärning Självorganisering Arbetsfördelning mellan noder i ett lager som utvecklas

Läs mer

Optimering av hyperparametrar till artificiella neurala nätverk med genetiska algoritmer.

Optimering av hyperparametrar till artificiella neurala nätverk med genetiska algoritmer. Optimering av hyperparametrar till artificiella neurala nätverk med genetiska algoritmer. Simon Stensson Juni 6, 2016 Abstract This master thesis explores the feasibility of using genetic algorithms in

Läs mer

1(15) Bilaga 1. Av Projekt Neuronnätverk, ABB Industrigymnasium, Västerås Vt-05

1(15) Bilaga 1. Av Projekt Neuronnätverk, ABB Industrigymnasium, Västerås Vt-05 1(15) Bilaga 1 2(15) Neuronnätslaboration Räknare Denna laboration riktar sig till gymnasieelever som går en teknisk utbildning och som helst har läst digitalteknik samt någon form av styrteknik eller

Läs mer

de var svåra att implementera och var väldigt ineffektiva.

de var svåra att implementera och var väldigt ineffektiva. OBS! För flervalsfrågorna gäller att flera alternativ eller inget alternativ kan vara korrekt. På flervalsfrågorna kan man bara ha rätt eller fel, dvs frågan måste vara helt korrekt besvarad. Totalt kan

Läs mer

Vektorer, matriser, nätverk - några elementa

Vektorer, matriser, nätverk - några elementa Vektorer, matriser, nätverk - några elementa Innehåll: Vektorer Radvektorer och kolumnvektorer Operationer med vektorer Input- och outputvektorer i neurala nätverk Utvikning om kompetitiva nät Matriser

Läs mer

Predicted Future - att förutsäga aktiekurser med artificiella neuronnät

Predicted Future - att förutsäga aktiekurser med artificiella neuronnät Predicted Future - att förutsäga aktiekurser med artificiella neuronnät Kandidatarbete inom Data- och informationsteknik LINUS FÄRNSTRAND OSCAR SÖDERLUND NIKLAS LÖNNERFORS EMIL BERNERSKOG TOBIAS AXELL

Läs mer

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten. OS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

I en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd.

I en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd. OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

Neurala nätverk vid bildsökning

Neurala nätverk vid bildsökning Neurala nätverk vid bildsökning Carl-Johan Rosén Sammanfattning I denna rapport diskuteras situationen för neurala nätverk inom bildsökningsområdet. Först beskrivs några grundläggande metoder för bildsökning

Läs mer

Perceptron som ordklasstaggare: ett fördjupningsarbete i 729G43 -Artificiell Intelligens

Perceptron som ordklasstaggare: ett fördjupningsarbete i 729G43 -Artificiell Intelligens Perceptron som ordklasstaggare: ett fördjupningsarbete i 729G43 -Artificiell Intelligens Niklas Blomstrand Linköpings Universitet Inledning Att veta vilken ordklass ett ord tillhör är en viktig del i bearbetning

Läs mer

EXAMENSARBETE. En jämförande studie kring inlärning hos levande organismer och artificiell intelligens.

EXAMENSARBETE. En jämförande studie kring inlärning hos levande organismer och artificiell intelligens. EXAMENSARBETE 2008:103 CIV En jämförande studie kring inlärning hos levande organismer och artificiell intelligens. Dennis Pihl Marcus Skog Luleå tekniska universitet Civilingenjörsprogrammet Ergonomisk

Läs mer

TDDD02 Språkteknologi för informationssökning (2016) Ordklasstaggning. Marco Kuhlmann Institutionen för datavetenskap

TDDD02 Språkteknologi för informationssökning (2016) Ordklasstaggning. Marco Kuhlmann Institutionen för datavetenskap TDDD02 Språkteknologi för informationssökning (2016) Ordklasstaggning Marco Kuhlmann Institutionen för datavetenskap Ordklasstaggning Tagga varje ord i en sekvens av ord (oftast en mening) med dess korrekta

Läs mer

Neuronen 11/22/2012. Översikt. Artificiell nod. Kommunikation. Neuronen som detektor. Syftet med återstående föreläsningarna

Neuronen 11/22/2012. Översikt. Artificiell nod. Kommunikation. Neuronen som detektor. Syftet med återstående föreläsningarna Översikt Neuronen Biologisk neuron Artificiell nod/enhet Organisering i nät Interaktiva nätverk med inhibering Övergripande beräkningsprincip Parallel constraint satisfaction Syftet med återstående föreläsningarna

Läs mer

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten. OS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

Modeller och simulering av språkprocessning

Modeller och simulering av språkprocessning Modeller och simulering av språkprocessning Seriell processmodell + parallell processmodell Parallell modell med 2-vägsförbindelser Artificiellt neuralt nätverk (ANN) Interaktiv aktiverings-modell (IAM)

Läs mer

Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.

Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder. OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna kan man bara ha rätt eller fel, dvs frågan måste vara helt korrekt besvarad för att man skall

Läs mer

Tavelpresentation. Gustav Hallberg Jesper Strömberg Anthon Odengard Nils Tornberg Fredrik Blomgren Alexander Engblom. Januari 2018

Tavelpresentation. Gustav Hallberg Jesper Strömberg Anthon Odengard Nils Tornberg Fredrik Blomgren Alexander Engblom. Januari 2018 Tavelpresentation Gustav Hallberg Jesper Strömberg Anthon Odengard Nils Tornberg Fredrik Blomgren Alexander Engblom Januari 2018 1 Partiella derivator och deriverbarhet Differentierbarhet i en variabel

Läs mer

I en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd.

I en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd. OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

SF1625 Envariabelanalys Lösningsförslag till tentamen

SF1625 Envariabelanalys Lösningsförslag till tentamen SF1625 Envariabelanalys Lösningsförslag till tentamen 216-6-1 1. Derivera nedanstående funktioner med avseende på x och ange för vilka x derivatan existerar. Endast svar krävs. A. f(x) = arctan 1 x B.

Läs mer

1. Vi skriver upp ekvationssystemet i matrisform och gausseliminerar tills vi når trappstegsform,

1. Vi skriver upp ekvationssystemet i matrisform och gausseliminerar tills vi når trappstegsform, Lösningsförslag, Matematik 2, E, I, M, Media och T, 2 2 8.. Vi skriver upp ekvationssystemet i matrisform och gausseliminerar tills vi når trappstegsform, 2 2 2 a 2 2 2 a 2 2-2 2 a 7 7 2 a 7 7-7 2 a +

Läs mer

Prov 1 2. Ellips 12 Numeriska och algebraiska metoder lösningar till övningsproven uppdaterad 20.5.2010. a) i) Nollställen för polynomet 2x 2 3x 1:

Prov 1 2. Ellips 12 Numeriska och algebraiska metoder lösningar till övningsproven uppdaterad 20.5.2010. a) i) Nollställen för polynomet 2x 2 3x 1: Ellips Numeriska och algebraiska metoder lösningar till övningsproven uppdaterad.. Prov a) i) ii) iii) =,, = st 9,876 =,9876,99 = 9,9,66,66 =,7 =,7 Anmärkning. Nollor i början av decimaltal har ingen betydelse

Läs mer

Kandidatuppsats. Jämförelse mellan neurala nätverk baserad AI och state-of-the-art AI i racing spel. Simon Karlsson, Christopher Jensen

Kandidatuppsats. Jämförelse mellan neurala nätverk baserad AI och state-of-the-art AI i racing spel. Simon Karlsson, Christopher Jensen Kandidatuppsats Jämförelse mellan neurala nätverk baserad AI och state-of-the-art AI i racing spel Simon Karlsson, Christopher Jensen Sammanfattning Denna rapport jämför prestandan mellan state-of-the-art

Läs mer

Tentamen i Digitalteknik, EITF65

Tentamen i Digitalteknik, EITF65 Elektro- och informationsteknik Tentamen i Digitalteknik, EITF65 3 januari 2018, kl. 14-19 Skriv anonymkod och identifierare, eller personnummer, på alla papper. Börja en ny uppgift på ett nytt papper.

Läs mer

MATEMATIK GU. LLMA60 MATEMATIK FÖR LÄRARE, GYMNASIET Analys, ht 2014. Block 5, översikt

MATEMATIK GU. LLMA60 MATEMATIK FÖR LÄRARE, GYMNASIET Analys, ht 2014. Block 5, översikt MATEMATIK GU H4 LLMA6 MATEMATIK FÖR LÄRARE, GYMNASIET Analys, ht 24 I block 5 ingår följande avsnitt i Stewart: Kapitel 2, utom avsnitt 2.4 och 2.6; kapitel 4. Block 5, översikt Första delen av block 5

Läs mer

HKGBB0, Artificiell intelligens

HKGBB0, Artificiell intelligens HKGBB0, Artificiell intelligens Kortfattade lösningsförslag till tentan 3 november 2005 Arne Jönsson 1. Vad karaktäriserar dagens AI-forskning jämfört med den AI-forskning som bedrevs perioden 1960-1985.

Läs mer

Fel- och störningsanalys

Fel- och störningsanalys Fel- och störningsanalys Terminologi Antag att x är ett exakt värde och x är en approximation av x. Vi kallar då absoluta felet i x = x x, relativa felet i x = x x x. Ofta känner vi inte felet precis utan

Läs mer

Tentamen i Analys B för KB/TB (TATA09/TEN1) kl 14 19

Tentamen i Analys B för KB/TB (TATA09/TEN1) kl 14 19 LINKÖPINGS UNIVERSITET Matematiska Institutionen Joakim Arnlind Tentamen i Analys B för KB/TB (TATA9/TEN) 23-8-22 kl 4 9 Inga hjälpmedel är tillåtna. Varje uppgift kan ge maximalt 3 poäng. Betygsgränser:

Läs mer

729G43. Neurala faltningsnät MASKINSYN PÅ SVENSKA VENDELA FOLKER ÅKERLIND

729G43. Neurala faltningsnät MASKINSYN PÅ SVENSKA VENDELA FOLKER ÅKERLIND 729G43 Neurala faltningsnät MASKINSYN PÅ SVENSKA VENDELA FOLKER ÅKERLIND Innehållsförteckning Bakgrund... 2 Historia... 2 ImageNet... 2 Avgränsningar och språk... 3 Artificiella neurala nät... 3 Tillbakaspridning...

Läs mer

Användarverifiering från webbkamera Sami Alajarva

Användarverifiering från webbkamera Sami Alajarva Institutionen för kommunikation och information Examensarbete i Datalogi 20p C-nivå Vårterminen 2007 Användarverifiering från webbkamera Sami Alajarva Användarverifiering från Webbkamera Examensrapport

Läs mer

Inlärningens geometri Populärföreläsning SF1611, Introduktionskurs i matematik. Timo Koski

Inlärningens geometri Populärföreläsning SF1611, Introduktionskurs i matematik. Timo Koski Populärföreläsning SF1611, Introduktionskurs i matematik. Timo Koski 22.09.2014 En grundläggande form av inlärning är att inhämta kunskap ur valda exempel. Med ett exempel avses information om ett föremål

Läs mer

Neuronnätsbaserad identifiering av processparametrar vid tillverkning av pappersmassa

Neuronnätsbaserad identifiering av processparametrar vid tillverkning av pappersmassa Neuronnätsbaserad identifiering av processparametrar vid tillverkning av pappersmassa Examensarbete utfört vid Bildbehandling Tekniska Högskolan i Linköping THORD ANDERSSON MIKAEL KARLSSON Reg nr: LiTH-ISY-EX-1709

Läs mer

Laboration i Fourieranalys för F2, TM2, Kf2 2011/12 Signalanalys med snabb Fouriertransform (FFT)

Laboration i Fourieranalys för F2, TM2, Kf2 2011/12 Signalanalys med snabb Fouriertransform (FFT) Laboration i Fourieranalys för F2, TM2, Kf2 2011/12 Signalanalys med snabb Fouriertransform (FFT) Den här laborationen har två syften: dels att visa hur den snabba Fouriertransformen fungerar och vad man

Läs mer

Fel- och störningsanalys

Fel- och störningsanalys Fel- och störningsanalys 1 Terminologi Antag att x är ett exakt värde och x är en approximation av x. Vi kallar då absoluta felet i x = x x, relativa felet i x = x x x. Ofta känner vi inte felet precis

Läs mer

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten. OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

14. Minsta kvadratmetoden

14. Minsta kvadratmetoden 58 MINSTA KVADRATMETODEN. Minsta kvadratmetoden Eempel.. Det är inte så svårt att komma åt en trasig lampa på golvet för att byta den. Det är bara att gå fram till den. Hur är det om lampan hänger i taket?

Läs mer

KOKBOKEN 1. Håkan Strömberg KTH STH

KOKBOKEN 1. Håkan Strömberg KTH STH KOKBOKEN 1 Håkan Strömberg KTH STH Hösten 2006 Håkan Strömberg 2 KTH Syd Innehåll Olikheter.................................... 6................................. 6 Uppgift 2.................................

Läs mer

Mer om analytisk geometri

Mer om analytisk geometri 1 Onsdag v 5 Mer om analytisk geometri Determinanter: Då man har en -matris kan man till den associera ett tal determinanten av som också skrivs Determinanter kommer att repeteras och studeras närmare

Läs mer

= 0 vara en given ekvation där F ( x,

= 0 vara en given ekvation där F ( x, DERIVERING AV IMPLICIT GIVNA FUNKTIONER Eempel. Vi betraktar som en funktion av och,,), given på implicit form genom + + 6 0. Bestäm partiella derivator och i punkten P,, ) a) med hjälp av implicit derivering

Läs mer

Föreläsning 7: Klassificering, minsta kvadratproblem, SVD, forts.

Föreläsning 7: Klassificering, minsta kvadratproblem, SVD, forts. Föreläsning 7: Klassificering, minsta kvadratproblem, SVD, forts. Berkant Savas Tillämpad matematik i natur och teknikvetenskap, TNA5 Institutionen för teknik och naturvetenskap Linköpings universitet

Läs mer

Probabilistisk logik 2

Probabilistisk logik 2 729G43 Artificiell intelligens / 2016 Probabilistisk logik 2 Marco Kuhlmann Institutionen för datavetenskap Översikt Probabilistiska modeller Probabilistisk inferens 1: Betingad sannolikhet Probabilistisk

Läs mer

NEURAL MASKINÖVERSÄTTNING

NEURAL MASKINÖVERSÄTTNING Linköpings universitet 729G43 NEURAL MASKINÖVERSÄTTNING Moa Wallin Inledning Manuell översättning är en mycket tidskrävande process som kräver stor kunskap och bred kompetens och behovet av översättning

Läs mer

Googles sidrankning - linjär algebra värt en förmögenhet

Googles sidrankning - linjär algebra värt en förmögenhet Googles sidrankning - linjär algebra värt en förmögenhet Outline 1 Sökmotorer 2 Grafteori Linjär algebra 3 Målet Utifrån användarens sökord lista de mest relevanta webbsidorna. Dessutom i en ordning som

Läs mer

Självlärande Othello-spelare

Självlärande Othello-spelare Självlärande Othello-spelare Kan en dator lära sig att spela Othello? KLAS BJÖRKQVIST och JOHAN WESTER Examensarbete Stockholm, Sverige 2010 Självlärande Othello-spelare Kan en dator lära sig att spela

Läs mer

1. (Dugga 1.1) (a) Bestäm v (3v 2u) om v = . (1p) and u =

1. (Dugga 1.1) (a) Bestäm v (3v 2u) om v = . (1p) and u = Kursen bedöms med betyg,, 5 eller underkänd, där 5 är högsta betyg. För godkänt betyg krävs minst poäng från uppgifterna -7. Var och en av dessa sju uppgifter kan ge maximalt poäng. För var och en av uppgifterna

Läs mer

ÖVN 6 - DIFFERENTIALEKVATIONER OCH TRANSFORMMETODER - SF Nyckelord och innehåll. a n (x x 0 ) n.

ÖVN 6 - DIFFERENTIALEKVATIONER OCH TRANSFORMMETODER - SF Nyckelord och innehåll. a n (x x 0 ) n. ÖVN 6 - DIFFERENTIALEKVATIONER OCH TRANSFORMMETODER - SF683 HTTP://KARLJODIFFTRANS.WORDPRESS.COM KARL JONSSON Nyckelord och innehåll Potensserielösningar Analytiska funktioner Konvergensradie Rot- och

Läs mer

Artificiella neurala nätverk

Artificiella neurala nätverk Artificiella neurala nätverk En introduktion i anslutning till H. Malmgren: Inlärning och minne i neurala nätverk. Studentlitteratur 2007 Helge Malmgren, januari 2008 Vad är ett ANN, och vad har man dom

Läs mer

DIGITAL KOMMUNIKATION

DIGITAL KOMMUNIKATION EN KOR SAMMANFANING AV EORIN INOM DIGIAL KOMMUNIKAION Linjär kod En binär linjär kod kännetecknas av att summan av två kodord också är ett kodord. Ett specialfall är summan av ett kodord med sig själv

Läs mer

Träning av Artificiella Neuronnät med Motexempel Utvalda av Expertpanel (HS-IDA-EA )

Träning av Artificiella Neuronnät med Motexempel Utvalda av Expertpanel (HS-IDA-EA ) Träning av Artificiella Neuronnät med Motexempel Utvalda av Expertpanel (HS-IDA-EA-01-109) Christer Larsson (a98chrla@student.his.se) Institutionen för datavetenskap Högskolan i Skövde, Box 408 S-54128

Läs mer

6.1 Skalärprodukt, norm och ortogonalitet. TMV141 Linjär algebra E VT 2011 Vecka 6. Lärmål 6.1. Skalärprodukt. Viktiga begrepp

6.1 Skalärprodukt, norm och ortogonalitet. TMV141 Linjär algebra E VT 2011 Vecka 6. Lärmål 6.1. Skalärprodukt. Viktiga begrepp 6.1 Skalärprodukt, norm och ortogonalitet TMV141 Linjär algebra E VT 2011 Vecka 6 Skalärprodukt Norm/längd Normerad vektor/enhetsvektor Avståndet mellan två vektorer Ortogonala vektorer Ortogonala komplementet

Läs mer

Vektorgeometri för gymnasister

Vektorgeometri för gymnasister Vektorgeometri för gymnasister Per-Anders Svensson http://homepage.lnu.se/staff/psvmsi/vektorgeometri/gymnasiet.html Fakulteten för teknik Linnéuniversitetet Linjära avbildningar I Innehåll En liten tillbakablick:

Läs mer

Tavelpresentation - Flervariabelanalys. 1E January 2017

Tavelpresentation - Flervariabelanalys. 1E January 2017 Tavelpresentation - Flervariabelanalys 1E January 2017 1 Innehåll 1 Partiella derivator 3 2 Differentierbarhet 3 3 Kedjeregeln 4 3.1 Sats 2.3.4............................... 5 3.2 Allmänna kedjeregeln........................

Läs mer

Regression med Genetiska Algoritmer

Regression med Genetiska Algoritmer Regression med Genetiska Algoritmer Projektarbete, Artificiell intelligens, 729G43 Jimmy Eriksson, jimer336 770529-5991 2014 Inledning Hur många kramar finns det i världen givet? Att kunna estimera givet

Läs mer

Programmering eller Datalogiskt tänkande

Programmering eller Datalogiskt tänkande Programmering eller Datalogiskt tänkande I förskolan handlar programmering om att få en begynnande förståelse vad det kan innebära. Barnen ges ett kreativt utrymme och har möjlighet att forma sin egen

Läs mer

Statistisk mönsterigenkänning

Statistisk mönsterigenkänning Statistisk mönsterigenkänning Jonas Sandström Artificiell intelligens II Linköpings universitet HT 2011 Innehållsförteckning 1. Innehållsförteckning sid 2 2. Inledning sid 3 3. Statistisk mönsterigenkänning

Läs mer

Föreläsningsplanering och lektionsplanering 764G01

Föreläsningsplanering och lektionsplanering 764G01 Föreläsningsplanering och lektionsplanering 764G01 Uppgifter märkta med B är från boken, U från utdelat material och P från problemsamlingen. Uppgifter i kursiv stil rekommenderas för dem som vill fördjupa

Läs mer

P Q = ( 2, 1, 1), P R = (0, 1, 0) och QR = (2, 2, 1). arean = 1 2 P Q P R

P Q = ( 2, 1, 1), P R = (0, 1, 0) och QR = (2, 2, 1). arean = 1 2 P Q P R 1 Matematiska Institutionen KTH Lösningar till några övningar på geometri och vektorer inför lappskrivning nummer 2 på kursen Linjär algebra II, SF1604, vt11. 1. En triangel har hörn i punkterna (1, 2,

Läs mer

Ett Neuralt Nätverk Tittar På Kläder

Ett Neuralt Nätverk Tittar På Kläder [Skriv här] [Skriv här] [Skriv här] 2019 Ett Neuralt Nätverk Tittar På Kläder ETT KONVOLUTIONELLT NEURALT NÄTVERK KATEGORISERAR FASHION MNIST DATASETET WILHELM BRODIN, WILBR797 1.1 Inledning En människas

Läs mer

1. Gradient och riktningsderivata till funktioner av två variabler (2.7) 2. Gradient och riktningsderivata till funktioner av tre variabler (2.

1. Gradient och riktningsderivata till funktioner av två variabler (2.7) 2. Gradient och riktningsderivata till funktioner av tre variabler (2. Lektion 5 Innehål 1. Gradient och riktningsderivata till funktioner av två variabler (2.7) 2. Gradient och riktningsderivata till funktioner av tre variabler (2.7) Innehål 1. Gradient och riktningsderivata

Läs mer

(a) Bestäm för vilka värden på den reella konstanten c som ekvationssystemet är lösbart. (b) Lös ekvationssystemet för dessa värden på c.

(a) Bestäm för vilka värden på den reella konstanten c som ekvationssystemet är lösbart. (b) Lös ekvationssystemet för dessa värden på c. UPPSALA UNIVERSITET Matematiska institutionen Jörgen Östensson Prov i matematik X, geo, frist, lärare LINJÄR ALGEBRA och GEOMETRI I 200 0 08 Skrivtid: 8.00.00. Tillåtna hjälpmedel: Skrivdon. Lösningarna

Läs mer

RÄKNEOPERATIONER MED VEKTORER LINJÄRA KOMBINATIONER AV VEKTORER ----------------------------------------------------------------- Låt u vara en vektor med tre koordinater, u = x, Vi säger att u är tredimensionell

Läs mer

MATLAB the Matrix Laboratory. Introduktion till MATLAB. Martin Nilsson. Enkel användning: Variabler i MATLAB. utvecklat av MathWorks, Inc.

MATLAB the Matrix Laboratory. Introduktion till MATLAB. Martin Nilsson. Enkel användning: Variabler i MATLAB. utvecklat av MathWorks, Inc. Introduktion till MATLAB Martin Nilsson Avdelningen för teknisk databehandling Institutionen för informationsteknologi Uppsala universitet MATLAB the Matrix Laboratory utvecklat av MathWorks, Inc. Matematisk

Läs mer

A B C D E F A B C D E F (3) Svar: Tabellen ger grafen:

A B C D E F A B C D E F (3) Svar: Tabellen ger grafen: 1. Russel & Norvig menar att man kan utveckla AI-system som antingen tänker som en människa, handlar som en människa, tänker rationellt eller handlar rationellt. Förklara och exemplifiera dessa fyra synsätt.

Läs mer

Lösningsförslag till övningsuppgifter, del V

Lösningsförslag till övningsuppgifter, del V Lösningsförslag till övningsuppgifter, del V Obs! Preliminär version! Ö.1. (a) Vi kan lösa uppgiften genom att helt enkelt räkna ut avståndet mellan vart och ett av de ( 7 ) = 1 paren. Först noterar vi

Läs mer

Miniprojekt: Vattenledningsnätet i Lutorp 1

Miniprojekt: Vattenledningsnätet i Lutorp 1 26 mars 212 Miniprojekt 1 (5) Beräkningsvetenskap I Institutionen för informationsteknologi Teknisk databehandling Besöksadress: MIC hus 2, Polacksbacken Lägerhyddsvägen 2 Postadress: Box 337 751 5 Uppsala

Läs mer

Veckoblad 1, Linjär algebra IT, VT2010

Veckoblad 1, Linjär algebra IT, VT2010 Veckoblad, Linjär algebra IT, VT Under den första veckan ska vi gå igenom (i alla fall stora delar av) kapitel som handlar om geometriska vektorer. De viktigaste teoretiska begreppen och resultaten i kapitlet

Läs mer

Repetition, Matematik 2 för lärare. Ï x + 2y - 3z = 1 Ô Ì 3x - y + 2z = a Ô Á. . Beräkna ABT. Beräkna (AB) T

Repetition, Matematik 2 för lärare. Ï x + 2y - 3z = 1 Ô Ì 3x - y + 2z = a Ô Á. . Beräkna ABT. Beräkna (AB) T Repetition, Matematik 2 för lärare Ï -2x + y + 2z = 3 1. Ange för alla reella a lösningsmängden till ekvationssystemet Ì ax + 2y + z = 1. Ó x + 3y - z = 4 2. Vad är villkoret på talet a för att ekvationssystemet

Läs mer

Sammanfattning av föreläsning 4. Modellbygge & Simulering, TSRT62. Föreläsning 5. Identifiering av olinjära modeller

Sammanfattning av föreläsning 4. Modellbygge & Simulering, TSRT62. Föreläsning 5. Identifiering av olinjära modeller Sammanfattning av föreläsning 4 Modellbygge & Simulering, TSRT62 Föreläsning 5. Identifiering av olinjära modeller Reglerteknik, ISY, Linköpings Universitet Linjära parametriserade modeller: ARX, ARMAX,

Läs mer

Dagens ämnen. Linjära ekvationssystem: Successiv elimination Vektorer Definitionen Grundläggande räkneoperationer Bas och koordinater Ortsvektorer

Dagens ämnen. Linjära ekvationssystem: Successiv elimination Vektorer Definitionen Grundläggande räkneoperationer Bas och koordinater Ortsvektorer Dagens ämnen Linjära ekvationssystem: Successiv elimination Vektorer Definitionen Grundläggande räkneoperationer Bas och koordinater Ortsvektorer Linjära ekvationer Med en linjär ekvation i n variabler,

Läs mer

x +y +z = 2 2x +y = 3 y +2z = 1 x = 1 + t y = 1 2t z = t 3x 2 + 3y 2 y = 0 y = x2 y 2.

x +y +z = 2 2x +y = 3 y +2z = 1 x = 1 + t y = 1 2t z = t 3x 2 + 3y 2 y = 0 y = x2 y 2. Lösningar till tentamen i Inledande matematik för M/TD, TMV155/175 Tid: 2006-10-27, kl 08.30-12.30 Hjälpmedel: Inga Betygsgränser, ev bonuspoäng inräknad: 20-29 p. ger betyget 3, 30-39 p. ger betyget 4

Läs mer

Lösningar till MVE021 Linjär algebra för I

Lösningar till MVE021 Linjär algebra för I Lösningar till MVE Linjär algebra för I 7-8-9 (a Vektorer är ortogonala precis när deras skalärprodukt är Vi har u v 8 5h + h h 5h + 6 (h (h När h och när h (b Låt B beteckna basen {v, v } Om vi sätter

Läs mer

Artificiella neurala nätverk för punktabsorberande vågkraftverk: Energiuppskattning och aktiv styrning.

Artificiella neurala nätverk för punktabsorberande vågkraftverk: Energiuppskattning och aktiv styrning. UPTEC F 16047 Examensarbete 30 hp Augusti 2016 Artificiella neurala nätverk för punktabsorberande vågkraftverk: Energiuppskattning och aktiv styrning. Abstract Artificial neural network for wave energy

Läs mer

SF1625 Envariabelanalys

SF1625 Envariabelanalys Föreläsning 5 Institutionen för matematik KTH 5 september 2017 Hur mycket behöver man jobba? Vi har ett gemensamt ansvar: Jag visar vad som behöver göras Men det är ni som måste göra det Viktigt faktum:

Läs mer

Vektorgeometri för gymnasister

Vektorgeometri för gymnasister Vektorgeometri för gymnasister Per-Anders Svensson http://homepage.lnu.se/staff/psvmsi/vektorgeometri/gymnasiet.html Fakulteten för teknik Linnéuniversitetet Areor, vektorprodukter, volymer och determinanter

Läs mer

Uppsala Universitet Matematiska Institutionen Thomas Erlandsson

Uppsala Universitet Matematiska Institutionen Thomas Erlandsson Uppsala Universitet Matematiska Institutionen Thomas Erlandsson MATRISER MED MERA VEKTORRUM DEFINITION Ett vektorrum V är en mängd av symboler u som vi kan addera samt multiplicera med reella tal c så

Läs mer

Algoritmer och maskininlärning

Algoritmer och maskininlärning Algoritmer och maskininlärning Olof Mogren Chalmers tekniska högskola 2016 De här företagen vill Tjäna pengar Hitta mönster i stora datamängder Göra förutsägelser Klassificera data Förstå människan Maskininlärning

Läs mer

Välkomna till TSRT19 Reglerteknik M Föreläsning 9

Välkomna till TSRT19 Reglerteknik M Föreläsning 9 Välkomna till TSRT19 Reglerteknik M Föreläsning 9 Sammanfattning av föreläsning 8 Prestandabegränsningar Robusthet Mer generell återkopplingsstruktur Sammanfattning av förra föreläsningen H(s) W(s) 2 R(s)

Läs mer