Enlagersnät Flerlagersnät Generalisering. Artificiella Neuronnät
|
|
- Lars-Erik Arvidsson
- för 4 år sedan
- Visningar:
Transkript
1 Artificiella Neuronnät
2 1 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund 2 Begränsningar Träning av enlagersnät 3 Möjliga avbildningar Backprop algoritmen Praktiska problem 4
3 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund 1 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund 2 Begränsningar Träning av enlagersnät 3 Möjliga avbildningar Backprop algoritmen Praktiska problem 4
4 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund (ANN) Inspirerade av hur nervsystemet fungerar Parallell bearbetning
5 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund (ANN) Inspirerade av hur nervsystemet fungerar Parallell bearbetning Vi begränsar oss här till en typ av ANN: Framåtkopplade nät med lagerstruktur
6 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund (ANN) Inspirerade av hur nervsystemet fungerar Parallell bearbetning Vi begränsar oss här till en typ av ANN: Framåtkopplade nät med lagerstruktur
7 Användningsområden Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Fungerar i princip som en generell Lärande låda!
8 Användningsområden Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Fungerar i princip som en generell Lärande låda! Klassificering Ja/Nej
9 Användningsområden Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Fungerar i princip som en generell Lärande låda! Funktionsapproximering [ 1, 1]
10 Användningsområden Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Fungerar i princip som en generell Lärande låda! Flerdimensionell avbildning
11 Klassiska exempel Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund
12 Klassiska exempel Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund ALVINN System för att styra en bil
13 Klassiska exempel Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund ALVINN System för att styra en bil TV bild Rattutslag
14 Klassiska exempel Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund ALVINN System för att styra en bil TV bild Rattutslag Tränas med riktiga förares beteende som träningsexempel
15 Klassiska exempel Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund NetTalk Program för talsyntes
16 Klassiska exempel Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund NetTalk Program för talsyntes "Hejsan" Fonem Skriven text Kodat uttal
17 Klassiska exempel Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund NetTalk Program för talsyntes "Hejsan" Fonem Skriven text Kodat uttal Tränas med stor databas över uttalad text
18 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Hur fungerar riktiga nervceller?
19 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Hur fungerar riktiga nervceller? Dendriter Soma Axon
20 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Hur fungerar riktiga nervceller? Dendriter Soma Axon Dendriter Soma (cellkropp) Axon
21 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Hur fungerar riktiga nervceller? Dendriter Soma Axon Dendriter Passiv mottagning av (kemiska) signaler Soma (cellkropp) Axon
22 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Hur fungerar riktiga nervceller? Dendriter Soma Axon Dendriter Passiv mottagning av (kemiska) signaler Soma (cellkropp) Summering, tröskling Axon
23 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Hur fungerar riktiga nervceller? Dendriter Soma Axon Dendriter Passiv mottagning av (kemiska) signaler Soma (cellkropp) Summering, tröskling Axon Aktiva pulser sänds till andra celler
24 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Nervceller kan se väldigt olika ut
25 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Nervceller kan se väldigt olika ut
26 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund ANN-karikatyren (en förenklad bild av informationsbehandlingen)
27 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund ANN-karikatyren (en förenklad bild av informationsbehandlingen) Σ
28 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund ANN-karikatyren (en förenklad bild av informationsbehandlingen) Σ Viktade insignaler Summering Trösklad utsignal
29 Begränsningar Träning av enlagersnät 1 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund 2 Begränsningar Träning av enlagersnät 3 Möjliga avbildningar Backprop algoritmen Praktiska problem 4
30 Begränsningar Träning av enlagersnät Vad menas med ett?
31 Begränsningar Träning av enlagersnät Vad menas med ett?
32 Begränsningar Träning av enlagersnät Vad menas med ett? Varje cell fungerar oberoende av de andra!
33 Begränsningar Träning av enlagersnät Vad menas med ett? Varje cell fungerar oberoende av de andra! Det räcker att förstå vad en cell kan beräkna
34 Begränsningar Träning av enlagersnät Vad kan en enstaka cell beräkna?
35 Begränsningar Träning av enlagersnät Vad kan en enstaka cell beräkna? Σ
36 Begränsningar Träning av enlagersnät Vad kan en enstaka cell beräkna? Σ x Indata i vektorform w Vikterna i vektorform o Utsignalen
37 Begränsningar Träning av enlagersnät Vad kan en enstaka cell beräkna? Σ x Indata i vektorform w Vikterna i vektorform o Utsignalen ( ) o = sign x i w i i
38 Begränsningar Träning av enlagersnät Geometrisk tolkning ( ) o = sign x i w i i
39 Begränsningar Träning av enlagersnät Geometrisk tolkning ( ) o = sign x i w i i x 2 w x 1
40 Begränsningar Träning av enlagersnät Geometrisk tolkning ( ) o = sign x i w i i x 2 w x 1 Separerande hyperplan Linjär separerbarhet
41 Inlärning i ANN Begränsningar Träning av enlagersnät Vad innebär inlärning?
42 Inlärning i ANN Begränsningar Träning av enlagersnät Vad innebär inlärning? Nätets struktur är normalt fix
43 Inlärning i ANN Begränsningar Träning av enlagersnät Vad innebär inlärning? Nätets struktur är normalt fix Inlärning innebär att hitta de bästa vikterna w i
44 Inlärning i ANN Begränsningar Träning av enlagersnät Vad innebär inlärning? Nätets struktur är normalt fix Inlärning innebär att hitta de bästa vikterna w i Två bra algoritmer för enlagersnät: Perceptroninlärning Deltaregeln
45 Begränsningar Träning av enlagersnät Perceptroninlärning
46 Begränsningar Träning av enlagersnät Perceptroninlärning Inkrementell inlärning
47 Begränsningar Träning av enlagersnät Perceptroninlärning Inkrementell inlärning Vikterna ändras bara vid felklassificering
48 Begränsningar Träning av enlagersnät Perceptroninlärning Inkrementell inlärning Vikterna ändras bara vid felklassificering Uppdateringsregel: w i w i + η(t o)x i
49 Begränsningar Träning av enlagersnät Perceptroninlärning Inkrementell inlärning Vikterna ändras bara vid felklassificering Uppdateringsregel: w i w i + η(t o)x i Konvergerar alltid om klassningsproblemet är lösbart
50 Begränsningar Träning av enlagersnät Deltaregeln (LMS-regeln)
51 Begränsningar Träning av enlagersnät Deltaregeln (LMS-regeln) Inkrementell inlärning
52 Begränsningar Träning av enlagersnät Deltaregeln (LMS-regeln) Inkrementell inlärning Vikterna ändras alltid
53 Begränsningar Träning av enlagersnät Deltaregeln (LMS-regeln) Inkrementell inlärning Vikterna ändras alltid w i w i + η(t w T x)x i
54 Begränsningar Träning av enlagersnät Deltaregeln (LMS-regeln) Inkrementell inlärning Vikterna ändras alltid w i w i + η(t w T x)x i Konvergerar endast i statistisk mening
55 Begränsningar Träning av enlagersnät Deltaregeln (LMS-regeln) Inkrementell inlärning Vikterna ändras alltid w i w i + η(t w T x)x i Konvergerar endast i statistisk mening Hittar en optimal lösning även om problemet inte är exakt lösbart
56 Möjliga avbildningar Backprop algoritmen Praktiska problem 1 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund 2 Begränsningar Träning av enlagersnät 3 Möjliga avbildningar Backprop algoritmen Praktiska problem 4
57 Möjliga avbildningar Backprop algoritmen Praktiska problem Vad är poängen med att ha flera lager?
58 Möjliga avbildningar Backprop algoritmen Praktiska problem Vad är poängen med att ha flera lager?
59 Möjliga avbildningar Backprop algoritmen Praktiska problem Vad är poängen med att ha flera lager?
60 Möjliga avbildningar Backprop algoritmen Praktiska problem Vad är poängen med att ha flera lager?
61 Möjliga avbildningar Backprop algoritmen Praktiska problem Vad är poängen med att ha flera lager? Ett tvålagersnät kan implementera godtyckliga beslutsytor
62 Möjliga avbildningar Backprop algoritmen Praktiska problem Vad är poängen med att ha flera lager? Ett tvålagersnät kan implementera godtyckliga beslutsytor...förutsatt att man har tillräckligt många gömda enheter
63 Möjliga avbildningar Backprop algoritmen Praktiska problem Blir det ännu bättre med ännu fler lager?
64 Möjliga avbildningar Backprop algoritmen Praktiska problem Blir det ännu bättre med ännu fler lager? Två lager kan beskriva alla klassificeringar Två lager kan approximera alla snälla funktioner
65 Möjliga avbildningar Backprop algoritmen Praktiska problem Blir det ännu bättre med ännu fler lager? Två lager kan beskriva alla klassificeringar Två lager kan approximera alla snälla funktioner Tre lager kan ibland göra samma sak effektivare
66 Möjliga avbildningar Backprop algoritmen Praktiska problem Blir det ännu bättre med ännu fler lager? Två lager kan beskriva alla klassificeringar Två lager kan approximera alla snälla funktioner Tre lager kan ibland göra samma sak effektivare Fler än tre lager används mycket sällan
67 Möjliga avbildningar Backprop algoritmen Praktiska problem Hur tränar man ett flerlagersnät?
68 Möjliga avbildningar Backprop algoritmen Praktiska problem Hur tränar man ett flerlagersnät? Varken perceptroninlärning eller deltaregeln kan användas
69 Möjliga avbildningar Backprop algoritmen Praktiska problem Hur tränar man ett flerlagersnät? Varken perceptroninlärning eller deltaregeln kan användas Fundamentalt problem: När nätet svarar fel vet man inte i vilken riktning vikterna ska ändras för att det ska bli bättre
70 Möjliga avbildningar Backprop algoritmen Praktiska problem Hur tränar man ett flerlagersnät? Varken perceptroninlärning eller deltaregeln kan användas Fundamentalt problem: När nätet svarar fel vet man inte i vilken riktning vikterna ska ändras för att det ska bli bättre Avgörande trick: Använd trösklingsliknande kontinuerliga funktioner
71 Möjliga avbildningar Backprop algoritmen Praktiska problem Hur tränar man ett flerlagersnät? Varken perceptroninlärning eller deltaregeln kan användas Fundamentalt problem: När nätet svarar fel vet man inte i vilken riktning vikterna ska ändras för att det ska bli bättre Avgörande trick: Använd trösklingsliknande kontinuerliga funktioner Σ Σ
72 Möjliga avbildningar Backprop algoritmen Praktiska problem
73 Möjliga avbildningar Backprop algoritmen Praktiska problem Grundidé: Minimera felet (E) som en funktion av alla vikter ( w)
74 Möjliga avbildningar Backprop algoritmen Praktiska problem Grundidé: Minimera felet (E) som en funktion av alla vikter ( w) 1 Beräkna den riktning i viktrummet dit felet ökar mest: grad w (E)
75 Möjliga avbildningar Backprop algoritmen Praktiska problem Grundidé: Minimera felet (E) som en funktion av alla vikter ( w) 1 Beräkna den riktning i viktrummet dit felet ökar mest: grad w (E) 2 Ändra vikterna i motsatt riktning w i w i η E w i
76 Möjliga avbildningar Backprop algoritmen Praktiska problem Normalt utnyttjar man felet för ett exempel i taget
77 Möjliga avbildningar Backprop algoritmen Praktiska problem Normalt utnyttjar man felet för ett exempel i taget E = 1 2 (t k o k ) 2 k Out
78 Möjliga avbildningar Backprop algoritmen Praktiska problem Normalt utnyttjar man felet för ett exempel i taget E = 1 2 k Out (t k o k ) 2 Som trösklingsliknande funktion används ofta ρ(y) = e y e x
79 Möjliga avbildningar Backprop algoritmen Praktiska problem Gradienten kan uttryckas som en funktion av ett lokalt generaliserat fel δ E w ji = δ i x j
80 Möjliga avbildningar Backprop algoritmen Praktiska problem Gradienten kan uttryckas som en funktion av ett lokalt generaliserat fel δ E w ji = δ i x j w ji w ji + ηδ i x j
81 Möjliga avbildningar Backprop algoritmen Praktiska problem Gradienten kan uttryckas som en funktion av ett lokalt generaliserat fel δ E w ji = δ i x j w ji w ji + ηδ i x j Utlagret: δ k = o k (1 o k ) (t k o k )
82 Möjliga avbildningar Backprop algoritmen Praktiska problem Gradienten kan uttryckas som en funktion av ett lokalt generaliserat fel δ E w ji = δ i x j w ji w ji + ηδ i x j Utlagret: δ k = o k (1 o k ) (t k o k ) Gömda lager: δ h = o h (1 o h ) w kh δ k k Out
83 Möjliga avbildningar Backprop algoritmen Praktiska problem Gradienten kan uttryckas som en funktion av ett lokalt generaliserat fel δ E w ji = δ i x j w ji w ji + ηδ i x j Utlagret: δ k = o k (1 o k ) (t k o k ) Gömda lager: δ h = o h (1 o h ) w kh δ k k Out Felet δ propagerar bakåt genom lagren Error backpropagation (BackProp)
84 Möjliga avbildningar Backprop algoritmen Praktiska problem Att tänka på när man använder BackProp
85 Möjliga avbildningar Backprop algoritmen Praktiska problem Att tänka på när man använder BackProp Långsam Kräver normalt tusentals genomgångar av datamängden
86 Möjliga avbildningar Backprop algoritmen Praktiska problem Att tänka på när man använder BackProp Långsam Kräver normalt tusentals genomgångar av datamängden Gradientföljning Riskerar att fastna i lokala minima
87 Möjliga avbildningar Backprop algoritmen Praktiska problem Att tänka på när man använder BackProp Långsam Kräver normalt tusentals genomgångar av datamängden Gradientföljning Riskerar att fastna i lokala minima Många parametrar Steglängden η Antal lager Antal gömda enheter In- och utrepresentationen Initiala viktvärden
88 1 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund 2 Begränsningar Träning av enlagersnät 3 Möjliga avbildningar Backprop algoritmen Praktiska problem 4
89 Näten interpolerar normalt mjukt mellan träningsdatapunkterna
90 Näten interpolerar normalt mjukt mellan träningsdatapunkterna
91 Näten interpolerar normalt mjukt mellan träningsdatapunkterna Ger oftast bra generalisering
92 Risk för överinlärning!
93 Risk för överinlärning! Om nätet har för många frihetsgrader (vikter) är risken större att inlärningen hittar en konstig lösning
94 Risk för överinlärning! Om nätet har för många frihetsgrader (vikter) är risken större att inlärningen hittar en konstig lösning
95 Genom att begränsa antalet gömda noder får man bättre generalisering
96 Genom att begränsa antalet gömda noder får man bättre generalisering
Artificiella Neuronnät
Artificiella Neuronnät 2 3 4 2 (ANN) Inspirerade av hur nervsystemet fungerar Parallell bearbetning Vi begränsar oss här till en typ av ANN: Framåtkopplade nät med lagerstruktur 3 4 Fungerar i princip
Läs mer2D Potentialen i en nervcell definieras normalt som skillnaden i spänning mellan dess axon och dendrit.
2D1432 Artificiella Neuronnät och andra lärande system Lösningsförslag till Tentamen 2003-03-06 Inga hjälpmedel. Uppgift 1 Vilka av följande påståenden är sanna? Korrigera de som är fel. 1. Potentialen
Läs merARTIFICIELLA NEURALA NÄT. MARCO KUHLMANN Institutionen för datavetenskap
ARTIFICIELLA NEURALA NÄT MARCO KUHLMANN Institutionen för datavetenskap Example Alt Bar Fri Hun Pat Price Rain Res Type Est WillWait 1 Yes No No Yes Some $$$ No Yes French 0 10 Yes 2 Yes No No Yes Full
Läs mer729G43 Artificiell intelligens (2016) Maskininlärning 2. Marco Kuhlmann Institutionen för datavetenskap
729G43 Artificiell intelligens (2016) Maskininlärning 2 Marco Kuhlmann Institutionen för datavetenskap Förra gången: Gradientsökning tangentens lutning i punkt θ steglängdsfaktor Översikt Introduktion
Läs mer729G43 Artificiell intelligens / Maskininlärning 3. Marco Kuhlmann
729G43 Artificiell intelligens / 2015 Maskininlärning 3 Marco Kuhlmann Förra gången: Perceptroninlärning Beslutsregel predicerat y-värde Exempel: AND Välj parametrar θ 0, θ 1, θ 2 sådana att perceptronen
Läs mer729G43 Artificiell intelligens / Maskininlärning 2. Marco Kuhlmann
729G43 Artificiell intelligens / 2015 Maskininlärning 2 Marco Kuhlmann Förra gången: Linjär regression Gradientsökning Vandra ner i felets dal. Steg 0: Börja med ett godtyckligt värde för θ. Steg 1: Räkna
Läs merANN fk. Örjan Ekeberg. Framåtkopplade Nät. återkopplade nät. Olika arkitekturer. BackPropagation through Time. Kalman-Filter tekniker
Hantering av Tid Återkopplade Återkopplade Återkopplade t Återkopplade Återkopplade Temporala signaler är svåra Gör om temporal signal till spatial t 1 t 2 t 3 t 4 Återkopplade t Enklaste formen Neuronal
Läs merLinköpings universitet
Översikt Kognitionsvetenskaplig introduktionskurs Föreläsning 4 Informationsbearbetningsmodeller Vad är kognitionsvetenskap? Kort bakgrund/historik Representation och bearbetning av information Vetenskapliga
Läs mer729G43 Artificiell intelligens (2016) Maskininlärning 3. Marco Kuhlmann Institutionen för datavetenskap
729G43 Artificiell intelligens (2016) Maskininlärning 3 Marco Kuhlmann Institutionen för datavetenskap Modell med vektornotation parametervektor särdragsvektor Perceptron kombinerar linjär regression med
Läs merHKGBB0, Artificiell intelligens
HKGBB0, Artificiell intelligens Kortfattade lösningsförslag till tentan 3 november 2005 Arne Jönsson 1. Vad karaktäriserar dagens AI-forskning jämfört med den AI-forskning som bedrevs perioden 1960-1985.
Läs merFråga 5 (1 poäng) För att definiera ett sökproblem krävs...
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs merNeuronnätsbaserad agent
2001-10-05 Torbjörn Bäckmark Sammanfattning Jag har undersökt möjligheten att utveckla en agent som använder neurala nätverk för övervakning av börssystem. Jag har tittat på sambandet mellan köp- och säljvolymer
Läs merAsymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs merde var svåra att implementera och var väldigt ineffektiva.
OBS! För flervalsfrågorna gäller att flera alternativ eller inget alternativ kan vara korrekt. På flervalsfrågorna kan man bara ha rätt eller fel, dvs frågan måste vara helt korrekt besvarad. Totalt kan
Läs merFråga 5 (1 poäng) För att definiera ett sökproblem krävs...
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs merLARS ULVELAND HOPFIELDNÄTVERK FÖR IGENKÄNNING AV DEGRADERADE BILDER OCH HANDSKRIVNA TECKEN
LARS ULVELAD HOPFIELDÄTVERK FÖR IGEKÄIG AV DEGRADERADE BILDER OCH HADSKRIVA TECKE E PROJEKTRAPPORT FÖR PROJEKTKURSE I BILDAALYS HT 02 Teori för Hopfieldnätverk Hopfieldmodellen är en typ av neuronnät,
Läs mer729G43 Artificiell intelligens Maskininlärning. Arne Jönsson HCS/IDA
729G43 Artificiell intelligens Maskininlärning Arne Jönsson HCS/IDA Maskininlärning Introduktion Beslutsträdsinlärning Hypotesinlärning Linjär regression Vektorer Perceptroner Artificiella Neurala Nät
Läs merCHALMERS Finit Elementmetod M3 Institutionen för tillämpad mekanik. Teorifrågor
Teorifrågor : Visa att gradienten till en funktion pekar i den riktning derivatan är störst och att riktingen ortogonalt mot gradienten är tangent till funktionens nivåkurva. Visa hur derivatan i godtycklig
Läs merRegression med Genetiska Algoritmer
Regression med Genetiska Algoritmer Projektarbete, Artificiell intelligens, 729G43 Jimmy Eriksson, jimer336 770529-5991 2014 Inledning Hur många kramar finns det i världen givet? Att kunna estimera givet
Läs merAdaptiva Filter. Johan Haarala Signaler och System
Adaptiva Filter Johan Haarala 2002-12-11 Signaler och System Abstract Målet med den här rapporten är att ge en introduktion samt översikt till adaptiva filter. I den beskrivs några av de algoritmer som
Läs merLågrangsapproximation exempel. Singulärvärden och tillämpningar
och tillämpningar och tillämpningar A m n - matris B = A t A n n - matris B t = (A t A) t = A t (A t ) t = A t A = B B symmetrisk Spektralsatsen finns ON-bas v,..., v n för R n av egenvektorer till B.
Läs merAsymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna kan man bara ha rätt eller fel, dvs frågan måste vara helt korrekt besvarad för att man skall
Läs merSjälvinlärning av fyra-i-rad. JOHAN DALENIUS och BJÖRN LÖFROTH
Självinlärning av fyra-i-rad JOHAN DALENIUS och BJÖRN LÖFROTH Examensarbete Stockholm, Sverige 2011 Självinlärning av fyra-i-rad JOHAN DALENIUS och BJÖRN LÖFROTH Examensarbete i datalogi om 15 högskolepoäng
Läs merSjälv-inlärning av fyra-i-rad
Kungl. Tekniska Högskolan CSC Själv-inlärning av fyra-i-rad (Self-learning of the Connect 4 game) Författare: Björn Löfroth (bjorn.lofroth@gmail.com) 073-813 42 85 Forskarbacken 21 lgh 1201, 114 15 Stockholm
Läs merNeuronnätsbaserad identifiering av processparametrar vid tillverkning av pappersmassa
Neuronnätsbaserad identifiering av processparametrar vid tillverkning av pappersmassa Examensarbete utfört vid Bildbehandling Tekniska Högskolan i Linköping THORD ANDERSSON MIKAEL KARLSSON Reg nr: LiTH-ISY-EX-1709
Läs merFöreläsning 5. Approximationsteori
Föreläsning 5 Approximationsteori Låt f vara en kontinuerlig funktion som vi vill approximera med en enklare funktion f(x) Vi kommer använda två olika approximationsmetoder: interpolation och minstrakvadratanpassning
Läs merVälkomna till TSRT19 Reglerteknik M Föreläsning 9
Välkomna till TSRT19 Reglerteknik M Föreläsning 9 Sammanfattning av föreläsning 8 Prestandabegränsningar Robusthet Mer generell återkopplingsstruktur Sammanfattning av förra föreläsningen H(s) W(s) 2 R(s)
Läs merTentamensinstruktioner. Vid skrivningens slut
Matematiska institutionen Optimeringslära TENTAMEN TAOP14/TEN1 OPTIMERINGSLÄRA GRUNDKURS för I och Ii Datum: 13:e januari 2011 Tid: 8.00 13.00 Hjälpmedel: Kurslitteratur av Lundgren m fl: Optimeringslära
Läs merAntag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs merAdaptiva algoritmer och intelligenta maskiner, 2005 Hemtentamen
Adaptiva algoritmer och intelligenta maskiner, 2005 Hemtentamen Hemtentamen består av 5 uppgifter. Totalpoängen är 25 och varje uppgift ger 5 poäng. För godkänt krävs minst 10 poäng. Det är givetvis tillåtet
Läs merSammanfattning av föreläsning 4. Modellbygge & Simulering, TSRT62. Föreläsning 5. Identifiering av olinjära modeller
Sammanfattning av föreläsning 4 Modellbygge & Simulering, TSRT62 Föreläsning 5. Identifiering av olinjära modeller Reglerteknik, ISY, Linköpings Universitet Linjära parametriserade modeller: ARX, ARMAX,
Läs merSF1669 Matematisk och numerisk analys II Lösningsförslag till tentamen DEL A. r cos t + (r cos t) 2 + (r sin t) 2) rdrdt.
1. Beräkna integralen medelpunkt i origo. SF1669 Matematisk och numerisk analys II Lösningsförslag till tentamen 218-3-14 D DEL A (x + x 2 + y 2 ) dx dy där D är en cirkelskiva med radie a och Lösningsförslag.
Läs mer1(15) Bilaga 1. Av Projekt Neuronnätverk, ABB Industrigymnasium, Västerås Vt-05
1(15) Bilaga 1 2(15) Neuronnätslaboration Räknare Denna laboration riktar sig till gymnasieelever som går en teknisk utbildning och som helst har läst digitalteknik samt någon form av styrteknik eller
Läs merSELF- ORGANIZING MAPS
LINKÖPINGS UNIVERSITET Kognitionsvetenskapliga Programmet Examinator: Arne Jönsson SELF- ORGANIZING MAPS - Ett fördjupningsarbete inom Artificiell Intelligens Fack 52 katwa676@student.liu.se Sammanfattning
Läs merEKG-klassificering. Andreas Bergkvist, Michael Sörnell,
EKG-klassificering Projektrapport i Signaler och system Uppsala Universitet Inst. för signaler och system 2002-2-0 För: Mattias Johansson Av: Andreas Bergkvist, andreasbergkvist@hotmail.com Michael Sörnell,
Läs merBiologi: en utmaning för Numerisk Analys
Biologi: en utmaning för Numerisk Analys Stefan Engblom Beräkningsvetenskap Informationsteknologi Uppsala Universitet Docentföreläsning, Uppsala, 6:e Mars, 2013 (TDB/IT UU) Biologiska Beräkningar 130306
Läs mer1. (Dugga 1.1) (a) Bestäm v (3v 2u) om v = . (1p) and u =
Kursen bedöms med betyg,, 5 eller underkänd, där 5 är högsta betyg. För godkänt betyg krävs minst poäng från uppgifterna -7. Var och en av dessa sju uppgifter kan ge maximalt poäng. För var och en av uppgifterna
Läs merOptimalitetsvillkor. Optimum? Matematisk notation. Optimum? Definition. Definition
Optimum? När man har formulerat sin optimeringsmodell vill man lösa den Dvs finna en optimal lösning, x, till modellen Nästan alltid: Sökmetoder: Stå i en punkt, gå till en annan (bättre Upprepa, tills
Läs merSub-symbolisk kognition & Konnektionism. Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén,
Sub-symbolisk kognition & Konnektionism Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén, mats.andren@liu.se 1 Konnektionism Neutrala nät baseras på en (förenklad) modell av hur hjärnan fungerar.
Läs merKonvergens för iterativa metoder
Konvergens för iterativa metoder 1 Terminologi Iterativa metoder används för att lösa olinjära (och ibland linjära) ekvationssystem numeriskt. De utgår från en startgissning x 0 och ger sedan en följd
Läs merÖvning 3 FEM för Ingenjörstillämpningar Rickard Shen Balkproblem och Ramverk
.6 Stelkroppsrörelse i balk Bild av Veronica Wåtz w δ θl Givet: w δ + θl () θ θ θ Sökt: Visa att förskjutningsansatsen kan beskriva en godtycklig stelkroppsrörelse, dvs w x δ + θx. w θ : Allmänt: wξ N
Läs merOm the Big Five och förmågor
Om the Big Five och förmågor I the Big Five kallas det vi ska uppnå och bedöma: Förmågor Eftersom Förmågor till mycket stor del utgörs av medfödda förmågor. Jag kommer därför att i stället att tala om:
Läs merA B C D E F A B C D E F (3) Svar: Tabellen ger grafen:
1. Russel & Norvig menar att man kan utveckla AI-system som antingen tänker som en människa, handlar som en människa, tänker rationellt eller handlar rationellt. Förklara och exemplifiera dessa fyra synsätt.
Läs merSammanfattning av föreläsning 11. Modellbygge & Simulering, TSRT62. Föreläsning 12. Simulering. Föreläsning 12. Numeriska metoder och Simulering
Sammanfattning av föreläsning 11 Modellbygge & Simulering, TSRT62 Föreläsning 12. Simulering Reglerteknik, ISY, Linköpings Universitet Index för en DAE Antalet derivationer som behövs för att lösa ut ż
Läs merSammanfattning (Nummedelen)
DN11 Numeriska metoder och grundläggande programmering Sammanfattning (Nummedelen Icke-linjära ekvationer Ex: y=x 0.5 Lösningsmetoder: Skriv på polynomform och använd roots(coeffs Fixpunkt x i+1 =G(x i,
Läs merNeurala nätverk och språkigenkänning. Henrik Linnarsson. Linköping University
Neurala nätverk och språk Henli807!1 Neurala nätverk och språkigenkänning Henrik Linnarsson Linköping University Neurala nätverk och språk Henli807!2 RNN, LSTM och språkigenkänning Inledning Idag är språkigenkänning
Läs merNeuronen 11/22/2012. Översikt. Artificiell nod. Kommunikation. Neuronen som detektor. Syftet med återstående föreläsningarna
Översikt Neuronen Biologisk neuron Artificiell nod/enhet Organisering i nät Interaktiva nätverk med inhibering Övergripande beräkningsprincip Parallel constraint satisfaction Syftet med återstående föreläsningarna
Läs merDigitalteknik 7.5 hp distans: 5.1 Generella sekvenskretsar 5.1.1
Digitalteknik 7.5 hp distans: 5.1 Generella sekvenskretsar 5.1.1 Från Wikipedia: Sekvensnät Ett sekvensnäts utgångsvärde beror inte bara på indata, utan även i vilken ordning datan kommer (dess sekvens).
Läs merPredicted Future - att förutsäga aktiekurser med artificiella neuronnät
Predicted Future - att förutsäga aktiekurser med artificiella neuronnät Kandidatarbete inom Data- och informationsteknik LINUS FÄRNSTRAND OSCAR SÖDERLUND NIKLAS LÖNNERFORS EMIL BERNERSKOG TOBIAS AXELL
Läs merUppgifter till kurs: Geometriska analys och designmetoder för olinjära system
Uppgifter till kurs: Geometriska analys och designmetoder för olinjära system Erik Frisk 2 juni 200 Uppgift. Antag ett linjärt system som beskrivs av exkvationerna: ẋ = Ax+Bu y = Cx med n = 4 tillstånd,
Läs merModeller och simulering av språkprocessning
Modeller och simulering av språkprocessning Seriell processmodell + parallell processmodell Parallell modell med 2-vägsförbindelser Artificiellt neuralt nätverk (ANN) Interaktiv aktiverings-modell (IAM)
Läs merTeorifrågor. 6. Beräkna konditionstalet för en diagonalmatris med diagonalelementen 2/k, k = 1,2,...,20.
Teorifrågor Störningsanalys 1. Värdet på x är uppmätt till 0.956 med ett absolutfel på högst 0.0005. Ge en övre gräns för absolutfelet i y = exp(x) + x 2. Motivera svaret. 2. Ekvationen log(x) x/50 = 0
Läs merOrdinära differentialekvationer,
(ODE) Ordinära differentialekvationer, del 1 Beräkningsvetenskap II It is a truism that nothing is permanent except change. - George F. Simmons ODE:er är modeller som beskriver förändring, ofta i tiden
Läs merEn generell prediktiv kodare utnyttjar signalens utseende N steg tillbaka i tiden för kodningen, dvs vi kodar efter den betingade fördelningen
Prediktiv kodning Närliggande sampel i en signal är oftast starkt korrelerade med varandra, det kan därför vara en bra ide att försöka utnyttja denna korrelation (minnet) innan kvantiseringen för att få
Läs merInlärning utan övervakning
Översikt Biologiska mekanismer bakom inlärning Inlärning utan övervakning Inlärning utan övervakning Hebbiansk modellinlärning Självorganisering Arbetsfördelning mellan noder i ett lager som utvecklas
Läs merLinjär prediktion. Prediktiv kodning. Linjär prediktion. Prediktiv kodare och avkodare
Prediktiv kodning Linjär prediktion Närliggande sampel i en signal är oftast starkt korrelerade med varandra, det kan därför vara en bra ide att försöka utnyttja denna korrelation (minnet) innan kvantiseringen
Läs merTentamen i Digitalteknik TSEA22
Tentamen i Digitalteknik TSEA22 Datum för tentamen 100601 Sal TERC,TER2 Tid 14-18 Kurskod TSEA22 Provkod TEN 1 Kursnamn Digitalteknik Institution ISY Antal uppgifter 5 Antal sidor 5 Jour/Kursansvarig Olle
Läs merVälkomna till TSRT19 Reglerteknik M Föreläsning 9
Välkomna till TSRT19 Reglerteknik M Föreläsning 9 Sammanfattning av föreläsning 8 Prestandabegränsningar Robusthet Mer generell återkopplingsstruktur Sammanfattning föreläsning 8 2 F(s) Lead-lag design:
Läs merSammanfattninga av kursens block inför tentan
FÖRELÄSNING 14 Sammanfattninga av kursens block inför tentan BILD Vi har jobbat med numerisk metoder, datorprogram och tolkning av lösning. Numeriska metoder BILD olika områden: Linjära ekvationssytem,
Läs merExempel på tentamensuppgifter
STOCKHOLMS UNIVERSITET 4 mars 2010 Matematiska institutionen Avd. för matematisk statistik Mikael Andersson Exempel på tentamensuppgifter Uppgift 1 Betrakta en allmän I J-tabell enligt 1 2 3 J Σ 1 n 11
Läs mer4.6 Stelkroppsrörelse i balk
Övning Balkar, Balk-Stång, Symmetri Rickard Shen 0-0- FEM för Ingenjörstillämpningar, SE05 rshen@kth.se.6 Stelkroppsrörelse i balk Bild av Veronica Wåtz Givet: w L w L () Sökt: Visa att förskjutningsansatsen
Läs merTeknisk Beräkningsvetenskap I Tema 3: Styvhetsmodellering av mjuk mark med icke-linjära ekvationer
Teknisk Beräkningsvetenskap I Tema 3: Styvhetsmodellering av mjuk mark med icke-linjära ekvationer Eddie Wadbro 18 november, 2015 Eddie Wadbro, Tema 3: Icke-linjära ekvationer, 18 november, 2015 (1 : 37)
Läs merTENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1/TM1, TMA671 2015-04-18
Institutionen för Matematiska Vetenskaper Göteborg TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F/TM, TMA67 5-4-8 DAG: Lördag 8 april 5 TID: 8.3 -.3 SAL: V Ansvarig: Ivar Gustafsson, tel: 75-33545 Förfrågningar:
Läs merI en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd.
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs merLösningsförslag till tentamen i SF1861 Optimeringslära för T. Torsdag 28 maj 2010 kl
Lösningsförslag till tentamen i SF86 Optimeringslära för T. Torsdag 28 maj 2 kl. 4. 9. Examinator: Per Enqvist, tel. 79 62 98. (a) Inför variablerna x = (x sr, x sm, x sp, x sa, x sd, x gr, x gm, x gp,
Läs mer4 Paket- och kretskopplade nät
4 Paket- och kretskopplade nät Kommunikationssystem 2G1501 Syftet: Syftet med detta kapitel är att förstå egenskaperna hos, och skillnaderna mellan, de tre olika kopplade nätverkstyperna kretskopplade
Läs merInledning till statistikteorin. Skattningar och konfidensintervall för μ och σ
Inledning till statistikteorin Skattningar och konfidensintervall för μ och σ Punktskattningar Stickprov från en population - - - Vi vill undersöka bollhavet men får bara göra det genom att ta en boll
Läs merTentamen i EDA320 Digitalteknik för D2
CHALMERS TEKNISKA HÖGSKOLA Institutionen för datorteknik Tentamen i EDA320 Digitalteknik för D2 Tentamenstid: onsdagen den 2 mars 997 kl 4.5-8.5. Sal: vv Examinator: Peter Dahlgren Tel. expedition 03-772677.
Läs merLaboration 3. Ergodicitet, symplektiska scheman och Monte Carlo-integration
Laboration 3 Ergodicitet, symplektiska scheman och Monte Carlo-integration Hela labben måste vara redovisad och godkänd senast 3 januari för att generera bonuspoäng till tentan. Kom väl förberedd och med
Läs merUtmaningar i fo rskolan
Studiematerial Utmaningar i fo rskolan Att förebygga problemskapande beteenden Utgiven av Gothia Fortbildning, 2015 Författare: David Edfelt, leg. psykolog, provivus.se Handledning, utbildning och utveckling
Läs merAnalys av egen tidsserie
Analys av egen tidsserie Tidsserieanalys Farid Bonawiede Samer Haddad Michael Litton Alexandre Messo 9 december 25 3 25 Antal solfläckar 2 15 1 5 5 1 15 2 25 3 Månad Inledning Vi har valt att betrakta
Läs merNeurovetenskap 30/08/2013. Kognitiv neurovetenskap. Lober. Olika färg, olika vävnadsstruktur. Hjärnbarken
729G01 Kognitionsvetenskaplig introduktionskurs: Kognitiv neurovetenskap och kognitiv modellering Rita Kovordanyi, Institutionen för datavetenskap (IDA) rita.kovordanyi@liu.se Kognitiv neurovetenskap Baseras
Läs merTentamen i Beräkningsvetenskap II, 5.0 hp,
Uppsala universitet Institutionen för informationsteknologi Beräkningsvetenskap Per Lötstedt, tel. 47 2986 Saleh Rezaeiravesh Tentamen i Beräkningsvetenskap II, 5.0 hp, 206-0-4 Skrivtid: 4 00 7 00 (OBS!
Läs merTentamen i Digitalteknik, EITF65
Elektro- och informationsteknik Tentamen i Digitalteknik, EITF65 3 januari 2018, kl. 14-19 Skriv anonymkod och identifierare, eller personnummer, på alla papper. Börja en ny uppgift på ett nytt papper.
Läs merVad behövs för att skapa en tillståndsrymd?
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Läs merUtvärdering av maskinlärningstekniker för styrning av individer i stridande förband i datorspel O L O F B J Ö R K
Utvärdering av maskinlärningstekniker för styrning av individer i stridande förband i datorspel O L O F B J Ö R K Examensarbete Stockholm, Sverige 2007 Utvärdering av maskinlärningstekniker för styrning
Läs merInstitutionen för systemteknik, ISY, LiTH. Tentamen i. Tid: kl
Institutionen för systemteknik, ISY, LiTH Tentamen i Digitalteknik TSIU05/TEN1 Tid: 2016 10 26 kl. 14 18 Lokal : TER3 TER4 Ansvarig lärare: Michael Josefsson. Besöker lokalen kl 16. Tel.: 013-28 12 64
Läs merDenna föreläsning. DN1212 Numeriska metoder och grundläggande programmering FN Felfortplantning och kondition
Denna föreläsning DN1212 Numeriska metoder och grundläggande programmering FN2 09-02-10 Hedvig Kjellström hedvig@csc.kth.se! Repetition av FN2! Felkalkyl (GNM kap 2)! Olinjära ekvationer (GNM kap 3)! Linjära
Läs merObservationer rörande omvandling av digitala yttäckande vektordata till rasterformat.
GeoDataEnheten Kulturgeografiska Institutionen 106 91 Stockhlm Observationer rörande omvandling av digitala yttäckande vektordata till rasterformat. 1993 Stefan Ene INNEHÅLL Inledning Omvandling av koordinatsatta
Läs merKognitiv Modellering
Kognitiv Modellering Mårten Szymanowski 20 januari 2004 Innehåll 1 Kognitiv Modellering 2 1.1 Varför?................................ 2 2 Grundläggande psykologiska fenomen 3 2.1 Stimulusgeneralisering........................
Läs merSätt t = (x 1) 2 + y 2 + 2(x 1). Då är f(x, y) = log(t + 1) = t 1 2 t t3 + O(t 4 ) 1 2 (x 1) 2 + y 2 + 2(x 1) ) 2 (x 1) 2 + y 2 + 2(x 1) ) 3
Lektion 7, Flervariabelanalys den februari 000 9 Bestäm Taylorserien till funktionen log( + x + y + xy) i punkten (0, 0) Vi kan faktorisera argumentet till logaritmen och förenkla funktionen log( + x +
Läs merKTH 2D1240 OPEN vt 06 p. 1 (5) J.Oppelstrup
KTH 2D1240 OPEN vt 06 p. 1 (5) Tentamen i Numeriska Metoder gk II 2D1240 OPEN (& andra) Fredag 2006-04-21 kl. 13 16 Hjälpmedel: Del 1 inga, Del 2 rosa formelsamlingen som man får ta fram när man lämnar
Läs mer2D1250 Tillämpade numeriska metoder II
1 lof Runborg NADA 2 april 2002 2D1250 Tillämpade numeriska metoder II A LABRATIN 5 rdinära differentialekvationer I den här laborationen ska ni experimentera med olika numeriska metoder för ordinära differentialekvationer.
Läs merTräning av Artificiella Neuronnät med Motexempel Utvalda av Expertpanel (HS-IDA-EA )
Träning av Artificiella Neuronnät med Motexempel Utvalda av Expertpanel (HS-IDA-EA-01-109) Christer Larsson (a98chrla@student.his.se) Institutionen för datavetenskap Högskolan i Skövde, Box 408 S-54128
Läs merÖvningshäfte 2: Induktion och rekursion
GÖTEBORGS UNIVERSITET MATEMATIK 1, MMG200, HT2017 INLEDANDE ALGEBRA Övningshäfte 2: Induktion och rekursion Övning D Syftet är att öva förmågan att utgående från enkla samband, aritmetiska och geometriska,
Läs merReglerteori. Föreläsning 4. Torkel Glad
Reglerteori. Föreläsning 4 Torkel Glad Föreläsning 1 Torkel Glad Januari 2018 2 Sammanfattning av Föreläsning 3 Kovariansfunktion: R u (τ) = Eu(t)u(t τ) T Spektrum: Storleksmått: Vitt brus: Φ u (ω) =
Läs merIcke-linjära ekvationer
stefan@it.uu.se Exempel x f ( x = e + x = 1 5 3 f ( x = x + x x+ 5= 0 f ( x, y = cos( x sin ( x + y = 1 Kan endast i undantagsfall lösas exakt Kan sakna lösning, ha en lösning, ett visst antal lösningar
Läs merInstitutionen för Matematiska Vetenskaper TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1/TM1, TMA671 2014-05-26
Institutionen för Matematiska Vetenskaper Göteborg TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F/TM, TMA67 4-5-6 DAG: Måndag 6 maj 4 TID: 4. - 8. SAL: V Ansvarig: Ivar Gustafsson, tel: 75-33545 Förfrågningar:
Läs merDelprov 1 rapport över sociala webben
Delprov 1 rapport över sociala webben I denna uppgift ska jag försöka att förklara grundligt hur 5 principer som ska beskriver webbens spelregler, det vill säga karaktäristiska egenskaper som är centrala
Läs mer. (2p) 2x + 2y + z = 4 y + 2z = 2 4x + 3y = 6
Kursen bedöms med betyg, 4, 5 eller underkänd, där 5 är högsta betyg För godkänt betyg krävs minst 4 poäng från uppgifterna -7 Var och en av dessa sju uppgifter kan ge maximalt poäng För var och en av
Läs merKapitel 7 Samplingfördelningar och Centrala gränsvärdessatsen
Sannolikhetslära och inferens II Kapitel 7 Samplingfördelningar och Centrala gränsvärdessatsen 1 Statistikor och samplingfördelningar I Kapitel 6 studerades metoder för att bestämma sannolikhetsfördelningen
Läs merKunskapsrepresentation
Kunskapsrepresentation Hur representeras information? Representationer som bevarar strukturen perceptionsbaserad kunskapsrepresentation Representationer som bevarar innebörden meningsbaserad kunskapsrepresentation
Läs merFöreläsning 2: Simplexmetoden. 1. Repetition av geometriska simplexmetoden. 2. Linjärprogrammeringsproblem på standardform.
Föreläsning 2: Simplexmetoden. Repetition av geometriska simplexmetoden. 2. Linjärprogrammeringsproblem på standardform. 3. Simplexalgoritmen. 4. Hur bestämmer man tillåtna startbaslösningar? Föreläsning
Läs merFöreläsning 7. Felrättande koder
Föreläsning 7 Felrättande koder Antag att vi vill skicka ett meddelande som består av bokstäver a,b,c,d. Vi kan koda a,b,c,d. Antag att det finns en viss sannolikhet att en bit i ett meddelande som skickas
Läs merF13: Regulatorstrukturer och implementering
Föreläsning 2 PID-reglering Förra föreläsningen F3: Regulatorstrukturer och implementering 25 Februari, 209 Lunds Universitet, Inst för Reglerteknik. Bodediagram för PID-regulator 2. Metoder för empirisk
Läs merVad händer efter klick? Av Eva Bertilsson och Emelie Johnson Vegh, publicerad i Canis 2004
Vad händer efter klick? Av Eva Bertilsson och Emelie Johnson Vegh, publicerad i Canis 2004 För den klickerkloka hunden betyder klick som bekant två saker. För det första talar klicket om att belöning är
Läs merALGORITMER, OPTIMERING OCH LABYRINTER
ALGORITMER, OPTIMERING OCH LABYRINTER Text: Marie Andersson, Learncode AB Illustrationer: Li Rosén Foton: Shutterstock Har du någonsin lagat mat efter recept eller monterat ihop en möbel från IKEA? Då
Läs merLaboration 1 i SF1544: Öva på Matlab och konstruera en optimal balk Avsikten med denna laboration är att:
Laboration 1 i SF1544: Öva på Matlab och konstruera en optimal balk Avsikten med denna laboration är att: - snabbt komma igång med träning på matlabprogrammering (uttnyttja gärna alla schemalagda laborationstillfällen,
Läs merTENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1, TMA671
Institutionen för Matematik LINJÄR ALGEBRA OCH NUMERISK ANALYS F Göteborg --9 TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F, TMA67 OBS! NYA KURSEN DAG: Tisdag 9 januari TID: 8.45 -.45 SAL: V Ansvarig:
Läs merTentamen i Beräkningsvetenskap I och KF, 5.0 hp,
Uppsala universitet Institutionen för informationsteknologi Avdelningen för beräkningsvetenskap Tentamen i Beräkningsvetenskap I och KF, 5.0 hp, 017-0-14 Skrivtid: 14 00 17 00 (OBS! Tre timmars skrivtid!)
Läs mer