Enlagersnät Flerlagersnät Generalisering. Artificiella Neuronnät
|
|
- Lars-Erik Arvidsson
- för 6 år sedan
- Visningar:
Transkript
1 Artificiella Neuronnät
2 1 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund 2 Begränsningar Träning av enlagersnät 3 Möjliga avbildningar Backprop algoritmen Praktiska problem 4
3 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund 1 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund 2 Begränsningar Träning av enlagersnät 3 Möjliga avbildningar Backprop algoritmen Praktiska problem 4
4 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund (ANN) Inspirerade av hur nervsystemet fungerar Parallell bearbetning
5 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund (ANN) Inspirerade av hur nervsystemet fungerar Parallell bearbetning Vi begränsar oss här till en typ av ANN: Framåtkopplade nät med lagerstruktur
6 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund (ANN) Inspirerade av hur nervsystemet fungerar Parallell bearbetning Vi begränsar oss här till en typ av ANN: Framåtkopplade nät med lagerstruktur
7 Användningsområden Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Fungerar i princip som en generell Lärande låda!
8 Användningsområden Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Fungerar i princip som en generell Lärande låda! Klassificering Ja/Nej
9 Användningsområden Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Fungerar i princip som en generell Lärande låda! Funktionsapproximering [ 1, 1]
10 Användningsområden Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Fungerar i princip som en generell Lärande låda! Flerdimensionell avbildning
11 Klassiska exempel Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund
12 Klassiska exempel Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund ALVINN System för att styra en bil
13 Klassiska exempel Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund ALVINN System för att styra en bil TV bild Rattutslag
14 Klassiska exempel Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund ALVINN System för att styra en bil TV bild Rattutslag Tränas med riktiga förares beteende som träningsexempel
15 Klassiska exempel Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund NetTalk Program för talsyntes
16 Klassiska exempel Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund NetTalk Program för talsyntes "Hejsan" Fonem Skriven text Kodat uttal
17 Klassiska exempel Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund NetTalk Program för talsyntes "Hejsan" Fonem Skriven text Kodat uttal Tränas med stor databas över uttalad text
18 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Hur fungerar riktiga nervceller?
19 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Hur fungerar riktiga nervceller? Dendriter Soma Axon
20 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Hur fungerar riktiga nervceller? Dendriter Soma Axon Dendriter Soma (cellkropp) Axon
21 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Hur fungerar riktiga nervceller? Dendriter Soma Axon Dendriter Passiv mottagning av (kemiska) signaler Soma (cellkropp) Axon
22 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Hur fungerar riktiga nervceller? Dendriter Soma Axon Dendriter Passiv mottagning av (kemiska) signaler Soma (cellkropp) Summering, tröskling Axon
23 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Hur fungerar riktiga nervceller? Dendriter Soma Axon Dendriter Passiv mottagning av (kemiska) signaler Soma (cellkropp) Summering, tröskling Axon Aktiva pulser sänds till andra celler
24 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Nervceller kan se väldigt olika ut
25 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund Nervceller kan se väldigt olika ut
26 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund ANN-karikatyren (en förenklad bild av informationsbehandlingen)
27 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund ANN-karikatyren (en förenklad bild av informationsbehandlingen) Σ
28 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund ANN-karikatyren (en förenklad bild av informationsbehandlingen) Σ Viktade insignaler Summering Trösklad utsignal
29 Begränsningar Träning av enlagersnät 1 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund 2 Begränsningar Träning av enlagersnät 3 Möjliga avbildningar Backprop algoritmen Praktiska problem 4
30 Begränsningar Träning av enlagersnät Vad menas med ett?
31 Begränsningar Träning av enlagersnät Vad menas med ett?
32 Begränsningar Träning av enlagersnät Vad menas med ett? Varje cell fungerar oberoende av de andra!
33 Begränsningar Träning av enlagersnät Vad menas med ett? Varje cell fungerar oberoende av de andra! Det räcker att förstå vad en cell kan beräkna
34 Begränsningar Träning av enlagersnät Vad kan en enstaka cell beräkna?
35 Begränsningar Träning av enlagersnät Vad kan en enstaka cell beräkna? Σ
36 Begränsningar Träning av enlagersnät Vad kan en enstaka cell beräkna? Σ x Indata i vektorform w Vikterna i vektorform o Utsignalen
37 Begränsningar Träning av enlagersnät Vad kan en enstaka cell beräkna? Σ x Indata i vektorform w Vikterna i vektorform o Utsignalen ( ) o = sign x i w i i
38 Begränsningar Träning av enlagersnät Geometrisk tolkning ( ) o = sign x i w i i
39 Begränsningar Träning av enlagersnät Geometrisk tolkning ( ) o = sign x i w i i x 2 w x 1
40 Begränsningar Träning av enlagersnät Geometrisk tolkning ( ) o = sign x i w i i x 2 w x 1 Separerande hyperplan Linjär separerbarhet
41 Inlärning i ANN Begränsningar Träning av enlagersnät Vad innebär inlärning?
42 Inlärning i ANN Begränsningar Träning av enlagersnät Vad innebär inlärning? Nätets struktur är normalt fix
43 Inlärning i ANN Begränsningar Träning av enlagersnät Vad innebär inlärning? Nätets struktur är normalt fix Inlärning innebär att hitta de bästa vikterna w i
44 Inlärning i ANN Begränsningar Träning av enlagersnät Vad innebär inlärning? Nätets struktur är normalt fix Inlärning innebär att hitta de bästa vikterna w i Två bra algoritmer för enlagersnät: Perceptroninlärning Deltaregeln
45 Begränsningar Träning av enlagersnät Perceptroninlärning
46 Begränsningar Träning av enlagersnät Perceptroninlärning Inkrementell inlärning
47 Begränsningar Träning av enlagersnät Perceptroninlärning Inkrementell inlärning Vikterna ändras bara vid felklassificering
48 Begränsningar Träning av enlagersnät Perceptroninlärning Inkrementell inlärning Vikterna ändras bara vid felklassificering Uppdateringsregel: w i w i + η(t o)x i
49 Begränsningar Träning av enlagersnät Perceptroninlärning Inkrementell inlärning Vikterna ändras bara vid felklassificering Uppdateringsregel: w i w i + η(t o)x i Konvergerar alltid om klassningsproblemet är lösbart
50 Begränsningar Träning av enlagersnät Deltaregeln (LMS-regeln)
51 Begränsningar Träning av enlagersnät Deltaregeln (LMS-regeln) Inkrementell inlärning
52 Begränsningar Träning av enlagersnät Deltaregeln (LMS-regeln) Inkrementell inlärning Vikterna ändras alltid
53 Begränsningar Träning av enlagersnät Deltaregeln (LMS-regeln) Inkrementell inlärning Vikterna ändras alltid w i w i + η(t w T x)x i
54 Begränsningar Träning av enlagersnät Deltaregeln (LMS-regeln) Inkrementell inlärning Vikterna ändras alltid w i w i + η(t w T x)x i Konvergerar endast i statistisk mening
55 Begränsningar Träning av enlagersnät Deltaregeln (LMS-regeln) Inkrementell inlärning Vikterna ändras alltid w i w i + η(t w T x)x i Konvergerar endast i statistisk mening Hittar en optimal lösning även om problemet inte är exakt lösbart
56 Möjliga avbildningar Backprop algoritmen Praktiska problem 1 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund 2 Begränsningar Träning av enlagersnät 3 Möjliga avbildningar Backprop algoritmen Praktiska problem 4
57 Möjliga avbildningar Backprop algoritmen Praktiska problem Vad är poängen med att ha flera lager?
58 Möjliga avbildningar Backprop algoritmen Praktiska problem Vad är poängen med att ha flera lager?
59 Möjliga avbildningar Backprop algoritmen Praktiska problem Vad är poängen med att ha flera lager?
60 Möjliga avbildningar Backprop algoritmen Praktiska problem Vad är poängen med att ha flera lager?
61 Möjliga avbildningar Backprop algoritmen Praktiska problem Vad är poängen med att ha flera lager? Ett tvålagersnät kan implementera godtyckliga beslutsytor
62 Möjliga avbildningar Backprop algoritmen Praktiska problem Vad är poängen med att ha flera lager? Ett tvålagersnät kan implementera godtyckliga beslutsytor...förutsatt att man har tillräckligt många gömda enheter
63 Möjliga avbildningar Backprop algoritmen Praktiska problem Blir det ännu bättre med ännu fler lager?
64 Möjliga avbildningar Backprop algoritmen Praktiska problem Blir det ännu bättre med ännu fler lager? Två lager kan beskriva alla klassificeringar Två lager kan approximera alla snälla funktioner
65 Möjliga avbildningar Backprop algoritmen Praktiska problem Blir det ännu bättre med ännu fler lager? Två lager kan beskriva alla klassificeringar Två lager kan approximera alla snälla funktioner Tre lager kan ibland göra samma sak effektivare
66 Möjliga avbildningar Backprop algoritmen Praktiska problem Blir det ännu bättre med ännu fler lager? Två lager kan beskriva alla klassificeringar Två lager kan approximera alla snälla funktioner Tre lager kan ibland göra samma sak effektivare Fler än tre lager används mycket sällan
67 Möjliga avbildningar Backprop algoritmen Praktiska problem Hur tränar man ett flerlagersnät?
68 Möjliga avbildningar Backprop algoritmen Praktiska problem Hur tränar man ett flerlagersnät? Varken perceptroninlärning eller deltaregeln kan användas
69 Möjliga avbildningar Backprop algoritmen Praktiska problem Hur tränar man ett flerlagersnät? Varken perceptroninlärning eller deltaregeln kan användas Fundamentalt problem: När nätet svarar fel vet man inte i vilken riktning vikterna ska ändras för att det ska bli bättre
70 Möjliga avbildningar Backprop algoritmen Praktiska problem Hur tränar man ett flerlagersnät? Varken perceptroninlärning eller deltaregeln kan användas Fundamentalt problem: När nätet svarar fel vet man inte i vilken riktning vikterna ska ändras för att det ska bli bättre Avgörande trick: Använd trösklingsliknande kontinuerliga funktioner
71 Möjliga avbildningar Backprop algoritmen Praktiska problem Hur tränar man ett flerlagersnät? Varken perceptroninlärning eller deltaregeln kan användas Fundamentalt problem: När nätet svarar fel vet man inte i vilken riktning vikterna ska ändras för att det ska bli bättre Avgörande trick: Använd trösklingsliknande kontinuerliga funktioner Σ Σ
72 Möjliga avbildningar Backprop algoritmen Praktiska problem
73 Möjliga avbildningar Backprop algoritmen Praktiska problem Grundidé: Minimera felet (E) som en funktion av alla vikter ( w)
74 Möjliga avbildningar Backprop algoritmen Praktiska problem Grundidé: Minimera felet (E) som en funktion av alla vikter ( w) 1 Beräkna den riktning i viktrummet dit felet ökar mest: grad w (E)
75 Möjliga avbildningar Backprop algoritmen Praktiska problem Grundidé: Minimera felet (E) som en funktion av alla vikter ( w) 1 Beräkna den riktning i viktrummet dit felet ökar mest: grad w (E) 2 Ändra vikterna i motsatt riktning w i w i η E w i
76 Möjliga avbildningar Backprop algoritmen Praktiska problem Normalt utnyttjar man felet för ett exempel i taget
77 Möjliga avbildningar Backprop algoritmen Praktiska problem Normalt utnyttjar man felet för ett exempel i taget E = 1 2 (t k o k ) 2 k Out
78 Möjliga avbildningar Backprop algoritmen Praktiska problem Normalt utnyttjar man felet för ett exempel i taget E = 1 2 k Out (t k o k ) 2 Som trösklingsliknande funktion används ofta ρ(y) = e y e x
79 Möjliga avbildningar Backprop algoritmen Praktiska problem Gradienten kan uttryckas som en funktion av ett lokalt generaliserat fel δ E w ji = δ i x j
80 Möjliga avbildningar Backprop algoritmen Praktiska problem Gradienten kan uttryckas som en funktion av ett lokalt generaliserat fel δ E w ji = δ i x j w ji w ji + ηδ i x j
81 Möjliga avbildningar Backprop algoritmen Praktiska problem Gradienten kan uttryckas som en funktion av ett lokalt generaliserat fel δ E w ji = δ i x j w ji w ji + ηδ i x j Utlagret: δ k = o k (1 o k ) (t k o k )
82 Möjliga avbildningar Backprop algoritmen Praktiska problem Gradienten kan uttryckas som en funktion av ett lokalt generaliserat fel δ E w ji = δ i x j w ji w ji + ηδ i x j Utlagret: δ k = o k (1 o k ) (t k o k ) Gömda lager: δ h = o h (1 o h ) w kh δ k k Out
83 Möjliga avbildningar Backprop algoritmen Praktiska problem Gradienten kan uttryckas som en funktion av ett lokalt generaliserat fel δ E w ji = δ i x j w ji w ji + ηδ i x j Utlagret: δ k = o k (1 o k ) (t k o k ) Gömda lager: δ h = o h (1 o h ) w kh δ k k Out Felet δ propagerar bakåt genom lagren Error backpropagation (BackProp)
84 Möjliga avbildningar Backprop algoritmen Praktiska problem Att tänka på när man använder BackProp
85 Möjliga avbildningar Backprop algoritmen Praktiska problem Att tänka på när man använder BackProp Långsam Kräver normalt tusentals genomgångar av datamängden
86 Möjliga avbildningar Backprop algoritmen Praktiska problem Att tänka på när man använder BackProp Långsam Kräver normalt tusentals genomgångar av datamängden Gradientföljning Riskerar att fastna i lokala minima
87 Möjliga avbildningar Backprop algoritmen Praktiska problem Att tänka på när man använder BackProp Långsam Kräver normalt tusentals genomgångar av datamängden Gradientföljning Riskerar att fastna i lokala minima Många parametrar Steglängden η Antal lager Antal gömda enheter In- och utrepresentationen Initiala viktvärden
88 1 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund 2 Begränsningar Träning av enlagersnät 3 Möjliga avbildningar Backprop algoritmen Praktiska problem 4
89 Näten interpolerar normalt mjukt mellan träningsdatapunkterna
90 Näten interpolerar normalt mjukt mellan träningsdatapunkterna
91 Näten interpolerar normalt mjukt mellan träningsdatapunkterna Ger oftast bra generalisering
92 Risk för överinlärning!
93 Risk för överinlärning! Om nätet har för många frihetsgrader (vikter) är risken större att inlärningen hittar en konstig lösning
94 Risk för överinlärning! Om nätet har för många frihetsgrader (vikter) är risken större att inlärningen hittar en konstig lösning
95 Genom att begränsa antalet gömda noder får man bättre generalisering
96 Genom att begränsa antalet gömda noder får man bättre generalisering
Artificiella Neuronnät
Artificiella Neuronnät 2 3 4 2 (ANN) Inspirerade av hur nervsystemet fungerar Parallell bearbetning Vi begränsar oss här till en typ av ANN: Framåtkopplade nät med lagerstruktur 3 4 Fungerar i princip
2D Potentialen i en nervcell definieras normalt som skillnaden i spänning mellan dess axon och dendrit.
2D1432 Artificiella Neuronnät och andra lärande system Lösningsförslag till Tentamen 2003-03-06 Inga hjälpmedel. Uppgift 1 Vilka av följande påståenden är sanna? Korrigera de som är fel. 1. Potentialen
ARTIFICIELLA NEURALA NÄT. MARCO KUHLMANN Institutionen för datavetenskap
ARTIFICIELLA NEURALA NÄT MARCO KUHLMANN Institutionen för datavetenskap Example Alt Bar Fri Hun Pat Price Rain Res Type Est WillWait 1 Yes No No Yes Some $$$ No Yes French 0 10 Yes 2 Yes No No Yes Full
729G43 Artificiell intelligens (2016) Maskininlärning 2. Marco Kuhlmann Institutionen för datavetenskap
729G43 Artificiell intelligens (2016) Maskininlärning 2 Marco Kuhlmann Institutionen för datavetenskap Förra gången: Gradientsökning tangentens lutning i punkt θ steglängdsfaktor Översikt Introduktion
729G43 Artificiell intelligens / Maskininlärning 3. Marco Kuhlmann
729G43 Artificiell intelligens / 2015 Maskininlärning 3 Marco Kuhlmann Förra gången: Perceptroninlärning Beslutsregel predicerat y-värde Exempel: AND Välj parametrar θ 0, θ 1, θ 2 sådana att perceptronen
729G43 Artificiell intelligens / Maskininlärning 2. Marco Kuhlmann
729G43 Artificiell intelligens / 2015 Maskininlärning 2 Marco Kuhlmann Förra gången: Linjär regression Gradientsökning Vandra ner i felets dal. Steg 0: Börja med ett godtyckligt värde för θ. Steg 1: Räkna
ANN fk. Örjan Ekeberg. Framåtkopplade Nät. återkopplade nät. Olika arkitekturer. BackPropagation through Time. Kalman-Filter tekniker
Hantering av Tid Återkopplade Återkopplade Återkopplade t Återkopplade Återkopplade Temporala signaler är svåra Gör om temporal signal till spatial t 1 t 2 t 3 t 4 Återkopplade t Enklaste formen Neuronal
Linköpings universitet
Översikt Kognitionsvetenskaplig introduktionskurs Föreläsning 4 Informationsbearbetningsmodeller Vad är kognitionsvetenskap? Kort bakgrund/historik Representation och bearbetning av information Vetenskapliga
729G43 Artificiell intelligens (2016) Maskininlärning 3. Marco Kuhlmann Institutionen för datavetenskap
729G43 Artificiell intelligens (2016) Maskininlärning 3 Marco Kuhlmann Institutionen för datavetenskap Modell med vektornotation parametervektor särdragsvektor Perceptron kombinerar linjär regression med
HKGBB0, Artificiell intelligens
HKGBB0, Artificiell intelligens Kortfattade lösningsförslag till tentan 3 november 2005 Arne Jönsson 1. Vad karaktäriserar dagens AI-forskning jämfört med den AI-forskning som bedrevs perioden 1960-1985.
Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Neuronnätsbaserad agent
2001-10-05 Torbjörn Bäckmark Sammanfattning Jag har undersökt möjligheten att utveckla en agent som använder neurala nätverk för övervakning av börssystem. Jag har tittat på sambandet mellan köp- och säljvolymer
Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
de var svåra att implementera och var väldigt ineffektiva.
OBS! För flervalsfrågorna gäller att flera alternativ eller inget alternativ kan vara korrekt. På flervalsfrågorna kan man bara ha rätt eller fel, dvs frågan måste vara helt korrekt besvarad. Totalt kan
Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
LARS ULVELAND HOPFIELDNÄTVERK FÖR IGENKÄNNING AV DEGRADERADE BILDER OCH HANDSKRIVNA TECKEN
LARS ULVELAD HOPFIELDÄTVERK FÖR IGEKÄIG AV DEGRADERADE BILDER OCH HADSKRIVA TECKE E PROJEKTRAPPORT FÖR PROJEKTKURSE I BILDAALYS HT 02 Teori för Hopfieldnätverk Hopfieldmodellen är en typ av neuronnät,
729G43 Artificiell intelligens Maskininlärning. Arne Jönsson HCS/IDA
729G43 Artificiell intelligens Maskininlärning Arne Jönsson HCS/IDA Maskininlärning Introduktion Beslutsträdsinlärning Hypotesinlärning Linjär regression Vektorer Perceptroner Artificiella Neurala Nät
CHALMERS Finit Elementmetod M3 Institutionen för tillämpad mekanik. Teorifrågor
Teorifrågor : Visa att gradienten till en funktion pekar i den riktning derivatan är störst och att riktingen ortogonalt mot gradienten är tangent till funktionens nivåkurva. Visa hur derivatan i godtycklig
Regression med Genetiska Algoritmer
Regression med Genetiska Algoritmer Projektarbete, Artificiell intelligens, 729G43 Jimmy Eriksson, jimer336 770529-5991 2014 Inledning Hur många kramar finns det i världen givet? Att kunna estimera givet
Adaptiva Filter. Johan Haarala Signaler och System
Adaptiva Filter Johan Haarala 2002-12-11 Signaler och System Abstract Målet med den här rapporten är att ge en introduktion samt översikt till adaptiva filter. I den beskrivs några av de algoritmer som
Lågrangsapproximation exempel. Singulärvärden och tillämpningar
och tillämpningar och tillämpningar A m n - matris B = A t A n n - matris B t = (A t A) t = A t (A t ) t = A t A = B B symmetrisk Spektralsatsen finns ON-bas v,..., v n för R n av egenvektorer till B.
Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna kan man bara ha rätt eller fel, dvs frågan måste vara helt korrekt besvarad för att man skall
Självinlärning av fyra-i-rad. JOHAN DALENIUS och BJÖRN LÖFROTH
Självinlärning av fyra-i-rad JOHAN DALENIUS och BJÖRN LÖFROTH Examensarbete Stockholm, Sverige 2011 Självinlärning av fyra-i-rad JOHAN DALENIUS och BJÖRN LÖFROTH Examensarbete i datalogi om 15 högskolepoäng
Själv-inlärning av fyra-i-rad
Kungl. Tekniska Högskolan CSC Själv-inlärning av fyra-i-rad (Self-learning of the Connect 4 game) Författare: Björn Löfroth (bjorn.lofroth@gmail.com) 073-813 42 85 Forskarbacken 21 lgh 1201, 114 15 Stockholm
Neuronnätsbaserad identifiering av processparametrar vid tillverkning av pappersmassa
Neuronnätsbaserad identifiering av processparametrar vid tillverkning av pappersmassa Examensarbete utfört vid Bildbehandling Tekniska Högskolan i Linköping THORD ANDERSSON MIKAEL KARLSSON Reg nr: LiTH-ISY-EX-1709
Föreläsning 5. Approximationsteori
Föreläsning 5 Approximationsteori Låt f vara en kontinuerlig funktion som vi vill approximera med en enklare funktion f(x) Vi kommer använda två olika approximationsmetoder: interpolation och minstrakvadratanpassning
Välkomna till TSRT19 Reglerteknik M Föreläsning 9
Välkomna till TSRT19 Reglerteknik M Föreläsning 9 Sammanfattning av föreläsning 8 Prestandabegränsningar Robusthet Mer generell återkopplingsstruktur Sammanfattning av förra föreläsningen H(s) W(s) 2 R(s)
Tentamensinstruktioner. Vid skrivningens slut
Matematiska institutionen Optimeringslära TENTAMEN TAOP14/TEN1 OPTIMERINGSLÄRA GRUNDKURS för I och Ii Datum: 13:e januari 2011 Tid: 8.00 13.00 Hjälpmedel: Kurslitteratur av Lundgren m fl: Optimeringslära
Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Adaptiva algoritmer och intelligenta maskiner, 2005 Hemtentamen
Adaptiva algoritmer och intelligenta maskiner, 2005 Hemtentamen Hemtentamen består av 5 uppgifter. Totalpoängen är 25 och varje uppgift ger 5 poäng. För godkänt krävs minst 10 poäng. Det är givetvis tillåtet
Sammanfattning av föreläsning 4. Modellbygge & Simulering, TSRT62. Föreläsning 5. Identifiering av olinjära modeller
Sammanfattning av föreläsning 4 Modellbygge & Simulering, TSRT62 Föreläsning 5. Identifiering av olinjära modeller Reglerteknik, ISY, Linköpings Universitet Linjära parametriserade modeller: ARX, ARMAX,
SF1669 Matematisk och numerisk analys II Lösningsförslag till tentamen DEL A. r cos t + (r cos t) 2 + (r sin t) 2) rdrdt.
1. Beräkna integralen medelpunkt i origo. SF1669 Matematisk och numerisk analys II Lösningsförslag till tentamen 218-3-14 D DEL A (x + x 2 + y 2 ) dx dy där D är en cirkelskiva med radie a och Lösningsförslag.
1(15) Bilaga 1. Av Projekt Neuronnätverk, ABB Industrigymnasium, Västerås Vt-05
1(15) Bilaga 1 2(15) Neuronnätslaboration Räknare Denna laboration riktar sig till gymnasieelever som går en teknisk utbildning och som helst har läst digitalteknik samt någon form av styrteknik eller
SELF- ORGANIZING MAPS
LINKÖPINGS UNIVERSITET Kognitionsvetenskapliga Programmet Examinator: Arne Jönsson SELF- ORGANIZING MAPS - Ett fördjupningsarbete inom Artificiell Intelligens Fack 52 katwa676@student.liu.se Sammanfattning
EKG-klassificering. Andreas Bergkvist, Michael Sörnell,
EKG-klassificering Projektrapport i Signaler och system Uppsala Universitet Inst. för signaler och system 2002-2-0 För: Mattias Johansson Av: Andreas Bergkvist, andreasbergkvist@hotmail.com Michael Sörnell,
Biologi: en utmaning för Numerisk Analys
Biologi: en utmaning för Numerisk Analys Stefan Engblom Beräkningsvetenskap Informationsteknologi Uppsala Universitet Docentföreläsning, Uppsala, 6:e Mars, 2013 (TDB/IT UU) Biologiska Beräkningar 130306
1. (Dugga 1.1) (a) Bestäm v (3v 2u) om v = . (1p) and u =
Kursen bedöms med betyg,, 5 eller underkänd, där 5 är högsta betyg. För godkänt betyg krävs minst poäng från uppgifterna -7. Var och en av dessa sju uppgifter kan ge maximalt poäng. För var och en av uppgifterna
Optimalitetsvillkor. Optimum? Matematisk notation. Optimum? Definition. Definition
Optimum? När man har formulerat sin optimeringsmodell vill man lösa den Dvs finna en optimal lösning, x, till modellen Nästan alltid: Sökmetoder: Stå i en punkt, gå till en annan (bättre Upprepa, tills
Sub-symbolisk kognition & Konnektionism. Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén,
Sub-symbolisk kognition & Konnektionism Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén, mats.andren@liu.se 1 Konnektionism Neutrala nät baseras på en (förenklad) modell av hur hjärnan fungerar.
Konvergens för iterativa metoder
Konvergens för iterativa metoder 1 Terminologi Iterativa metoder används för att lösa olinjära (och ibland linjära) ekvationssystem numeriskt. De utgår från en startgissning x 0 och ger sedan en följd
Övning 3 FEM för Ingenjörstillämpningar Rickard Shen Balkproblem och Ramverk
.6 Stelkroppsrörelse i balk Bild av Veronica Wåtz w δ θl Givet: w δ + θl () θ θ θ Sökt: Visa att förskjutningsansatsen kan beskriva en godtycklig stelkroppsrörelse, dvs w x δ + θx. w θ : Allmänt: wξ N
Om the Big Five och förmågor
Om the Big Five och förmågor I the Big Five kallas det vi ska uppnå och bedöma: Förmågor Eftersom Förmågor till mycket stor del utgörs av medfödda förmågor. Jag kommer därför att i stället att tala om:
A B C D E F A B C D E F (3) Svar: Tabellen ger grafen:
1. Russel & Norvig menar att man kan utveckla AI-system som antingen tänker som en människa, handlar som en människa, tänker rationellt eller handlar rationellt. Förklara och exemplifiera dessa fyra synsätt.
Sammanfattning av föreläsning 11. Modellbygge & Simulering, TSRT62. Föreläsning 12. Simulering. Föreläsning 12. Numeriska metoder och Simulering
Sammanfattning av föreläsning 11 Modellbygge & Simulering, TSRT62 Föreläsning 12. Simulering Reglerteknik, ISY, Linköpings Universitet Index för en DAE Antalet derivationer som behövs för att lösa ut ż
Sammanfattning (Nummedelen)
DN11 Numeriska metoder och grundläggande programmering Sammanfattning (Nummedelen Icke-linjära ekvationer Ex: y=x 0.5 Lösningsmetoder: Skriv på polynomform och använd roots(coeffs Fixpunkt x i+1 =G(x i,
Neurala nätverk och språkigenkänning. Henrik Linnarsson. Linköping University
Neurala nätverk och språk Henli807!1 Neurala nätverk och språkigenkänning Henrik Linnarsson Linköping University Neurala nätverk och språk Henli807!2 RNN, LSTM och språkigenkänning Inledning Idag är språkigenkänning
Neuronen 11/22/2012. Översikt. Artificiell nod. Kommunikation. Neuronen som detektor. Syftet med återstående föreläsningarna
Översikt Neuronen Biologisk neuron Artificiell nod/enhet Organisering i nät Interaktiva nätverk med inhibering Övergripande beräkningsprincip Parallel constraint satisfaction Syftet med återstående föreläsningarna
Digitalteknik 7.5 hp distans: 5.1 Generella sekvenskretsar 5.1.1
Digitalteknik 7.5 hp distans: 5.1 Generella sekvenskretsar 5.1.1 Från Wikipedia: Sekvensnät Ett sekvensnäts utgångsvärde beror inte bara på indata, utan även i vilken ordning datan kommer (dess sekvens).
Predicted Future - att förutsäga aktiekurser med artificiella neuronnät
Predicted Future - att förutsäga aktiekurser med artificiella neuronnät Kandidatarbete inom Data- och informationsteknik LINUS FÄRNSTRAND OSCAR SÖDERLUND NIKLAS LÖNNERFORS EMIL BERNERSKOG TOBIAS AXELL
Uppgifter till kurs: Geometriska analys och designmetoder för olinjära system
Uppgifter till kurs: Geometriska analys och designmetoder för olinjära system Erik Frisk 2 juni 200 Uppgift. Antag ett linjärt system som beskrivs av exkvationerna: ẋ = Ax+Bu y = Cx med n = 4 tillstånd,
Modeller och simulering av språkprocessning
Modeller och simulering av språkprocessning Seriell processmodell + parallell processmodell Parallell modell med 2-vägsförbindelser Artificiellt neuralt nätverk (ANN) Interaktiv aktiverings-modell (IAM)
Teorifrågor. 6. Beräkna konditionstalet för en diagonalmatris med diagonalelementen 2/k, k = 1,2,...,20.
Teorifrågor Störningsanalys 1. Värdet på x är uppmätt till 0.956 med ett absolutfel på högst 0.0005. Ge en övre gräns för absolutfelet i y = exp(x) + x 2. Motivera svaret. 2. Ekvationen log(x) x/50 = 0
Ordinära differentialekvationer,
(ODE) Ordinära differentialekvationer, del 1 Beräkningsvetenskap II It is a truism that nothing is permanent except change. - George F. Simmons ODE:er är modeller som beskriver förändring, ofta i tiden
En generell prediktiv kodare utnyttjar signalens utseende N steg tillbaka i tiden för kodningen, dvs vi kodar efter den betingade fördelningen
Prediktiv kodning Närliggande sampel i en signal är oftast starkt korrelerade med varandra, det kan därför vara en bra ide att försöka utnyttja denna korrelation (minnet) innan kvantiseringen för att få
Inlärning utan övervakning
Översikt Biologiska mekanismer bakom inlärning Inlärning utan övervakning Inlärning utan övervakning Hebbiansk modellinlärning Självorganisering Arbetsfördelning mellan noder i ett lager som utvecklas
Linjär prediktion. Prediktiv kodning. Linjär prediktion. Prediktiv kodare och avkodare
Prediktiv kodning Linjär prediktion Närliggande sampel i en signal är oftast starkt korrelerade med varandra, det kan därför vara en bra ide att försöka utnyttja denna korrelation (minnet) innan kvantiseringen
Tentamen i Digitalteknik TSEA22
Tentamen i Digitalteknik TSEA22 Datum för tentamen 100601 Sal TERC,TER2 Tid 14-18 Kurskod TSEA22 Provkod TEN 1 Kursnamn Digitalteknik Institution ISY Antal uppgifter 5 Antal sidor 5 Jour/Kursansvarig Olle
Välkomna till TSRT19 Reglerteknik M Föreläsning 9
Välkomna till TSRT19 Reglerteknik M Föreläsning 9 Sammanfattning av föreläsning 8 Prestandabegränsningar Robusthet Mer generell återkopplingsstruktur Sammanfattning föreläsning 8 2 F(s) Lead-lag design:
Sammanfattninga av kursens block inför tentan
FÖRELÄSNING 14 Sammanfattninga av kursens block inför tentan BILD Vi har jobbat med numerisk metoder, datorprogram och tolkning av lösning. Numeriska metoder BILD olika områden: Linjära ekvationssytem,
Exempel på tentamensuppgifter
STOCKHOLMS UNIVERSITET 4 mars 2010 Matematiska institutionen Avd. för matematisk statistik Mikael Andersson Exempel på tentamensuppgifter Uppgift 1 Betrakta en allmän I J-tabell enligt 1 2 3 J Σ 1 n 11
4.6 Stelkroppsrörelse i balk
Övning Balkar, Balk-Stång, Symmetri Rickard Shen 0-0- FEM för Ingenjörstillämpningar, SE05 rshen@kth.se.6 Stelkroppsrörelse i balk Bild av Veronica Wåtz Givet: w L w L () Sökt: Visa att förskjutningsansatsen
Teknisk Beräkningsvetenskap I Tema 3: Styvhetsmodellering av mjuk mark med icke-linjära ekvationer
Teknisk Beräkningsvetenskap I Tema 3: Styvhetsmodellering av mjuk mark med icke-linjära ekvationer Eddie Wadbro 18 november, 2015 Eddie Wadbro, Tema 3: Icke-linjära ekvationer, 18 november, 2015 (1 : 37)
TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1/TM1, TMA671 2015-04-18
Institutionen för Matematiska Vetenskaper Göteborg TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F/TM, TMA67 5-4-8 DAG: Lördag 8 april 5 TID: 8.3 -.3 SAL: V Ansvarig: Ivar Gustafsson, tel: 75-33545 Förfrågningar:
I en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd.
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervalsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Lösningsförslag till tentamen i SF1861 Optimeringslära för T. Torsdag 28 maj 2010 kl
Lösningsförslag till tentamen i SF86 Optimeringslära för T. Torsdag 28 maj 2 kl. 4. 9. Examinator: Per Enqvist, tel. 79 62 98. (a) Inför variablerna x = (x sr, x sm, x sp, x sa, x sd, x gr, x gm, x gp,
4 Paket- och kretskopplade nät
4 Paket- och kretskopplade nät Kommunikationssystem 2G1501 Syftet: Syftet med detta kapitel är att förstå egenskaperna hos, och skillnaderna mellan, de tre olika kopplade nätverkstyperna kretskopplade
Inledning till statistikteorin. Skattningar och konfidensintervall för μ och σ
Inledning till statistikteorin Skattningar och konfidensintervall för μ och σ Punktskattningar Stickprov från en population - - - Vi vill undersöka bollhavet men får bara göra det genom att ta en boll
Tentamen i EDA320 Digitalteknik för D2
CHALMERS TEKNISKA HÖGSKOLA Institutionen för datorteknik Tentamen i EDA320 Digitalteknik för D2 Tentamenstid: onsdagen den 2 mars 997 kl 4.5-8.5. Sal: vv Examinator: Peter Dahlgren Tel. expedition 03-772677.
Laboration 3. Ergodicitet, symplektiska scheman och Monte Carlo-integration
Laboration 3 Ergodicitet, symplektiska scheman och Monte Carlo-integration Hela labben måste vara redovisad och godkänd senast 3 januari för att generera bonuspoäng till tentan. Kom väl förberedd och med
Utmaningar i fo rskolan
Studiematerial Utmaningar i fo rskolan Att förebygga problemskapande beteenden Utgiven av Gothia Fortbildning, 2015 Författare: David Edfelt, leg. psykolog, provivus.se Handledning, utbildning och utveckling
Analys av egen tidsserie
Analys av egen tidsserie Tidsserieanalys Farid Bonawiede Samer Haddad Michael Litton Alexandre Messo 9 december 25 3 25 Antal solfläckar 2 15 1 5 5 1 15 2 25 3 Månad Inledning Vi har valt att betrakta
Neurovetenskap 30/08/2013. Kognitiv neurovetenskap. Lober. Olika färg, olika vävnadsstruktur. Hjärnbarken
729G01 Kognitionsvetenskaplig introduktionskurs: Kognitiv neurovetenskap och kognitiv modellering Rita Kovordanyi, Institutionen för datavetenskap (IDA) rita.kovordanyi@liu.se Kognitiv neurovetenskap Baseras
Tentamen i Beräkningsvetenskap II, 5.0 hp,
Uppsala universitet Institutionen för informationsteknologi Beräkningsvetenskap Per Lötstedt, tel. 47 2986 Saleh Rezaeiravesh Tentamen i Beräkningsvetenskap II, 5.0 hp, 206-0-4 Skrivtid: 4 00 7 00 (OBS!
Tentamen i Digitalteknik, EITF65
Elektro- och informationsteknik Tentamen i Digitalteknik, EITF65 3 januari 2018, kl. 14-19 Skriv anonymkod och identifierare, eller personnummer, på alla papper. Börja en ny uppgift på ett nytt papper.
Vad behövs för att skapa en tillståndsrymd?
OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet
Utvärdering av maskinlärningstekniker för styrning av individer i stridande förband i datorspel O L O F B J Ö R K
Utvärdering av maskinlärningstekniker för styrning av individer i stridande förband i datorspel O L O F B J Ö R K Examensarbete Stockholm, Sverige 2007 Utvärdering av maskinlärningstekniker för styrning
Institutionen för systemteknik, ISY, LiTH. Tentamen i. Tid: kl
Institutionen för systemteknik, ISY, LiTH Tentamen i Digitalteknik TSIU05/TEN1 Tid: 2016 10 26 kl. 14 18 Lokal : TER3 TER4 Ansvarig lärare: Michael Josefsson. Besöker lokalen kl 16. Tel.: 013-28 12 64
Denna föreläsning. DN1212 Numeriska metoder och grundläggande programmering FN Felfortplantning och kondition
Denna föreläsning DN1212 Numeriska metoder och grundläggande programmering FN2 09-02-10 Hedvig Kjellström hedvig@csc.kth.se! Repetition av FN2! Felkalkyl (GNM kap 2)! Olinjära ekvationer (GNM kap 3)! Linjära
Observationer rörande omvandling av digitala yttäckande vektordata till rasterformat.
GeoDataEnheten Kulturgeografiska Institutionen 106 91 Stockhlm Observationer rörande omvandling av digitala yttäckande vektordata till rasterformat. 1993 Stefan Ene INNEHÅLL Inledning Omvandling av koordinatsatta
Kognitiv Modellering
Kognitiv Modellering Mårten Szymanowski 20 januari 2004 Innehåll 1 Kognitiv Modellering 2 1.1 Varför?................................ 2 2 Grundläggande psykologiska fenomen 3 2.1 Stimulusgeneralisering........................
Sätt t = (x 1) 2 + y 2 + 2(x 1). Då är f(x, y) = log(t + 1) = t 1 2 t t3 + O(t 4 ) 1 2 (x 1) 2 + y 2 + 2(x 1) ) 2 (x 1) 2 + y 2 + 2(x 1) ) 3
Lektion 7, Flervariabelanalys den februari 000 9 Bestäm Taylorserien till funktionen log( + x + y + xy) i punkten (0, 0) Vi kan faktorisera argumentet till logaritmen och förenkla funktionen log( + x +
KTH 2D1240 OPEN vt 06 p. 1 (5) J.Oppelstrup
KTH 2D1240 OPEN vt 06 p. 1 (5) Tentamen i Numeriska Metoder gk II 2D1240 OPEN (& andra) Fredag 2006-04-21 kl. 13 16 Hjälpmedel: Del 1 inga, Del 2 rosa formelsamlingen som man får ta fram när man lämnar
2D1250 Tillämpade numeriska metoder II
1 lof Runborg NADA 2 april 2002 2D1250 Tillämpade numeriska metoder II A LABRATIN 5 rdinära differentialekvationer I den här laborationen ska ni experimentera med olika numeriska metoder för ordinära differentialekvationer.
Träning av Artificiella Neuronnät med Motexempel Utvalda av Expertpanel (HS-IDA-EA )
Träning av Artificiella Neuronnät med Motexempel Utvalda av Expertpanel (HS-IDA-EA-01-109) Christer Larsson (a98chrla@student.his.se) Institutionen för datavetenskap Högskolan i Skövde, Box 408 S-54128
Övningshäfte 2: Induktion och rekursion
GÖTEBORGS UNIVERSITET MATEMATIK 1, MMG200, HT2017 INLEDANDE ALGEBRA Övningshäfte 2: Induktion och rekursion Övning D Syftet är att öva förmågan att utgående från enkla samband, aritmetiska och geometriska,
Reglerteori. Föreläsning 4. Torkel Glad
Reglerteori. Föreläsning 4 Torkel Glad Föreläsning 1 Torkel Glad Januari 2018 2 Sammanfattning av Föreläsning 3 Kovariansfunktion: R u (τ) = Eu(t)u(t τ) T Spektrum: Storleksmått: Vitt brus: Φ u (ω) =
Icke-linjära ekvationer
stefan@it.uu.se Exempel x f ( x = e + x = 1 5 3 f ( x = x + x x+ 5= 0 f ( x, y = cos( x sin ( x + y = 1 Kan endast i undantagsfall lösas exakt Kan sakna lösning, ha en lösning, ett visst antal lösningar
Institutionen för Matematiska Vetenskaper TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1/TM1, TMA671 2014-05-26
Institutionen för Matematiska Vetenskaper Göteborg TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F/TM, TMA67 4-5-6 DAG: Måndag 6 maj 4 TID: 4. - 8. SAL: V Ansvarig: Ivar Gustafsson, tel: 75-33545 Förfrågningar:
Delprov 1 rapport över sociala webben
Delprov 1 rapport över sociala webben I denna uppgift ska jag försöka att förklara grundligt hur 5 principer som ska beskriver webbens spelregler, det vill säga karaktäristiska egenskaper som är centrala
. (2p) 2x + 2y + z = 4 y + 2z = 2 4x + 3y = 6
Kursen bedöms med betyg, 4, 5 eller underkänd, där 5 är högsta betyg För godkänt betyg krävs minst 4 poäng från uppgifterna -7 Var och en av dessa sju uppgifter kan ge maximalt poäng För var och en av
Kapitel 7 Samplingfördelningar och Centrala gränsvärdessatsen
Sannolikhetslära och inferens II Kapitel 7 Samplingfördelningar och Centrala gränsvärdessatsen 1 Statistikor och samplingfördelningar I Kapitel 6 studerades metoder för att bestämma sannolikhetsfördelningen
Kunskapsrepresentation
Kunskapsrepresentation Hur representeras information? Representationer som bevarar strukturen perceptionsbaserad kunskapsrepresentation Representationer som bevarar innebörden meningsbaserad kunskapsrepresentation
Föreläsning 2: Simplexmetoden. 1. Repetition av geometriska simplexmetoden. 2. Linjärprogrammeringsproblem på standardform.
Föreläsning 2: Simplexmetoden. Repetition av geometriska simplexmetoden. 2. Linjärprogrammeringsproblem på standardform. 3. Simplexalgoritmen. 4. Hur bestämmer man tillåtna startbaslösningar? Föreläsning
Föreläsning 7. Felrättande koder
Föreläsning 7 Felrättande koder Antag att vi vill skicka ett meddelande som består av bokstäver a,b,c,d. Vi kan koda a,b,c,d. Antag att det finns en viss sannolikhet att en bit i ett meddelande som skickas
F13: Regulatorstrukturer och implementering
Föreläsning 2 PID-reglering Förra föreläsningen F3: Regulatorstrukturer och implementering 25 Februari, 209 Lunds Universitet, Inst för Reglerteknik. Bodediagram för PID-regulator 2. Metoder för empirisk
Vad händer efter klick? Av Eva Bertilsson och Emelie Johnson Vegh, publicerad i Canis 2004
Vad händer efter klick? Av Eva Bertilsson och Emelie Johnson Vegh, publicerad i Canis 2004 För den klickerkloka hunden betyder klick som bekant två saker. För det första talar klicket om att belöning är
ALGORITMER, OPTIMERING OCH LABYRINTER
ALGORITMER, OPTIMERING OCH LABYRINTER Text: Marie Andersson, Learncode AB Illustrationer: Li Rosén Foton: Shutterstock Har du någonsin lagat mat efter recept eller monterat ihop en möbel från IKEA? Då
Laboration 1 i SF1544: Öva på Matlab och konstruera en optimal balk Avsikten med denna laboration är att:
Laboration 1 i SF1544: Öva på Matlab och konstruera en optimal balk Avsikten med denna laboration är att: - snabbt komma igång med träning på matlabprogrammering (uttnyttja gärna alla schemalagda laborationstillfällen,
TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1, TMA671
Institutionen för Matematik LINJÄR ALGEBRA OCH NUMERISK ANALYS F Göteborg --9 TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F, TMA67 OBS! NYA KURSEN DAG: Tisdag 9 januari TID: 8.45 -.45 SAL: V Ansvarig:
Tentamen i Beräkningsvetenskap I och KF, 5.0 hp,
Uppsala universitet Institutionen för informationsteknologi Avdelningen för beräkningsvetenskap Tentamen i Beräkningsvetenskap I och KF, 5.0 hp, 017-0-14 Skrivtid: 14 00 17 00 (OBS! Tre timmars skrivtid!)