Artificiella Neuronnät

Relevanta dokument
Enlagersnät Flerlagersnät Generalisering. Artificiella Neuronnät

2D Potentialen i en nervcell definieras normalt som skillnaden i spänning mellan dess axon och dendrit.

ARTIFICIELLA NEURALA NÄT. MARCO KUHLMANN Institutionen för datavetenskap

729G43 Artificiell intelligens (2016) Maskininlärning 2. Marco Kuhlmann Institutionen för datavetenskap

729G43 Artificiell intelligens / Maskininlärning 3. Marco Kuhlmann

729G43 Artificiell intelligens / Maskininlärning 2. Marco Kuhlmann

ANN fk. Örjan Ekeberg. Framåtkopplade Nät. återkopplade nät. Olika arkitekturer. BackPropagation through Time. Kalman-Filter tekniker

Linköpings universitet

729G43 Artificiell intelligens (2016) Maskininlärning 3. Marco Kuhlmann Institutionen för datavetenskap

HKGBB0, Artificiell intelligens

de var svåra att implementera och var väldigt ineffektiva.

Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

LARS ULVELAND HOPFIELDNÄTVERK FÖR IGENKÄNNING AV DEGRADERADE BILDER OCH HANDSKRIVNA TECKEN

729G43 Artificiell intelligens Maskininlärning. Arne Jönsson HCS/IDA

Neuronnätsbaserad agent

CHALMERS Finit Elementmetod M3 Institutionen för tillämpad mekanik. Teorifrågor

Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.

Självinlärning av fyra-i-rad. JOHAN DALENIUS och BJÖRN LÖFROTH

Själv-inlärning av fyra-i-rad

Föreläsning 5. Approximationsteori

Adaptiva Filter. Johan Haarala Signaler och System

Antag att b är förgreningsfaktorn, d sökdjupet, T (d) tidskomplexiteten och M(d) minneskomplexiteten.

Neuronnätsbaserad identifiering av processparametrar vid tillverkning av pappersmassa

Optimalitetsvillkor. Optimum? Matematisk notation. Optimum? Definition. Definition

Adaptiva algoritmer och intelligenta maskiner, 2005 Hemtentamen

Sammanfattning (Nummedelen)

1(15) Bilaga 1. Av Projekt Neuronnätverk, ABB Industrigymnasium, Västerås Vt-05

Konvergens för iterativa metoder

A B C D E F A B C D E F (3) Svar: Tabellen ger grafen:

Sammanfattning av föreläsning 4. Modellbygge & Simulering, TSRT62. Föreläsning 5. Identifiering av olinjära modeller

Digitalteknik 7.5 hp distans: 5.1 Generella sekvenskretsar 5.1.1

SELF- ORGANIZING MAPS

SF1669 Matematisk och numerisk analys II Lösningsförslag till tentamen DEL A. r cos t + (r cos t) 2 + (r sin t) 2) rdrdt.

Välkomna till TSRT19 Reglerteknik M Föreläsning 9

Tentamen i Digitalteknik TSEA22

Uppgifter till kurs: Geometriska analys och designmetoder för olinjära system

Neuronen 11/22/2012. Översikt. Artificiell nod. Kommunikation. Neuronen som detektor. Syftet med återstående föreläsningarna

Teorifrågor. 6. Beräkna konditionstalet för en diagonalmatris med diagonalelementen 2/k, k = 1,2,...,20.

Regression med Genetiska Algoritmer

Sub-symbolisk kognition & Konnektionism. Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén,

Välkomna till TSRT19 Reglerteknik M Föreläsning 9

Tentamensinstruktioner. Vid skrivningens slut

Predicted Future - att förutsäga aktiekurser med artificiella neuronnät

EKG-klassificering. Andreas Bergkvist, Michael Sörnell,

4.6 Stelkroppsrörelse i balk

Sammanfattning av föreläsning 11. Modellbygge & Simulering, TSRT62. Föreläsning 12. Simulering. Föreläsning 12. Numeriska metoder och Simulering

Lågrangsapproximation exempel. Singulärvärden och tillämpningar

TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1/TM1, TMA

Tentamen i EDA320 Digitalteknik för D2

Lösningsförslag till tentamen i SF1861 Optimeringslära för T. Torsdag 28 maj 2010 kl

Övning 3 FEM för Ingenjörstillämpningar Rickard Shen Balkproblem och Ramverk

Utmaningar i fo rskolan

Tentamen i Digitalteknik, EITF65

1. (Dugga 1.1) (a) Bestäm v (3v 2u) om v = . (1p) and u =

4 Paket- och kretskopplade nät

Modeller och simulering av språkprocessning

Inlärning utan övervakning

Ordinära differentialekvationer,

2D1250 Tillämpade numeriska metoder II

Denna föreläsning. DN1212 Numeriska metoder och grundläggande programmering FN Felfortplantning och kondition

Laboration 3. Ergodicitet, symplektiska scheman och Monte Carlo-integration

Institutionen för systemteknik, ISY, LiTH. Tentamen i. Tid: kl

KTH 2D1240 OPEN vt 06 p. 1 (5) J.Oppelstrup

Icke-linjära ekvationer

Utvärdering av maskinlärningstekniker för styrning av individer i stridande förband i datorspel O L O F B J Ö R K

Neurala nätverk och språkigenkänning. Henrik Linnarsson. Linköping University

Föreläsning 2: Simplexmetoden. 1. Repetition av geometriska simplexmetoden. 2. Linjärprogrammeringsproblem på standardform.

Sammanfattninga av kursens block inför tentan

Sätt t = (x 1) 2 + y 2 + 2(x 1). Då är f(x, y) = log(t + 1) = t 1 2 t t3 + O(t 4 ) 1 2 (x 1) 2 + y 2 + 2(x 1) ) 2 (x 1) 2 + y 2 + 2(x 1) ) 3

Övningshäfte 2: Induktion och rekursion

I en deterministisk omgivning beror nästa tillstånd bara av agentens handling och nuvarande tillstånd.

. (2p) 2x + 2y + z = 4 y + 2z = 2 4x + 3y = 6

Kunskapsrepresentation

Teknisk Beräkningsvetenskap I Tema 3: Styvhetsmodellering av mjuk mark med icke-linjära ekvationer

Upprepade mätningar och tidsberoende analyser. Stefan Franzén Statistiker Registercentrum Västra Götaland

Observationer rörande omvandling av digitala yttäckande vektordata till rasterformat.

Föreläsning 7. Felrättande koder

En generell prediktiv kodare utnyttjar signalens utseende N steg tillbaka i tiden för kodningen, dvs vi kodar efter den betingade fördelningen

729G43 Artificiell intelligens (2016) Maskininlärning 1. Marco Kuhlmann Institutionen för datavetenskap

Linjär prediktion. Prediktiv kodning. Linjär prediktion. Prediktiv kodare och avkodare

Institutionen för Matematiska Vetenskaper TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1/TM1, TMA

TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1, TMA671

Tentamen i Beräkningsvetenskap I och KF, 5.0 hp,

TNSL05 Optimering, Modellering och Planering. Föreläsning 6

Om the Big Five och förmågor

Neurovetenskap 30/08/2013. Kognitiv neurovetenskap. Lober. Olika färg, olika vävnadsstruktur. Hjärnbarken

Exempel på tentamensuppgifter

Självlärande Othello-spelare

Föreläsning 8, Introduktion till tidsdiskret reglering, Z-transfomer, Överföringsfunktioner

5B1817 Tillämpad ickelinjär optimering. Metoder för problem utan bivillkor, forts.

Linjärisering, Jacobimatris och Newtons metod.

Tentamen. TSEA22 Digitalteknik 5 juni, 2015, kl

Tentamen i Beräkningsvetenskap II, 5.0 hp,

(a) Bestäm för vilka värden på den reella konstanten c som ekvationssystemet är lösbart. (b) Lös ekvationssystemet för dessa värden på c.

TMA 671 Linjär Algebra och Numerisk Analys. x x2 2 1.

Inledning till statistikteorin. Skattningar och konfidensintervall för μ och σ

Isometrier och ortogonala matriser

Tentamen i IE1204/5 Digital Design måndagen den 15/

Transkript:

Artificiella Neuronnät 2 3 4 2 (ANN) Inspirerade av hur nervsystemet fungerar Parallell bearbetning Vi begränsar oss här till en typ av ANN: Framåtkopplade nät med lagerstruktur 3 4 Fungerar i princip som en generell Lärande låda! Klassificering ALVINN System för att styra en bil Ja/Nej Funktionsapproximering [, ] TV bild Rattutslag Tränas med riktiga förares beteende som träningsexempel Flerdimensionell avbildning

Hur fungerar riktiga nervceller? NetTalk Program för talsyntes Dendriter Soma Axon "Hejsan" Fonem Skriven text Kodat uttal Tränas med stor databas över uttalad text Dendriter Passiv mottagning av (kemiska) signaler Soma (cellkropp) Summering, tröskling Axon Aktiva pulser sänds till andra celler Nervceller kan se väldigt olika ut ANN-karikatyren (en förenklad bild av informationsbehandlingen) Viktade insignaler Summering Trösklad utsignal Vad menas med ett? 2 3 Varje cell fungerar oberoende av de andra! Det räcker att förstå vad en cell kan beräkna 4

Vad kan en enstaka cell beräkna? Geometrisk tolkning ( ) o = sign x i w i i x 2 x Indata i vektorform w Vikterna i vektorform o Utsignalen w x ( ) o = sign x i w i i Separerande hyperplan Linjär separerbarhet Inlärning i ANN Vad innebär inlärning? Nätets struktur är normalt fix Inlärning innebär att hitta de bästa vikterna w i Två bra algoritmer för enlagersnät: Perceptroninlärning Deltaregeln Perceptroninlärning Inkrementell inlärning Vikterna ändras bara vid felklassificering Uppdateringsregel: w i w i + η(t o)x i Konvergerar alltid om klassningsproblemet är lösbart Deltaregeln (LMS-regeln) Inkrementell inlärning Vikterna ändras alltid w i w i + η(t w T x)x i Konvergerar endast i statistisk mening Hittar en optimal lösning även om problemet inte är exakt lösbart 2 3 4

Vad är poängen med att ha flera lager? Blir det ännu bättre med ännu fler lager? Två lager kan beskriva alla klassificeringar Två lager kan approximera alla snälla funktioner Tre lager kan ibland göra samma sak effektivare Fler än tre lager används mycket sällan Ett tvålagersnät kan implementera godtyckliga beslutsytor...förutsatt att man har tillräckligt många gömda enheter Hur tränar man ett flerlagersnät? Varken perceptroninlärning eller deltaregeln kan användas Fundamentalt problem: När nätet svarar fel vet man inte i vilken riktning vikterna ska ändras för att det ska bli bättre Avgörande trick: Använd trösklingsliknande kontinuerliga funktioner Grundidé: Minimera felet (E) som en funktion av alla vikter ( w) Beräkna den riktning i viktrummet dit felet ökar mest: grad w (E) 2 Ändra vikterna i motsatt riktning w i w i η E w i Normalt utnyttjar man felet för ett exempel i taget E = 2 (t k o k ) 2 k Out Som trösklingsliknande funktion används ofta ρ(y) = + e y Gradienten kan uttryckas som en funktion av ett lokalt generaliserat fel δ Utlagret: E w ji = δ i x j w ji w ji + ηδ i x j δ k = o k ( o k ) (t k o k ) Gömda lager:.5 + e x δ h = o h ( o h ) w kh δ k k Out 5 5 Felet δ propagerar bakåt genom lagren Error backpropagation (BackProp)

Att tänka på när man använder BackProp Långsam Kräver normalt tusentals genomgångar av datamängden Gradientföljning Riskerar att fastna i lokala minima Många parametrar Steglängden η Antal lager Antal gömda enheter In- och utrepresentationen Initiala viktvärden 2 3 4 Näten interpolerar normalt mjukt mellan träningsdatapunkterna Risk för överinlärning! Om nätet har för många frihetsgrader (vikter) är risken större att inlärningen hittar en konstig lösning.5.5.2.4.6.8.2.4.6.8 Ger oftast bra generalisering Genom att begränsa antalet gömda noder får man bättre generalisering.5.2.4.6.8