Inlärning utan övervakning

Relevanta dokument
Neuronen 11/22/2012. Översikt. Artificiell nod. Kommunikation. Neuronen som detektor. Syftet med återstående föreläsningarna

Modeller och simulering av språkprocessning

Hjärnans beräkningsprinciper. Beräkningsprinciper Översikt. Återblick. Återblick. Två beräkningsvägar. Beräkningsprinciper

2D Potentialen i en nervcell definieras normalt som skillnaden i spänning mellan dess axon och dendrit.

Linköpings universitet

ARTIFICIELLA NEURALA NÄT. MARCO KUHLMANN Institutionen för datavetenskap

Sidan 1. Översikt P D P. Neurala nät i kognitiv neurovetenskap. Kursinnehåll. Kursens syfte P D P. Litteratur. Relation till ANN HKGC19/TDDC11

Kognitiv Modellering

Neural bas för kognition

Kognitiv psykologi. Kognition och hjärnan. Hjärnans struktur Neurokognition Kap 2

Kognitiv neurovetenskap

Neurovetenskap 30/08/2013. Kognitiv neurovetenskap. Lober. Olika färg, olika vävnadsstruktur. Hjärnbarken

729G43 Artificiell intelligens (2016) Maskininlärning 3. Marco Kuhlmann Institutionen för datavetenskap

Neurokognitiv arkitektur

729G43 Artificiell intelligens / Maskininlärning 3. Marco Kuhlmann

Vad kan biologiskt plausibla modeller säga oss?

1(15) Bilaga 1. Av Projekt Neuronnätverk, ABB Industrigymnasium, Västerås Vt-05

Sub-symbolisk kognition & Konnektionism. Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén,

Neurovetenskap. Centrala teman med relevans för f kognitionsvetenskap

Artificiell Intelligens Lektion 7

Långtidsminnekunskapsrepresentation

ANN fk. Örjan Ekeberg. Framåtkopplade Nät. återkopplade nät. Olika arkitekturer. BackPropagation through Time. Kalman-Filter tekniker

Korttidsminne-arbetsminne

Neuronens Fysiologi 1

SELF- ORGANIZING MAPS

Algoritmer och maskininlärning

HKGBB0, Artificiell intelligens

Enlagersnät Flerlagersnät Generalisering. Artificiella Neuronnät

Artificiella Neuronnät

Linköpings universitet

Kognitiv modellering. Sidan 1. Översikt. Tre forskningsmetoder. Olika syften med modellering. Människa-maskin interaktion (MMI) Uppgiftsanalys

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

Statistisk mönsterigenkänning

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

TEM Projekt Transformmetoder

Kan vi beskriva ett system utan någon fysikalisk kännedom om systemet?

Selektiv uppmärksamhet. Klassiska teorier. Sidan 1. Översikt. Vad är uppmärksamhet? Människan har ansetts ha. Filtrering. Vad är uppmärksamhet?

729G43 Artificiell intelligens (2016) Maskininlärning 2. Marco Kuhlmann Institutionen för datavetenskap

Hierarchical Temporal Memory Maskininlärning

Moment 1 - Analog elektronik. Föreläsning 4 Operationsförstärkare

Neurala nätverk och språkigenkänning. Henrik Linnarsson. Linköping University

Sleipner-olyckan Tjernobyl-olyckan

Blandade problem från elektro- och datateknik

CNS + Muskler del 1 detta bör ni behärska

Ledningsskyddssystem för stamnätet

Föreläsning 5: Grafer Del 1

Arbeta vidare med aritmetik 2018

729G15 Kognitiv modellering

Online klustring. UMEÅ UNIVERSITET 9 december 2003 Institutionen för Datavetenskap. Namn E-post

729G43 Artificiell intelligens / Maskininlärning 2. Marco Kuhlmann

1. Introduktion. Biopotentialers ursprung

Föreläsning 13. Dynamisk programmering

Visualisering av samverkan

Fallbaserat resonerande

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

Visuell perception. Sidan 1. Översikt. Sammanfattning av förra föreläsningen. Kognitiv arkitektur. Visuella systemet: översikt.

Teori och metod. Teorier för mänskligt lärande (pedagogik) tas inte upp i denna uppsats.

Omtentamen NRSP T1 HT13 (totalt 78,5 p)

Spel som interaktiva berättelser

Föreläsning 5. NDAB02 Statistik; teori och tillämpning i biologi

Övervakningssystem. -skillnader i bilder. Uppsala Universitet Signaler och System ht Lärare: Mathias Johansson

Tentamen i Digitalteknik, EITF65

Neuronens Fysiologi 3. Jonkanaler Ligand aktiverade

4 Paket- och kretskopplade nät

Om intellektuell funktionsnedsättning

bild sidan 454 purves.

Probabilistisk logik 2

Föreläsning 10. Grafer, Dijkstra och Prim

Föreläsning 10. Grafer, Dijkstra och Prim

Beteendegenetik. Vårt genetiska kod. Koden överförs vid celldelning. Handlar om hur psykologiska förmågor och möjliga beteenden ärvs i DNA

Föreläsning 10. Grafer, Dijkstra och Prim

Smart Belysning. Hur vi påverkas och hur vi kan använda det

Förutsäga data för lastbilstrafik med maskininlärning

4 Diskret stokastisk variabel

Bildmosaik. Bilddatabaser, TNM025. Anna Flisberg Linne a Mellblom. linme882. Linko pings Universitet

RADIOMOTTAGARE FÖR STYRNING AV RGB-LYSDIODLIST GEMENSAM ANOD

Minnesfunktioner hos barn med språk- och lässvårigheter

LiTH Lab1: Asynkron seriell dataöverföring via optisk länk Laboration 1. Asynkron seriell dataöverföring via optisk länk

Vektorer, matriser, nätverk - några elementa

TATM79: Föreläsning 1 Notation, ekvationer, polynom och summor

.$ '8.7,216)5c1.233/,1*6$8720$7,.3). Bilagor 1 Exempel på PFK plan 2 Exempel på innebörd av PFK plan 3 PFK översikt 4 PFK i PLC utförande

Detta exjobb handlar om att skapa felträd utifrån specificerade rutiner i reparationshandböckerna för samtliga av Hägglunds fordon.

Sju sätt att visa data. Sju vanliga och praktiskt användbara presentationsformat vid förbättrings- och kvalitetsarbete

Medicin B, Sjukdomslära med farmakologi, 15hp Tentamen del I, provkod (För studenter registrerade V15) Kurskod: MC1402.

LARS ULVELAND HOPFIELDNÄTVERK FÖR IGENKÄNNING AV DEGRADERADE BILDER OCH HANDSKRIVNA TECKEN

Resursanvändning - sida 1

Minnet - begrepp och principer

SensMax Besöksräknare EasyReport Mjukvara

Eulercykel. Kinesiska brevbärarproblemet. Kinesiska brevbärarproblemet: Metod. Kinesiska brevbärarproblemet: Modell. Definition. Definition.

Tränarguide del 2. Mattelek.

Metoder för detektering av pittingskador i motorer.

Att orientera i den närliggande natur- och utemiljön med hjälp av kartor, såväl med som utan digitala verktyg. Kartors uppbyggnad och symboler.

Igenkänning av bilddata med hjälp av Kohonen-nätverk, samt beskrivning av program

Här är två korta exempel på situationer då vi tillämpar den distributiva lagen:

TDDB96 Projekt: Object priming med visuell stimuli

Alltid redo att hjälpa till. Registrera din produkt och få support på SRP3011. Frågor? Kontakta Philips.

Sammanfattning TSBB16

Digital- och datorteknik

Klimatscenarier för Sverige beräkningar från SMHI

Föreläsning 5: Dynamisk programmering

Transkript:

Översikt Biologiska mekanismer bakom inlärning Inlärning utan övervakning Inlärning utan övervakning Hebbiansk modellinlärning Självorganisering Arbetsfördelning mellan noder i ett lager som utvecklas utan övervakning Inkommande signaler summeras net för varje nod Summan av alla excitatoriska signaler * motsvarande vikter inom samma projektion (från samma lager) Skalning av projektionen abs och rel wt_scale Summan av alla projektioner Plus nodens bias (individuell känslighetsnivå) k aktiva noder i varje lager När alla net beräknats Beräkna lämplig inhibering för lagret För de noder som hamnat över tröskeln Beräkna deras (ut)aktivering XX1(V m - ) act Representerar spik-frekvens Inhibering Inhibitorisk tävlan (kwta) Neural aktivering som minskar sannolikheten för att mottagande neuronen ska avfyra Signalsubstsansen GABA-A el. GABA-B Ungefär 15 % av de kortikala neuronerna är inhibitoriska Verkar (i huvudsak) lokalt, dvs. skickar signal till kringliggande neuroner i samma hjärnområde Biologiskt sett: Visst antal inhibitoriska noder Verkar lateralt (åt sidan) inom samma lager Flera uppdateringar innan inhibitionen landar på rätt nivå Av beräknings och praktiska skäl: Inhibitoriska noder implementeras inte Istället, k-winners-take-all (kwta) kwta utför samma funktion som laterala inhibitoriska synapser Inhiberar på rätt nivå för varje cykel kwta 1

Två typer av inlärning Biologiska mekanismer bakom inlärning Inlärning utan övervakning Idag Modellinlärning Skapa en modell av omgivningen Kategorisera/strukturera input på basis av statistiska mönster Baserad på endast input Unsupervised learning, Hebbian learning, competitive learning Inlärning med övervakare Uppgiftsinlärning Nästa föreläsning Producera önskad output givet ett visst input Baserad på input och (med viss tidsförskjutning) korrekt output Supervised learning, error-driven learning Donald Hebbs postulat (1949) Synapsens effektivitet Effektivitet Sändarens förmåga att förändra membran-potentialen (V_m) hos mottagaren Motsv. kopplingens vikt i ett artificiellt nätverk Vad som avgör synapsens effektivitet Mängden av signalsubstans som utsöndras från den presynaptiska terminalen (= andel kanaler som öppnas hos mottagaren, g e ) Antalet postsynaptiska kanaler, g e Long-Term Potentiation (LTP) Ökning av V m hos mottagaren Mg + öppnar NMDAkanaler Släpper in Ca 2+ hos mottagaren Long-Term Depression (LTD) Long-Term Depression Mekanismerna inte lika väl kända LTD: En svag postsynaptisk aktivitet mindre effektiv öppning av NMDA kanalerna lägre koncentration av kalciumjoner Ca2+ komplexa kemiska processer synapsens effektivitet minskar 2

Mål med modellinlärning Hebbs regel Modellinlärning = forma en intern modell av yttre verkligheten på basis av regelbundenheter i input Nätet gör detta utan lärare Extraherar återkommande mönster i indata Olika delar av input som brukar förekomma tillsammans Särdrag Korrelation Hebbs regel: LTP y j w ij = x i y j w ij (t+1) = w ij (t) + w ij = inlärningsfaktor (lrate) x i = presynaptisk nods aktivering y j = postsynaptisk nods aktivering w ij = vikten från nod x i till nod y j x i wij y j Lär sig att pixlar hänger ihop på två sätt i indata Hebbs regel: konsekvenser w ij = x i y j Viktförändringen: 1. Om = 0 w ij = 0 (ingen viktförändring) 2. Om = 1 w ij >> 0 (stor viktförändring) 3. Vikten kan endast öka 4. Vikten ökar endast om x i och y j aktiva samtidigt (> 0) Biologiskt plausibel då information som används för att uppdatera vikten är lokal (berör synapsen) Hebbs regel: exempel Anta att mottagarens aktivering = viktad summa av insignaler (ingen bias, skalning, etc.) 0.1 1.0 + 0.3 0.7 + 0.2 0.0 = 0.31 Resp. vikt uppdateras: w n = x i y j w 1 = 0.2 1.0 0.31 = 0.062 w 2 = 0.2 0.7 0.31 = 0.0434 w 3 = 0.2 0.0 0.31 = 0 0.31 0.1 0.3 0. w 1 = 0.062 w 2 = 0.04342 1.0 0.7 0.0 3

Principal Component Analysis (PCA) Problem att fixa Vad lär sig ett nät vars vikter uppdateras med Hebbs regel? Att detektera mest frekventa sambandet (korrelationen) mellan varje bit i indata T.ex. vilken konstellation en pixel oftast deltar i Den principiella komponenten bland alla korrelationer Notera att det är x 1,, x n via sina resp. vikter som tillsammans bestämmer y s aktivering Korrelationen mellan x 1,, x n bestäms indirekt via y Hebbs regel kan endast öka vikterna Vad göra när flera mottagarnoder? Ska alla noder lära sig samma korrelation, dvs. samma särdrag? Conditional PCA (CPCA) CPCA w ij = (y j x i y j w ij ) Skillnad mot Hebbs regel = inlärningsfaktor (lrate) x i = sändarnodens aktivering y j = mottagarnodens aktivering w ij = vikten mellan noderna x i och y j x 1 w 1 x 2 y j w 2 w n... x n Conditional (villkorlig) innebär här att inkommande vikter till y ska återspegla sannolikheten för att nodens aktivering orsakades av x i Individuell vikt w i återspeglar sannolikhet att x i aktiv när y aktiv Hebbs ursprungliga regel tar inte hänsyn till detta, då den saknar en viktminskningskomponent (LTD) CPCA Problem w ij = (y j x i y j w ij ) 1. y i och x j båda aktiva (x i > w ij ) viktökning 2. y j aktiv, x i inte aktiv (x i < w ij ) viktminskning 3. y j inte aktiv ingen viktförändring Inlärningen avstannar när vikten avspeglar sändarnodens förväntade aktivering i de fall då mottagarnoden är aktiv, w ij = P(x i y j ) 1. Vikterna tenderar att bli låga Korrelation inom delmängd av datamängden Om särdrag utgör 30% av de särdrag som noden aktiveras av skulle den ha 0,3 i maxvikt Sannolikheten att just input x är aktiv när y är aktiv blir lägre ju fler inputmönster y tar hand om 2. Mottagarnoderna inte tillräckligt selektiva Startar på slumpmässigt värde Noderna aktiva för många olika indatamönster 4

CPCA utökning Normalt hålls vikterna inom [0, 1[ Nu fylls inte det utrymmet längre Åternormalisering, förhindrar problem 1 Normalisera vikterna Töjning av vikterna till intervallet [0, 1[ Proportionerlig förstoring av alla vikter Kontrastförstärkning, förhindrar problem 2 Applicera en sigmoidal förstärkarfunktion på vikterna för att få en större kontrast mellan svaga och starka vikter Antagandet är att svaga vikter avspeglar fall då mottagarnoden blev oavsiktligt aktiverad Flera mottagarnoder Självorganisering Vill ha specialiserade mottagarnoder Självorganiserande nät Vill att olika noder ska lära sig olika särdrag Vill/kan inte tala om vilka som ska lära sig vilka särdrag x 1 y 1 x 2 y 2 y m... x n Starta med små slumpvikter Olika noder har då olika chans att bli aktiverade av samma input Noderna får tävla (kwta) Vinnarna förblir aktiva och får uppdatera sina vikter Självförstärkande effekt: efter viktuppdateringen har vinnarna ännu lättare att vinna nästa gång denna input visas x 1 y 1 x 2 y 2 y m... x n Inhibitorisk tävlan (kwta) kwta låter de k mest aktiva noderna överleva k = antal noder el. en procentsats Fördelen med kwta och avg-kwta: Möjliggör mjuk tävling, då flera noder kan vinna Resulterar i att: 1. Även noder med svag aktivitet tillåts lära sig lite Dvs. flera noder kommer att utveckla känslighet för viss input 2. Distribuerade representationer erhålls i resp. lager Dvs. flera noder samverkar till att representera ett visst särdrag i input Självorganisering genom CPCA + kwta CPCA + kwta självgruppering av noder som reagerar på samma särdrag, dvs. samma kategori av input Antalet kategorier styrs genom att Öka antalet inputnoder (öka detaljnivån i input) Litet antal pixlar 2 kat: runda el. avlånga Stort antal pixlar 10 kat: olika siffror Ändra antalet dolda noder + olika värden på k i kwta Fler eller färre aktiveringsmönster kan bildas 5

Lagrets storlek och kwta k = 9 2042975 repr. k = 2 25*24/1*2 = 300 repr. Fler representationer Mindre risk för överlapp e Distribuerad representation a Har aldrig sett input, men kommer att känna igen den som a a a Aktiveringsmönster över många enheter motsvarar objekt begrepp, etc. Ger robusthet Ger generaliserbarhet Överlapp Ibland vill man inte ha överlapp Överlapp kan ge interferens T.ex. vill vi kunna skilja minnet av olika julfiranden genom åren Ibland är överlapp bra Input som nätet aldrig sett tidigare, men som liknar inlärd input kan delvis aktivera inlärd output Nätet kan avge respons som är någorlunda adekvat Förmågan att ge adekvat respons för ej tränad input kallas generalisering 6