KTH/CSC. ANN fk. Attraktornätverk. Anders Lansner

Relevanta dokument
ANN fk. Synopsis. Attraktornätverk. och synapser. Hebbska cellassemblies bildning. Hebbska cellassemblies dynamik. Hebbian cell assemblies bistabilty

KTH/CSC. ANN fk. Hjärnliknande beräkningar och ANN. Anders Lansner

ANN fk. Synopsis. Hjärnliknande beräkningar och ANN

2D Potentialen i en nervcell definieras normalt som skillnaden i spänning mellan dess axon och dendrit.

Inlärning utan övervakning

ANN hårdvara. ...samt hjärnliknande arkitekturer

729G43 Artificiell intelligens / Maskininlärning 3. Marco Kuhlmann

729G43 Artificiell intelligens (2016) Maskininlärning 3. Marco Kuhlmann Institutionen för datavetenskap

Linköpings universitet

Kognitiv psykologi. Kognition och hjärnan. Hjärnans struktur Neurokognition Kap 2

Algoritmer och maskininlärning

Modeller och simulering av språkprocessning

Neuronen 11/22/2012. Översikt. Artificiell nod. Kommunikation. Neuronen som detektor. Syftet med återstående föreläsningarna

1(15) Bilaga 1. Av Projekt Neuronnätverk, ABB Industrigymnasium, Västerås Vt-05

Hierarchical Temporal Memory Maskininlärning

LARS ULVELAND HOPFIELDNÄTVERK FÖR IGENKÄNNING AV DEGRADERADE BILDER OCH HANDSKRIVNA TECKEN

SF1901: Sannolikhetslära och statistik. Mer om Approximationer

NUMPROG, 2D1212, vt Föreläsning 9, Numme-delen. Stabilitet vid numerisk behandling av diffekvationer Linjära och icke-linjära ekvationssystem

ANN fk. Örjan Ekeberg. Framåtkopplade Nät. återkopplade nät. Olika arkitekturer. BackPropagation through Time. Kalman-Filter tekniker

Temperaturmätare med lagringsfunktion DIGITALA PROJEKT EITF11 GRUPP 14, ERIK ENFORS, LUDWIG ROSENDAL, CARL MIKAEL WIDMAN

Beräkning med ord. -hur en dator hanterar perception. Linköpings universitet Artificiell intelligens Erik Claesson

Quine McCluskys algoritm

Stockholm Brain Institute

Mini-Betula. Anna Sundström Institutionen för psykologi/alc, Umeå Universitet. Mini-Betula. Mini-Betula En pilotstudie i några kommuner i Västerbotten

Test av Metria Maps avseende Användbarhet och prestanda

Människan och Tekniken. Fö 3 Människan och tekniken. Perception. Visuell perception

Föreläsning 7: Bild- och videokodning

Symboler och abstrakta system

Monte Carlo-metoder. Bild från Monte Carlo

Övningsuppgifter #11, Programkonstruktion och datastrukturer

1 Begrepp och Hypoteser. 2 Inlärning genom sökning. 3 Objektiv inlärning. Inlärning av en boolsk funktion från exempel.

Grundläggande Idéer Algoritmens komponenter Numerisk optimering Genetisk Programmering. Genetiska Algoritmer

TMS136. Föreläsning 5

Neuropsykologi och kognitiv neurovetenskap, 15hp, ht16 Läsanvisningar till respektive föreläsning

Eulercykel. Kinesiska brevbärarproblemet. Kinesiska brevbärarproblemet: Metod. Kinesiska brevbärarproblemet: Modell. Definition. Definition.

Depression, kognition och åldrande. Alexandra Pantzar, Doktorand i psykologi Aging Research Center

Optimala koder. Övre gräns för optimala koder. Gränser. Övre gräns för optimala koder, forts.

Optimala koder. Det existerar förstås flera koder som har samma kodordsmedellängd. Enklaste fallet är att bara byta 0:or mot 1:or.

GRUNDER I VHDL. Innehåll. Komponentmodell Kodmodell Entity Architecture Identifierare och objekt Operationer för jämförelse

Language Contents. English Svenska

Neuronala nätverk och system metodik och exempel

Konvergens för iterativa metoder

MINNE. Av Jenny Wikström

FUZZY LOGIC. Christopher Palm chrpa087

Digitalitet. Kontinuerlig. Direkt proportionerlig mot källan. Ex. sprittermometer. Elektrisk signal som representerar ljud.

Neurala nätverk och språkigenkänning. Henrik Linnarsson. Linköping University

Partiella differentialekvationer: Koppling Diskret - Kontinuum och Finita Elementmetoden

Sub-symbolisk kognition & Konnektionism. Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén,

1 Föreläsning I, Mängdlära och elementär sannolikhetsteori,

Introduktion till statistik för statsvetare

Tentamens-/instuderingsfrågor

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

Tillämpad statistik (A5), HT15 Föreläsning 6: Några övriga urvalsmetoder

Matematisk statistik 9 hp, HT-16 Föreläsning 10: Punktskattningar

4.3 Stokastiska variabler (slumpmässiga variabler) 4.4 Väntevärde och varians till stokastiska variabler

Matematisk statistik för B, K, N, BME och Kemister

Föreläsning 7: Kognition & perception

Klustring av svenska tidningsartiklar

DIGITALTEKNIK. Laboration D161. Kombinatoriska kretsar och nät

SELF- ORGANIZING MAPS

Den beslutsfattande hjärnan i en lärandeprocess. Ett arbete av Linnéa Palme, mars- 2017

Föreläsning 7: Punktskattningar

BEDÖMA BIOLOGISK MÅNGFALD I TORVMARKER. - Hur gör man rent praktiskt (och tekniskt)? Sofia Nygårds Ecocom AB

Neural bas för kognition

Artificiell Intelligens Lektion 7

Torbjörn Westin, Spacemetric AB Simon Ahlberg, FORAN Remote Sensing AB

ppi = 72 ppi = 18 ppi = 36 DIGITALA BILDER (pixelbaserad) DIGITAL RASTRERING ppi (pixels per inch) Sasan Gooran (HT 2003)

Föreläsning 9: Linjär regression del II

Föreläsning 7. Felrättande koder

Föreläsning 12 Bipolära Transistorer II. Funk<on bipolär transistor

Åldrande och minne. Erika Jonsson Laukka, legitimerad psykolog, PhD Aging Research Center

Stokastiska signaler. Mediesignaler

Grundläggande matematisk statistik

FÖRBÄTTRA DIN PREDIKTIVA MODELLERING MED MACHINE LEARNING I SAS ENTERPRISE MINER OSKAR ERIKSSON - ANALYSKONSULT

1/31 REGRESSIONSANALYS. Statistiska institutionen, Stockholms universitet

8.1 General factorial experiments

Interaktionsteknik. Föreläsning 6, Kognition perception. Översikt. Vad händer i medvetandet?

Laboration i digitalteknik Datablad

Föreläsning 6: Kognition och perception. Rogers et al. Kapitel 3

Visuell perception och synsinnets neurofysiologi

Föreläsning 8, Matematisk statistik 7.5 hp för E Punktskattningar

Tentamen i Introduktion till programmering

DIGITAL RASTRERING. DIGITALA BILDER (pixelbaserad) ppi (pixels per inch) Sasan Gooran

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 6 Väntevärden Korrelation och kovarians Stora talens lag. Jörgen Säve-Söderbergh

Korttidsminne-arbetsminne

Föreläsning 8: Konfidensintervall

Igenkänning av bilddata med hjälp av Kohonen-nätverk, samt beskrivning av program

Automation and and Drives. Elektroinstallation von A bis Z. Öppet Hus 2007

Kinetik, Föreläsning 1. Patrik Lundström

Markovprocesser SF1904

Läs, lyssna och anteckna smartare! 20 september 2016 Marcus Lithander och Ida Pinho

Föreläsning 7: Punktskattningar

Markovprocesser SF1904

Kapitel 10 Hypotesprövning

Finansiell Statistik (GN, 7,5 hp,, VT 2009) Föreläsning 2. Diskreta Sannolikhetsfördelningar. (LLL Kap 6) Stokastisk Variabel

Kurskod: TAIU06 MATEMATISK STATISTIK Provkod: TENA 15 August 2016, 8:00-12:00. English Version

SF1544 LABORATION 2 INTEGRATION, MONTE-CARLO OCH BLACK-SCHOLES EKVATION FÖR OPTIONER

Grundkurs i Informationsbehandling Del II (1119) Tentamen

Kinetik. Föreläsning 1

Stat. teori gk, ht 2006, JW F7 STOKASTISKA VARIABLER (NCT 5.7) Ordlista till NCT

Transkript:

ANN fk Attraktornätverk Anders Lansner

Attraktornät Hopfield startade 2:a ANN-vågen 1981 Idag många varianter - omfattande teori Teori för hjärnbarkens funktion Biologidriven teori- och algoritmutveckling Begränsade tekniska tillämpningar Sista ordet dock inte sagt

Denna föreläsning Rekapitulation, Terminologi Varför attraktornät? Minneskapacitet, gles aktivitet och gles W Modulära attraktornät Kontinuerlig inlärning glömska = palimpsest minne Minnesmodulation, print-now Adapterande attraktornät Gömt lager Invariant representation och attraktorminnen Haykin, Ch 14

Nätverksarkitektur x 1 w 11 y 1 x 2 y 2 x 3 y 3 TLU:s bias = 0 w ij = w ji (w ii =0) x 4 x 5 y 4 y 5

Rekapitulation Terminologi Attraktornät Rekurrenta NN Symmetrisk W fixpunktdynamik Feedback jfr Feedforward Autoassociativt minne jfr Heteroassociation Content Addressable Memory, CAM Oövervakad inlärning Hebbsk Korrelationsbaserad jfr Felkorrektionsinlärning (lokal felvektor) jfr Förstärkningsinlärning (global felskalär)

Motivation, användbarhet Hjärnteori snarare än teknologirelevant brain-like computing Några tillämpningar Kombinatorisk optimering Schemaläggning av Tensta skola, flygplansbesättingar, etc Klustring FOI spaningsrapporter Associativt minne Minnen lagrade i energiminima, attraktorer Gestaltperception Bildrekonstruktion (exempel) Varför inte MLP/BP, SVM? Auto-encoder Långsam inlärning, dålig skalbarhet

Vanligaste nätverken Willshaw-Palm Binär W Hopfield BCPNN Probabilistisk, modulär

Binära autoassociativa nätverk Willshaw-Palm nät Binär Hebbsk inlärning (OR) wij V M μ = 1 = ξξ I μ T μ Gles aktivitet, a = log 2 N Fungerar (förvånansvärt) bra För slumpmässiga mönster

Hopfieldnät Binära, graderade, spikande enheter Bipolär aktivitet {-1,1} Standard Hebbsk inlärning w ij 1 M T ξξ μ μ μ= 1 = N M N I E N N 1 = w xx 2 i= 1 j= 1 Asynkron uppdatering Spurious states ij i j

Utvidgningar av attraktornät Hjärnbarken? 1) Gles aktivitet ( sparse ) 2) Gles W ( diluted ) 3) Modulär struktur 4) Glömskt minne 5) Adaptation 6) Gömt lager 7)

Prestandamått minneskapacitet Antal återkallbara (slumpmässiga) mönster Bits/koppling (fri parameter) Brusanalys Informationsteoretisk analys Replikateori

Hopfieldnät minneskapacitet Slumpmässiga mönster, 50% aktiva Crosstalk, variansanalys M c M = max 0,14N = N 2ln N med fel i recall utan fel i recall Mycket analys finns

Minneskapacitet Informationsteoretisk uppskattning Önskemål, inte bevis Antal bits i W (symmetrisk) Antal bits/återkallat mönster bits / mönster = log P= antal möjliga olika mönster Z= antal återkallade mönster bits = Z log P P 2 2 P ( 1) kn N bitsw = 2 k = antal bits / koppling Stämmer hyfsat för standard Hopfield, Z max = 0,14N Z max bits = bits W P

Utvidgning 1 Gles, binär aktivitet, {0,1} Lagrade mönster : ξ μ i 1 med sannolikhet a = 0 med sannolikhet1 a 1 wij = i a j a N μ μ ( ξ )( ξ ) μ M a M c = c N = 2a lna ln N N 1 N 2 lnn 2

Informationsteoretisk uppskattning Aktivitetsnivå a = m/n = lnn/n bits P N N! = log2 = log2 m m! ( N m)! 4 x 108 3.5 3 2.5 2 Z max bitsw N = = k bitsp log N 2 1.5 1 0.5 0 0 1 2 3 4 5 6 7 8 9 10 x 10 5

Utvidgning 2 Modulära nät Tröskelkontroll Ofta problematiskt m-winners-take-all Modulära nät Hjärnbarken minikolumner,hyperkolumner t ex Hopfieldnät Pottsnät BCPNN Moduler med Σaktivitet = 1 Tröskelkontroll enkel

Modulärt ANN H = 3 M = 2 Normalisering

Moduler diskreta attribut Diskreta inattribut x i Diskret utattribut y i Probabilistiskt perspektiv Utaktivitet Konfidens/ Belief Tyst hyperkolumn :: attributvärde = N/A

Fuzzy representation neurofuzzy Fuzzy variabler Lingvistiska Manuell indelning Grafisk blandingsmodell Automatiskt, EM Intervallkodning Användes tidigt i Japan I konsumentprodukter Kylskåp Äggkokare Hyperkolumn med? enheter Mjuk tåginbromsning (Shinkhansen) Struktur fysikaliska egenskaper hos kemiska ämnen Astra-Zeneca

Informationsteoretisk uppskattning H hyperkolumner med M enheter i varje bits = log M = H log M P Z max H 2 2 2 kn = 2H log ( 1 1 H ) ( N H) 2 Tysta hyperkolumner! 6 x 108 5 4 3 2 H=lb(N) Utan H Silent H 1 0 0 1 2 3 4 5 6 7 8 9 10 x 10 5

Utvidgning 3 Gles W Gles kopplingsmatris c = connectivity density c M = connections / unit Lagringskapacitet minskar ung proportionellt dock, adaptiv utglesning

Exempel, associativ hjärnarea Antal nervceller = 10 9, 1/100 av kortex 10 7 enheter (minikolumner) 10 5 hyperkolumner Tysta hyperkolumner 0.5 aktivitetsnivå 1 konnektivitet (mellan minikolumner hos människa) ca 400 miljoner mönster kan lagras ca 15/min! Hur mycket minne behövs?

Utvidgning 4 Kontinuerlig inlärning, glömska Läckande inlärning dw dt ij = μ μ ξ ξ i j wij τ w Tidskonstant för vikter, τ w Långtids korttidsminne arbetsminne Undviker katastrofal glömska Palimpsestminne Minneskonsolidering: Hippocampus Neocortex

Glömskt attraktorminne

Bra beskrivning av minne?

DEMO Listinlärning

Modulerat glömskt attraktorminne Print-now för varje mönster, τ w Minnesmodulation

Utvidgning 6: Adaptation Nervceller egenskaper Ström Frekvens Adaptation Synaptisk depression Vad händer i Hopfieldnät? Attraktorvandring!

Attraktornät + adaptation Standard Hopfieldnät fastnar i energiminima

Bra minneskapacitet etc, men Vilka är begränsningarna? Viktig funktionalitet som saknas?

Träningsmängd Hidden Population 32x16 = 512 units Input Population 256x2 = 512 units Input Population 256x2 = 512 units

Utvidgning 5 Attraktorminnen med gömt lager Instabil Stabil representation Stort antal slumpmässiga mönster Korrelerade ( verkliga ) mönster lagringskapacitet ej begränsad av N bättre klassificeringsförmåga Hjärnbarkens lager IV Kompetitiv inlärning Feature extraktion Oövervakad inlärning, ev bias Tidigare analys gäller nu gömt lager

Överkomplett, gles bildrepresentation Överkomplett = antal basfunktioner > antal pixlar i en patch Sparse basis functions for the patches were extracted from training images by an iterative learning procedure. Most of the functions are oriented, localized and cover a limited range of spatial frequencies, like the receptive fields of neurons in the visual cortex. Image courtesy of Bruno A. Olshausen.

Exempel - bildrekonstruktion Bilder från Colombia University Image Library COIL-100. Upplösning 128 128 pixel 100 bilder lagrades i ANN med 16384 hypercolumner med M = 100 Parallellimplementerat 7 x 104 retrieval cue one iteration four iterations twenty iterations Pixels in All of the 100 Images 6 5 4 3 2 1 A B 0 0 20 40 60 80 100 Colors