Översikt Kognitionsvetenskaplig introduktionskurs Föreläsning 4 Informationsbearbetningsmodeller Vad är kognitionsvetenskap? Kort bakgrund/historik Representation och bearbetning av information Vetenskapliga metoder inom kognitionsvetenskap Informationsbearbetningsmodeller Annika Silvervarg CiltLab/HCS/IDA Fysiska symbolsystemshypotesen Language of Thought Konnektionism Tvärvetenskap Integrering Modularisering av kognitiva system Fysiska symbolsystem Language of Thought (Fodor, 1975) 1. Symboler är fysiska mönster Förklarar hur FSS kan fungera i mänskligt medvetande 2. Symbolerna kan kombineras till komplexa symbolstrukturer 3. Det finns processer för att manipulera komplexa symbolstrukturer Language of Thought eller Mentalese är ett internt språk med symboler och meningar som transformeras i medvetandet 4. Processerna för att generera och transformera komplexa symbolstrukturer kan representeras av symboler Transformation rule 1. Fa Meaning/Semantics Georgina is tall 2. Ga Georgina has red hair 3. Fa & Ga If complex symbols S and S* appear on earlier lines then write S & S* Georgina is tall and has red hair 4. x (Fx & Gx) If on an earlier line there is a complex symbol containing a name symbol then replace the name symbol by x and write x in front of the result Something is tall and has red hair Linköpings universitet Meningar uttryckta i LOT är: Representationer av tillstånd i världen, propositionella attityder Kinesiska rummet (Searle, 1980) LOT Exempel Symbols Meningar uttryckta i LOT är: Fysiska symbolstrukturer som kan manipuleras enligt regler Symbol grounding 1
Symbol grounding problem Sub-symbolisk kognition/konnektionism Kinesiska rummet illustrerar ett vidare problem gapet mellan formell bearbetning av symboler och genuin tanke och förståelse Men hur blir symboler meningsfulla? ord (lingvistiska symboler) är meningsfulla eftersom vi lär oss en betydelse när vi lär oss att använda dem men tankar verka ha betydelse i sig själva vi har kört fast Möjliga vägar Kognition är inte informationsbearbetning Kognition är icke-symboliska informationsbearbetning Modeller inspirerade av hjärnan Små enkla enheter i nätverk Parallell distribuerad bearbetning Neuron Neuron En aktiverad neuron skickar ut en elektrisk impuls i sin axon som avslutas i ett antal synapser som skickar signalen vidare till dendriter på en annan neuron som tar emot input via synapser som är positivt eller negativa och alla inkommande signaler till neuronen summeras och vid ett tröskelvärde aktiveras neuronen och en signal skickas ut i axonen, osv. Perceptron Perceptron Efterliknar neuronen men endast en koppling på utsignalen In motsvarar aktivering från andra neuroner/perceptroner Vikten motsvarar styrkan i synapsen (kan vara negativ) Aktivationen summeras Stegfunktion avgör om neuronen/ perceptronen aktiveras Utaktivation är 1 eller 0 (allt eller inget) Linköpings universitet 2
Perceptron Vad är boolska funktioner? Perceptroner kan modellera boolska (logiska) funktioner genom att förändra tröskelvärdet vikterna 14 Perceptron - NOT Perceptron - AND Inlärning av perceptroner Perceptroninlärning Exempel Räkna ut felet: E = Förväntad/Facit (F) - Erhållen (S) utsignal Ändra vikterna: w j := w j + α i j E om felet är positivt öka vikten, om felet är negativt minska vikten Inlärning av OR, tröskel = 1 Inlärningselementet α = 0,3 w 1 = 0,4 och w 2 = 0,3 Träningsmängd: i 1 i 2 F 0 0 0 0 1 1 1 0 1 1 1 1 Linköpings universitet 3
Perceptroninlärning Exempel i 1 i 2 w 1 w 2 Signal Facit Error Tröskel=1 0 0 0,4 0,3 0 0 0 0 0 1 0,4 0,3 0,3 0 1 1 1 0 0,4 0,6 0,4 0 1 1 1 1 0,7 0,6 1,3 1 1 0 0 0 0,7 0,6 0 0 0 0 0 1 0,7 0,6 0,6 0 1 1 1 0 0,7 0,9 0,7 0 1 1 1 1 1,0 0,9 1,0 1 1 0 0 0 1,0 0,9 0 0 0 0 0 1 1,0 0,9 0,9 0 1 1 1 0 1,0 1,2 1,0 1 1 0 1 1 1,0 1,2 2,2 1 1 0 i 1 i 2 XOR 1 1 0 1 0 1 0 1 1 0 0 0 XOR Kan inte hanteras av en perceptron Linjärt separerbara problem Perceptroner - XOR Perceptroners uppgång och fall Återuppståendelse 1943 McCullough & Pitt datorer som artificiella neurala nätverk 1949 Hebb Oövervakad inlärning neurons that fire together, wire together 1958 Rosenblatt Övervakad inlärning perceptroner kan lära sig godtyckligt linjärt separerbara problem 1969 Minsky & Papert Nätverk med flera lager kan beräkna alla möjliga funktioner, men det finns inga inlärningsstrategier för sådana nät 1986 McLelland & Rummelhart Lära nätverk med flera lager noder Gradient back propagation Linköpings universitet 4
Artificiella neurala nätverk Inlärning i neurala nätverk Utdatalager Länkar mellan det gömda lagret och utdatalagret Lager med gömda noder Länkar mellan indatalagret och det gömda lagret Indatalager Gradient back propagation innebär att de ansvariga länkarna justeras genom uppdatering av vikterna lager för lager. Informationsbearbetning i NN Artificiella kontra mänskliga NN Distribuerade representationer lagrade i vikterna Finns NN där noder representerar särdrag/begrepp Ingen tydlig åtskillnad mellan informationslagring och informationsbearbetning Kan lära och förändras över tid Stora skillnader mellan ANN och mänskliga hjärnan Olika typer av neuroner Färre kopplingar mellan neuroner (mer lokalt) Många, många fler neuroner Annan typ av inlärning av neuroner Det finns dock olika typer av ANN, en del mer biologiskt trovärdiga än andra => Kursen Kognitiv modellering i åk3 LOT (Classicism) kontra Konnektionism Diskussion Eliminativist connectionism Mentala tillstånd som Beliefs, Desires och Intentions/ Propositionella attityder existerar inte och därmed inte LOT Implementationism NN realiserar LOT Vad är en symbol/representation inom Konnektionism? Formulera vad kognition inom Konnektionism är? Vad är de största skillnaderna mellan Konnektionism och Fysiska symbolsystem? Löser konnektionism problemet med det kinesiska rummet? 31 Linköpings universitet 5
Delvetenskaper/discipliner Sloan report, 1978 Psykologi Neurovetenskap Datalogi/Artificiell intelligens Lingvistik Antropologi Filosofi Linköpings universitet 6