Artificiella neurala nätverk

Storlek: px
Starta visningen från sidan:

Download "Artificiella neurala nätverk"

Transkript

1 Artificiella neurala nätverk En introduktion i anslutning till H. Malmgren: Inlärning och minne i neurala nätverk. Studentlitteratur 2007 Helge Malmgren, januari 2008 Vad är ett ANN, och vad har man dom till? Artificiella neurala nätverk (ANN) är matematiska modeller som används i tre olika huvudsyften: För att bättre förstå hur nervsystemet hos människan och andra djur fungerar, och för att på så sätt belysa mekanismer för perception, kognition och minne För att kunna bygga bättre och intelligentare maskiner (och andra tekniska prylar) med hjälp av principer som helt eller delvis lånats från hjärnans sätt att fungera. Specialfall av lärande system. Exempel: Adaptiv bildanalys; robotik För att simulera (sammanfatta och förutsäga data från) observerade komplexa system, vars inre lagar är m.e.m. okända

2 Centrala inlärningbegrepp från filosofi och psykologi Associativ inlärning: Aristoteles, Hume, Mill Successiv association: iakttaget tidssamband A e B. Iakttagelse av A leder sedan till förväntan om B Simultan association: bildande av helhet AB. Kan förklara perceptuell komplettering, innehållsadresserbart minne ( random access, RAM) Modernare distinktioner: deklarativt minne/procedurellt minne/perceptuellt minne långtidsminne/korttidsminne (arbetsminne)/omedelbart minne/ sensoriska buffertar Neuropsykologi/neuropsykiatri, men också klassisk experimentell psykologi, ger information om minnet och dess mekanismer Klassisk betingning: UCS: obetingad stimulus; UCR: obetingad respons; CS: betingad stimulus. Iakttaget samband mellan CS och UCS gör att CS ger upphov till något som liknar R Operant (instrumentell) betingning: Effektlagen: beteenden B som i situationen S leder till belöning förstärks; de som leder till bestraffning försvagas Icke associativ inlärning: sensorisk adaptation, habituering, sensitisering Minnesstörningar i organisk psykiatri Korsakoffs amnestiska syndrom ( Amnestic Syndrome DSM): retrograd amnesi, anterograd amnesi, konfabulation. Beror på bilateral skada i limbiska systemet, t.ex. hippocampus. Många orsaker, bl.a. kroniskt alkoholmissbruk. Omedelbart minne och procedurell inlärning ofta intakta. Vid förbättring återkommer minnen från tiden för den retrograda amnesin. Sekundära minnesstörningar: särskilt asteno-emotionellt syndrom (jfr mild cognitive disorder ICD-10, mild neurocognitive disorder DSM-IV). I stor utsträckning sekundära till koncentrationsstörning. Mycket varierande lokalisation & orsak.

3 Klassisk betingning av tidssamband Ett djur (eller en människa) som utsätts för ett associativt samband, där UCS kommer en stund efter CS, lär sig snabbt att ge en betingad respons först efter det att rätt tid efter CS har förflutit. Denna nervsystemets förmåga att bilda associationer över tid har ännu inte på något övertygande sätt fått någon neurofysiologisk förklaring, och någon god ANN-modell för detta finns inte... en utmaning som återstår, med andra ord! Aktionspotential och impulsöverföring i en nervcell Med en kraftig förenkling kan man säga att impulsöverföringen i nerverna är digital (en fråga om allt eller intet) medan den är analog i cellkroppen (en graderad signal överförs). Nervsystemet använder sig dock troligen ofta av s.k. frekvenskodning varför det ibland är lämplig att betrakta nervcellens output som en analog signal. Inlärning har länge ansetts bero på modifikation av synapsernas effektivitet. En sådan modifikation ändrar neuronens sätt att bearbeta information. Men förmodligen har en del minne en helt annan typ av bas (cellminne!)

4 Informationsbearbetningen i en typisk ANN-nod Noder betecknas med stora bokstäver X i Aktivitetscykeln: Inputs från andra noder multipliceras med vikter w ij (jämför gärna synapsers effektivitet) Summation av de viktade delinputs ger nettoinput net_in i (alternativt: x_in i ) Aktiveringsfunktionen bestämmer nodens aktivitet, x i Aktiviteten sänds som output till övriga noder Eventuellt sker inlärning genom modifikation av vikter (enligt någon lämplig algoritm) Aktiveringsfunktioner Lineär (enklaste fallet: x i = x_in i, dvs. aktiviteten = nettoinput). Förekommer knappast biologiskt men är lätt att analysera Ex: Lineära associatorer Stegfunktion (nettoinput ska uppnå tröskel). Modellerar det enskilda allt-eller-intet-svaret i ett neuron Ex: Den enkla perceptronen Sigmoida (S-formade) funktioner. Kan ses som en modell av signalfrekvensens olinjära inputberoende i ett biologiskt neuron. Ger kraftfulla signalbearbetningsegenskaper åt nätverket Ex: Flerlagrade perceptroner Kompetitiv aktivering. Den nod som får högst input ( vinnaren ) ges aktivitet 1, övriga får aktivitet 0. Varianter finns som är grundade på närhet mellan input- och viktvektorer. Ex: Kohonen-nätverk (SOM m fl)

5 Nätverksarkitekturer Feedforward/feedback-nätverk; en/flerlagrad arkitektur. FF-nätverk har inputlager och outputlager (skilj från input/output i enstaka noder!) Tvålagrat feedforwardnät Samma enlagrade FFnät Feedbacknätverk (återkopplade, rekurrenta) Inlärningsregler i artificiella neurala nätverk Hebb-regeln Δw ij = k x i x j (k: inlärningskonstant) Vikterna ändras i proportion till pre- och postsynaptisk aktivitet. Vikterna växer okontrollerat. Många varianter finns, vissa är biologiskt mer plausibla. Delta-regeln (specialfall när x i och d j är binära: perceptronregeln) Δw ij = k x i (d j - x j ) (d j : önskad output) Vikterna ändras i proportion till den presynaptiska aktiviteten x i och till felet, som är skillnaden (d j - x j ) mellan önskad och verklig postsynaptisk aktivitet (output). Output från noden X j närmar sig gradvis det önskade värdet. Back propagation-algoritmen (generaliserad deltaregel) Δw ij = -k δe/δw ij (E: globala outputfelet) Vikterna ändras i proportion till deras bidrag till det globala felet. Kohonen-regler för kompetiva nätverk Δw j = k (I - w j ) (I: inputvektorn) Viktvektorn w j för noden X j dras närmare eller dras längre bort från inputvektorn I. Vilka noder som berörs, och hur, varierar. Genetiska (evolutionära) algoritmer Selektion över tiden i en population av nätverk. Nätverken som visar de bästa prestanda överlever, och deras egenskaper rekombineras.

6 Nå, vad använder man de olika modellerna till? Först och främst kan man försöka modellera associativt minne hos människor och djur. Både Pavlovsk betingning och mönsterkomplettering genom simultana associationer kan efterliknas med ANN som använder Hebbregeln. Här eftersträvar man ofta en strukturlikhet mellan modell och det modellerade, i den meningen att enheter i ANN motsvarar neuron (eller neurongrupper) i CNS, etcetera. Kohonen-regeln och liknande algoritmer kan på ett liknande sätt användas i (tämligen plausibla) modeller för mänsklig begreppsbildning. De sistnämnda typerna av algoritmer kan också utnyttjas i maskiner eller datorprogram som kategoriserar data efter i viss mening naturliga principer. Deltaregeln, back-propagation, genetiska algoritmer och andra kraftfulla regler används för att bygga prylar som lär sig att i olika avseenden bete sig sig som konstruktören önskar. Således kan en maskin lära sig att skilja olika typer av input från varandra s.k. mönsterklassifikation och en mobil robot kan fås att anpassa sitt yttre beteende till vissa (av konstruktören) önskade mål. Inlärningen ifråga bygger på att man visar maskinen ett antal exempel och talar om vilka som är rätt respektive fel. Inlärningsalgoritmen leder till att maskinen själv konstruerar en regel som överensstämmer med detta facit. Dessa kraftfulla nätverk kan också anpassa sig till att överensstämma med data som härrör från ett godtyckligt komplext system. Här behöver man inte tänka sig modellen som strukturlik verkligheten; enheterna i modellen behöver således inte motsvara konkreta noder i verkligheten. Pavlov, Hebb och ANN Klassisk betingning kan modelleras som styrd (men oövervakad ) inlärning med (något som liknar) Hebbregeln, Δw ij = k x i x j. Se figuren nedan. Här är x i aktiviteten i CS-noden (A) och x j aktiviteten i R-noden (C). Låt för enkelhets skull x i och x j vara binära. UCS är att betrakta som den styrsignal som man lägger på outputenheten under träningen. Vikten från CS-neuronet till R-neuronet ökar enligt Hebb-regeln med k enheter varje gång som CS-neuronet är aktivt samtidigt som man (via UCS) tvingar R-neuronet att vara aktivt. För biologisk realism måste man ersätta Hebbregeln med någon regel som inte medför att vikterna växer obegränsat. I många verkliga neuron finns en mekanism, långtidspotentiering (LTP), som i flera avseenden påminner om Hebb-regeln och som därför skulle kunna vara en biologisk bas för associativ inlärning Under vissa omständigheter uppträder iställer långtidsdepression, LTD. Inlärning av graderade signaler är svår att förklara i traditionell ANN-teori; här kan teorin för kontinuerliga attraktorer ha en plats (jämför också cellulärt minne) Fördröjd betingning kan tänkas förklaras genom Hebbmekanismer i kedjor av neuron - men är sådana modeller realistiska? Här är Pavlovmodellen:

7 Övervakad och styrd inlärning i linjära associatorer Vid övervakad inlärning har nätverket en önskad output för varje inputvektor. Denna önskade output kan vara ett skalärt tal som anger önskad klasstillhörighet för input, men kan också vara en vektor som i figuren här. Den jämförs med nätets verkliga output och vikterna korrigeras så att felet minskar. Ofta används deltaregeln. En linjär associator med n inputnoder (X i ) och n outputnoder (Y i ) kan med deltaregeln bilda associationer mellan högst n stycken linjärt oberoende inputvektorer och fritt valda outputvektorer, utan att associationerna interfererar med varann. Vid styrd, oövervakad inlärning (eng.: forced learning; jfr Pavlov-modellen ovan) tvingas den önskade output på nätet som signal i outputenheterna under träningen. Med Hebbregeln och sådan styrd inlärning kan n stycken ortogonala inputvektorer associeras med var sin godtyckligt vald outputvektor. Nätet kan också autoassociera vektorer och därefter mönsterkomplettera. Deltaregelns konvergens i den linjära associatorn Outputfelet E är summan (över alla outputnoder och alla inputvektorer) av de kvadrerade skillnaderna mellan verklig och önskad output, och är (givet en viss inputmängd) en positiv funktion av nätverkets vikter. I ett linjärt nätverk är denna funktion kvadratisk, dvs inga termer har högre potens än 2. Uppgift: Träna vidstående binära mini-associator på (0,0) 0; (1,0) 0; (0,1) 1; (1,1) 1. Felfunktionen ser då ut som nedan: Eftersom felfunktionen är kvadratisk har den ett enda minimum. För att hitta detta minimum från en given punkt (dvs från de initiala vikterna) kan man t.ex. gå brantaste vägen neråt. Detta är likvärdigt med att i w 1 -led röra sig i proportion till den partiella derivatan av E med avseende på w 1, och motsvarande i w 2 -led. Detta kan visas vara (nästan) ekvivalent med deltaregeln.

8 Tröskelaktivering: y = 1 omm x 1 w 1 + x 2 w 2 > θ Beslutsgräns: den räta linjen x 1 w 1 + x 2 w 2 = θ XOR-problemet : Perceptronen (1) Historiskt viktig typ av ANN (Rosenblatt) Enlagrat FF-nätverk I Rosenblatts version har nätet ytterligare ett lager på inputsidan, men med fixa vikter (det ökar därför inte beräkningskraften) Stegfunktion Utför styrd klassifikation av mönster Använder perceptronregeln (variant av deltaregeln) Kan endast lösa linjärt separerbara problem Konvergerar mot en lösning om den existerar Perceptronen (2) I denna modell kodas tio LCD-siffror sålunda, att en inputkanal är aktiv om motsvarande segment i siffran är på. Siffran 1 kodas alltså som , etc. Användaren kan välja en godtycklig indelning av siffrorna i två klasser och försöka träna perceptronen till att göra samma indelning. Vissa klassindelningar definierar linjärt icke separerbara problem (nu i sju dimensioner). Ett exempel fås om man försöker lägga siffrorna 6 och 9 i den ena klassen och övriga i den andra.

9 Feedback-nätverk (återkopplade, rekurrenta) En signal kan i princip cirkulera hur länge som helst Inte självklart att signalmönstret stabiliseras Om mönstret alltid blir stabilt har vi ett attraktornätverk Signalmönstret i attraktorläge kan då betraktas som nätverkets (statiska) output Men andra möjligheter finns. T.ex. kan den fortlöpande aktiviteten i någon delmängd av enheterna ses som output över tid från nätverket Det mänskliga nervsystemet domineras helt av återkopplade förbindelser! Synkron uppdatering från (1, 1) ger: (1, 1) ( 1, 1) ( 1, 1) (1, 1) (1, 1) dvs en gränscykel av mönster Varannan-uppdatering med början i X ger: (1, 1) ( 1, 1) ( 1, 1) ( 1, 1) dvs en punktattraktor Hopfieldnätet ( Diskret autokorrelator ) Också historiskt viktigt Feedback-arkitektur Symmetriska vikter med 0 överallt på diagonalen Konservativ stegfunktion Asynkron, slumpmässigt vald uppdatering av noderna Stabiliserad dynamik (Hopfield) Tränas fr.a. med Hebb Auto-associativt Mönsterkompletterar till de inlärda mönstren Modell av perceptuell komplettering och innehållsadresserbart minne?

10 Hopfieldnätets stabilitet Hopfieldnätet uppdateras asynkront och har aktiveringsfunktionen: 1 om net_in > 0-1 om net_in < 0, samma aktivitet som tidigare, om net_in = 0. Nätverkets globala energi: E = - 1/2 ( x i x j w ij ) (summation över i, j). Energin är ett globalt mått på icke-överensstämmelsen mellan nodernas nettoinput och aktivitet. Observera nämligen att x i x k w ik (där vi bara summerar över i) = x k x i w ik = x k net_in k Storheten - 1/2 (x k x i w ik ), den lokala energin E k för nod k, ändras därför i negativ riktning, om noden ändrar aktivitet vid uppdatering. Övriga ändringar i den globala energin då nod nr k uppdateras är tillsammans lika med ändringen i den lokala energin. Detta förhållande beror på viktsymmetrin, w ij = w ji. Den globala energin går alltså alltid ned då en aktivitet ändras Då energin bara har ett ändligt antal möjliga nivåer (med givna vikter) måste den till slut nå ett minimum där ingenting mer ändras. HyperHopfield I denna modell, där input återigen är binärt (eller bipolärt) kodade LCD-siffror, kan man bl.a. studera hur ett rekurrent nätverks aktivitet spontant uppdateras. Man kan följa energifunktionens utveckling och pröva under vilka villkor på vikterna som uppdateringen leder till ett stabilt sluttillstånd (en attraktor). Nätverket kan tränas att känna igen en eller flera siffror. När det tränats och ett felaktigt mönster presenteras, kompletteras detta under nätverkets uppdatering ofta till att bli något av de inlärda mönstren

11 Konkurrens, samarbete och the winner takes it all I nervsystemet ser man många exempel på konkurrens genom ömsesidig hämning Typexempel: lateral inhibition som ger kontrastförstärkning I ANN-modeller, t.ex. SOM, åstadkommer man oftast denna winner takes all på andra sätt I det (teoretiska) fall då den ömsesidiga inhibitionen leder till att ett och endast ett element förblir aktivt, talar man om kompetitiv aktivering eller the winner takes it all Konvergens mellan förbindelser kan ibland beskrivas som ett slags samverkan (kooperation) Self-Organising Map (SOM) Ett av Kohonens ANN Enlagrat FF-nätverk Kompetitiv aktivering Kohonen-inlärning Gör oövervakad klassifikation (kategorisering) av inputs Ger en 2D-karta över likheter i inputdatamängden: efter träningen vinner rumsligt näraliggande enheter på (kodar) liknande inputs Nodernas rumsliga placering i nätverket har alltså betydelse Skilj denna rumsliga placering från placeringen i vektorrummet av nodernas viktvektorer!

12 Kompetitiv aktivering i SOM För varje input (gröna) utses den nod (röda) till vinnare vars viktvektor ligger närmast denna input i vektorrummet. Ofta används euklidiskt avstånd (mätt med Pythagoras sats i n dimensioner). Vinnarnoden får aktivitet 1 och övriga noder får aktivitet 0. Alternativt kan man alltså tänka sig vanlig linjär aktivering och sedan en ömsesidig inhibition, anpassad så att den nod som har störst aktivitet från början blir ensam kvar. Om alla vektorer har samma längd är betraktelsesätten likvärda. x y = l(x) l(y) cos α! α Kohonen-inlärning: den vinnande nodens viktvektor dras (ännu) närmare den aktuella inputvektorn Även (de rumsliga) grannarnas viktvektorer dras (lite) närmare denna inputvektor. (Endast en granne illustreras här.) Obs: noder som är rumsliga grannar behöver från början inte ha viktvektorer som ligger nära i vektorrummet! Grannarna blir genom inlärningen bättre på att vinna på vektorer som liknar den aktuella inputvektorn På detta sätt kommer rumsligt näraliggande noder så småningom att vinna på (koda för) liknande inputs Detta är kartan över inputdomänen Inlärning i SOM

13 Kartan över inputdomänen - ett exempel Informationen om likhet i inputs n dimensioner komprimeras och avbildas på rumsrelationer i (oftast) två dimensioner. Kartan kan vara en torus, dvs gå runt. Omkodning av input, t.ex. byte av skala för en komponent i vektorerna, kan leda till förändringar i vilka vektorer som bedöms som nära varann, och därmed till olika slutresultat. Dimensioner som man vill ska ha särskilt stor vikt vid klassifikationen skall alltså skalas upp. Travelling salesman med SOM Travelling salesman (TSP) är problemet att hitta kortaste vägen genom ett antal städer. I en förenklad variant, det euklidiska TSP, är städerna givna genom sina koordinater på kartan och avståndet definieras genom fågelvägen. Det kan lösas med SOM. Bygg ett endimensionellt SOM med lika många noder som städer och med städernas koordinater som inputvektorer. Efter träningen kodar, som vanligt, rumsligt näraliggande noder för liknande inputs, vilket ju nu betyder: för geografiskt närliggande städer. Koordinaterna för noderna, i den ordning som noderna kommer i nätverket, är m.a.o. nätverkets förslag till resväg! Nodernas koordinater sammanfaller i allmänhet inte exakt med städernas. Resvägen (t.h.) måste därför putsas.

14 Neurala nätverk för olinjära klassifikationsproblem Många klassifikationsproblem i levande livet är inte linjärt separerbara. Traditionella statistiska metoder för linjär diskrimination, liksom enkla perceptroner, felklassificerar alltså helt säkert några av data. Flera typer av neurala nätverk, inte minst flerlagrade perceptroner med sigmoida aktiveringsfunktioner, kan däremot lösa alla konsistenta klassifikationsproblem (i en given datamängd) perfekt. De kan också approximera (nästan) alla matematiska funktioner. De tränas då med funktionens argument som input och funktionsvärdena som output En flerlagrad perceptron har minst två lager av förbindelser med adaptiva vikter (dvs dessa vikter påverkas av inlärningen) 1 X X 2 1 X 1 X 1 Arkitektur och aktivering i flerlagrade perceptroner Inputenheterna kan ha direkta förbindelser till output, men i standardmodellen går signalflödet alltid via de dolda noderna De dolda noderna skall ha sigmoida aktiveringsfunktioner, t.ex. den logistiska funktionen y = 1/(1 +e sx ) (sigmoid i snäv mening) eller tanh (tangens hyperbolicus, en trigonometrisk funktion) Outputenheterna kan vara linjära, särskilt när nätverkets används för regression Om uppgiften är klassifikation är det lämpligt att använda en logistisk outputfunktion. Output kan då tolkas som sannolikheten för klasstillhörighet Output kan också kodas som 1 av N, och approximerar då (med en logistisk s.k. softmaxfunktion) sannolikheterna för tillhörighet till ifrågavarande klasser SIGMOID MED S = 2 RESP. S = 5 PLOT AV TANH MELLAN -! OCH!

15 Träning av MLP-nätverk Den algoritm som kallas back propagation of error beräknar på ett speciellt sätt varje vikts bidrag till outputfelet (mätt som derivatan av felet med avseende på vikten) och korrigerar vikterna därefter. Outputfelet för en given datamängd, sett som en funktion av vikterna, är nu en funktion med flera minima, och algoritmen leder ofta ner i ett lokalt minimum (till skillnad från deltaregeln i ett linjärt nätverk). Här illustreras detta, helt orealistiskt, för fallet med bara en vikt För att öka sannolikheten att hitta ett globalt minimum kan man enklast upprepa försöket några gånger med nya initiala vikter. Många förbättrade algoritmer finns EN FELFUNKTION MED TVÅ MINIMA Finns det då några fel på denna underbara metod? En perfekt lösning har ofta dålig förmåga till generalisering. Orsak: Data härrör ofta från samverkan mellan en enkel, förutsägbar process och en oförutsägbar slumpfaktor Den perfekta lösningen hittar en allmän regel, som i den givna datamängden stämmer perfekt även med data som mest beror på slumpen Detta ger dock ingen fördel i nästa urval av data tvärtom Enklare lösningar anpassar sig inte lika nära till de slumpbetingade data Exempel: Om data härrör från två skilda normalfördelningar med samma spridning, är en viss rät linje den bästa beslutslinjen. Den kan förväntas ge lägst antal felaktiga förutsägelser! 1 X 2 1 X 1

16 Ska man då aldrig använda olinjära metoder? Jo, om man har någon oberoende anledning att anta att de underliggande sambanden motiverar en sådan Redan antagandet om olika varians hos två normalfördelningar leder således till att en kvadratisk kurva är den bästa beslutslinjen Om man har anledning anta att sambanden är ännu mer ickenormala, men inte vet särskilt mycket mer om dem, är det motiverat att pröva en allmän icke-linjär metod, som t.ex. flerlagrade, olinjära neurala nätverk. Som försiktighetsåtgärd måste man alltid pröva resultaten från träningen av nätverket på en oberoende datamängd ( testfil ). Nätverkets komplexitet skall hållas så låg som möjligt genom val av ett litet antal dolda noder, och gärna genom någon automatisk metod för att förhindra höga vikter (viktregularisering). LVQ (Learning Vector Quantisation) LVQ fungerar i mycket som Kohonens självorganiserande karta (SOM). LVQ gör dock ingen rumslig karta, och det är nu fråga om en övervakad klassifikation. Om uppgiften är att indela en mängd av inputmönster i N olika klasser, skall nätverket ha N outputnoder och klasstillhörigheten skall kodas som 1 av N. I figuren till höger är N = 2. Antalet mellanliggande Kohonen-noder väljs som en multipel M av N, till exempel 3 * N. Då kan M (i figuren: 2) mellanliggande noder kopplas till varje outputnod. Kopplingen är direkt, dvs. aktivitet i en Kohonen-nod ger automatiskt aktivitet i motvarande outputnod. Dessa M noder sägs fortsättningsvis höra till den klass av mönster som skall kodas av aktivitet i resp. outputnod.

17 Aktivering och inlärning i ett LVQ-nät I figurerna till höger symboliseras de två klasserna med kvadrater respektive cirklar. Ofyllda symboler står för inputs, och fyllda cirklar står för viktvektorerna hos tillhörande Kohonennoder. ( Rund, fylld nod hör alltså till rund, ofylld input, etc.) Man ger en input (blå ring) och utser en vinnare i form av den Kohonen-nod vars viktvektor (grön ring) ligger närmast input Om och endast om den vinnande noden hör till respektive inputs klass (cirkel/kvadrat) drar man dess viktvektor närmare inputvektorn, i annat fall (som i den övre figuren) avlägsnar man den från inputvektorn Så småningom kommer viktvektorerna för varje nod som hör till en viss klass att ligga nära någon cluster av inputs i denna klass Eftersom varje klass kodas av flera (M st) Kohonen-noder kan LVQ lösa icke linjärt separerbara problem (nedre figuren) Adaptive Resonance Theory (ART 1) ART är ett biologiskt inspirerat feedbacknätverk för kategorisering (oövervakad klassifikation), som arbetar enligt principerna konkurrens och analys genom syntes Det har rekurrenta förbindelser från det kompetetiva lagret, och den definitiva vinnaren måste producera en output som är tillräckligt lik input. (Vigilansfaktorn bestämmer vilka krav på likhet som ställs.) Reset-mekanismen träder i aktion om detta inte sker, och en ny nod prövas då som vinnare Träning sker enligt en modifierad Hebbregel ART har både stabilitet och plasticitet, till skillnad från t.ex. Hopfieldnätet och SOM

18 Inlärning av sekvenser (1): MLP med tidsfönster Neurala nätverk kan analysera sekventiell information på flera sätt. Man kan t.ex. ge en MLP ett rörligt tidsfönster. Man matar in de sekvenser som man vill predicera från, och det som man vill predicera, i ett vanligt feedforwardnät som input resp. output Om man vill predicera nästa steg från de tre föregående skall man välja ett nät med tre inputs och en output, och slumpvis mata in alla delsekvenser om fyra steg Träning sker vanligen genom någon variant av back propagation Det resulterande nätverket är väl anpassat till data och förutsäger, om man valt ett lagom kraftfullt nätverk, nya data hyfsat korrekt Nätverket har då approximerat den bakomliggande funktionen bra, vilket alltså (jämför ovan) inte betyder att den bakomliggande mekanismen måste ha strukturen av ett nätverk! Sekvensinlärning (2): Egentliga återkopplade nätverk I de egentliga återkopplade nätverken för analys av sekvenser, typ Jordan och Elman, behöver man inte ge hela sekvenser av inputs till inputnoderna. Information om tidsföljd lagras istället genom de rekurrenta förbindelser som finns I Elmans version (SRN, Simple Recurrent Net, till vänster nedan) återföres informationen från de dolda noderna till ett särskilt lager av noder (kontextlagret, current plan i NeuralWorks), som också fungerar som extra inputnoder I Jordans version (nedan till höger) är det istället outputnoderna som har feedbackförbindelser till kontextlagret Träning kan ske genom back propagation-algoritmen

19 Genetiska algoritmer för neurala nätverk För prediktionsuppgifter och annan systemanalys (cellsignalering!), och inte minst för inlärning av kontroll (robotik!), vill man ofta använda mer komplicerade feedbackarkitekturer än Elman- och Jordan-näten För dylika nätverk, liksom för andra typer av ANN, finns en alternativ och mycket kraftfull typ av inlärningsmekanism att tillgå, nämligen de genetiska algoritmerna Dessa metoder, som också benämns evolutionära algoritmer, är analoga med naturligt urval på populationsnivå snarare än med inlärning på individnivå En hel population av neurala nätverk skapas m.e.m. slumpvis, vart och ett med parametrar som skiljer sig något från de andras. Vanligtvis håller man arkitekturen konstant och varierar endast vikterna. Dessa representeras matematiskt som delsträngar i en lång sträng av tal, ofta binära (andra representationer är också vanliga) Alla nätverk i populationen prövas på det problem som ska lösas. De nätverk som lyckas sämst kasseras, medan de andra får chansen att föröka sig och till och med få gemensam avkomma genom att parameteruppsättningarna rekombineras. Genom mutationer, dvs små slumpvisa parameterförändringar, garanterar man att det i långa loppet sker en positiv utveckling (och inte bara ett negativt urval) Genetiska algoritmer är kraftfulla men långsamma! Nätverk utan inlärning: modellering av stereopsi Stereopsi är en av de viktigaste mekanismerna för 3D-seende. Den är lågnivåig i det att den inte förutsätter objektigenkänning Bygger på disparitet mellan motsvarande näthinnepunkter För att kunna beräkna dispariteter måste hjärnan veta vilka punkter som motsvarar varandra. Annars får man falska matchar De falska matcharna kan elimineras under vissa antaganden om objekten i omvärlden Det finns ANN som klarar detta och kan lösa Julesz-stereogram

20 Stereomaskinen Outputlager Kompetitivt lager (5) Kooperativt lager (4) Matchningslager (2-3) Inputlager (1, näthinnor ) Nätverket bygger, förutom på detektion av överensstämmelser, på en kombination av kooperation och kompetition mellan neurala enheter Samarbetet i lager 4 kodifierar nätverkets bias till förmån för sammanhängande objekt, som det alltså har jämförelsevis lätt att se I figuren kan man bl.a. iaktta hur den kooperativa processen i lager 4 eliminerar små inhomogeniteter i det mönster som kommer från lager 3 Addendum 1: Vektorer och matriser 2-dimensionella vektorer (-1, 0) etc. Multiplikation med skalär: 3 (2,5) = (3 2, 3 5) = (6,15). Skilj från: Skalärprodukt: (1,1) (2,1) = = 3 (komponentvis multiplikation samt addition av resultaten) Alternativ definition: v 1 v 2 = l(v 1 ) l(v 2 ) cos α Ortogonala vektorer: v 1 v 2 = 0 (Komponentvis) addition av vektorer En uppsättning vektorer sägs vara linjärt oberoende om ingen av vektorerna kan skrivas som en linjär kombination av de andra. Normalisering: l(v) = 1

21 Vektorer och matriser (2) Betrakta feedforward-nätverket här bredvid med 3 inputnoder och 2 outputnoder. Nettoinput till noden X 4 är skalärprodukten av inputvektorn i = (x 1, x 2, x 3 ) och nodens viktvektor w 4 = (w 14, w 24, w 34 ), ty: x_in 4 = x 1 w 14 + x 2 w 24 + x 3 w 34 = Σ x i w i4 = i w 1 Av detta följer att givet normerade vikt- och inputvektorer och enkel linjär aktivering, så ger den nod störst output vars viktvektor ligger närmast inputvektorn, dvs vars viktvektor bildar den minsta vinkeln α med inputvektorn (cos α är störst då) Det normerade nätverket kan alltså sägas mäta likheten mellan varje input och de olika viktvektorerna I kompetitiva nät låter man därför ofta den nod vinna (som enda nod få aktiviteten 1) vars viktvektor ligger närmast inputvektorn, mätt med euklideiskt avstånd. Alternativt kan man låta neuronen konkurrera genom ömsesidig inhibition tills endast ett är aktivt I icke-normerade nätverk spelar den absoluta storleken på input- och viktvektorerna också roll för responsen Vektorer och matriser (3) En matris är en ordnad struktur av tal, oftast i två dimensioner:! 2 3 1$ # & " % här med 2 rader och 3 kolumner. Elementet i rad i och kolumn j betecknas a ij Addition av matriser sker komponentvis Matrismultiplikation mellan en matris A och en matris B, som betecknas med AB, kan ske omm A har m rader och n kolumner, dvs. är en (m, n)-matris, medan B har n rader och p kolumner, dvs är en (n, p)-matris. Resultatet blir en (m, p)-matris. Element nr a ij fås av skalärprodukten mellan rad i från A och kolumn j från B (de är lika långa!) Vektorn av nettoinputs till ett enlagrat nätverks outputenheter är matrisprodukten av inputvektorn, nu betraktad som en (1, n)-matris, och viktmatrisen w: x_in = iw. Om vi slutligen betecknar aktiveringsfunktionen med f och vektorn av aktiviteter i outputenheterna med y, är y = f(iw)

22 Hjärnan: cirka neuron, vart och ett med cirka 1000 förbindelser... Viss ödmjukhet tillrådes alltså... We should keep in mind, whether theorizing or experimenting, that the brain is at least as complicated as the kidney. Paul E. Meehl

Vektorer, matriser, nätverk - några elementa

Vektorer, matriser, nätverk - några elementa Vektorer, matriser, nätverk - några elementa Innehåll: Vektorer Radvektorer och kolumnvektorer Operationer med vektorer Input- och outputvektorer i neurala nätverk Utvikning om kompetitiva nät Matriser

Läs mer

729G43 Artificiell intelligens / Maskininlärning 3. Marco Kuhlmann

729G43 Artificiell intelligens / Maskininlärning 3. Marco Kuhlmann 729G43 Artificiell intelligens / 2015 Maskininlärning 3 Marco Kuhlmann Förra gången: Perceptroninlärning Beslutsregel predicerat y-värde Exempel: AND Välj parametrar θ 0, θ 1, θ 2 sådana att perceptronen

Läs mer

ARTIFICIELLA NEURALA NÄT. MARCO KUHLMANN Institutionen för datavetenskap

ARTIFICIELLA NEURALA NÄT. MARCO KUHLMANN Institutionen för datavetenskap ARTIFICIELLA NEURALA NÄT MARCO KUHLMANN Institutionen för datavetenskap Example Alt Bar Fri Hun Pat Price Rain Res Type Est WillWait 1 Yes No No Yes Some $$$ No Yes French 0 10 Yes 2 Yes No No Yes Full

Läs mer

2D Potentialen i en nervcell definieras normalt som skillnaden i spänning mellan dess axon och dendrit.

2D Potentialen i en nervcell definieras normalt som skillnaden i spänning mellan dess axon och dendrit. 2D1432 Artificiella Neuronnät och andra lärande system Lösningsförslag till Tentamen 2003-03-06 Inga hjälpmedel. Uppgift 1 Vilka av följande påståenden är sanna? Korrigera de som är fel. 1. Potentialen

Läs mer

Linköpings universitet

Linköpings universitet Översikt Kognitionsvetenskaplig introduktionskurs Föreläsning 4 Informationsbearbetningsmodeller Vad är kognitionsvetenskap? Kort bakgrund/historik Representation och bearbetning av information Vetenskapliga

Läs mer

729G43 Artificiell intelligens (2016) Maskininlärning 3. Marco Kuhlmann Institutionen för datavetenskap

729G43 Artificiell intelligens (2016) Maskininlärning 3. Marco Kuhlmann Institutionen för datavetenskap 729G43 Artificiell intelligens (2016) Maskininlärning 3 Marco Kuhlmann Institutionen för datavetenskap Modell med vektornotation parametervektor särdragsvektor Perceptron kombinerar linjär regression med

Läs mer

729G43 Artificiell intelligens (2016) Maskininlärning 2. Marco Kuhlmann Institutionen för datavetenskap

729G43 Artificiell intelligens (2016) Maskininlärning 2. Marco Kuhlmann Institutionen för datavetenskap 729G43 Artificiell intelligens (2016) Maskininlärning 2 Marco Kuhlmann Institutionen för datavetenskap Förra gången: Gradientsökning tangentens lutning i punkt θ steglängdsfaktor Översikt Introduktion

Läs mer

Inlärning utan övervakning

Inlärning utan övervakning Översikt Biologiska mekanismer bakom inlärning Inlärning utan övervakning Inlärning utan övervakning Hebbiansk modellinlärning Självorganisering Arbetsfördelning mellan noder i ett lager som utvecklas

Läs mer

729G43 Artificiell intelligens / Maskininlärning 2. Marco Kuhlmann

729G43 Artificiell intelligens / Maskininlärning 2. Marco Kuhlmann 729G43 Artificiell intelligens / 2015 Maskininlärning 2 Marco Kuhlmann Förra gången: Linjär regression Gradientsökning Vandra ner i felets dal. Steg 0: Börja med ett godtyckligt värde för θ. Steg 1: Räkna

Läs mer

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs... OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs... OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

Enlagersnät Flerlagersnät Generalisering. Artificiella Neuronnät

Enlagersnät Flerlagersnät Generalisering. Artificiella Neuronnät Artificiella Neuronnät 1 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund 2 Begränsningar Träning av enlagersnät 3 Möjliga avbildningar Backprop algoritmen Praktiska problem

Läs mer

Sub-symbolisk kognition & Konnektionism. Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén,

Sub-symbolisk kognition & Konnektionism. Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén, Sub-symbolisk kognition & Konnektionism Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén, mats.andren@liu.se 1 Konnektionism Neutrala nät baseras på en (förenklad) modell av hur hjärnan fungerar.

Läs mer

SELF- ORGANIZING MAPS

SELF- ORGANIZING MAPS LINKÖPINGS UNIVERSITET Kognitionsvetenskapliga Programmet Examinator: Arne Jönsson SELF- ORGANIZING MAPS - Ett fördjupningsarbete inom Artificiell Intelligens Fack 52 katwa676@student.liu.se Sammanfattning

Läs mer

Grafer och grannmatriser

Grafer och grannmatriser Föreläsning 2, Linjär algebra IT VT2008 Som avslutning på kursen ska vi knyta samman linjär algebra med grafteori och sannolikhetsteori från första kursen. Resultatet blir så kallade slumpvandringar på

Läs mer

LARS ULVELAND HOPFIELDNÄTVERK FÖR IGENKÄNNING AV DEGRADERADE BILDER OCH HANDSKRIVNA TECKEN

LARS ULVELAND HOPFIELDNÄTVERK FÖR IGENKÄNNING AV DEGRADERADE BILDER OCH HANDSKRIVNA TECKEN LARS ULVELAD HOPFIELDÄTVERK FÖR IGEKÄIG AV DEGRADERADE BILDER OCH HADSKRIVA TECKE E PROJEKTRAPPORT FÖR PROJEKTKURSE I BILDAALYS HT 02 Teori för Hopfieldnätverk Hopfieldmodellen är en typ av neuronnät,

Läs mer

Neurala nätverk och språkigenkänning. Henrik Linnarsson. Linköping University

Neurala nätverk och språkigenkänning. Henrik Linnarsson. Linköping University Neurala nätverk och språk Henli807!1 Neurala nätverk och språkigenkänning Henrik Linnarsson Linköping University Neurala nätverk och språk Henli807!2 RNN, LSTM och språkigenkänning Inledning Idag är språkigenkänning

Läs mer

Modeller och simulering av språkprocessning

Modeller och simulering av språkprocessning Modeller och simulering av språkprocessning Seriell processmodell + parallell processmodell Parallell modell med 2-vägsförbindelser Artificiellt neuralt nätverk (ANN) Interaktiv aktiverings-modell (IAM)

Läs mer

Artificiella Neuronnät

Artificiella Neuronnät Artificiella Neuronnät 2 3 4 2 (ANN) Inspirerade av hur nervsystemet fungerar Parallell bearbetning Vi begränsar oss här till en typ av ANN: Framåtkopplade nät med lagerstruktur 3 4 Fungerar i princip

Läs mer

1 De fyra fundamentala underrummen till en matris

1 De fyra fundamentala underrummen till en matris Krister Svanberg, mars 2012 1 De fyra fundamentala underrummen till en matris 1.1 Definition av underrum En given delmängd M av IR n säges vara ett underrum i IR n om följande gäller: För varje v 1 M,

Läs mer

Artificiell Intelligens Lektion 7

Artificiell Intelligens Lektion 7 Laboration 6 Artificiell Intelligens Lektion 7 Neurala nätverk (Lab 6) Probabilistiska resonemang Vad? Mönsterigenkänning Lära ett neuralt nätverk att känna igen siffror Varför? Få ökad förståelse för

Läs mer

Föreläsning 7. Felrättande koder

Föreläsning 7. Felrättande koder Föreläsning 7 Felrättande koder Antag att vi vill skicka ett meddelande som består av bokstäver a,b,c,d. Vi kan koda a,b,c,d. Antag att det finns en viss sannolikhet att en bit i ett meddelande som skickas

Läs mer

6. Matriser Definition av matriser 62 6 MATRISER. En matris är ett rektangulärt schema av tal: a 11 a 12 a 13 a 1n a 21 a 22 a 23 a 2n A =

6. Matriser Definition av matriser 62 6 MATRISER. En matris är ett rektangulärt schema av tal: a 11 a 12 a 13 a 1n a 21 a 22 a 23 a 2n A = 62 6 MATRISER 6 Matriser 6 Definition av matriser En matris är ett rektangulärt schema av tal: A a a 2 a 3 a n a 2 a 22 a 23 a 2n a m a m2 a m3 a mn Matrisen A säges vara av typ m n, där m är antalet rader

Läs mer

Vektorgeometri för gymnasister

Vektorgeometri för gymnasister Vektorgeometri för gymnasister Per-Anders Svensson http://homepage.lnu.se/staff/psvmsi/vektorgeometri/gymnasiet.html Fakulteten för teknik Linnéuniversitetet Skalärprodukt Innehåll Skalärprodukt - Inledning

Läs mer

1 Grundläggande kalkyler med vektorer och matriser

1 Grundläggande kalkyler med vektorer och matriser Krister Svanberg, mars 2015 1 Grundläggande kalkyler med vektorer och matriser Trots att läsaren säkert redan behärskar grundläggande vektor- och matriskalkyler, ges här i Kapitel 1 en repetition om just

Läs mer

Regression med Genetiska Algoritmer

Regression med Genetiska Algoritmer Regression med Genetiska Algoritmer Projektarbete, Artificiell intelligens, 729G43 Jimmy Eriksson, jimer336 770529-5991 2014 Inledning Hur många kramar finns det i världen givet? Att kunna estimera givet

Läs mer

Självkoll: Ser du att de två uttrycken är ekvivalenta?

Självkoll: Ser du att de två uttrycken är ekvivalenta? ANTECKNINGAR TILL RÄKNEÖVNING 1 & - LINJÄR ALGEBRA För att verkligen kunna förstå och tillämpa kvantmekaniken så måste vi veta något om den matematik som ligger till grund för formuleringen av vågfunktionen

Läs mer

8. Euklidiska rum 94 8 EUKLIDISKA RUM

8. Euklidiska rum 94 8 EUKLIDISKA RUM 94 8 EUKLIDISKA RUM 8. Euklidiska rum Definition 8.. En skalärprodukt på vektorrummet V är en funktion som till varje par av element u och v i V ordnar ett reellt tal u v eller u v med följande egenskaper:.

Läs mer

Artificiella Neurala Nätverk - en kort introduktion

Artificiella Neurala Nätverk - en kort introduktion Artificiella Neurala Nätverk - en kort introduktion Denna websida, och de sidor som hör till den, är avsedda att så småningom bli en liten lärobok om ANN. Än så länge finns bara de mest basala avsnitten.

Läs mer

Övningar. MATEMATISKA INSTITUTIONEN STOCKHOLMS UNIVERSITET Avd. Matematik. Linjär algebra 2. Senast korrigerad:

Övningar. MATEMATISKA INSTITUTIONEN STOCKHOLMS UNIVERSITET Avd. Matematik. Linjär algebra 2. Senast korrigerad: MATEMATISKA INSTITUTIONEN STOCKHOLMS UNIVERSITET Avd. Matematik Linjär algebra 2 Senast korrigerad: 2006-02-10 Övningar Linjära rum 1. Låt v 1,..., v m vara vektorer i R n. Ge bevis eller motexempel till

Läs mer

Lösningsförslag till övningsuppgifter, del V

Lösningsförslag till övningsuppgifter, del V Lösningsförslag till övningsuppgifter, del V Obs! Preliminär version! Ö.1. (a) Vi kan lösa uppgiften genom att helt enkelt räkna ut avståndet mellan vart och ett av de ( 7 ) = 1 paren. Först noterar vi

Läs mer

1 Linjära ekvationssystem. 2 Vektorer

1 Linjära ekvationssystem. 2 Vektorer För. 1 1 Linjära ekvationssystem Gaußelimination - sriv om systemet för att få ett trappformat system genom att: byta ordningen mellan ekvationer eller obekanta; multiplicera en ekvation med en konstant

Läs mer

Isometrier och ortogonala matriser

Isometrier och ortogonala matriser Isometrier och ortogonala matriser (Delvis resultat som kunde kommit tidigare i kursen) För att slippa parenteser, betecknas linära avbildningar med A och bilden av x under en lin avbildn med Ax i stället

Läs mer

Vektorgeometri för gymnasister

Vektorgeometri för gymnasister Vektorgeometri för gymnasister Per-Anders Svensson http://homepage.lnu.se/staff/psvmsi/vektorgeometri/gymnasiet.html Fakulteten för teknik Linnéuniversitetet Linjära avbildningar I Innehåll En liten tillbakablick:

Läs mer

5 Linjär algebra. 5.1 Addition av matriser 5 LINJÄR ALGEBRA

5 Linjär algebra. 5.1 Addition av matriser 5 LINJÄR ALGEBRA 5 LINJÄR ALGEBRA 5 Linjär algebra En kul gren av matematiken som inte fått speciellt mycket utrymme i gymnasiet men som har många tillämpningsområden inom t.ex. fysik, logistik, ekonomi, samhällsplanering

Läs mer

1 Positivt definita och positivt semidefinita matriser

1 Positivt definita och positivt semidefinita matriser Krister Svanberg, april 1 1 Positivt definita och positivt semidefinita matriser Inom ickelinjär optimering, speciellt kvadratisk optimering, är det viktigt att på ett effektivt sätt kunna avgöra huruvida

Läs mer

Kan vi beskriva ett system utan någon fysikalisk kännedom om systemet?

Kan vi beskriva ett system utan någon fysikalisk kännedom om systemet? Kan vi beskriva ett system utan någon fysikalisk kännedom om systemet? 1 Om svaret på frågan är ja så öppnar sig möjligheten att skapa en generell verktygslåda som fungerar för analys och manipulering

Läs mer

Analys o Linjär algebra. Lektion 7.. p.1/65

Analys o Linjär algebra. Lektion 7.. p.1/65 Analys o Lektion 7 p1/65 Har redan (i matlab bla) stött på tal-listor eller vektorer av typen etc Vad kan sådana tänkas representera/modellera? Hur kan man räkna med sådana? Skall närmast fokusera på ordnade

Läs mer

ANN fk. Örjan Ekeberg. Framåtkopplade Nät. återkopplade nät. Olika arkitekturer. BackPropagation through Time. Kalman-Filter tekniker

ANN fk. Örjan Ekeberg. Framåtkopplade Nät. återkopplade nät. Olika arkitekturer. BackPropagation through Time. Kalman-Filter tekniker Hantering av Tid Återkopplade Återkopplade Återkopplade t Återkopplade Återkopplade Temporala signaler är svåra Gör om temporal signal till spatial t 1 t 2 t 3 t 4 Återkopplade t Enklaste formen Neuronal

Läs mer

MVE022 Urval av bevis (på svenska)

MVE022 Urval av bevis (på svenska) MVE22 Urval av bevis (på svenska) J A S, VT 218 Sats 1 (Lay: Theorem 7, Section 2.2.) 1. En n n-matris A är inverterbar precis när den är radekvivalent med indentitesmatrisen I n. 2. När så är fallet gäller

Läs mer

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A SF64 Algebra och geometri Lösningsförslag till tentamen 533 DEL A Planet H ges av ekvationen 3x y + 5z + a) Bestäm en linje N som är vinkelrät mot H ( p) b) Bestäm en linje L som inte skär planet H ( p)

Läs mer

Kognitiv Modellering

Kognitiv Modellering Kognitiv Modellering Mårten Szymanowski 20 januari 2004 Innehåll 1 Kognitiv Modellering 2 1.1 Varför?................................ 2 2 Grundläggande psykologiska fenomen 3 2.1 Stimulusgeneralisering........................

Läs mer

LINJÄRA AVBILDNINGAR

LINJÄRA AVBILDNINGAR LINJÄRA AVBILDNINGAR Xantcha november 05 Linjära avbildningar Definition Definition En avbildning T : R Ñ R (eller R Ñ R ) är linjär om T pau ` bvq at puq ` bt pvq för alla vektorer u, v P R (eller u,

Läs mer

Linjär algebra på några minuter

Linjär algebra på några minuter Linjär algebra på några minuter Linjära ekvationssystem Ekvationssystem: { Löses på matrisform: ( ) ( ) I det här fallet finns en entydig lösning, vilket betyder att determinanten av koefficientmatrisen

Läs mer

Vektorrum. EX. Plan och linjer i rummet genom origo. Allmänt; mängden av lösningar till AX = 0.

Vektorrum. EX. Plan och linjer i rummet genom origo. Allmänt; mängden av lösningar till AX = 0. Vektorrum Denna kurs handlar till stor del om s k linjära rum eller vektorrum. Dessa kan ses som generaliseringar av R n. Skillnaden består främst i att teorin nu blir mer abstrakt. Detta är själva poängen;

Läs mer

VARFÖR FINNS DET INGA RIKTIGA

VARFÖR FINNS DET INGA RIKTIGA VARFÖR FINNS DET INGA RIKTIGA ROBOTAR? Peter Gärdenfors och Christian Balkenius Kognitionsforskning, Lunds Universitet, S 223 50 Lund e-mail: peter.gardenfors@fil.lu.se christian.balkenius@fil.lu.se Här

Läs mer

Lösningsförslag till Tentamen i 5B1118 Diskret matematik 5p 14 augusti, 2002

Lösningsförslag till Tentamen i 5B1118 Diskret matematik 5p 14 augusti, 2002 Institutionen för matematik, KTH Mats Boij och Niklas Eriksen Lösningsförslag till Tentamen i 5B1118 Diskret matematik 5p 14 augusti, 2002 1. Använd induktion för att visa att 8 delar (2n + 1 2 1 för alla

Läs mer

Oändligtdimensionella vektorrum

Oändligtdimensionella vektorrum Oändligtdimensionella vektorrum Vi har i den här kursen huvudsakligen studerat ändligtdimensionella vektorrum. Dessa är mycket användbara objekt och matriskalkyl ger en bra metod att undersöka dom med.

Läs mer

Material till kursen SF1679, Diskret matematik: Lite om kedjebråk. 0. Inledning

Material till kursen SF1679, Diskret matematik: Lite om kedjebråk. 0. Inledning Matematik, KTH Bengt Ek november 207 Material till kursen SF679, Diskret matematik: Lite om kedjebråk 0 Inledning Talet π (kvoten mellan en cirkels omkrets och dess diameter) är inte ett rationellt tal

Läs mer

Vi definierar addition av två vektorer och multiplikation med en reell skalär (tal) λλ enligt nedan

Vi definierar addition av två vektorer och multiplikation med en reell skalär (tal) λλ enligt nedan ORTOGONALA VEKTORER OCH ORTONORMERADE (ORTONORMALA) BASER I R n INLEDNING ( repetition om R n ) Låt RR nn vara mängden av alla reella n-tipplar (ordnade listor med n reella tal) dvs RR nn {(aa, aa,, aa

Läs mer

Konvergens för iterativa metoder

Konvergens för iterativa metoder Konvergens för iterativa metoder 1 Terminologi Iterativa metoder används för att lösa olinjära (och ibland linjära) ekvationssystem numeriskt. De utgår från en startgissning x 0 och ger sedan en följd

Läs mer

Subtraktion. Räkneregler

Subtraktion. Räkneregler Matriser En matris är en rektangulär tabell av tal, 1 3 17 4 3 2 14 4 0 6 100 2 Om matrisen har m rader och n kolumner så säger vi att matrisen har storlek m n Index Vi indexerar elementen i matrisen genom

Läs mer

14. Minsta kvadratmetoden

14. Minsta kvadratmetoden 58 MINSTA KVADRATMETODEN. Minsta kvadratmetoden Eempel.. Det är inte så svårt att komma åt en trasig lampa på golvet för att byta den. Det är bara att gå fram till den. Hur är det om lampan hänger i taket?

Läs mer

HKGBB0, Artificiell intelligens

HKGBB0, Artificiell intelligens HKGBB0, Artificiell intelligens Kortfattade lösningsförslag till tentan 3 november 2005 Arne Jönsson 1. Vad karaktäriserar dagens AI-forskning jämfört med den AI-forskning som bedrevs perioden 1960-1985.

Läs mer

Egenvärden och egenvektorer

Egenvärden och egenvektorer Föreläsning 10, Linjär algebra IT VT2008 1 Egenvärden och egenvektorer Denition 1 Antag att A är en n n-matris. En n-vektor v 0 som är sådan att A verkar som multiplikation med ett tal λ på v, d v s Av

Läs mer

Neural bas för kognition

Neural bas för kognition Kommunikation Neural bas för kognition stimulerande, retande inhiberande, förhindrande depolarisation vid tillräckligt mycket retning blir hela neuronen för en stund positivt laddad, då har en SPIKE uppnåtts

Läs mer

Att programmera en Beethoven

Att programmera en Beethoven Linköpings universitet Att programmera en Beethoven Fördjupning inom Neurala nätverk och LSTM 2018-01-03 Innehåll 1 Inledning- Musik och artificiell intelligens... 2 1.1 Historia... 2 1.2 Bakgrund AIVA...

Läs mer

Linjär Algebra M/TD Läsvecka 2

Linjär Algebra M/TD Läsvecka 2 Linjär Algebra M/TD Läsvecka 2 Omfattning och Innehåll 2.1 Matrisoperationer: addition av matriser, multiplikation av matris med skalär, multiplikation av matriser. 2.2-2.3 Matrisinvers, karakterisering

Läs mer

Vectorer, spannet av vektorer, lösningsmängd av ett ekvationssystem.

Vectorer, spannet av vektorer, lösningsmängd av ett ekvationssystem. Vectorer, spannet av vektorer, lösningsmängd av ett ekvationssystem. Begrepp som diskuteras i det kapitlet. Vektorer, addition och multiplikation med skalärer. Geometrisk tolkning. Linjär kombination av

Läs mer

SF1624 Algebra och geometri

SF1624 Algebra och geometri Föreläsning 10 Institutionen för matematik KTH 21 november 2016 Dagens och veckans ämnen Idag: Allmänna vektorrum, baser, koordinater, kap 4.1-4.4: Vektorrum och delrum, igen Bas, igen Koordinater med

Läs mer

Enhetsvektorer. Basvektorer i två dimensioner: 1 1 Basvektorer i tre dimensioner: Enhetsvektor i riktningen v: v v

Enhetsvektorer. Basvektorer i två dimensioner: 1 1 Basvektorer i tre dimensioner: Enhetsvektor i riktningen v: v v Vektoraddition u + v = u + v = [ ] u1 u 2 u 1 u 2 + u 3 + [ v1 v 2 ] = v 1 v 2 = v 3 [ u1 + v 1 u 2 + v 2 u 1 + v 1 u 2 + v 2 u 3 + v 3 ] Multiplikation med skalär α u = α [ u1 u 2 α u = α ] = u 1 u 2

Läs mer

TMV166 Linjär Algebra för M. Tentamen

TMV166 Linjär Algebra för M. Tentamen MATEMATISKA VETENSKAPER TMV66 6 Chalmers tekniska högskola 6 8 kl 8:3 :3 (SB Multisal) Examinator: Tony Stillfjord Hjälpmedel: ordlistan från kurshemsidan, ej räknedosa Telefonvakt: Olof Giselsson, ankn

Läs mer

MULTIPLIKATION AV MATRISER, BASER I RUMMET SAMT FÖRSTA MÖTET MED MATRISINVERSER = = =

MULTIPLIKATION AV MATRISER, BASER I RUMMET SAMT FÖRSTA MÖTET MED MATRISINVERSER = = = Matematiska institutionen Stockholms universitet CG Matematik med didaktisk inriktning 2 Problem i Algebra, geometri och kombinatorik Snedsteg 5 MULTIPLIKATION AV MATRISER, BASER I RUMMET SAMT FÖRSTA MÖTET

Läs mer

1 Ortogonalitet. 1.1 Skalär produkt. Man kan tala om vinkel mellan vektorer.

1 Ortogonalitet. 1.1 Skalär produkt. Man kan tala om vinkel mellan vektorer. Ortogonalitet Man kan tala om vinkel mellan vektorer.. Skalär produkt Vi definierar längden (eller normen) av en vektor som ett reellt tal 0 (Se boken avsnitt.). Vi definierar skalär produkt (Inner product),

Läs mer

Linjär Algebra, Föreläsning 2

Linjär Algebra, Föreläsning 2 Linjär Algebra, Föreläsning 2 Tomas Sjödin Linköpings Universitet Geometriska vektorer, rummen R n och M n 1 En (geometrisk) vektor är ett objekt som har storlek och riktning, men inte någon naturlig startpunkt.

Läs mer

Vektorgeometri för gymnasister

Vektorgeometri för gymnasister Vektorgeometri för gymnasister Per-Anders Svensson http://homepage.lnu.se/staff/psvmsi/vektorgeometri/gymnasiet.html Fakulteten för teknik Linnéuniversitetet Areor, vektorprodukter, volymer och determinanter

Läs mer

1. (Dugga 1.1) (a) Bestäm v (3v 2u) om v = . (1p) and u =

1. (Dugga 1.1) (a) Bestäm v (3v 2u) om v = . (1p) and u = Kursen bedöms med betyg,, 5 eller underkänd, där 5 är högsta betyg. För godkänt betyg krävs minst poäng från uppgifterna -7. Var och en av dessa sju uppgifter kan ge maximalt poäng. För var och en av uppgifterna

Läs mer

Övningar. c) Om någon vektor i R n kan skrivas som linjär kombination av v 1,..., v m på precis ett sätt så. m = n.

Övningar. c) Om någon vektor i R n kan skrivas som linjär kombination av v 1,..., v m på precis ett sätt så. m = n. Övningar Linjära rum 1 Låt v 1,, v m vara vektorer i R n Ge bevis eller motexempel till följande påståenden Satser ur boken får användas a) Om varje vektor i R n kan skrivas som linjär kombination av v

Läs mer

ANN-Laboration Distanskurs Introduktion till NeuralWorks Explorer

ANN-Laboration Distanskurs Introduktion till NeuralWorks Explorer ANN-Laboration Distanskurs Introduktion till NeuralWorks Explorer Interfacet till NeuralWorks Explorer Detta är rätt krångligt i vissa stycken, och det hänger framförallt samman med att programmet är mycket

Läs mer

Laboration 5: Regressionsanalys. 1 Förberedelseuppgifter. 2 Enkel linjär regression DATORLABORATION 5 MATEMATISK STATISTIK FÖR I, FMS 012, HT-08

Laboration 5: Regressionsanalys. 1 Förberedelseuppgifter. 2 Enkel linjär regression DATORLABORATION 5 MATEMATISK STATISTIK FÖR I, FMS 012, HT-08 LUNDS TEKNISKA HÖGSKOLA MATEMATIKCENTRUM MATEMATISK STATISTIK Laboration 5: Regressionsanalys DATORLABORATION 5 MATEMATISK STATISTIK FÖR I, FMS 012, HT-08 Syftet med den här laborationen är att du skall

Läs mer

Symboler och abstrakta system

Symboler och abstrakta system Symboler och abstrakta system Warwick Tucker Matematiska institutionen Uppsala universitet warwick@math.uu.se Warwick Tucker, Matematiska institutionen, Uppsala universitet 1 Vad är ett komplext system?

Läs mer

Härledning av Black-Littermans formel mha allmänna linjära modellen

Härledning av Black-Littermans formel mha allmänna linjära modellen Härledning av Black-Littermans formel mha allmänna linjära modellen Ett sätt att få fram Black-Littermans formel är att formulera problemet att hitta lämpliga justerade avkastningar som ett skattningsproblem

Läs mer

Kontsys F7 Skalärprodukt och normer

Kontsys F7 Skalärprodukt och normer Repetition Skalärprodukt Norm Kontsys F7 Skalärprodukt och normer Pelle 11 februari 2019 Linjära rum Repetition Skalärprodukt Norm Linjära rum Linjärt underrum Ett linjärt rum över R är en mängd H där

Läs mer

SF1624 Algebra och geometri Lösningsförslag till tentamen Lördagen den 5 juni, 2010 DEL A

SF1624 Algebra och geometri Lösningsförslag till tentamen Lördagen den 5 juni, 2010 DEL A SF624 Algebra och geometri Lösningsförslag till tentamen Lördagen den 5 juni, 200 DEL A ( Betrakta det komplexa talet w = i. (a Skriv potenserna w n på rektangulär form, för n = 2,, 0,, 2. ( (b Bestäm

Läs mer

Vektorgeometri för gymnasister

Vektorgeometri för gymnasister Vektorgeometri för gymnasister Per-Anders Svensson http://homepage.lnu.se/staff/psvmsi/vektorgeometri/gymnasiet.html Fakulteten för teknik Linnéuniversitetet Linjära avbildningar IV Innehåll Nollrum och

Läs mer

Linjära ekvationssystem

Linjära ekvationssystem Föreläsning 3 Linjära ekvationssystem Gausselimination Vanlig gausselimination för det linjära ekvationssystemet Ax = b utgår från den utökade matrisen [A b] och applicerar elementära radoperationer på

Läs mer

Geometriska vektorer

Geometriska vektorer Föreläsning 1, Linjär algebra IT VT2008 1 Geometriska vektorer De begrepp som linjär algebra kretsar kring är vektorer och matriser Dessa svarar mot datorernas fält (`arra') av dimension ett respektive

Läs mer

October 9, Innehållsregister

October 9, Innehållsregister October 9, 017 Innehållsregister 1 Vektorer 1 1.1 Geometrisk vektor............................... 1 1. Vektor och koordinatsystem.......................... 1 1.3 Skalär produkt (dot eller inner product)...................

Läs mer

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012 Föreläsning 1 Repetition av sannolikhetsteori Patrik Zetterberg 6 december 2012 1 / 28 Viktiga statistiska begrepp För att kunna förstå mer avancerade koncept under kursens gång är det viktigt att vi förstår

Läs mer

Uppsala Universitet Matematiska Institutionen Bo Styf. Sammanfattning av föreläsningarna

Uppsala Universitet Matematiska Institutionen Bo Styf. Sammanfattning av föreläsningarna Uppsala Universitet Matematiska Institutionen Bo Styf LAoG I, 5 hp ES, KandMa, MatemA -9-6 Sammanfattning av föreläsningarna 3-7 Föreläsningarna 3 7, 8/ 5/ : Det viktigaste är här att du lär dig att reducera

Läs mer

F2 Introduktion. Sannolikheter Standardavvikelse Normalapproximation Sammanfattning Minitab. F2 Introduktion

F2 Introduktion. Sannolikheter Standardavvikelse Normalapproximation Sammanfattning Minitab. F2 Introduktion Gnuer i skyddade/oskyddade områden, binära utfall och binomialfördelningar Matematik och statistik för biologer, 10 hp Fredrik Jonsson Januari 2012 I vissa områden i Afrika har man observerat att förekomsten

Läs mer

Vad behövs för att skapa en tillståndsrymd?

Vad behövs för att skapa en tillståndsrymd? OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

Linjära ekvationssystem

Linjära ekvationssystem Linjära ekvationssystem Gausselimination Vanlig gausselimination för det linjära ekvationssystemet Ax = b utgår från den utökade matrisen [A b] och applicerar elementära radoperationer på denna för att

Läs mer

1 Minkostnadsflödesproblem i nätverk

1 Minkostnadsflödesproblem i nätverk Krister Svanberg, april 2012 1 Minkostnadsflödesproblem i nätverk Ett nätverk består av en given mängd noder numrerade från 1 till m (där m är antalet noder) samt en given mängd riktade bågar mellan vissa

Läs mer

Vektorgeometri för gymnasister

Vektorgeometri för gymnasister Vektorgeometri för gymnasister Per-Anders Svensson http://homepage.lnu.se/staff/psvmsi/vektorgeometri/gymnasiet.html Fakulteten för teknik Linnéuniversitetet Diagonalisering av linjära avbildningar III

Läs mer

5.7. Ortogonaliseringsmetoder

5.7. Ortogonaliseringsmetoder 5.7. Ortogonaliseringsmetoder Om man har problem med systemets kondition (vilket ofta är fallet), lönar det sig att undvika normalekvationerna vid lösning av minsta kvadratproblemet. En härtill lämplig

Läs mer

Minsta kvadratmetoden

Minsta kvadratmetoden Minsta kvadratmetoden där Överbestämda ekvationssystem Det är lämpligt att uppfatta matrisen A som bestående av n kolonnvektorer: A a a a n a a a n a n a n a nn a j a j a nj a a a n j n Då kan vi skriva

Läs mer

FFM234, Klassisk fysik och vektorfält - Föreläsningsanteckningar

FFM234, Klassisk fysik och vektorfält - Föreläsningsanteckningar FFM234, Klassisk fysik och vektorfält - Föreläsningsanteckningar Christian Forssén, Institutionen för fysik, Chalmers, Göteborg, Sverige Sep 14, 2018 5. Indexnotation Precis som vi har räkneregler för

Läs mer

Frågorna 1 till 6 ska svaras med ett kryss för varje korrekt påstående. Varje uppgift ger 1 poäng.

Frågorna 1 till 6 ska svaras med ett kryss för varje korrekt påstående. Varje uppgift ger 1 poäng. ATM-Matematik Mikael Forsberg 34-4 3 3 Matematik med datalogi, mfl. Linjär algebra mag4 6 3 Skrivtid: 9:-4:. Inga hjälpmedel. Lösningarna skall vara fullständiga och lätta att följa. Börja varje ny uppgift

Läs mer

Igenkänning av bilddata med hjälp av Kohonen-nätverk, samt beskrivning av program

Igenkänning av bilddata med hjälp av Kohonen-nätverk, samt beskrivning av program Igenkänning av bilddata med hjälp av Kohonen-nätverk, samt beskrivning av program Jerker Björkqvist September 2001 1 Introduktion I detta arbete undersökts hur klassificering av bilddata kan göras med

Läs mer

Andragradspolynom Några vektorrum P 2

Andragradspolynom Några vektorrum P 2 Låt beteckna mängden av polynom av grad högst 2. Det betyder att p tillhör om p(x) = ax 2 + bx + c där a, b och c är reella tal. Några exempel: x 2 + 3x 7, 2x 2 3, 5x + π, 0 Man kan addera två polynom

Läs mer

Från inlärningsteori till praktisk hundträning

Från inlärningsteori till praktisk hundträning Från inlärningsteori till praktisk hundträning Kenth Svartberg, PhD Hjälp vid jakt Valla får och nötboskap Vakta bostad/område/boskap Dra pulka/släde/vagn Söka efter personer Söka efter preparat/substanser

Läs mer

Föreläsningsanteckningar Linjär Algebra II Lärarlyftet

Föreläsningsanteckningar Linjär Algebra II Lärarlyftet Föreläsningsanteckningar Linjär Algebra II Lärarlyftet Per Alexandersson Föreläsning I Timme I: Repetition av matriser, linjära ekvationssystem Linjärt ekvationssystem: x + y + z 3w = 3 2x + y + z 4w =

Läs mer

Vad kan biologiskt plausibla modeller säga oss?

Vad kan biologiskt plausibla modeller säga oss? Förra föreläsningen Vad kan biologiskt plausibla modeller säga oss? Beräkningsmässig kognitiv neurovetenskap Simulering av modeller kan ge insikt i mänskligt tänkande Kognitiva fenomen Simulering beräkningsprinciper

Läs mer

Statistisk mönsterigenkänning

Statistisk mönsterigenkänning Statistisk mönsterigenkänning Jonas Sandström Artificiell intelligens II Linköpings universitet HT 2011 Innehållsförteckning 1. Innehållsförteckning sid 2 2. Inledning sid 3 3. Statistisk mönsterigenkänning

Läs mer

Linjär Algebra, Föreläsning 9

Linjär Algebra, Föreläsning 9 Linjär Algebra, Föreläsning 9 Tomas Sjödin Linköpings Universitet Euklidiska rum Vi ska nu införa en extra struktur på vektorrum, en så kallad skalärprodukt, vilken vi kan använda för att definiera längd

Läs mer

Basbyten och linjära avbildningar

Basbyten och linjära avbildningar Föreläsning 11, Linjär algebra IT VT2008 1 Basbyten och linjära avbildningar Innan vi fortsätter med egenvärden så ska vi titta på hur matrisen för en linjär avbildning beror på vilken bas vi använder.

Läs mer

! &'! # %&'$# ! # '! &!! #

! &'! # %&'$# ! # '! &!! # 56 6 MATRISER 6.6. Tillämpningar I exemplen nedan antar vi att {e, e 2 } är en ON-bas i planet och Oe e 2 ett högerorienterat system i detta plan. Exempel 6.39. Antag att u e + e 2 e är en vektor i planet

Läs mer

. (2p) 2x + 2y + z = 4 y + 2z = 2 4x + 3y = 6

. (2p) 2x + 2y + z = 4 y + 2z = 2 4x + 3y = 6 Kursen bedöms med betyg, 4, 5 eller underkänd, där 5 är högsta betyg För godkänt betyg krävs minst 4 poäng från uppgifterna -7 Var och en av dessa sju uppgifter kan ge maximalt poäng För var och en av

Läs mer

DIGITAL KOMMUNIKATION

DIGITAL KOMMUNIKATION EN KOR SAMMANFANING AV EORIN INOM DIGIAL KOMMUNIKAION Linjär kod En binär linjär kod kännetecknas av att summan av två kodord också är ett kodord. Ett specialfall är summan av ett kodord med sig själv

Läs mer