Self-Organizing Maps
|
|
- Henrik Berg
- för 6 år sedan
- Visningar:
Transkript
1 Self-Organizing Maps - oövervakad inlärning i neurala nät
2 Sammanfattning Self-organizing maps är en modell av neurala nätverk med egenskapen av oövervakad inlärning. En self-organizing map organiserar data så att den kan presenteras statistiskt och visuellt, utan att kräva specificering av förväntat resultat. I detta fördjupningsarbete undersöks idén, arkitekturen och algoritmen bakom en Kohonen-self-organizing map. Avslutningsvis presenteras några av selforganizing maps användningsområden. i
3 Innehåll 1 Introduktion! Bakgrund! Källor! 1 2 Nätverksarkitektur! Översikt! Exempel! 3 3 Algoritm! Översikt! Initialisering av vikter! Inmatning! Beräkning av BMU! Beräkning av BMU:s lokala grannskap! Justering av vikter! Iteration! 7 4 Tillämpningsområden! 8 Källhänvisning! 10 ii
4 1 Introduktion 1.1 Bakgrund Begreppet Self-Organizing Map (SOM) introducerades av Teuvo Kohonen (Dr. Eng., Professor Emeritus av Finlands Akademi; Academician), 1981 (Kohonen, 1990). Idén är sprungen ur teorier om hjärnans sätt att organisera information. Forskning har visat att hjärnan processar sensorisk input i olika regioner av cerebrala cortex. Dessa regioner, exempelvis visuella cortex, är uppdelade i mindre områden av celler som tillsammans processar signaler genom att bidra med olika kognitiva funktioner. Celler i närliggande områden har visat sig utföra relaterade kognitiva funktioner. Ett exempel på detta är det visuella systemet, där närliggande neuroner i näthinnan projicerar information till närliggande neuroner i en målstruktur, exempelvis superior colliculus (Eglen & Gjorgjieva, 2009). Dessa topologiska samband av områden med liknande kognitiva funktioner ligger till grund för teorier om att vissa områden utvecklas oövervakat genom själv-organisering, dvs. att det existerar en tävlingsartad topologisk omorganisation av information i hjärnan (Taner, 1997). Kohonens modell är en simulering av denna teoretiserade process. 1.2 Källor Informationen jag har använt mig av för att kunna skriva detta fördjupningsarbete härrör sig i huvudsak från internet och från tidskrifter. Många av förklaringsexemplen i detta fördjupningsarbete, innefattande bilder och ekvationer, har lånats från en webbsida skapad av Mat Buckland, AI-programmerare och författare till böckerna Programming game AI by example och AI techniques for game programming. 1
5 2 Nätverksarkitektur 2.1 Översikt Ett Kohonen-nätverk har två lager av noder, ett inmatningslager och ett utmatningslager. För varje inmatningsvektor som presenteras för nätverket kommer vektorns dimensioner att representeras av noder i inmatningslagret, så att varje nod korresponderar med ett element i inmatningsvektorn. Det finns ingen begränsning av hur många dimensioner inmatningsvektorerna kan vara, men höga dimensioner av data innebär en exponentiell ökning av minneskomplexitet. Utmatningslagret, som representerar själva kartan, kan vara organiserat i godtyckligt antal dimensioner. Vanligast är den tvådimensionella varianten, eftersom utdata vanligtvis ämnas att presenteras i ett överskådligt visuellt format. (Buckland; Germano, 1999) Figur 1 Figur 1 visar ett mycket litet nätverk av 4x4 noder kopplat till ett inmatningslager (i grönt) som representerar en tvådimensionell vektor. Varje nod i utmatningslagret har en topologisk position, dvs. en x-position och en y-position i nätverket, samt en direkt koppling till samtliga noder i inmatningslagret. Varje nod innehåller en vektor av vikter av samma dimensioner som inmatningsvektorerna (Buckland; Germano, 1999). Alltså, om träningsdata innehåller inmatningsvektorerna V, som består av n dimensioner: V1, V2, V3...Vn, kommer varje nod innehålla en motsvarande viktvektor W, av n dimensioner: W1, W2, W3...Wn. Som tidigare nämnt tillåter SOM möjligheten att mata in vektor-data av n dimensioner och representera samma data i lägre dimensioner (vanligtvis två). Denna teknik kallas för vektorkvantisering. Kvantisering är processen av att mappa en stor uppsättning inmatningsvärden till en mindre uppsättning utmatningsvärden, vilket resulterar i en komprimerad datamängd (Gersho & Gray, 1991). Problemet datavisualisering försöker lösa är människans oförmåga att själv visualisera och förstå flerdimensionella data. För att lösa detta problem kan SOM vara ett användbart verktyg (Germano, 1999). 2
6 2.2 Exempel Figur 2 Figur 2 visar utdata från en Kohonen-SOM av 40x40 noder. I detta nätverk är inmatningslagret en uppsättning av tre noder varav en nod representerar färgen röd, en representerar grön och en representerar blå. Lämplig inmatningsdata till detta nätverk är vektorer av motsvarande tre dimensioner, vars värden varierar så att de kan modellera en önskvärd färg. Om vi antar att vektorerna motsvarar [R,G,B] och att vektorernas värden är av formen 0 < x < 1, kan vi representera färgen röd genom vektor [1,0,0], eller använda [0.5, 0.5, 1] för att representera färgen ljusblå. Om vi matar in n antal träningsdata av denna form i vårt Kohonen-nätverk, kan dessa träningsdata, efter i antal iterationer av Kohonens algoritm, kategoriseras genom själv-organisering. När organiseringsprocessen är slutförd kan de modellerade färgerna för respektive nod ritas ut i ett visuellt format som i Figur 2. 3
7 3 Algoritm 3.1 Översikt I neurala nätverk distribueras information över nätverkets noder. Under proceduren av självorganisering i en SOM behålls informationens topologiska relation delvis intakt så att information som är liknande kan samlas ihop i närliggande områden. Detta realiseras algoritmiskt genom att ett lokalt grannskap räknas ut för varje iteration, baserat på the best matching unit (BMU); den nod som bäst matchar inmatningsdata. Sedan, när en justering sker av BMU s vikter, har justeringen även verkan på enheterna i det lokala grannskapet. Justeringen innefattar en funktion för att krympa det lokala grannskapet över tid, vilket innebär att influensen som justeringen har på de påverkade nodernas vikter, blir mindre och mer finjusterad för varje iteration. (Kohonen, 1990; Sum et al., 1997; Buckland; Germano, 1999) 3.2 Initialisering av vikter Nätverksnodernas vikter initialiseras enligt en konstruktorfunktion som tilldelar vikterna ett slumpmässigt värde ur ett visst numeriskt intervall (Germano, 1999). I fallet av exemplet ovan, där inmatningsdata representerar färger, var detta intervall bestämt till 0 < x < 1. Detta intervall är arbiträrt och bestäms ofta enligt konvention och beroende av typ av inmatningsdata. 3.3 Inmatning En vektor ur datauppsättningen väljs ut slumpmässigt och matas in i nätverket (Germano, 1999). 3.4 Beräkning av BMU The Best Matching Unit (BMU) är namnet på den nod i nätverket vars viktvektor är mest lik vektorn av den aktuella inmatningsdatan. Proceduren av att utnämna en BMU kallas för en the winner takes it all- mekanism ; En analogi i vilken noderna i nätverket liknas vid medtävlare i en tävling och där BMU är liknas vid en vinnare. Ur denna analogi uppkom även namnet på den kategori av neurala nätverk man kan tillskriva SOM, dvs. Competitive Networks (Kohonen, 1990). Skillnaden mellan nodernas vektorer och inmatningsvektorn kan räknas fram på olika sätt. Ett vanligt tillvägagångssätt är att iterera över samtliga noder och räkna ut det euklidiska avståndet mellan vektorerna (Germano, 1999). Ekvation 1 betecknar det euklidiska avståndet. Ekvation 1, i vilken V står för inmatningsvektorn och W står för nodens viktvektor. 4
8 Om vi använder oss av inmatningsvektorn som representerar färgen röd [1,0,0], från exemplet ovan och beräknar det euklidiska avståndet från denna vektor till en slumpmässig viktvektor [0.1, 0.5, 0.5] ur nätverket, ser uträkningen ut som följer: distance = sqrt( (1-0.1) 2 + (0-0.4) 2 + (0-0.5) 2 ) = sqrt( (0.9) 2 + (-0.4) 2 + (-0.5) 2 ) = sqrt( ) = sqrt(1.22) distance = (Buckland) 3.5 Beräkning av BMU:s lokala grannskap Efter att BMU är beräknad måste storleken av ett lokalt grannskap av noder bestämmas. Noderna inom detta grannskap kommer i nästkommande steg av algoritmen att uppdateras på det sätt som utgör simulerad inlärning. Storleken av grannskapet bestäms genom uträkning av BMU:s radie. Radien ska krympa med tiden, dvs. efter ett visst antal iterationer. Efter n antal iterationer kommer det lokala grannskapet att ha minskat till att endast inbegripa BMU (Buckland; Germano, 1999). Figur 3 illustrerar hur det lokala grannskapet minskar över tid. BMU är markerad i gult. Radien är utmärkt med en grön pil. Figur 3 För att ta hänsyn till successiv förminskning vid uträkning av radien kan man använda sig av en exponentiell sönderfallsfunktion (Buckland): Ekvation 2, i vilken Sigma, σ 0, står för bredden av nätverket vid tidpunkten t 0. Lambda, λ, står för en tidkonstant. t är det nuvarande tidssteget, dvs. den nuvarande iterationen. 5
9 3.6 Justering av vikter Varje nod i BMUs grannskap inklusive BMU, får sina vikter justerade enligt följande ekvation: Ekvation 3, i vilken t representerar tidssteg, Theta, Θ, är en funktion som representerar mängden av influens nodens euklidiska avstånd från BMU kommer att ha på förändringen, L står för Learning Rate och är en variabel som minskar med tid. V står liksom i tidigare exempel och ekvationer för inmatningsvektor och W står för viktvektor. W (t + 1) representerar således vikten under nästkommande tidssteg. Influens, Θ(t), learning rate, L(t), och skillnad mellan inmatningsvektor och viktvektor, (V(t) - W(t)), representerar tillsammans den förändring som ska ske, baserat på nuvarande tillstånd W(t). Introduktionen av funktionen theta, Θ(t), innebär att effekten av inlärning blir proportionerlig mot skillnaden mellan inmatningsvektor och viktvektor. Funktionen är given i Ekvation 4. En illustration av effekten som vill uppnås av inlärning genom justering av BMU och dess lokala grannskap kan ses i Figur 4, där alla värden över 0 betecknar noder och värdet 1 betecknar BMU. Ekvation 4, i vilken dist är skillnaden mellan inmatningsvektor och viktvektor (det euklidiska avståndet, Ekvation 1) och σ är beräkningen av BMUs lokala grannskap (Ekvation 2). Figur 4 6
10 3.7 Iteration Proceduren repeteras från steg 2 i n iterationer. Antalet iterationer som krävs för att erhålla ett tillfredsställande resultat av inlärningen varierar stort. Kohonen skriver (1990) att det inte finns något optimalt sätt att uppskatta denna siffra; Since learning is a stochastic process, the final statistical accuracy of the mapping depends on the number of steps, which must be reasonably large; there is no way to circumvent this requirement. A rule of thumb is that, for good statistical accuracy, the number of steps must be at least 500 times the number of network units. Det är värt att notera att utfallet av en SOM aldrig blir exakt likadant i de fall man genomför proceduren två eller fler gånger, givet samma uppsättning data (Germano, 1999). Detta är en konsekvens av att vikterna innehåller slumpmässiga värden samt att inmatningsdata presenteras i slumpmässig ordning. Figur 5 visar ett sådant scenario. Figur 5 7
11 4 Tillämpningsområden Det är vanligt att Self-Organizing Maps används som ett verktyg för datavisualisering (Buckland; Germano, 1999). Vektorkvantisering tillsammans med den tävlingsmässiga inlärningsprocessen utgör en bra metod för att visualisera skillnader och likheter i data. Ett exempel på detta är givet i Figur 5 och Figur 6. Figurerna illustrerar ett försök att kartlägga spridning av livskvalité bland länder, baserat på ett antal faktorer som hälsa, mat och utbildning. I Figur 5 kan utläsas att länder med beräknad högre livskvalité har hamnat uppe i vänstra hörnet medan länder med beräknad lägre livskvalité har hamnat nere i högra hörnet. Länder med liknande förhållanden har bildat färgutmärkta kluster, sedan har länderna inprickats på världskartan (Figur 6). Figur 5!!!!!!! Figur 6 Kohonen använde sin algoritm ursprungligen för taligenkänning, där nätverket utgjorde en fonemkarta. Han lät först en modell av det innre örat utföra frekvensanalys av det finska språket, sedan matade han in resultatet (fonemen) av frekvensanalysen i en SOM. Detta innebar att fonem-kartan automatiskt kategoriserade de inkommande ljuden (Kohonen, 1990). Kohonens fonem-karta är återgiven i Figur 7. Figur 7 8
12 Forskningsgrupper på Helsinki University of Technology har tagit SOM i bruk genom att bygga ett flertal applikationer. En av applikationerna, som har utvecklats av forskningsgruppen Independent Component Analysis (ICA), är Cocktail party problem, i vilken en SOM processar auditiv information på ett sätt som ämnar efterlikna hur människan separerar olika ljudkällor givet en bullrig ljudbild. En annan grupp, Neural Networks Research Centre (NNRC), har tagit fram ett system för att bläddra genom en textdatabas, WEBSOM, där man får ange, gärna i fulltext, ett önskat ämne och får tillbaka en visuell karta som underlättar informationssökningen. En tredje grupp från universitetet har skapat ett system kallat PicSOM som används för att bläddra genom en bilddatabas. Systemet organiserar och presenterar bilder enligt ett visst antal parametrar som färg, gradient och textur. ([www]: Laboratory of computer and information science, Helsinki University of Technology) Sammanfattningsvis kan self-organizing maps användas i en bred variation av sammanhang, varhelst det finns ett tillfälle för klassificering och visualisering av data. Särskilt användbar kan modellen vara vid hantering av stora mängder data eller data som är komplex och svårtolkad. 9
13 Källhänvisning Buckland, M. (?). Self-Organizing Maps [www]. Hämtat från som1.html, Eglen, S. J. & Gjorgjieva J. (2009). Self-Organization in the developing nervous system: theoretical models. HFSP Journal Vol. 3, June Germano, T. (1999). Self-Organizing Maps [www]. Hämtat från courses/soms/, Gersho, A. & Gray, R. M. (1991). Vector quantization and signal compression, pp. 3 4, Kluwer Academic Publishers. Kohonen, T. (1990). The Self-Organizing Map. Proceedings of the IEEE, Vol. 78, No. 9, September Laboratory of computer and information science, Helsinki University of Technology. Demonstrationsapplikationer av Self-Organizing maps [www]. Hämtat från Sum, J. & Leung, C. & Chan, L. & Xu, K. (1997). Yet another algoritm which can generate typography. IEEE transactions on neural networks, Vol. 8, No. 5, September
729G43 Artificiell intelligens / Maskininlärning 3. Marco Kuhlmann
729G43 Artificiell intelligens / 2015 Maskininlärning 3 Marco Kuhlmann Förra gången: Perceptroninlärning Beslutsregel predicerat y-värde Exempel: AND Välj parametrar θ 0, θ 1, θ 2 sådana att perceptronen
Läs mer2D Potentialen i en nervcell definieras normalt som skillnaden i spänning mellan dess axon och dendrit.
2D1432 Artificiella Neuronnät och andra lärande system Lösningsförslag till Tentamen 2003-03-06 Inga hjälpmedel. Uppgift 1 Vilka av följande påståenden är sanna? Korrigera de som är fel. 1. Potentialen
Läs merARTIFICIELLA NEURALA NÄT. MARCO KUHLMANN Institutionen för datavetenskap
ARTIFICIELLA NEURALA NÄT MARCO KUHLMANN Institutionen för datavetenskap Example Alt Bar Fri Hun Pat Price Rain Res Type Est WillWait 1 Yes No No Yes Some $$$ No Yes French 0 10 Yes 2 Yes No No Yes Full
Läs merAtt beräkna:: Avstånd
Att beräkna:: Avstånd Mikael Forsberg :: 27 november 205 Innehåll Punkter, linjer och plan, en sammanställning 2. Punkter i två och tre dimensioner....................... 2.2 Räta linjer i två och tre
Läs merIgenkänning av bilddata med hjälp av Kohonen-nätverk, samt beskrivning av program
Igenkänning av bilddata med hjälp av Kohonen-nätverk, samt beskrivning av program Jerker Björkqvist September 2001 1 Introduktion I detta arbete undersökts hur klassificering av bilddata kan göras med
Läs mer729G43 Artificiell intelligens (2016) Maskininlärning 2. Marco Kuhlmann Institutionen för datavetenskap
729G43 Artificiell intelligens (2016) Maskininlärning 2 Marco Kuhlmann Institutionen för datavetenskap Förra gången: Gradientsökning tangentens lutning i punkt θ steglängdsfaktor Översikt Introduktion
Läs mer729G43 Artificiell intelligens / Maskininlärning 1. Marco Kuhlmann
729G43 Artificiell intelligens / 2015 Maskininlärning 1 Marco Kuhlmann Introduktion Maskininlärning Tack vare maskininlärning kan AI-system idag bl.a. producera och förstå naturligt språk kontrollera maskiner,
Läs merLinköpings universitet
Översikt Kognitionsvetenskaplig introduktionskurs Föreläsning 4 Informationsbearbetningsmodeller Vad är kognitionsvetenskap? Kort bakgrund/historik Representation och bearbetning av information Vetenskapliga
Läs mer1(15) Bilaga 1. Av Projekt Neuronnätverk, ABB Industrigymnasium, Västerås Vt-05
1(15) Bilaga 1 2(15) Neuronnätslaboration Räknare Denna laboration riktar sig till gymnasieelever som går en teknisk utbildning och som helst har läst digitalteknik samt någon form av styrteknik eller
Läs merKarta över Jorden - viktigt exempel. Sfär i (x, y, z) koordinater Funktionen som beskriver detta ser ut till att vara
Föreläsning 1 Jag hettar Thomas Kragh och detta är kursen: Flervariabelanalys 1MA016/1MA183. E-post: thomas.kragh@math.uu.se Kursplan finns i studentportalens hemsida för denna kurs. Där är två spår: Spår
Läs merSELF- ORGANIZING MAPS
LINKÖPINGS UNIVERSITET Kognitionsvetenskapliga Programmet Examinator: Arne Jönsson SELF- ORGANIZING MAPS - Ett fördjupningsarbete inom Artificiell Intelligens Fack 52 katwa676@student.liu.se Sammanfattning
Läs merNeurovetenskap 30/08/2013. Kognitiv neurovetenskap. Lober. Olika färg, olika vävnadsstruktur. Hjärnbarken
729G01 Kognitionsvetenskaplig introduktionskurs: Kognitiv neurovetenskap och kognitiv modellering Rita Kovordanyi, Institutionen för datavetenskap (IDA) rita.kovordanyi@liu.se Kognitiv neurovetenskap Baseras
Läs merSub-symbolisk kognition & Konnektionism. Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén,
Sub-symbolisk kognition & Konnektionism Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén, mats.andren@liu.se 1 Konnektionism Neutrala nät baseras på en (förenklad) modell av hur hjärnan fungerar.
Läs merStatistisk mönsterigenkänning
Statistisk mönsterigenkänning Jonas Sandström Artificiell intelligens II Linköpings universitet HT 2011 Innehållsförteckning 1. Innehållsförteckning sid 2 2. Inledning sid 3 3. Statistisk mönsterigenkänning
Läs merVektorer, matriser, nätverk - några elementa
Vektorer, matriser, nätverk - några elementa Innehåll: Vektorer Radvektorer och kolumnvektorer Operationer med vektorer Input- och outputvektorer i neurala nätverk Utvikning om kompetitiva nät Matriser
Läs merHemuppgift 1, SF1861 Optimeringslära, VT 2017
Hemuppgift 1, SF1861 Optimeringslära, VT 2017 Examinator: Krister Svanberg, tel: 790 7137, krille@math.kth.se. Labassistent: David Ek, daviek@kth.se, Lämnas i Matematiks svarta postlåda (SF) för inlämningsuppgifter,
Läs mer729G43 Artificiell intelligens (2016) Maskininlärning 3. Marco Kuhlmann Institutionen för datavetenskap
729G43 Artificiell intelligens (2016) Maskininlärning 3 Marco Kuhlmann Institutionen för datavetenskap Modell med vektornotation parametervektor särdragsvektor Perceptron kombinerar linjär regression med
Läs mer729G43 Artificiell intelligens / Maskininlärning 2. Marco Kuhlmann
729G43 Artificiell intelligens / 2015 Maskininlärning 2 Marco Kuhlmann Förra gången: Linjär regression Gradientsökning Vandra ner i felets dal. Steg 0: Börja med ett godtyckligt värde för θ. Steg 1: Räkna
Läs merFöreläsning 7: Klassificering, minsta kvadratproblem, SVD, forts.
Föreläsning 7: Klassificering, minsta kvadratproblem, SVD, forts. Berkant Savas Tillämpad matematik i natur och teknikvetenskap, TNA5 Institutionen för teknik och naturvetenskap Linköpings universitet
Läs merSF1624 Algebra och geometri
SF1624 Algebra och geometri Föreläsning 2 David Rydh Institutionen för matematik KTH 28 augusti 2018 Detta gjorde vi igår Punkter Vektorer och skalärer, multiplikation med skalär Linjärkombinationer, spannet
Läs merModeller och simulering av språkprocessning
Modeller och simulering av språkprocessning Seriell processmodell + parallell processmodell Parallell modell med 2-vägsförbindelser Artificiellt neuralt nätverk (ANN) Interaktiv aktiverings-modell (IAM)
Läs merAnvändning av Self Organizing Maps som en metod att skapa semantiska representationer ur text Per Fallgren
Användning av Self Organizing Maps som en metod att skapa semantiska representationer ur text Per Fallgren Kandidatuppsats i Kognitionsvetenskap Kognitionsvetenskapliga kandidatprogrammet Linköpings Universitet
Läs merIntroduktion till statistik för statsvetare
och enkäter "Det finns inget så praktiskt som en bra teori" September 2011 och enkäter Inledning Inledning Om vi vill mäta en egenskap hos en population individer (individer kan vara personer, företag
Läs merThe sexy job in the next 10 years will be statisticians, said Hal Varian, chief economist at Google. And I m not kidding.
Kunskapsprov i KUSK The sexy job in the next 10 years will be statisticians, said Hal Varian, chief economist at Google. And I m not kidding. Yet data is merely the raw material of knowledge. We re rapidly
Läs merP Q = ( 2, 1, 1), P R = (0, 1, 0) och QR = (2, 2, 1). arean = 1 2 P Q P R
1 Matematiska Institutionen KTH Lösningar till några övningar på geometri och vektorer inför lappskrivning nummer 2 på kursen Linjär algebra II, SF1604, vt11. 1. En triangel har hörn i punkterna (1, 2,
Läs merMATEMATIK GU. LLMA60 MATEMATIK FÖR LÄRARE, GYMNASIET Analys, ht 2014. Block 5, översikt
MATEMATIK GU H4 LLMA6 MATEMATIK FÖR LÄRARE, GYMNASIET Analys, ht 24 I block 5 ingår följande avsnitt i Stewart: Kapitel 2, utom avsnitt 2.4 och 2.6; kapitel 4. Block 5, översikt Första delen av block 5
Läs merOrdinära differentialekvationer,
(ODE) Ordinära differentialekvationer, del 1 Beräkningsvetenskap II It is a truism that nothing is permanent except change. - George F. Simmons ODE:er är modeller som beskriver förändring, ofta i tiden
Läs merTalsystem Teori. Vad är talsystem? Av Johan Johansson
Talsystem Teori Av Johan Johansson Vad är talsystem? Talsystem är det sätt som vi använder oss av när vi läser, räknar och skriver ner tal. Exempelvis hade romarna ett talsystem som var baserat på de romerska
Läs merSF1545 Laboration 1 (2015): Optimalt sparande
Avsikten med denna laboration är att: SF1545 Laboration 1 (215: Optimalt sparande - snabbt komma igång med träning på matlabprogrammering (uttnyttja gärna alla schemalagda laborationstillfällen, - lösa
Läs mer2. Lös ekvationen z i = 2 z + 1 och ge i det komplexa talplanet en illustration av lösningsmängden.
MÄLARDALENS HÖGSKOLA Akademin för utbildning, kultur och kommunikation Avdelningen för tillämpad matematik Examinator: Lars-Göran Larsson TENTAMEN I MATEMATIK MAA3 Grundläggande vektoralgebra, TEN6 alt.
Läs merUppgift 1. Minimeringsproblemet löses med en Monte Carlo algoritm:
Uppgift 1 Minimeringsproblemet löses med en Monte Carlo algoritm: 1) initiera elementen i vektorn s slummässigt med +/-1 2) räkna ut värdefunktionen (ekvationen given i uppgiften) 3) starta iteration 4)
Läs merInlärning utan övervakning
Översikt Biologiska mekanismer bakom inlärning Inlärning utan övervakning Inlärning utan övervakning Hebbiansk modellinlärning Självorganisering Arbetsfördelning mellan noder i ett lager som utvecklas
Läs merKurragömma i ett socialt nätverk
Kurragömma i ett socialt nätverk Olle Abrahamsson Doktorand i kommunikationssystem, Linköpings universitet 1 Introduktion Många sociala grupper kan ha anledningar att gömma sig Illasinnade grupper: Terrorister,
Läs merMatcha rätt hjärta till rätt patient med AI. Dennis Medved
Matcha rätt hjärta till rätt patient med AI Dennis Medved Översikt Introduktion IHTSA LuDeLTA Sammanfattning Framtida arbete Introduktion Hjärttransplantation Livräddande operation för patienter med hjärtsvikt
Läs merNeural bas för kognition
Kommunikation Neural bas för kognition stimulerande, retande inhiberande, förhindrande depolarisation vid tillräckligt mycket retning blir hela neuronen för en stund positivt laddad, då har en SPIKE uppnåtts
Läs merSF1900 Sannolikhetsteori och statistik, HT 2017 Laboration 1 för CINEK2
Matematisk Statistik SF1900 Sannolikhetsteori och statistik, HT 2017 Laboration 1 för CINEK2 1 Introduktion Denna laboration är inte poänggivande utan är till för den som vill bekanta sig med MATLAB. Fokusera
Läs mer729G11 Artificiell Intelligens Marcus Johansson Marjo581. Fuzzy logic. Marcus Johansson Marjo581
Fuzzy logic 880328-2535 Innehåll Fuzzy logic... 1 1. Inledning... 4 2. Jämförelse mellan fuzzy logic och tvåvärdeslogik.... 4 3. Fuzzy sets.... 4 4. Linvistiska variabler... 5 5. Operatorer... 5 6. If-
Läs merFöreläsning 13 Innehåll
Föreläsning 13 Innehåll Exempel på problem där materialet i kursen används Hitta k största bland n element Histogramproblemet Schemaläggning PFK (Föreläsning 13) VT 2013 1 / 15 Hitta k största bland n
Läs mermed hjälp av Deep Reinforcement Learning
Agent som kan spela Atarispel bättre än människor med hjälp av Deep Reinforcement Learning Sofie Adolfsson, sofad117@student.liu.se Artificiell Intelligens Linköpings Universitet 2017-01-12 SofieAdolfsson
Läs merVectorer, spannet av vektorer, lösningsmängd av ett ekvationssystem.
Vectorer, spannet av vektorer, lösningsmängd av ett ekvationssystem. Begrepp som diskuteras i det kapitlet. Vektorer, addition och multiplikation med skalärer. Geometrisk tolkning. Linjär kombination av
Läs merOperatörer och användargränssnitt vid processtyrning
Operatörer och användargränssnitt vid processtyrning Normativa och beskrivande analyser Uppsala universitet @ 2003 Anders Jansson Sammanfattning kap. 1 Sociotekniska system Många olika grupper av användare
Läs merAbstrakta datatyper. Primitiva vektorer. Deklarera en vektor
Abstrakta datatyper 1 Primitiva vektorer Vektorer kan skapas av primitiva datatyper, objektreferenser eller andra vektorer. Vektorer indexeras liksom i C från 0. För att referera en vektor används hakparenteser.
Läs mer1. Compute the following matrix: (2 p) 2. Compute the determinant of the following matrix: (2 p)
UMEÅ UNIVERSITY Department of Mathematics and Mathematical Statistics Pre-exam in mathematics Linear algebra 2012-02-07 1. Compute the following matrix: (2 p 3 1 2 3 2 2 7 ( 4 3 5 2 2. Compute the determinant
Läs merTentamen TANA17 Matematiska beräkningar Provkod: DAT1 Godkänd: 9p av totalt 20p Hjälpmedel: MATLAB
MAI/Linköpings universitet Fredrik Berntsson Tentamen TANA17 Matematiska beräkningar Provkod: DAT1 Godkänd: 9p av totalt 20p Hjälpmedel: MATLAB Redovisning Lös först uppgifterna i Matlab. Då du har en
Läs merLABORATION 4 OBJEKTORIENTERAD PROGRAMMERING I C++ I
LABORATION 4 OBJEKTORIENTERAD PROGRAMMERING I C++ I Vt 2002 Mål: Lära sig: Filhantering Stränghantering Vektorer Funktioner Programstruktur Tid: Läroboken: 6 timmars handledd laborationstid. Beräknad klar
Läs mer14. Minsta kvadratmetoden
58 MINSTA KVADRATMETODEN. Minsta kvadratmetoden Eempel.. Det är inte så svårt att komma åt en trasig lampa på golvet för att byta den. Det är bara att gå fram till den. Hur är det om lampan hänger i taket?
Läs merTANA17 Matematiska beräkningar med MATLAB för M, DPU. Fredrik Berntsson, Linköpings Universitet. 26 november 2015 Sida 1 / 28
TANA17 Matematiska beräkningar med MATLAB för M, DPU Fredrik Berntsson, Linköpings Universitet 26 november 2015 Sida 1 / 28 Föreläsning 6 Minsta kvadrat problem. Polynom. Interpolation. Rötter. Tillämpningar:
Läs merMatematisk modellering fortsättningskurs Visuell variation
Matematisk modellering fortsättningskurs Visuell variation Johan Hedberg, Fredrik Svensson, Frida Hansson, Samare Jarf 12 maj 2011 1 1 Sammanfattning I denna rapport undersöker vi en modell för att beskriva
Läs merVektorgeometri för gymnasister
Vektorgeometri för gymnasister Per-Anders Svensson http://homepage.lnu.se/staff/psvmsi/vektorgeometri/gymnasiet.html Fakulteten för teknik Linnéuniversitetet Räta linjens och planets ekvationer III Innehåll
Läs merTentamen i Beräkningsvetenskap II, 5.0 hp,
Uppsala universitet Institutionen för informationsteknologi Teknisk databehandling Tentamen i Beräkningsvetenskap II, 5.0 hp, 2012-03-09 Skrivtid: 14 00 17 00 (OBS! Tre timmars skrivtid!) Hjälpmedel: Bifogat
Läs merAnsiktsigenkänning. Anna Ericsson Linköpings Universitet Linköping
Ansiktsigenkänning Anna Ericsson Linköpings Universitet Linköping 2011-09-18 Innehållsförteckning Sammanfattning... 1 Introduktion... 2 Ansiktsigenkänning med Eigenfaces... 3 Eigenfaces steg för steg...
Läs merDemonstration av laboration 2, SF1901
KTH 29 November 2017 Laboration 2 Målet med dagens föreläsning är att repetera några viktiga begrepp från kursen och illustrera dem med hjälp av MATLAB. Laboration 2 har följande delar Fördelningsfunktion
Läs merreella tal x i, x + y = 2 2x + z = 3. Här har vi tre okända x, y och z, och vi ger dessa okända den naturliga
. Lösningsmängden till homogena ekvationssystem I denna första föreläsning börjar vi med att repetera det grunnläggande begreppet inom linjär algebran. Linjär algebra är studiet av lösningsmängden till
Läs merx 2 x 1 W 24 november, 2016, Föreläsning 20 Tillämpad linjär algebra Innehåll: Projektionssatsen Minsta-kvadratmetoden
24 november, 206, Föreläsning 20 Tillämpad linjär algebra Innehåll: Projektionssatsen Minsta-kvadratmetoden. Projektionssatsen - ortogonal projektion på generella underrum Om W är ett underrum till R n,
Läs merObligatoriska uppgifter i MATLAB
Obligatoriska uppgifter i MATLAB Introduktion Följande uppgifter är en obligatorisk del av kursen och lösningarna ska redovisas för labhandledare. Om ni inte använt MATLAB tidigare är det starkt rekommenderat
Läs merStatistiska samband: regression och korrelation
Statistiska samband: regression och korrelation Vi ska nu gå igenom något som kallas regressionsanalys och som innebär att man identifierar sambandet mellan en beroende variabel (x) och en oberoende variabel
Läs merKodning av ansiktstextur med oberoende komponenter
Kodning av ansiktstextur med oberoende komponenter Jörgen Ahlberg Report no. LiTH-ISY-R-2297 ISSN 1400-3902 Avdelning, Institution Division, department Datum Date Image Coding Group 2000-10-02 Department
Läs merTräd och koder. Anders Björner KTH
27 Träd och koder Anders Björner KTH 1. Inledning. Det är i flera sammanhang viktigt att representera information digitalt (d.v.s omvandla till sviter av nollor och ettor). Beroende på vilka villkor som
Läs merEnlagersnät Flerlagersnät Generalisering. Artificiella Neuronnät
Artificiella Neuronnät 1 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund 2 Begränsningar Träning av enlagersnät 3 Möjliga avbildningar Backprop algoritmen Praktiska problem
Läs merx +y +z = 2 2x +y = 3 y +2z = 1 x = 1 + t y = 1 2t z = t 3x 2 + 3y 2 y = 0 y = x2 y 2.
Lösningar till tentamen i Inledande matematik för M/TD, TMV155/175 Tid: 2006-10-27, kl 08.30-12.30 Hjälpmedel: Inga Betygsgränser, ev bonuspoäng inräknad: 20-29 p. ger betyget 3, 30-39 p. ger betyget 4
Läs merFöreläsning 5: Grafer Del 1
2D1458, Problemlösning och programmering under press Föreläsning 5: Grafer Del 1 Datum: 2006-10-02 Skribent(er): Henrik Sjögren, Patrik Glas Föreläsare: Gunnar Kreitz Den här föreläsningen var den första
Läs merTentamen 1 i Matematik 1, HF okt 2018, Skrivtid: 14:00-18:00 Examinator: Armin Halilovic
Tentamen i Matematik, HF9 4 okt 8, Skrivtid: 4:-8: Examinator: Armin Halilovic För godkänt betyg krävs av max 4 poäng Betygsgränser: För betyg A, B, C, D, E krävs, 9, 6, respektive poäng Komplettering:
Läs merLösningar kapitel 10
Lösningar kapitel 0 Endimensionell analys Fabian Ågren, π Lösta uppgifter 0............................................... 0............................................... 0.6..............................................
Läs merLaboration 1: Optimalt sparande
Avsikten med denna laboration är att: Laboration 1: Optimalt sparande - snabbt komma igång med träning på matlabprogrammering (uttnyttja gärna alla schemalagda laborationstillfällen, - lösa ett optimeringsproblem
Läs mer3i)z 2013(1 ) och ge i det komplexa talplanet en illustration av lösningsmängden.
MÄLARDALENS HÖGSKOLA Akademin för utbildning, kultur och kommunikation Avdelningen för tillämpad matematik Examinator: Lars-Göran Larsson TENTAMEN I MATEMATIK MAA Grundläggande vektoralgebra, TEN6 alt.
Läs mer1 Minkostnadsflödesproblem i nätverk
Krister Svanberg, april 2012 1 Minkostnadsflödesproblem i nätverk Ett nätverk består av en given mängd noder numrerade från 1 till m (där m är antalet noder) samt en given mängd riktade bågar mellan vissa
Läs merFinansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3
Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3 Kontinuerliga sannolikhetsfördelningar (LLL Kap 7 & 9) Department of Statistics (Gebrenegus Ghilagaber, PhD, Associate Professor) Financial Statistics
Läs merDatorövning 1: Fördelningar
Lunds tekniska högskola Matematikcentrum Matematisk statistik FMS012/MASB03: MATEMATISK STATISTIK, 9 HP, VT-17 Datorövning 1: Fördelningar I denna datorövning ska du utforska begreppen sannolikhet och
Läs merProof. Se uppgifterna. Definition 1.6. Två vektorer u och v är vinkelräta (ortogonala) om < u, v >= 0.
1. Punkt och Linjer När du läser denna text är det bra om du ritar bilder för att exemplifiera innehållet. Det är lite komplicerad med i.tex, och därför avstår jag från att lägga vid illustrationer även
Läs merNeurala nätverk och språkigenkänning. Henrik Linnarsson. Linköping University
Neurala nätverk och språk Henli807!1 Neurala nätverk och språkigenkänning Henrik Linnarsson Linköping University Neurala nätverk och språk Henli807!2 RNN, LSTM och språkigenkänning Inledning Idag är språkigenkänning
Läs merLinjär Algebra, Föreläsning 2
Linjär Algebra, Föreläsning 2 Tomas Sjödin Linköpings Universitet Geometriska vektorer, rummen R n och M n 1 En (geometrisk) vektor är ett objekt som har storlek och riktning, men inte någon naturlig startpunkt.
Läs merLösning till tentamen i Medicinska Bilder, TSBB31, DEL 1: Grundläggande 2D signalbehandling
Lösning till tentamen i Medicinska Bilder, TSBB3, 26--28 Maria Magnusson (maria.magnusson@liu.se), Anders Eklund DEL : Grundläggande 2D signalbehandling Uppgift (3p) Translationsteoremet säger att absolutvärdet
Läs merNeurala nätverk vid bildsökning
Neurala nätverk vid bildsökning Carl-Johan Rosén Sammanfattning I denna rapport diskuteras situationen för neurala nätverk inom bildsökningsområdet. Först beskrivs några grundläggande metoder för bildsökning
Läs merTentamen: Datordel Programmeringsteknik
Tentamen: Datordel Programmeringsteknik Datum: 2013-01-16 Tid: 9:00-14:00 Sal: Ansvarig: Resultat: Hjälpmedel: Betygsgränser: Ulf Johansson Anslås inom 3 veckor. Inga Sammanlagt 30 p för G, 45 p för VG.
Läs merTDDC74 Programmering, abstraktion och modellering. Tentamen
AID-nummer: Datum: 2011-08-17 1 Tekniska högskolan vid Linköpings universitet Institutionen för datavetenskap Anders Haraldsson TDDC74 Programmering, abstraktion och modellering Tentamen Onsdag 17 augusti
Läs merDen svenska bloggosfären i ett ögonkast Slutrapport
Den svenska bloggosfären i ett ögonkast Slutrapport Olof Görnerup olofg@sics.se 1 Introduktion I följande rapport sammanfattar jag vad som har gjorts i projektet, gör en utvärdering av hur projektet har
Läs merNumerisk lösning till den tidsberoende Schrödingerekvationen.
Numerisk lösning till den tidsberoende Schrödingerekvationen. Det är enbart i de enklaste fallen t ex när potentialen är sträckvis konstant som vi kan lösa Schrödingerekvationen analytiskt. I andra fall
Läs merKOKBOKEN 1. Håkan Strömberg KTH STH
KOKBOKEN 1 Håkan Strömberg KTH STH Hösten 2006 Håkan Strömberg 2 KTH Syd Innehåll Olikheter.................................... 6................................. 6 Uppgift 2.................................
Läs merSammanfattning av föreläsning 11. Modellbygge & Simulering, TSRT62. Föreläsning 12. Simulering. Föreläsning 12. Numeriska metoder och Simulering
Sammanfattning av föreläsning 11 Modellbygge & Simulering, TSRT62 Föreläsning 12. Simulering Reglerteknik, ISY, Linköpings Universitet Index för en DAE Antalet derivationer som behövs för att lösa ut ż
Läs merMatematisk analys för ingenjörer Matlabövning 2 Numerisk ekvationslösning och integration
10 februari 2017 Matematisk analys för ingenjörer Matlabövning 2 Numerisk ekvationslösning och integration Syfte med övningen: Introduktion till ett par numeriska metoder för lösning av ekvationer respektive
Läs merHierarchical Temporal Memory Maskininlärning
Hierarchical Temporal Memory Maskininlärning Innehåll Sammanfattning... 3 Inledning... 4 Vad är HTM?... 4 Hur fungerar HTM?... 4 Hierarchical... 4 Temporal... 5 Memory... 5 Hitta orsaker i världen... 5
Läs merGoogles sidrankning - linjär algebra värt en förmögenhet
Googles sidrankning - linjär algebra värt en förmögenhet Outline 1 Sökmotorer 2 Grafteori Linjär algebra 3 Målet Utifrån användarens sökord lista de mest relevanta webbsidorna. Dessutom i en ordning som
Läs merExempel ode45 parametrar Miniprojekt 1 Rapport. Problemlösning. Anastasia Kruchinina. Uppsala Universitet. Januari 2016
Problemlösning Anastasia Kruchinina Uppsala Universitet Januari 2016 Anastasia Kruchinina Problemlösning 1 / 16 Exempel ode45 parametrar Miniprojekt 1 Rapport Anastasia Kruchinina Problemlösning 2 / 16
Läs merMekanik FK2002m. Vektorer
Mekanik FK2002m Föreläsning 2 Vektorer 2013-09-02 Sara Strandberg SARA STRANDBERG P. 1 FÖRELÄSNING 2 Introduktion Förra gången pratade vi om rörelse i en dimension. När vi går till flera dimensioner behöver
Läs merSF1901: SANNOLIKHETSTEORI OCH STATISTIKTEORI KONSTEN ATT DRA INTERVALLSKATTNING. STATISTIK SLUTSATSER. Tatjana Pavlenko.
SF1901: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 10 STATISTIKTEORI KONSTEN ATT DRA SLUTSATSER. INTERVALLSKATTNING. Tatjana Pavlenko 25 april 2017 PLAN FÖR DAGENS FÖRELÄSNING Statistisk inferens oversikt
Läs merMall för en kortare rapport/uppsats
Mall för en kortare rapport/uppsats Detta dokument beskriver vad som ska ingå i en kortare vetenskaplig rapport. Du kommer att skriva rapporter på denna form i ett antal kurser under din utbildning, t.ex.
Läs merLMA521: Statistisk kvalitetsstyrning
Föreläsning 1 Dagens innehåll 1 Kvalitet 2 Acceptanskontroll enligt attributmetoden 3 Enkel provtagningsplan 4 Design av enkel provtagningsplan med binomialnomogram 5 Genomgång av problem 1.5 från boken.
Läs merVektorgeometri för gymnasister
Vektorgeometri för gymnasister Per-Anders Svensson http://homepage.lnu.se/staff/psvmsi/vektorgeometri/gymnasiet.html Fakulteten för teknik Linnéuniversitetet Linjära avbildningar I Innehåll En liten tillbakablick:
Läs mer2 = 3 = 1. ekvationssystem är beskriven som de vektorer X = 2 0 1 2. 1 1 0 2
. Tisdagen 35 Igår visade vi att lösningsmängden W R 5 till ekvationssystemet 3x + x 2 + 3x 3 + 2x 4 x 5 = (..) 2x 2 + x 3 + 4x 4 + 2x 5 = 3x 3x 2 + x 3 6x 4 5x 5 = har bas u och u 2 och u 3 där 5 2 6
Läs merArrayer (vektorer) Murach s: kap Elektronikcentrum i Svängsta AB
Arrayer (vektorer) Murach s: kap 8 2013-01-15 1 Elektronikcentrum i Svängsta AB Arrayer Arrayer (vektorer) Ofta i ett program har vi flera variabler av samma datatyp som är relaterade till varandra. Exempel
Läs merSF1624 Algebra och geometri
Föreläsning 2 Institutionen för matematik KTH 2 november 2016 Skalärprodukt Dagens ämne: Skalärprodukt, kapitel 1.3-1.4 i boken Definition, skalärprodukt på två sätt Vinklar mellan vektorer Norm Plan och
Läs merLokal pedagogisk planering i matematik för årskurs 9
Lokal pedagogisk planering i matematik för årskurs 9 Arbetsområde 3. Ekvationer och geometri. Syfte formulera och lösa problem med hjälp av matematik samt värdera valda strategier och metoder. reflektera
Läs merLösningsförslag till skrivningen i Vektorgeometri (MAA702) Måndagen den 13 juni 2005
VÄXJÖ UNIVERSITET Matematiska och systemtekniska institutionen Per-Anders Svensson Lösningsförslag till skrivningen i Vektorgeometri (MAA70) Måndagen den 13 juni 005 Uppgift 1. Lös ekvationssystemet AX
Läs merDN1212/numpm Numeriska metoder och grundläggande programmering Laboration 1 Introduktion
Staffan Romberger 2008-10-31 DN1212/numpm Numeriska metoder och grundläggande programmering Laboration 1 Introduktion Efter den här laborationen ska du kunna hantera vektorer och matriser, villkorssatser
Läs merAnsiktsigenkänning med MATLAB
Ansiktsigenkänning med MATLAB Avancerad bildbehandling Christoffer Dahl, Johannes Dahlgren, Semone Kallin Clarke, Michaela Ulvhammar 12/2/2012 Sammanfattning Uppgiften som gavs var att skapa ett system
Läs merAI-Tekniker. För domänspecifika problemområden i StarCraft 2. Mattias Tiger Fredrik Präntare
AI-Tekniker För domänspecifika problemområden i StarCraft 2 Mattias Tiger Fredrik Präntare Introduktion och motivering Ni ska inför er individuella uppgift definiera ett problem och välja ut en eller flera
Läs merProjektion av träningsdata på aktuell underrum av dim 1. Föreläsning 7: Klassificering, minsta kvadratproblem, SVD, forts.
Projektion av träningsdata på aktuell underrum av dim Föreläsning : Klassificering, minsta kvadratproblem, SVD, forts. Berkant Savas Tillämpad matematik i natur och teknikvetenskap, TNA Institutionen för
Läs merIntroduktion Schenker-BTL AB, Stab IT Beskrivning över informationsintegreringmed Schenker, metodbeskrivning version 1.
Schenker har interna system som handhar information som är av intresse för våra kunder/partners. Idag finns ett flertal av dem tillgängliga via Internet, sk Online-tjänster. Dessa erbjuder inte bara hämtning
Läs merKaos i Hénon-Helies systemet
Kaos i Hénon-Helies systemet Projekt i Analytisk Mekanik Av: Christian Emanuelsson Karlstads universitet hösten 2011 Kaos i Hénon-Helies systemet Överblick: Introducera kaos Presentera Hénon-Helias Visualisera
Läs merMönster. Ulf Cederling Växjö University Ulf.Cederling@msi.vxu.se http://www.msi.vxu.se/~ulfce. Slide 1
Mönster Ulf Cederling Växjö University UlfCederling@msivxuse http://wwwmsivxuse/~ulfce Slide 1 Beskrivningsmall Beskrivningsmallen är inspirerad av den som användes på AG Communication Systems (AGCS) Linda
Läs mer