Inlärningens geometri Populärföreläsning SF1611, Introduktionskurs i matematik. Timo Koski

Relevanta dokument
SF1624 Algebra och geometri

ARTIFICIELLA NEURALA NÄT. MARCO KUHLMANN Institutionen för datavetenskap

Explorativ övning Vektorer

729G43 Artificiell intelligens (2016) Maskininlärning 2. Marco Kuhlmann Institutionen för datavetenskap

1 Ortogonalitet. 1.1 Skalär produkt. Man kan tala om vinkel mellan vektorer.

Vektorgeometri för gymnasister

Vektorgeometri för gymnasister

729G43 Artificiell intelligens / Maskininlärning 2. Marco Kuhlmann

P Q = ( 2, 1, 1), P R = (0, 1, 0) och QR = (2, 2, 1). arean = 1 2 P Q P R

Vektorgeometri för gymnasister

10.4. Linjära höljet LINJÄRA RUM

1. (Dugga 1.1) (a) Bestäm v (3v 2u) om v = . (1p) and u =

Uppsala Universitet Matematiska Institutionen Bo Styf. Svar till tentan. Del A. Prov i matematik Linj. alg. o geom

October 9, Innehållsregister

LYCKA TILL! kl 8 13

SKRIVNING I VEKTORGEOMETRI

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

Moment 4.11 Viktiga exempel 4.32, 4.33 Övningsuppgifter Ö4.18-Ö4.22, Ö4.30-Ö4.34. Planet Ett plan i rummet är bestämt då

Lösningsförslag till skrivningen i Vektorgeometri (MAA702) måndagen den 30 maj 2005

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

Övningar. MATEMATISKA INSTITUTIONEN STOCKHOLMS UNIVERSITET Avd. Matematik. Linjär algebra 2. Senast korrigerad:

KOKBOKEN 1. Håkan Strömberg KTH STH

Uppsala Universitet Matematiska Institutionen Bo Styf. Sammanfattning av föreläsningarna

z = 4 + 3t P R = (5 + 2t, 4 + 2t, 4 + 3t) (1, 1, 3) = (4 + 2t, 3 + 2t, 1 + 3t)

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

Matematiska Institutionen KTH. Lösning till tentamensskrivning på kursen Linjär algebra II, SF1604, den 9 juni 2011 kl

Moment 4.2.1, 4.2.2, 4.2.3, Viktiga exempel 4.1, 4.3, 4.4, 4.5, 4.6, 4.13, 4.14 Övningsuppgifter 4.1 a-h, 4.2, 4.3, 4.4, 4.5, 4.

Att beräkna:: Avstånd

Linjär Algebra, Föreläsning 9

Veckoblad 1, Linjär algebra IT, VT2010

SF1624 Algebra och geometri

1. Compute the following matrix: (2 p) 2. Compute the determinant of the following matrix: (2 p)

Isometrier och ortogonala matriser

SKRIVNING I VEKTORGEOMETRI

SF1624 Algebra och geometri

Uppsala Universitet Matematiska Institutionen Thomas Erlandsson

Vektorgeometri för gymnasister

729G43 Artificiell intelligens / Maskininlärning 3. Marco Kuhlmann

Karta över Jorden - viktigt exempel. Sfär i (x, y, z) koordinater Funktionen som beskriver detta ser ut till att vara

UPPSALA UNIVERSITET Matematiska institutionen Styf. Exempeltenta med lösningar Programmen EI, IT, K, X Linjär algebra juni 2004

tal. Mängden av alla trippel av reella tal betecknas med R 3 och x 1 x 2 En sekvens av n reella tal betecknas med (x 1, x 2,, x n ) eller

1 som går genom punkten (1, 3) och är parallell med vektorn.

MATEMATIK GU. LLMA60 MATEMATIK FÖR LÄRARE, GYMNASIET Analys, ht Block 5, översikt

Vektorgeometri. En vektor v kan representeras genom pilar från en fotpunkt A till en spets B.

SKRIVNING I VEKTORGEOMETRI

A = x

Linköpings universitet

Föreläsning 7: Klassificering, minsta kvadratproblem, SVD, forts.

Övningar. c) Om någon vektor i R n kan skrivas som linjär kombination av v 1,..., v m på precis ett sätt så. m = n.

. b. x + 2 y 3 z = 1 3 x y + 2 z = a x 5 y + 8 z = 1 lösning?

SF1624 Algebra och geometri Tentamen Torsdag, 17 mars 2016

16.7. Nollrum, värderum och dimensionssatsen

x 23 + y 160 = 1, 2 23 = ,

8. Euklidiska rum 94 8 EUKLIDISKA RUM

15 februari 2016 Sida 1 / 32

SF1624 Algebra och geometri

Inför tentamen i Linjär algebra TNA002.

Vektorgeometri för gymnasister

SF1624 Algebra och geometri

TENTAMEN. Matematik 1 Kurskod HF1903 Skrivtid 13:15-17:15 Onsdagen 25 september 2013 Tentamen består av 3 sidor

14. Minsta kvadratmetoden

A = (3 p) (b) Bestäm alla lösningar till Ax = [ 5 3 ] T.. (3 p)

Linjär Algebra, Föreläsning 2

Projektion av träningsdata på aktuell underrum av dim 1. Föreläsning 7: Klassificering, minsta kvadratproblem, SVD, forts.

6. Matriser Definition av matriser 62 6 MATRISER. En matris är ett rektangulärt schema av tal: a 11 a 12 a 13 a 1n a 21 a 22 a 23 a 2n A =

Linjär Algebra, Föreläsning 2

Geometriska vektorer

Linjär algebra på några minuter

Vektorgeometri för gymnasister

Vektorgeometri för gymnasister

DEL I. Matematiska Institutionen KTH. Lösning till tentamensskrivning på kursen Linjär algebra II, SF1604, den 15 mars 2010 kl

Lösningsforslag till tentamen i SF1624 den 22/ e x e y e z = 5e x 10e z = 5(1, 0, 2). 1 1 a a + 2 2a 4

DEL I. Matematiska Institutionen KTH. Lösning till tentamensskrivning på kursen Linjär algebra II, SF1604 för D, den 5 juni 2010 kl

1 Vektorer i koordinatsystem

Proof. Se uppgifterna. Definition 1.6. Två vektorer u och v är vinkelräta (ortogonala) om < u, v >= 0.

Sidor i boken Figur 1: Sträckor

Studiehandledning till linjär algebra Avsnitt 2

Chalmers tekniska högskola Datum: kl Telefonvakt: Linnea Hietala MVE480 Linjär algebra S

Pre-Test 1: M0030M - Linear Algebra.

2. (a) Skissa grafen till funktionen f(x) = e x 2 x. Ange eventuella extremvärden, inflektionspunkter

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A. (1 p) (c) Bestäm avståndet mellan A och linjen l.

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

1. (a) (1p) Undersök om de tre vektorerna nedan är linjärt oberoende i vektorrummet

16.7. Nollrum, värderum och dimensionssatsen

Sidor i boken f(x) = a x 2 +b x+c

Banach-Tarskis paradox

ORTONORMERADE BASER I PLAN (2D) OCH RUMMET (3D) ORTONORMERAT KOORDINAT SYSTEM

TMV036 Analys och linjär algebra K Kf Bt, del C

Lösning till tentamensskrivning på kursen Linjär algebra, SF1604, den 12 mars 2013 kl

Föreläsning 13 Linjär Algebra och Geometri I

SKRIVNING I VEKTORGEOMETRI

x 1 x 2 T (X) = T ( x 3 x 4 x 5

Tentamen 1 i Matematik 1, HF okt 2018, Skrivtid: 14:00-18:00 Examinator: Armin Halilovic

SF1624 Algebra och geometri Lösningsförsag till modelltentamen

SF1624 Algebra och geometri Tentamen Torsdag, 9 juni 2016

Fixpunktsiteration. Kapitel Fixpunktsekvation. 1. f(x) = x = g(x).

SF1626 Flervariabelanalys

LINJÄR ALGEBRA II LEKTION 6

Lösningsförslag till skrivningen i Vektorgeometri (MAA702) Måndagen den 13 juni 2005

Linjär algebra och geometri I

Transkript:

Populärföreläsning SF1611, Introduktionskurs i matematik. Timo Koski 22.09.2014

En grundläggande form av inlärning är att inhämta kunskap ur valda exempel. Med ett exempel avses information om ett föremål och en klassificering av detsamma. Det kan handla om t.ex. handskrivna siffor. Förmågan att igenkänna handskrivna siffror är på något sätt inbyggd i den mänskliga hjärnan, förutsatt förtrogenhet med siffrorna. En dator behöver emellertid tydliga regler för hur den skall kunna utöva igenkänningens konst. Detta föredrag presenterar en euklidisk geometrisk modell för inlärning. Denna matematiska modell utgör grunden för många av dagens bästa högteknologiska verktyg för igenkänning med datorns hjälp.

(Bröst)cancer eller inte? Vävnadsprov TVÅ KLUMPAR AV CELLER (FNA) 1 1 malignant= elakartad, benign= välartad

Cancer eller inte? Mätdata x 1 x 2.. (M) x 1 x 9 x 2.. (B) x 9

Inlärning från data & diagnos Talen x 1, x 2...,x 9 i vektorn x representerar var sitt numeriskt givna drag hos cellklumparna: t.e.x 1. Clump thickness 2. Uniformity of cell size 3. Uniformity of cell shape 4. Marginal Adhesion 5. Single epithelial cell size 6. Bare nuclei 7. Bland chomatin 8. Normal nucleoli 9. Mitoses x = (x 1,x 2,...,x 9 )

Inlärning från data & diagnos Vi har ett stort antal mätvektorer x av vävnadsprov, d.v.s. exempel, som av experter klassificerats som fall av elakartade eller välartade klumpar av celler. FRÅGA:Hurkanvi fåendatoratt utifrån dessaexempel lära sig att diagnosticera(rätt) dessa och nya fall av bröstcancer?

Svar Frank Rosenblatt, amerikansk forskare 1928 1969, tog fram en allmän lösning (i själva verket en maskin) på problemet (ej inskränkt på automatisk diagnos av bröstcancer), och kallade sin inlärningsmaskin för perceptron. Rosenblatts lösning: Datorn skall tänka i en euklidisk geometri, eller precisare sagt, hitta ett hyperplan som skiljer vektorerna med elakartade fall från vektorerna med välartade fall. Det är givetvis inte alltid möjligt att göra så.

och Hype Ur Wikipedia: In a 1958 press conference organized by the US Navy, Rosenblatt made statements about the perceptron that caused a heated controversy; based on Rosenblatt s statements, The New York Times reported the perceptron to be the embryo of an electronic computer that [the Navy] expects will be able to walk, talk, see, write, reproduce itself and be conscious of its existence.

Hannes Alfvén, 1908 1995, professor i bl.a. plasmafysik vid KTH, Nobelpristagare i fysik 1970

R n, hyperplan R n : reella vektorermedn(=dimension)komponenter. x = (x 1,x 2,...,x n ). R 3 svarar mot det tredimensionella rummet som vi upplever genom sinnena. Hyperplan är ett vanligt plan i R 3. R 2 är detbekanta(cartesiska)talplanet. Enrätlinje är ett hyperplanir 2.

Geometri: x = (x 1,x 2 ) som vektor Låt x = (x 1,x 2 ) beteckna ett talpar (en vektor) i R 2.

Geometri: u = (u 1,u 2 ) och tu t är ett reellt tal, tu = t(u 1,u 2 ) = (tu 1,tu 2 ).

Geometri: Summan av u och v u = (u 1,u 2 ), v = (v 1,v 2 ), uv = (u 1 v 1,u 2 v 2 )

Geometri: u v u = (u 1,u 2 ), v = (v 1,v 2 ), u v = u( 1)v = (u 1 v 1,u 2 v 2 )

Rät linje i R 2 Enrät linje är tyvi har (w 2 = 0) w 2 x 2 w 1 x 1 b = 0 x 2 = w 1 w 2 x 1 b w 2 Vi sätter Då definierar även en rät linje. f(x) def = w 2 x 2 w 1 x 1 b. f(x) = 0

Geometri: dotprodukt w = (w 1,w 2 ). Dotproduktenär etttal, somgesför ettpar av vektorerenligt w x def = w 1 x 1 w 2 x 2 Då kan man skriva f(x) = w xb. Vi har även (från definitionen) w (xz) = w xw z.

Geometri: normalvektor för en rät linje Anta att den räta linjen i planet går genom z och x, d.v.s. f(z) = w zb = 0,f(x) = w zb = 0. Då fås w (x z) = w x }{{} w z }{{} = bb = 0. = b = b P.g.a. attw (x z) = 0sägerviatt w är normalvektorn till linjen f(x) = 0och ortogonalmotvarje vektorsomliggeri f(x) = 0.

Geometri: normalvektor

Geometri: vektorerna i f(x) = 0.

Vi skall nu reda ut att vi har en positiv sida och en negativ sida av linjen f(x) = 0: w f(x) > 0 f(x) <0 f( x ) =0

för att om så har vi med { sign(x) def 1 0 < x, = 1 x < 0 y = sign(f (x)) en matematisk formel för att tillordna antingen 1 eller 1 som etikett till x, beroende på om x ligger på den negativa sidan eller positiva sidan av linjen f(x) = 0, resp.. Rosenblatts perceptron förverkligar denna idé, liksom skall ses.

Hjälpmedel: ländgen av en vektor, avståndet mellan vektorer Längden avxbetecknasmed x ochdefinierassom x def = x x = x1 2x2 2 En vektor x med längd x = 1 kallas enhetsvektor. αx = αx αx = α 2 (x1 2x2 2 ) = α x. x z är avståndet mellan x och z, x z = (x 1 z 1 ) 2 (x 2 z 2 ) 2

Ortogonal projektion x = x p r x w w, där r x är ett tal som vi kommer att bestämma och w är en w enhetsvektor i w:s riktning. x p är den vinkelräta (=ortogonala) projektionen av x på f(x) = 0.

Avstånd med tecken w x = x p r x w. Vi beräknar det kvadrerade avståndet x x p 2 = r x vilket är liktydigt med att ( ) w 2 ( ) 2 rx w 2 = w w rx 1 w w 2 = r2 ( x w 2 w 2 1 w2 2 ) x x p 2 = r2 x w 2 w 2 = r 2 x d.v.s. x x p = r x Således är r x avståndet med tecken ± från x till linjen f(x) = 0.

Avstånd med tecken Ytterligare, med ( = w x p r x w w f (x) = w xb = ) b = w x p w = w x p b }{{} =f(x p ) = f (x p ) }{{} =0 ( ) rx w w w ( ) rx w w w ) w w b ( rx

Avstånd med tecken ( ) rx = w w w = r x w w w }{{} = r x w. = w 2

Avstånd med tecken Med andra ord d.v.s. f (x) = r x w r x = f (x) w Därtill, om 0 = (0,0), f (0) = w 0b = 0b = b, d.v.s., r 0 = f (0) w = b w är avståndet med tecken från planets origo till linjen f (x) = 0.

Avstånd med tecken f (x) = r x w D.v.s f(x) > 0 om r x > 0 (den positiva sidan av f (x) = 0 ) och f(x) < 0 om r x < 0 (den negativa sidan av f (x) = 0 ).

Avstånd med tecken m.a.o. r x = f (x) w f (x) = r x w r 0 = f (0) w = b w

Parallellförflyttning av ett hyperplan r 0 är avståndet med tecken från origo till linjen, och r 0 = b w Vi ser således att när b varieras (med fixt w), så kommer hyperplanet att förflyttas parallellt. Om b > 0, då ligger 0 i positiva sidan, och om b < 0, så ligger 0 i den negativa sidan.

w f(x) > 0 x r x w w b w x p f(x) <0 f( x ) =0

Exempel: En mängd av exempel i R 2 Mätdata & etiketterna x 1 x 2 y 1-0.5 1 1 1 1-2 1 1-1 -1.5-1 2-2 -1-2 -1-1

Exempel i R 2 : 1, -1 o Nummer l Mätdata x(l) = (x 1 (l),x 2 (l)) etiketterna y l x 1 (l) x 2 (l) y(l) 1 1.5-0.5 1 2 1 1 1 3-2 1 1 4-1 -1.5-1 5 2-2 -1 6-2 -1-1 3 2 1 0 1 2 3 3 2 1 0 1 2 3

Da Capo

Vivill nu hittaw 1, w 2 och b såatt f(x(l)) = w 2 x 2 (l)w 1 x 1 (l)b har rätt förtecken(och därmed rätt etikett) för varje x(l), d.v.s. sign(f(x(l))) = y(l) bör gälla förvarje datapunktideexempelvihar. Detta kallas övervakad inlärning.

En korkad frågeställning?

En korkad frågeställning? Jodå (kanske), men vi vill hitta en algoritm för placering av linjalen! Algoritm: varje räkneförfarande efter ett givet schema kallas algoritm

1 och 1 w

Linjen ändrar riktning w w

Parallell förflyttning av linjen w

En algoritm som gör dessa steg Välj startvärdenaw 1,w 2 och b påmåfå. Förvarje l: om f(x(l)) har rättförteckenmed dessavikter och bias, gör ingenting. Om sign(f(x(l))) = y(l),uppdaterabias och vikterna enligtföljande (vi tar η = 0.2): b bηy(l) w 1 w 1 ηy(l)x 1 (l) w 2 w 2 ηy(l)x 2 (l) Fortsättattgågenomx(l) tills alla har fått korrektetikett.

En allmän princip om uppdatering (numerisk metodik, statistik, signalbehandling m.m.) nya värdet nuvarande värdet korrektionen Korrektionen beror på data.

Geometri i verket Vi väljer (på måfå) b = 0,w 1 = 1,w 2 = 0.5, d.v.s., 3 2 1 0 1 2 3 f(x) = 0.5x 2 x 1 3 2 1 0 1 2 3

Exempel i R 2 Vi plottar datapunkterna samt den räta linjen 0.5x 2 x 1 = 0 d.v.s. x 2 = 2x 1 3 2 1 0 1 2 3 3 2 1 0 1 2 3

Exempel i R 2 : uppdatering Vi har fel i l = 5 med x(5) = (2, 2), y(5) = 1 Regeln b bηy(5) w 1 w 1 ηy(5)x 1 (5) w 2 w 2 ηy(5)x 2 (5) ger med b = 0,w 1 = 1,w 2 = 0.5, η = 0.2 0.2 = 00.2 ( 1) 0.6 = 10.2 ( 1) 2 0.9 = 0.50.2 ( 1) ( 2) d.v.s. vi har en ny bias och de nya vikterna f(x) = 0.9x 2 0.6x 1 0.2 d.v.s. x 2 = 0.6 0.9 x 1 0.2 0.9.

Exempel i R 2 : efter en första uppdatering Datapunkterna och x 2 = 0.6 0.9 x 1 0.2 0.9 3 2 1 0 1 2 3 3 2 1 0 1 2 3

Exempel i R 2 : uppdatering Vi har fel i l = 3 med x(3) = ( 2,1), y(3) = 1 och med b = 0.2,w 1 = 0.6,w 2 = 0.9, η = 0.2 0 = 0.2( 0.2) 1 0.2 = 0.60.2 1 ( 2) 1.1 = 0.90.2 1 1 d.v.s. vi har en ny bias och de nya vikterna d.v.s. x 2 = 0.2 1.1 x 1. f(x) = 1.1x 2 0.2x 1

Exempel i R 2 : andra uppdateringen Datapunkterna och x 2 = 0.2 1.1 x 1. 3 2 1 0 1 2 3 3 2 1 0 1 2 3

Exempel i R 2 : uppdatering Nu blev det fel i l = 1 med x(1) = (1.5, 0.5), y(1) = 1. Med b = 0,w 1 = 0.2,w 2 = 1.1, η = 0.2 0.2 = 00.2 1 0.5 = 0.20.2 1 1.5 1.0 = 1.10.2 1 ( 0.5) d.v.s. vi har en ny bias och de nya vikterna d.v.s. x 2 = 0.5x 1 0.2. f(x) = 1.0x 2 0.5x 1 0.2

Exempel i R 2 :tredje uppdateringen Datapunkterna och x 2 = 0.5x 1 0.2. 3 2 1 0 1 2 3 3 2 1 0 1 2 3

Exempel i R 2 : felfritt! Algoritmen stannar! Datapunkterna och x 2 = 0.5x 1 0.2. 3 2 1 0 1 2 3 3 2 1 0 1 2 3

Algoritmen stannar? En matematisk fråga Hur är det? Kommer den ovan applicerade algoritmen alltid att stanna eller var detta en tillfällighet? Innan algoritmen stannat, kan vi uppskatta hur länge vi måste hålla p å tills den stannar? SVAREN ges i slutet av föredraget.

Systemdiagram x f(x) 1 f 1 y = 1, 1

INLÄRNING x f(x) 1 w, b 1 y = 1, 1 x x x x x x x x x TRÄNINGSMÄNGD

INLÄRNING Exemplen Nummer l Mätdata x(l) = (x 1 (l),x 2 (l)) etiketterna y l x 1 (l) x 2 (l) y(l) 1 1.5-0.5 1 2 1 1 1 3-2 1 1 4-1 -1.5-1 5 2-2 -1 6-2 -1-1 har ovan lagrats med trial and error i b = 0.2,w 1 = 0.5,w 2 = 1.0.

I DRIFT EFTER INLÄRNING x f(x) 1 f 1 y = 1, 1 Vimatar in ennyvektorxav mätdata, utkommerendiagnos: t.ex., elakartad, säg 1, eller välartad, 1

LINEAR LEARNING MACHINE a.k.a. PERCEPTRON (ur Wikipedia) Frank Rosenblatt developed in 1957 the perceptron, i.e., y = sign(f (x)), y {1, 1} as a model & and learning algorithm to understand human memory, learning, and cognition. The perceptron was based on biological ideas about networks of neurons in the brain.

Bioneuron

Mark I Perceptron (loc.cit) In 1960 Rosenblatt demonstrated at Cornell University a piece of electromechanical hardware, named Mark I Perceptron, the first machine that could learn to recognize and identify optical patterns. This was the first computer that could learn new skills by trial and error, using a type of neural network that simulates human thought processes.

Hannes Alfvéns superdator Hannes Alfvén Sagan om den stora datamaskinen. En vision. (1966). Pilgrim press Stockholm, 1987. En författarröst från en avlägsen framtid berättar om superdatorernas utveckling: Men allteftersom neurofysiologien har lärt oss uppbyggnaden och funktionen av (neuronerna) har kretsar av liknande typ införts i(super)datorerna. sid. 127... människornas nervsystem och hjärna... dess mest förnämliga egenskaper(inspirerar) till förbättring av (super)datorernas struktur. sid. 132

The Mark 1 Perceptron This machine was designed for image recognition: it had an array of 400 photocells, randomly connected to the neurons. Weights were encoded in potentiometers, and weight updates during learning were performed by electric motors.

Dr. Perceptron Dr. Perceptron is a doctor of Freudian Circuit Analysis, and works at the HAL Institute For Criminally Insane Robots.

Dr. Perceptron Freudian Circuit Analysis = freudiansk kretsanalys psykoanalys

Dr. Perceptron: det allmänna fallet

Dr. Perceptron: det allmänna fallet

1. Clump thickness 2. Uniformity of cell size 3. Uniformity of cell shape 4. Marginal Adhesion 5. Single epithelial cell size 6. Bare nuclei 7. Bland chomatin 8. Normal nucleoli 9. Mitoses 0.2000 0.2000 0.5000 0.5000 0.5000 0.2000 0.3000 1.0000 1.0000 0.4000 0.1000 0.1000 0.1000 0.4000 0.3000 0.3000 0.5000 0.5000 0.9000 0.1000 0.1000 0.1000 0.1000 0.6000 0.3000 0.1000 0.7000 0.6000 0.8000 0.1000 0.1000 0.1000 0.1000 0.8000 0.1000 0.1000 0.8000 1.0000 0.7000 0.1000 0.2000 0.2000 0.2000 0.4000 0.2000 0.3000 0.8000 0.6000 0.6000 0.2000 0.1000 0.1000 0.1000 0.1000 0.1000 0.1000 0.9000 1.0000 0.4000 0.1000 0.2000 0.3000 0.2000 0.8000 0.2000 0.1000 0.7000 0.7000 0.7000 0.3000 0.1000 0.1000 0.1000 1.0000 0.1000 0.1000 1.0000 0.7000 1.0000 0.1000 0.1000 0.1000 0.1000 0.1000 0.1000 0.1000 0.7000 1.0000 0.3000 0.1000

Övergång till R n w = (w 1,w 2,...,w n ),x = (x 1,x 2,...,x n ) w x def = w 1 x 1 w 2 x 2...w n x n f(x) = w xb

Dotprodukt i R n Matchning av två vektorer. x y = x 1 y 1...x n y n = n x i y i i=1

Euklidiska rum R n med dotprodukt kan åskådliggöras med bekanta geometriska ideer, som linje, punkt, plan, vinkel och kallas därför ett euklidiskt Euklides av Alexandria f. ung. 325 f.kr. d. ung. 265 f.kr. rum.

Norm längden av x är x = x x = x 2 1...x2 n

Hyperplan Ett hyperplan är ett affint 2 underrum av dimension n 1, som delar upp R n i två halvrum. Vi betraktar följande hyperplan D R n : D = {x R n f (x) = 0} w är igen ortogonal mot varje vektor in D. 2 =parallel till ett linjärt underrum, ett linjärt underrum innehåller 0

Halvrum f (x) = w xb D = {x R n f (x) = 0} Hyperplanet D delar upp R n i två halvrum R 1 och R 2 : R 1 = {x R n f (x) > 0} R 2 = {x R n f (x) < 0} Som ovan är w ortogonal mot varje vektor i D och pekar ut mot R 1.

är densamma! w f(x) > 0 x r x w w b w x p f(x) <0 f( x ) =0

PERCEPTRON f (x) = w xb där w kallas igen en viktvektor, och b är ett reellt tal som igen kallas bias (eller tröskel).

TRÄNING AV EN PERCEPTRON Låt x i R n, y i Y = {1, 1}, i = 1,...,m vara m par av exempel. Vi kallar en träningsmängd. S = {(x 1,y 1 ),...,(x m,y m )} Nu gäller det uppenbarligen att bestämma vikterna w och bias b utifrån exemplen i träningsmängden. självprogrammerande dator? Datorn lär sig regelbundenheterna i träningsmängden och lagrar dessa i w och b.

Övervakad inlärning med perceptroner Bestäm (w,b) m.h.a. S så att f (x i ) = y i för all i, d.v.s., varje vektor i träningsmängden är rätt klassificerad. 1 Finns det en lösning till denna uppgift? 2 Om en lösning existerar, finns det en algoritm som hittar lösningen i ett ändligt antal steg?

EN PERCEPTRON En perceptron är därmed en enhet som tar en vektor x och beräknar y {1, 1} enligt regeln y = sign(f(x), d.v.s. Om x R 1 så är y = 1 Om x R 2 så är y = 1 x f(x) 1 w, b 1 y = 1, 1

Existens av lösning: Linjär separabilitet Vi antar att det finns (ett för oss tillsvidare okänt) hyperplan sådant att det finns (w,b ) sådana att om f (x) = w xb så gäller det för alla (x i,y i ) S att f (x) > 0 om och endast om y i = 1. När detta antagande är sant, kallas S linjärt separabel.

Linjär separabilitet Exemplen representeras av punkter med två etiketter och. Alla ligger i R 1 och alla ligger i R 2 med avseende på hyperplanet f (x) = 0. f ( x ) =0 *

Konvexitet KONVEX ICKE KONVEX

Konvext hölje Vi erhåller ett konvext område (=konvext hölje för ett ändligt antal punkter) genom att spänna ett gummiband runt punktmängden.

Linjär separabilitet: konvext hölje Vi erhåller två konvexa områden genom att spänna två gummiband i blått runt två punktmängder. De konvexa höljena är i bilden disjunkta. Vi har följande matematiska sats: Två disjunkta konvexa mängder är linjärt separabla. Alltså råder linjär separabilitet för de konvexa höljena i bilden, och därför finns ett hyperplan som separerar punktmängderna i bilden.

ETT ICKE-SEPARABELT FALL Det konvexa höljet av punkterna med etiketterna x innehåller det konvexa höljet av punkterna med etiketterna. Denna träningsmängd kan inte separeras av ett hyperplan utan att ett antal fel uppstår. x x x x x x x x x x x x x x x x x x x x x x x x x x x x x

Rosenblatts perceptron algoritm Vi tar på måfå en viktvektor w och en bias b. Sedan sveper vi genom exemplen i träningsmängden med den motsvarande perceptronen. För varje felaktigt klassificerat exempel ändras hyperplanets riktning och/eller hyperplanet förflyttas parallellt.

Rosenblatts perceptron algoritm Varje gång något exempel felklassificeras under ett svep, uppdateras viktvektorn genom att addera en term som är proportionell mot felmarginalen (med tecken). Om w k och b k är sådana att så är x i rätt klassificerad. y i (w k x i b k ) = y i f (x i ) > 0 Således ändras hyperplanets riktning genom att addera till viktvektorn en vektor som är proportionell mot y i f (x i ), så snart som y i f (x i ) är negativt.

Perceptron: konvergensteoremet Algoritmen körs (svepet upprepas) tills inga exempel i träningsmängden är felklassificerade. Perceptronkonvergens Det kan bevisas att algoritmen alltid kommer att stanna efter ett ändligt antal steg, förutsatt att vi har en linjärt separabel träningsmängd.

Rosenblatts perceptron algoritm 1: w 0 0, b 0 0, k 0 R max 1 i l x i 2: repeat 3: for i = 1 to l do 4: if y i (w k x i b k ) 0 then 5: w k1 w k y i x i, b k1 b k y i R 2, k k 1 6: end if 7: end for 8: until no mistakes made in the loop 9: return w k,b k, where k is the number of mistakes.

Geometrisk marginal x i γ i γ j x j γ f ( x ) =0

Konvergensteoremet för perceptroner Låt S vara en icke-trivial linjärt separabel träningsmängd och låt för alla i γ i = y i w x i b γ där w = 1. Då är antalet repeats i Rosenblatts perceptron algoritm högst ( ) R 2 γ

Ett enkelt fall där en perceptron inte kan fungera

Vikterna efter träningen Algoritmen arbetade genom att addera till en tidigare viktvektor en felklassficerad träningsvektor x i multiplicerad med motsvarande y i. Efter att algoritmen har stannat har vi således w = m a i y i x i i=1 där a i är antalet gånger felklassificering av x i har föranlett en ändring av w under inlärningen. Vi kan skriva w = m i=1 y i =1 a i x i m i=1 y i = 1 a i x i

Vikterna efter träningen Med fås = w = m i=1 y i =1 m i=1 y i =1 a i x i m i=1 y i = 1 f (x) = w xb a i (x i x) m i=1 y i = 1 a i x i a i (x i x)b

Associativt minne Med andra ord, träningsmängden har lagrats i vikterna, enligt f (x) = l i=1 y i =1 a i (x i x) l i=1 y i = 1 a i (x i x)b Varjeny mätvektorxmatchas medx i ivarje exempel,och matchningarna viktas och summeras över alla exempel. Jämförelsen av skillnaden mellan de positiva och negativa exemplenmedbias b (tröskel)avgörresultatet.

Associativt minne? Matchning mot de lagrade vektorerna gör att vi vill tala om ett associativt minne f (x) = l i=1 y i =1 a i (x i x) l i=1 y i = 1 a i (x i x)b

Support Vector Machines m.m. Det finns nyare, kraftfullare utvecklingar och utvidgningar av perceptronen, som klarar av icke-separabla problem. En av dessa, som kallas på engelska support vector machines, tar avstamp i en viss mening på formeln f (x) = l i=1 y i =1 a i (x i x) l i=1 y i = 1 a i (x i x)b De nya inlärningsmaskiner som förbättrar perceptronernas egenskaper kallas neurala nätverk,

Megatron (senare Galvatron)

Visioner the embryo of an electronic computer that will be able to walk, talk, see, write, reproduce itself and be conscious of its existence. Hannes Alfvén: (Människans) verkliga storhet ligger i att hon är denlevande varelsesomvar intelligentnogför attinseatt (evolutionens)mål är datorn. sid. 17ia.a.

Slut på föreläsningen - tack!