Neurala nätverk och språkigenkänning. Henrik Linnarsson. Linköping University

Storlek: px
Starta visningen från sidan:

Download "Neurala nätverk och språkigenkänning. Henrik Linnarsson. Linköping University"

Transkript

1 Neurala nätverk och språk Henli807!1 Neurala nätverk och språkigenkänning Henrik Linnarsson Linköping University

2 Neurala nätverk och språk Henli807!2 RNN, LSTM och språkigenkänning Inledning Idag är språkigenkänning något vi tar för givet och något som får allt större plats i vår vardag i och med att fler enheter blir kompatibla med dem. Varje smartphone är utrustad med en så kallad assistent som kan interageras med via talat språk, exempel på assistenter av detta slag är Siri, Google Assistent, Cortana och Alexa. Grunden för att dessa assistenter ska fungera är att de kan höra samt förstå vad användaren säger till dem. Detta kallas för språkigenkänning och denna artikel förklarar hur det fungerar med hjälp av neurala nätverk. RNN och LSTM Kort om neurala nätverk Neurala nätverk består av perceptroner, dessa är cellerna i nätverket genom vilka all data passerar. Varje perceptron tar emot data, input, och sänder ut data, output. Input som ges till en perceptron kommer har formen av en vektor vilket är en samling värden (Rohrer, 2017). Varje värde tas emot via en vikt som multiplicerar det givna värdet. Produkterna från samtliga inputvärden och vikter summeras och ifall denna summa överstiger ett tröskelvärde som perceptronen har så sänds en output, annars sker inget alls. Detta tröskelvärde definieras av en tröskelfunktion, även kallas aktiveringsfunktion, vilken kan se ut på många olika vis. Detta beskrivs mer i detalj senare. Det neurala nätverket består av många perceptroner av detta slag och ofta flera lager utav dem, ett inputlager, ett outputlager och något antal dolda lager mellan in- och outpulagret. Feedforward och varför det inte räcker till Ett neuralt nätverk som tar in information och returnerar någon ny information efter att informationen passerat genom nätverket kallas för feedforward-nätverk (FF). Med dessa kan vi utifrån given data få en output från nätverket som på något vis beskriver input som blev given nätverket. Detta kan handla om att exempelvis känna igen en handskriven bokstav som den bokstav det är. Vi kan använda FF för att uttala oss om det rådande tillståndet vid tidpunkt t för den variabel v som vi är intresserade av utifrån den input vi har. Dock så kan vi inte använda oss av FF för att förutse ett kommande tillstånd vid tidpunkt t+1 utifrån tidigare tillstånd (edureka!, 2017). Den output som vi får utifrån vår input är oberoende av output från tidigare tillstånd, dessa har inget med varandra att göra. Således kan vi inte utifrån ett ord i en mening förutse det kommande ordet i meningen. För att göra detta behövs en annan typ av nätverk än FF.

3 Neurala nätverk och språk Henli807!3 Recurrent Neural Network (RNN) Recurrent Neural Network (RNN) tillåter oss att förutse tillstånd utifrån indatan i ett tidigare tillstånd. Vi kan utifrån indatan i tillstånd t1 förutse tillståndet i t4 eller något annat tillstånd (Raval, 2017b; Rohrer, 2017). I ett RNN så behålls output från föregående tillstånd, t-1, och används som input i den aktuella tidpunkten t tillsammans med eventuell ny data, vilket i sin tur ger en ny output. På detta vis fortsätter nätverket att generera output med föregående output som input så länge som vi önskar det. Den nya informationen tillsammans med informationen från föregående tidpunkt ges till nätverket i form av vektorer. Bild 1. Recurent neural network Träna RNN Vi vill träna vårt RNN för att få det att generera korrekt output och minimera eventuella fel. När vi tränar nätverket justeras dess vikter så att outputen från nätverket matchar den förväntade outputen, vilken kan vara angiven i en yttre standard som ett facit. Denna träning av nätverket görs med hjälp av metoden gradient descent och backpropagation. Träningen görs för varje tidssteg och kallas därför för backpropagation through time (BTT). När vi använder oss av gradient descent så räknar vi ut felet för vårt nätverk, detta är skillnaden mellan det värde nätverket genererade och det förväntade värdet. Vi får detta värde genom att subtrahera det förväntade värdet ifrån det som nätverket gav. Vi vill alltid ha ett positivt felvärde och kvadrerar därför denna differens. e = (Actual output - Model output) ^ 2 = error

4 Neurala nätverk och språk Henli807!4 I gradient descent vill vi se hur stort fel som generas beroende på värdet av vikten. När vi gör gradient descent så utgår utgår vi ifrån felfunktionen som visar hur stort fel som genereras av nätverket givet de viktvärden som råder. För att förstå hur detta fungerar börjar vi med att kolla på en nod. Inledningsvis sätter vi ett slumpmässigt värde på vikten hos noden som ska tränas och ser sedan hur pass stort felet är i slutet av nätverket. Felet säger oss alltså hur stort fel vi får ifall noden har den vikten som den har. När vi sett storleken på felet för ett visst viktvärde så räknar vi ut gradienten för den punkten i felfunktionen, vilket görs genom att räkna ut tangenten i punkten. Gradienten beskriver förändringsgraden hos punkten vi räknar på. Är värdet på felet stigande, sjunkande eller stillastående? I vilken riktning är storleken på felet påväg om vi ökar vikten? För att hitta det lägsta möjliga felet går vi i motsatt riktning av gradienten. Det innebär att om gradienten är positiv i den aktuella punkten, att felet blir större ju högre värde vikten har, så undersöker vi hur stor felet är för ett lägre värde på vikten. Och om gradienten är negativ, felet blir mindre ju högre vikt man har, så undersöker vi felvärdet för en punkt med högre värde på vikten. (de/dw) = förändring hos felet i förhållande till förändring i vikten n = inlärningsparameter/steglängdsfaktor w = vikten e = (Actual output - Model output) ^ 2 = felet (error) < Kvadratfelet Δw = n(de/dw) = vad vikten ska uppdateras med w = w + Δw = uppdatering av vikten Bild 2. Backpropagation genom nätverket

5 Neurala nätverk och språk Henli807!5 Bild 3. Gradient descent Varje nod påverkas av de föregående noderna och påverkar således de noder som ligger efter sig. För att veta hur mycket felet påverkas av att en specifik vikt ändras så räknar vi ut gradienten för alla noder från outputlagret tillbaka till den nod vars vikt vi ändrat och multiplicerar dessa med varandra. Gradient descent börjar med outputvärdet i nätverket och jobbar sig sedan bakåt i nätverket nod för nod (Raval, 2017a). När vi tränar nätverket börjar vi i det yttersta lagret av noder, outputlagret och justerar dess vikter. Vi går sedan bakåt i nätverket, backpropagate, och justerar vikterna där. Eftersom noderna i nätverket påverkar varandra är det viktigt att inte förändra vikterna drastiskt utan det behöver göras försiktigt och träningen av nätverket kan ta många tusen rundor för att nå lägsta möjliga felvärde. Problem för RNN och backpropagation Ett problem för backpropagation är att när det görs över många tidssteg så kan gradienten till slut bli oerhört liten vilket innebär att vikten knappt uppdateras alls. När vikten inte längre kan uppdateras ordentligt blir det svårt att träna nätverket och nå ett lägre felvärde. Detta problem kallas för vanishing gradient

6 Neurala nätverk och språk Henli807!6 (edureka!, 2017). Detta fel händer inte bara vanliga FF där backpropagation används utan även RNN. Orsaken är de så kallade squashing functions som tar emot värden och beroende på värdets storlek returnerar ett nytt värde inom ett betydligt mindre spann, ofta mellan 0 och 1 eller -1 och 1. När detta görs och många steg i nätverket multipliceras med varandra så kan gradienten till slut vara näst intill icke existerande. Ett sätt att lösa detta på för RNN är att använda en typ av RNN som kallas Long Short Term Memory (edureka!; Gibiansky, 2014). RNN har även problem med att minnas saker över längre tid. Den kan ta in information från föregående tidpunkt för att göra en bedömning i rådande tidpunkt, men när informationen som är relevant för den aktuella tidpunkten ligger långt bak i tiden så är inte vanliga RNN till hjälp. Detta kallas för problem of long term dependencies (Colah, 2015). Det kan sägas att RNN bara har ett korttidsminne, men eftersom vi ofta vill basera vår output på mer än bara det föregående tillståndet så behöver vi en annan typ av nätverk. Även detta problem kan lösas med LSTM. Long Short Term Memory (LSTM) Long Short Term Memory (LSTM) är en form av RNN men gör det möjligt att lösa problemet med kort minne och problemet med vanishing gradient. En LSTM-cell har till skillnad från en RNN-cell flera komponenter och med hjälp av dessa kan vi åstadkomma fler funktioner än vi annars kunnat göra. Det är tack vare dessa olika interna delar som LSTM kan hålla saker i minnet över längre tid. Innan vi går igenom de olika delarna av LSTM-cellen är behöver vi förstå hur information är representerad i cellen och hur den hanteras i de olika stegen. Vektorer I RNN och LSTM representeras all information med hjälp av vektorer som beskriver olika tillstånd hos variabler. En vektor är inget mer än en samling av värden (Rohrer, 2017). Dessa värden kan beskriva sannolikheter för saker, intensitet, styrka, riktning, vilket av olika alternativ som är sant/inte sant (ex. vilken veckodag det är. One hot coding), och så vidare (Rohrer, 2017; Russel & Norvig, 2010; Serrano, 2017). Vektorerna används i nätverket för att sända vidare information och de olika delarna av cellen interagerar med denna information på olika vis, de kommer bland annat att adderas och multipliceras med varandra. Additionen av vektorer går till så att elementen i de vektorer som ska adderas blir adderade till det motsvarande värdet på elementet i den andra vektorn, element för element. Ex. addition A = [1, 2, 3] B = [4, 5, 6]

7 Neurala nätverk och språk Henli807!7 A + B = [1+4, 2+5, 3+6] = [5, 7, 9] Vid multiplikationen går det till på liknande vis, element multipliceras med sin motsvarande element en den andra vektorn, element för element. Ex. multiplikation C = [1, 0,5, 0] D = [1, 1, 0,7] C x D = [1x1, 0,5x1, 0x0,7] = [1, 0,5, 0] Cell state och Hidden state Ytterligare ett centralt begrepp för LSTM är cell state vilket är den information som sänds från cell till cell och på vilken de olika funktionerna appliceras. Cell state kan ses som långtidsminnet i algoritmen, det är här som information bevaras och förändras över tid (Raval, 2017b). Informationen är som nämnt representerad med vektorer. Hidden state är också en output från varje cell men denna innehåller inte all information som behövs framöver likt cell state och kan istället ses som arbetsminnet för nätverket (Raval, 2017b). Här finns saker som är relevanta just för stunden. Gates Vår LSTM-cell består av tre huvudsakliga delar, ofta kallade gates (egen översättning till svenska: portar). Varje gate fyller en specifik funktion i cellen och tillsammans möjliggör de att cellen kan minnas information över lång tid, avgöra vad som inte behöver minnas och ge output som antas stämma för stunden. Varje gate består av multiplikation av elementen i vektorer som beskrivet tidigare vilket möjliggör att vissa värden stängs ute medan andra släpps igenom, därav namnet gate (Raval, 2017b; Rohrer, 2017). Dessa gates är i sig själva egna nätverk bestående av ett enda lager, en enda perceptron, som tränas för att genomföra dess funktion. Varje gate har en vikt som justeras för att minimera felet från gaten vilket görs via gradient descent. Gate 1. Forget gate I forget gate avgörs det vad som ska lagras i cellens långtidsminne, cell state, och vad som inte ska minnas (Raval, 2017b). Gaten består av en activation function som avgörs nivån av aktivering utifrån inputsignalen och här används en variant som heter sigmoid function, vilket är en typ av squashing function. Vad en squashing function gör är ett en tar ett värde som en input och returnerar ett värde som befinner sig mellan två bestämda värden för att på så vis normalisera och håller värden under kontroll så att inget växer sig för stort (Rohrer,

8 Neurala nätverk och språk Henli807!8 2017). Sigmoidfunktionen specifikt returnerar värden mellan 0 och 1. Ju större ett värde är desto närmre 1 kommer det returnerade värdet att vara och ju mindre det är desto närmre 0 kommer det att vara. Denna funktion att få värden mellan 0 och 1 möjliggör en slags bedömning för vad som ska minnas och vad som ska glömmas bort. Om något får värdet 0 kommer det att bli helt bortglömt och om något får 1 så kommer det att minnas helt och hållet. När värdena passerat genom sigmoidfunktionen så multipliceras de med värdena i cell state vilket gör att cell state kommer att uppdateras i enlighet med vad som ska minnas alternativt glömmas. De element som multipliceras med 0 kommer som förklarat tidigare att glömmas helt medan de som multipliceras med 1 förblir oförändrade. wf = Vikt ht-1 = Output från föregående cell state xt = Den nya informationen bt = Bias σ = Sigmoid ct-1 = Cell state ft = σ(wf [ht-1, xt] + bt) = Vad som returneras av sigmoidfunktionen. ft x ct-1- = Uppdatering av cell state genom multiplicering av ft och ct-1. Gate 2. Input gate Input gate hanterar vilken ny information som ska tilläggas till cell state utifrån föregående output och den nya informationen. Denna funktion består av två stycken squashing functions, en sigmoidfunktion precis som i forget gate men även en Tanh function vilken likt sigmoid normaliserar värden men istället för att returnera värden mellan 0 och 1 så returnerar denna värden mellan -1 och 1. Värdena från Tanhfunktionen och simgoidfunktionen multipliceras med varandra för att sedan adderas till cell state som nu uppdateras från att vara ct-1 x ft till att vara ct (se bild 3.), det gällande tillståndet för stunden vilket kommer att sändas vidare till nästa cell. Input gate kallas även för save gate eftersom att den avgör vilken information som ska spara till cell state och vilken som inte ska det. it = σ(wi[ht-1, xt] + bi)

9 Neurala nätverk och språk Henli807!9 Gate 3. Output gate Den tredje gaten är output gate vilken bedömer vad som kommer att returneras som output ur cellen. I detta steg multipliceras informationen från cell state som passerat genom en tanhfunktion med information som passerat genom en sigmoidfunktion. Sigmoidfunktionen här har i uppgift att bedöma som ska ges som output i hidden state. Medan cell state är långtidsminnet där allt vi vill minnas finns sparat så är hidden state snarare ett arbetsminne där vi har det som för stunden är relevant. Cell state och hidden state utgör cellens två output. ot = σ(w[ht-1, xt] + bo) Bild 4. LSTM-cell LSTM och språkigenkänning LSTM används för många olika syften och appliceringsområden där man arbetar med sekvenser av data och vill att nätverket ska kunna minnas saker från tidigare. Eftersom LSTM kan minnas saker över längre tid så presterar de bättre än vanliga RNN (Raval, 2017a). Bland annat används LSTM för språkigenkänning, alltså för att avgöra vad som muntligt sägs. För att göra detta behövs dock några till delar som kompletterar LSTMcellerna. Bidirectional RNN Eftersom att LSTM kan hålla information i minnet och på så vis minnas kontexten så är den lämplig vid språkigenkänning eftersom den vet bättre vad som troligtvis kommer att

10 Neurala nätverk och språk Henli807!10 sägas i en mening utifrån vad som har sagts innan. Tänker vi oss ett exempel där en man berättar om sin resa till Spanien och i sin avslutande mening säger: Jag talar nu helt flytande så kan ett LSTM-nätverk minnas kontexten som är Spanien och då förstå att det är ordet Spanska som söks. Dock så påverkas inte bara sannolikheten för vad som sägs vid tidpunkt t av vad som har sagts innan utan det som sägs efter påverkar också sannolikheten för vad som sägs vid t (Gibiansky, 2014). För att ta nytta av detta används så kallade bidirectional RNN. Dessa är nätverk som till går åt motsatt håll i tiden. Från det senaste i sekvensen till det första. De två nätverket gående åt var sitt hål interagerar inte med varandra vilket innebär att de inte påverkar varandra. Dock så är de båda med och påverkar vilket output som ges, alltså påverkas outputen i tidpunkt t både av vad som har sagts och vad som kommer att sägas (Graves, Mohamed, & Hinton). Och tack vare att vi använder LSTM kan vi använda beroenderelationer som sträcker sig långt över tid för att avgöra vad som är det mest sannolikt korrekta outputen. Akustisk model & lingvistisk model För att kunna bedöma vad som sagts behövs även en akustisk modell. Funktionen som en akustisk modell fyller är att den kan känna igen olika fonem, den minsta ljudbyggstenen av ett ord. Modellen kan ta emot en signal och avgöra vilket fonem det är den har uppfattat (Gibiansky, 2014). Detta görs genom ett eget neuralt nätverk vilket även behöver tränas. Den lingvistiska modellen kan utifrån de fonem som den akustiska modellen uppfattat tolka om det till de tecken som används i det mänskliga språket. Detta behövs eftersom fonemen i sig inte säger vilka ord det är som har uppfattats, bara vilka olika ljud som har uppfattats. Den lingvistiska modellen klassificerar alltså fonemen till språkliga enheter (Gibiansky, 2014). Sammanfattning Neurala nätverk tillåter oss att sända in information i ett nätverk för att få ut output av en visst slag, exempelvis tal till text eller bild till namn. Dessa nät kan tränas för att prestera bättre och detta görs med backpropagation och gradient descent. När vi vill kunna lagra information i minnet i nätverket för att kunna göra kommande bedömningar så fungerar inte ett vanligt feedforward-nätverk utan vi använder oss istället av recurrent neural networks där outputen från den föregående tidpunkten ht-1 används som input tillsammans med ny information i det aktuella tidpunkten ht. RNN får problem med vanishing gradient vilket orsakas av att man multiplicerar gradienten genom alla noder vilket kan leda till att värdet blir väldigt litet och på så vis hindrar att noderna kan tränas och uppdatera sina vikter. RNN lider även av att inte kunna hålla information i minnet över längre tid och använda sig att beroenderelationer som sträcker

11 Neurala nätverk och språk Henli807!11 sig över lång tid. Dessa problem med RNN kan man lösa med LSTM som är en variant av RNN fast med fler interna funktioner. De interna funktionerna i LSTM utgörs av så kallades gates som hanterar var sin funktion, minne, input och output. I samband med dessa gates finns aktiveringsfunktioner av typen squashing functions som tar in värden och returnerar nya värden mellan 0 och 1 alternativt -1 och 1. Träning av LSTM ändrar på vikterna i nätverket så att cellerna lär sig vad som ska glömmas, kommas ihåg, tas emot och sändas vidare. Att träna nätverket görs genom att försiktigt uppdatera vikterna med gradient descent och det görs många tusen gånger för att få vikterna rätt inställda. LSTM används inom många områden bland annat språkigenkänning där nätverket utgör basen för ett nätverk som kan omvandla talat språk till text. Detta görs tillsammans med bidirectional recurrent neural networks, en akustisk och en lingvistisk modell.

12 Neurala nätverk och språk Henli807!12 Referenser Colah, C. (2015). Understanding LSTM Networks. Retrieved from posts/ understanding-lstms/ edureka! (Producer). (2017, 22 aug). Recurrent Neural Networks (RNN) RNN LSTM Deep Learning Tutorial Tensorflow Tutorial Edureka. Retrieved from Zlc&index=1&list=PLYg58GLuMZLwkBef6nozpwMDGeH12byEw&t=561s Gibiansky, A. (2014). Speech Recognition with Neural Networks. Retrieved from andrew.gibiansky.com/blog/machine-learning/speech-recognition-neural-networks/ Graves, A., Mohamed, A.-r., & Hinton, G. Speech recognition with deep recurrent neural networks. Retrieved from Raval, S. (Producer). (2017a, 2 apr). Backpropagation in 5 Minutes. Retrieved from Raval, S. (Producer). (2017b, 9 aug). LSTM Networks - The Math of Intelligence (Week 8). Retrieved from v=9zhrxe5pqgy&index=8&list=plyg58glumzlwkbef6nozpwmdgeh12byew&t= 1451s Rohrer, B. (Producer). (2017, 27 jun). Recurrent Neural Networks (RNN) and Long Short- Term Memory (LSTM). Retrieved from v=wcunpb-5eyi&index=2&list=plyg58glumzlwkbef6nozpwmdgeh12byew& t=535s Russel, S. J., & Norvig, P. (2010). Artificial Intelligence - A modern approach (Third ed.). New Jersey: Pearson Education. Serrano, L. (Producer). (2017, 18 aug). A friendly introduction to Recurrent Neural Networks. Retrieved from v=unmqtionrfg&index=4&list=plyg58glumzlwkbef6nozpwmdgeh12byew

Att programmera en Beethoven

Att programmera en Beethoven Linköpings universitet Att programmera en Beethoven Fördjupning inom Neurala nätverk och LSTM 2018-01-03 Innehåll 1 Inledning- Musik och artificiell intelligens... 2 1.1 Historia... 2 1.2 Bakgrund AIVA...

Läs mer

SPEECH RECOGNITION USING ARTIFICIAL NEURAL NETWORKS. Linköpings Universitet 729G43 Artificiell Intelligens

SPEECH RECOGNITION USING ARTIFICIAL NEURAL NETWORKS. Linköpings Universitet 729G43 Artificiell Intelligens SPEECH RECOGNITION USING ARTIFICIAL NEURAL NETWORKS Oscar Lundblad Osclu399@student.liu.se 2017-01-05 Linköpings Universitet 729G43 Artificiell Intelligens Innehållsförteckning Introduktion 3 Rapportens

Läs mer

ARTIFICIELLA NEURALA NÄT. MARCO KUHLMANN Institutionen för datavetenskap

ARTIFICIELLA NEURALA NÄT. MARCO KUHLMANN Institutionen för datavetenskap ARTIFICIELLA NEURALA NÄT MARCO KUHLMANN Institutionen för datavetenskap Example Alt Bar Fri Hun Pat Price Rain Res Type Est WillWait 1 Yes No No Yes Some $$$ No Yes French 0 10 Yes 2 Yes No No Yes Full

Läs mer

729G43 Artificiell intelligens / Maskininlärning 3. Marco Kuhlmann

729G43 Artificiell intelligens / Maskininlärning 3. Marco Kuhlmann 729G43 Artificiell intelligens / 2015 Maskininlärning 3 Marco Kuhlmann Förra gången: Perceptroninlärning Beslutsregel predicerat y-värde Exempel: AND Välj parametrar θ 0, θ 1, θ 2 sådana att perceptronen

Läs mer

729G43 Artificiell intelligens (2016) Maskininlärning 3. Marco Kuhlmann Institutionen för datavetenskap

729G43 Artificiell intelligens (2016) Maskininlärning 3. Marco Kuhlmann Institutionen för datavetenskap 729G43 Artificiell intelligens (2016) Maskininlärning 3 Marco Kuhlmann Institutionen för datavetenskap Modell med vektornotation parametervektor särdragsvektor Perceptron kombinerar linjär regression med

Läs mer

NEURAL MASKINÖVERSÄTTNING

NEURAL MASKINÖVERSÄTTNING Linköpings universitet 729G43 NEURAL MASKINÖVERSÄTTNING Moa Wallin Inledning Manuell översättning är en mycket tidskrävande process som kräver stor kunskap och bred kompetens och behovet av översättning

Läs mer

729G43 Artificiell intelligens / Maskininlärning 2. Marco Kuhlmann

729G43 Artificiell intelligens / Maskininlärning 2. Marco Kuhlmann 729G43 Artificiell intelligens / 2015 Maskininlärning 2 Marco Kuhlmann Förra gången: Linjär regression Gradientsökning Vandra ner i felets dal. Steg 0: Börja med ett godtyckligt värde för θ. Steg 1: Räkna

Läs mer

729G43 Artificiell intelligens (2016) Maskininlärning 2. Marco Kuhlmann Institutionen för datavetenskap

729G43 Artificiell intelligens (2016) Maskininlärning 2. Marco Kuhlmann Institutionen för datavetenskap 729G43 Artificiell intelligens (2016) Maskininlärning 2 Marco Kuhlmann Institutionen för datavetenskap Förra gången: Gradientsökning tangentens lutning i punkt θ steglängdsfaktor Översikt Introduktion

Läs mer

ANN fk. Örjan Ekeberg. Framåtkopplade Nät. återkopplade nät. Olika arkitekturer. BackPropagation through Time. Kalman-Filter tekniker

ANN fk. Örjan Ekeberg. Framåtkopplade Nät. återkopplade nät. Olika arkitekturer. BackPropagation through Time. Kalman-Filter tekniker Hantering av Tid Återkopplade Återkopplade Återkopplade t Återkopplade Återkopplade Temporala signaler är svåra Gör om temporal signal till spatial t 1 t 2 t 3 t 4 Återkopplade t Enklaste formen Neuronal

Läs mer

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs... OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs...

Fråga 5 (1 poäng) För att definiera ett sökproblem krävs... OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

Statistisk mönsterigenkänning

Statistisk mönsterigenkänning Statistisk mönsterigenkänning Jonas Sandström Artificiell intelligens II Linköpings universitet HT 2011 Innehållsförteckning 1. Innehållsförteckning sid 2 2. Inledning sid 3 3. Statistisk mönsterigenkänning

Läs mer

Artificial)Intelligence) Taligenkänning)

Artificial)Intelligence) Taligenkänning) LINKÖPINGS)UNIVERSITET) Artificial)Intelligence) Taligenkänning)! Adam%Annerhult% 2012009017%! Contents' ' ) ) ) ) ) Inledning... 3! Så fungerar taligenkänning... 4! Grundläggande egenskaper i ett taligenkänningsprogram...

Läs mer

Google Assistant & WaveNet

Google Assistant & WaveNet Google Assistant & WaveNet Projektrapport om CNN Maja Albrektson 27/12 17 Linköpings universitet 729G43, Artificiell Intelligens 0 SAMMANFATTNING Denna rapport beskriver WaveNet, en generativ modell av

Läs mer

Artificiell Intelligens Lektion 7

Artificiell Intelligens Lektion 7 Laboration 6 Artificiell Intelligens Lektion 7 Neurala nätverk (Lab 6) Probabilistiska resonemang Vad? Mönsterigenkänning Lära ett neuralt nätverk att känna igen siffror Varför? Få ökad förståelse för

Läs mer

Fuzzy Logic: Den oskarpa skarpheten

Fuzzy Logic: Den oskarpa skarpheten Fuzzy Logic: Den oskarpa skarpheten Av: 1 Innehåll Inledning... 3 Vad är Fuzzy Logic?... 4 Fuzzy sets... 4 Medlemsskapsfunktion... 5 Operatorer... 7 Union... 7 Snitt... 8 Komplement... 8 Exempel med de

Läs mer

SELF- ORGANIZING MAPS

SELF- ORGANIZING MAPS LINKÖPINGS UNIVERSITET Kognitionsvetenskapliga Programmet Examinator: Arne Jönsson SELF- ORGANIZING MAPS - Ett fördjupningsarbete inom Artificiell Intelligens Fack 52 katwa676@student.liu.se Sammanfattning

Läs mer

Enlagersnät Flerlagersnät Generalisering. Artificiella Neuronnät

Enlagersnät Flerlagersnät Generalisering. Artificiella Neuronnät Artificiella Neuronnät 1 Karaktäristiska egenskaper Användningsområden Klassiska exempel Biologisk bakgrund 2 Begränsningar Träning av enlagersnät 3 Möjliga avbildningar Backprop algoritmen Praktiska problem

Läs mer

1 Minkostnadsflödesproblem i nätverk

1 Minkostnadsflödesproblem i nätverk Krister Svanberg, april 2012 1 Minkostnadsflödesproblem i nätverk Ett nätverk består av en given mängd noder numrerade från 1 till m (där m är antalet noder) samt en given mängd riktade bågar mellan vissa

Läs mer

Taligenkänning. Sanna Aronsson sanar429 Artificiell Intelligens, HKGBB0

Taligenkänning. Sanna Aronsson sanar429 Artificiell Intelligens, HKGBB0 Taligenkänning, HKGBB0 Abstract Ett taligenkänningssystem är att ett system som har som uppgift att identifiera enstaka ord eller hela sekvenser av ord. Detta gör den genom att jämföra denna ordsekvens

Läs mer

Modeller och simulering av språkprocessning

Modeller och simulering av språkprocessning Modeller och simulering av språkprocessning Seriell processmodell + parallell processmodell Parallell modell med 2-vägsförbindelser Artificiellt neuralt nätverk (ANN) Interaktiv aktiverings-modell (IAM)

Läs mer

Tentamen i Digitalteknik, EITF65

Tentamen i Digitalteknik, EITF65 Elektro- och informationsteknik Tentamen i Digitalteknik, EITF65 3 januari 2018, kl. 14-19 Skriv anonymkod och identifierare, eller personnummer, på alla papper. Börja en ny uppgift på ett nytt papper.

Läs mer

1 LP-problem på standardform och Simplexmetoden

1 LP-problem på standardform och Simplexmetoden Krister Svanberg, mars 202 LP-problem på standardform och Simplexmetoden I detta avsnitt utgår vi från LP-formuleringen (2.2) från föreläsning. Denna form är den bäst lämpade för en strömlinjeformad implementering

Läs mer

Regler för: getsmart Grön

Regler för: getsmart Grön -6 Regler för: getsmart Grön 8 Hele tall 3 4 Hele tall -6-6 3-6 3 Hele tall 8 Hele tall 3 4 Det rekommenderas att man börjar med att se på powerpoint-reglerna när man ska lära sig olika spel med kortleken!

Läs mer

Vektorer, matriser, nätverk - några elementa

Vektorer, matriser, nätverk - några elementa Vektorer, matriser, nätverk - några elementa Innehåll: Vektorer Radvektorer och kolumnvektorer Operationer med vektorer Input- och outputvektorer i neurala nätverk Utvikning om kompetitiva nät Matriser

Läs mer

Linköpings universitet

Linköpings universitet Översikt Kognitionsvetenskaplig introduktionskurs Föreläsning 4 Informationsbearbetningsmodeller Vad är kognitionsvetenskap? Kort bakgrund/historik Representation och bearbetning av information Vetenskapliga

Läs mer

Artificiella Neuronnät

Artificiella Neuronnät Artificiella Neuronnät 2 3 4 2 (ANN) Inspirerade av hur nervsystemet fungerar Parallell bearbetning Vi begränsar oss här till en typ av ANN: Framåtkopplade nät med lagerstruktur 3 4 Fungerar i princip

Läs mer

Datorlaboration :: 1 Problembeskrivning ::

Datorlaboration :: 1 Problembeskrivning :: Datorlaboration :: Ett hyrbilsföretags problem Laborationen går ut på att lösa Labbuppgift 1 till 5. Laborationen redovisas individuellt genom att skicka laborationens Mathematicafil till Mikael Forsberg

Läs mer

Liswi948, Lisa Widerberg, liswi948 Fördjupningsarbete Linköpings Universitet 729G43, Artificiell Intelligens

Liswi948, Lisa Widerberg, liswi948 Fördjupningsarbete Linköpings Universitet 729G43, Artificiell Intelligens Lisa Widerberg, liswi948 Fördjupningsarbete Linköpings Universitet 729G43, Artificiell Intelligens 2018-01-11 Innehållsförteckning 1 Inledning 1 1.1 Bakgrund 1 1.2 Bilder som tredimensionella matriser

Läs mer

Fuzzy Logic. När oskarpa definitioner blir kristallklara. Åsa Svensson. Linköpings Universitet. Linköping

Fuzzy Logic. När oskarpa definitioner blir kristallklara. Åsa Svensson. Linköpings Universitet. Linköping Fuzzy Logic När oskarpa definitioner blir kristallklara Linköpings Universitet Linköping Sammanfattning I denna fördjupningsuppgift har jag fokuserat på Fuzzy Logic och försökt att beskriva det på ett

Läs mer

Regression med Genetiska Algoritmer

Regression med Genetiska Algoritmer Regression med Genetiska Algoritmer Projektarbete, Artificiell intelligens, 729G43 Jimmy Eriksson, jimer336 770529-5991 2014 Inledning Hur många kramar finns det i världen givet? Att kunna estimera givet

Läs mer

Lösningar till SF1852 Optimeringslära för E, 16/1 08

Lösningar till SF1852 Optimeringslära för E, 16/1 08 Lösningar till SF8 Optimeringslära för E, 6/ 8 Uppgift (a) Problemet är ett transportproblem, ett specialfall av minkostnadsflödesproblem Nätverket består av 7 st noder A,B,C,P,Q,R,S, alternativt kallade,,,7,

Läs mer

Ett Neuralt Nätverk Tittar På Kläder

Ett Neuralt Nätverk Tittar På Kläder [Skriv här] [Skriv här] [Skriv här] 2019 Ett Neuralt Nätverk Tittar På Kläder ETT KONVOLUTIONELLT NEURALT NÄTVERK KATEGORISERAR FASHION MNIST DATASETET WILHELM BRODIN, WILBR797 1.1 Inledning En människas

Läs mer

Sub-symbolisk kognition & Konnektionism. Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén,

Sub-symbolisk kognition & Konnektionism. Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén, Sub-symbolisk kognition & Konnektionism Kognitionsvetenskaplig Introduktionskurs (729G01) Mats Andrén, mats.andren@liu.se 1 Konnektionism Neutrala nät baseras på en (förenklad) modell av hur hjärnan fungerar.

Läs mer

Användarhandledning Version 1.2

Användarhandledning Version 1.2 Användarhandledning Version 1.2 Innehåll Bakgrund... 2 Börja programmera i Xtat... 3 Allmänna tips... 3 Grunderna... 3 Kommentarer i språket... 4 Variabler... 4 Matematik... 5 Arrayer... 5 på skärmen...

Läs mer

Word2Vec. Högkvalitativa vektorrepresentationer av ord tränat på stora mängder data. Innehåll LINKÖPINGS UNIVERSITET. 1. Inledning...

Word2Vec. Högkvalitativa vektorrepresentationer av ord tränat på stora mängder data. Innehåll LINKÖPINGS UNIVERSITET. 1. Inledning... LINKÖPINGS UNIVERSITET Innehåll 1. Inledning... 2 2. Terminologi... 3 3. Allmänt om Word2Vec... 3 4. Continous Skip-gram model... 4 Word2Vec Högkvalitativa vektorrepresentationer av ord tränat på stora

Läs mer

Algebra I, 1MA004. Lektionsplanering

Algebra I, 1MA004. Lektionsplanering UPPSALA UNIVERSITET Matematiska Institutionen Dan Strängberg HT2016 Fristående, IT, KandDv, KandMa, Lärare 2016-11-02 Algebra I, 1MA004 Lektionsplanering Här anges rekommenderade uppgifter ur boken till

Läs mer

Föreläsning 7. Felrättande koder

Föreläsning 7. Felrättande koder Föreläsning 7 Felrättande koder Antag att vi vill skicka ett meddelande som består av bokstäver a,b,c,d. Vi kan koda a,b,c,d. Antag att det finns en viss sannolikhet att en bit i ett meddelande som skickas

Läs mer

Alla datorprogram har en sak gemensam; alla processerar indata för att producera något slags resultat, utdata.

Alla datorprogram har en sak gemensam; alla processerar indata för att producera något slags resultat, utdata. Att förstå variabler Alla datorprogram har en sak gemensam; alla processerar indata för att producera något slags resultat, utdata. Vad är en variabel? En variabel är en plats att lagra information. Precis

Läs mer

FAKTAAVSNITT: ARBETSMINNETS UTVECKLING OCH KOPPLING TILL ANDRA FÖRMÅGOR

FAKTAAVSNITT: ARBETSMINNETS UTVECKLING OCH KOPPLING TILL ANDRA FÖRMÅGOR FAKTAAVSNITT: ARBETSMINNETS UTVECKLING OCH KOPPLING TILL ANDRA FÖRMÅGOR ARBETSMINNETS UTVECKLING Arbetsminnet utvecklas som mest mellan åldrarna 5 till 11 år. En fyraåring har ett relativt outvecklat arbetsminne

Läs mer

1 De fyra fundamentala underrummen till en matris

1 De fyra fundamentala underrummen till en matris Krister Svanberg, mars 2012 1 De fyra fundamentala underrummen till en matris 1.1 Definition av underrum En given delmängd M av IR n säges vara ett underrum i IR n om följande gäller: För varje v 1 M,

Läs mer

Gränssnitt för FakeGranska. Lars Mattsson

Gränssnitt för FakeGranska. Lars Mattsson Gränssnitt för FakeGranska av Lars Mattsson (larsmatt@kth.se) Innehållsförteckning 1 Introduktion...3 2 Genomförande:...3 3 Användning...5 4 Kända buggar:...6 5 Källförteckning...6 2 1 Introduktion Taken

Läs mer

SF1624 Algebra och geometri

SF1624 Algebra och geometri Föreläsning 10 Institutionen för matematik KTH 21 november 2016 Dagens och veckans ämnen Idag: Allmänna vektorrum, baser, koordinater, kap 4.1-4.4: Vektorrum och delrum, igen Bas, igen Koordinater med

Läs mer

Registerforskning Oktober 2018, Stockholm City Conference Centre. Möjligheter med Artificiell Intelligens inom registerforskningen

Registerforskning Oktober 2018, Stockholm City Conference Centre. Möjligheter med Artificiell Intelligens inom registerforskningen Registerforskning 2018 17 Oktober 2018, Stockholm City Conference Centre Möjligheter med Artificiell Intelligens inom registerforskningen Peter Funk Mälardalens Högskola Vem är Peter Funk? Artificiell

Läs mer

Universitetet i Linköping Institutionen för datavetenskap Anders Haraldsson 2

Universitetet i Linköping Institutionen för datavetenskap Anders Haraldsson 2 Anders Haraldsson 1 Anders Haraldsson 2 Dagens föreläsning Programmering i Lisp Fö 5 - Funktioner - lambda-uttryck (avs 7.1) - funcall och function (avs 7.2) - Högre ordningens funktioner (avs 7.) - Iteratorer

Läs mer

1(15) Bilaga 1. Av Projekt Neuronnätverk, ABB Industrigymnasium, Västerås Vt-05

1(15) Bilaga 1. Av Projekt Neuronnätverk, ABB Industrigymnasium, Västerås Vt-05 1(15) Bilaga 1 2(15) Neuronnätslaboration Räknare Denna laboration riktar sig till gymnasieelever som går en teknisk utbildning och som helst har läst digitalteknik samt någon form av styrteknik eller

Läs mer

Dagens föreläsning Programmering i Lisp Fö 5

Dagens föreläsning Programmering i Lisp Fö 5 Anders Haraldsson 1 Dagens föreläsning Programmering i Lisp Fö 5 - Funktioner - lambda-uttryck (avs 7.1) - funcall och function (avs 7.2) - Högre ordningens funktioner (avs 7.3) - Iteratorer - Egenskaper

Läs mer

Manual för ett litet FEM-program i Matlab

Manual för ett litet FEM-program i Matlab KTH HÅLLFASTHETSLÄRA Manual för ett litet FEM-program i Matlab Programmet består av en m-fil med namn SMALL_FE_PROG.m och en hjälp-fil för att plotta resultat som heter PLOT_DEF.m. Input För att köra programmet

Läs mer

Signalbehandling Röstigenkänning

Signalbehandling Röstigenkänning L A B O R A T I O N S R A P P O R T Kurs: Klass: Datum: I ämnet Signalbehandling ISI019 Enk3 011211 Signalbehandling Röstigenkänning Jonas Lindström Martin Bergström INSTITUTIONEN I SKELLEFTEÅ Sida: 1

Läs mer

Kompletterande lösningsförslag och ledningar, Matematik 3000 kurs A, kapitel 4. b) = 3 1 = 2

Kompletterande lösningsförslag och ledningar, Matematik 3000 kurs A, kapitel 4. b) = 3 1 = 2 Kapitel.1 101, 102 Exempel som löses i boken 10 a) x= 1 11+ x= 11+ 1 = 2 c) x= 11 7 x= 7 11 = 77 b) x= 5 x 29 = 5 29 = 6 d) x= 2 26 x= 26 2= 1 10 a) x= 6 5+ 9 x= 5+ 9 6= 5+ 5= 59 b) a = 8a 6= 8 6= 2 6=

Läs mer

Linjära ekvationssystem

Linjära ekvationssystem Föreläsning 3 Linjära ekvationssystem Gausselimination Vanlig gausselimination för det linjära ekvationssystemet Ax = b utgår från den utökade matrisen [A b] och applicerar elementära radoperationer på

Läs mer

Kandidatuppsats. Jämförelse mellan neurala nätverk baserad AI och state-of-the-art AI i racing spel. Simon Karlsson, Christopher Jensen

Kandidatuppsats. Jämförelse mellan neurala nätverk baserad AI och state-of-the-art AI i racing spel. Simon Karlsson, Christopher Jensen Kandidatuppsats Jämförelse mellan neurala nätverk baserad AI och state-of-the-art AI i racing spel Simon Karlsson, Christopher Jensen Sammanfattning Denna rapport jämför prestandan mellan state-of-the-art

Läs mer

HKGBB0, Artificiell intelligens

HKGBB0, Artificiell intelligens HKGBB0, Artificiell intelligens Kortfattade lösningsförslag till tentan 3 november 2005 Arne Jönsson 1. Vad karaktäriserar dagens AI-forskning jämfört med den AI-forskning som bedrevs perioden 1960-1985.

Läs mer

SHAZAM! En!smart!musiktjänst! Linha108! Fördjupningsarbete!729G43!

SHAZAM! En!smart!musiktjänst! Linha108! Fördjupningsarbete!729G43! SHAZAM Ensmartmusiktjänst Linha108 Fördjupningsarbete729G43 Sammanfattning Shazam är en musiktjänst som genom en sökalgoritm kan känna igen ljud och returnera låt och artist till användaren. Detta sker

Läs mer

Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder.

Asymptotisk analys innebär att... man försöker uppskatta vad som händer för stora indatamängder. OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

Dagens ämnen. Linjära ekvationssystem: Successiv elimination Vektorer Definitionen Grundläggande räkneoperationer Bas och koordinater Ortsvektorer

Dagens ämnen. Linjära ekvationssystem: Successiv elimination Vektorer Definitionen Grundläggande räkneoperationer Bas och koordinater Ortsvektorer Dagens ämnen Linjära ekvationssystem: Successiv elimination Vektorer Definitionen Grundläggande räkneoperationer Bas och koordinater Ortsvektorer Linjära ekvationer Med en linjär ekvation i n variabler,

Läs mer

Digitalt lärande och programmering i klassrummet. Introduktionsworkshop - Interaktiva berättelser med Twine

Digitalt lärande och programmering i klassrummet. Introduktionsworkshop - Interaktiva berättelser med Twine Digitalt lärande och programmering i klassrummet Introduktionsworkshop - Interaktiva berättelser med Twine Introduktion Twine är en spelmotor gjord för textbaserade spel och interaktiva berättelser. I

Läs mer

Objektorienterad Programmering (TDDC77)

Objektorienterad Programmering (TDDC77) Objektorienterad Programmering (TDDC77) Föreläsning II: utmatning, variabler, typer Ahmed Rezine IDA, Linköpings Universitet Hösttermin 2016 Kompilera och köra programmet under terminal 2: I Skapa Hej.java

Läs mer

I Skapa Hej.java och skriv programmet. I Kompilera med javac Hej.java. I Rätta fel och repetera tills du lyckas kompilera ditt program

I Skapa Hej.java och skriv programmet. I Kompilera med javac Hej.java. I Rätta fel och repetera tills du lyckas kompilera ditt program Kompilera och köra programmet Objektorienterad Programmering (TDDC77) Föreläsning II: utmatning, variabler, typer Ahmed Rezine IDA, Linköpings Universitet Hösttermin 2016 under terminal 2: I Skapa Hej.java

Läs mer

729G11 Artificiell Intelligens Marcus Johansson Marjo581. Fuzzy logic. Marcus Johansson Marjo581

729G11 Artificiell Intelligens Marcus Johansson Marjo581. Fuzzy logic. Marcus Johansson Marjo581 Fuzzy logic 880328-2535 Innehåll Fuzzy logic... 1 1. Inledning... 4 2. Jämförelse mellan fuzzy logic och tvåvärdeslogik.... 4 3. Fuzzy sets.... 4 4. Linvistiska variabler... 5 5. Operatorer... 5 6. If-

Läs mer

SKRIVNING I VEKTORGEOMETRI

SKRIVNING I VEKTORGEOMETRI SKRIVNING I VEKTORGEOMETRI 2014-11-25 1400-1700 Om inget annat uttryckligen sägs, kan koordinaterna för en vektor i antas vara givna i en ON-bas Baser i rummet kan dessutom antas vara positivt orienterade

Läs mer

Inlärning utan övervakning

Inlärning utan övervakning Översikt Biologiska mekanismer bakom inlärning Inlärning utan övervakning Inlärning utan övervakning Hebbiansk modellinlärning Självorganisering Arbetsfördelning mellan noder i ett lager som utvecklas

Läs mer

Taligenkänning med fördjupning på Hidden Markov Models

Taligenkänning med fördjupning på Hidden Markov Models IDA, Linköpings Universitet Artificiell Intelligens II, 729G11 HT 2008 Taligenkänning med fördjupning på Hidden Markov Models 870524-0045 jearu017@student.liu.se Sammanfattning Taligenkänning är en teknik

Läs mer

TMV166 Linjär algebra för M. Datorlaboration 2: Matrisalgebra och en mekanisk tillämpning

TMV166 Linjär algebra för M. Datorlaboration 2: Matrisalgebra och en mekanisk tillämpning MATEMATISKA VETENSKAPER TMV66 07 Chalmers tekniska högskola Datorlaboration Examinator: Tony Stillfjord TMV66 Linjär algebra för M Datorlaboration : Matrisalgebra och en mekanisk tillämpning Allmänt Den

Läs mer

729G43 Artificiell intelligens Maskininlärning. Arne Jönsson HCS/IDA

729G43 Artificiell intelligens Maskininlärning. Arne Jönsson HCS/IDA 729G43 Artificiell intelligens Maskininlärning Arne Jönsson HCS/IDA Maskininlärning Introduktion Beslutsträdsinlärning Hypotesinlärning Linjär regression Vektorer Perceptroner Artificiella Neurala Nät

Läs mer

Kognitiv Modellering

Kognitiv Modellering Kognitiv Modellering Mårten Szymanowski 20 januari 2004 Innehåll 1 Kognitiv Modellering 2 1.1 Varför?................................ 2 2 Grundläggande psykologiska fenomen 3 2.1 Stimulusgeneralisering........................

Läs mer

Talsystem Teori. Vad är talsystem? Av Johan Johansson

Talsystem Teori. Vad är talsystem? Av Johan Johansson Talsystem Teori Av Johan Johansson Vad är talsystem? Talsystem är det sätt som vi använder oss av när vi läser, räknar och skriver ner tal. Exempelvis hade romarna ett talsystem som var baserat på de romerska

Läs mer

Objektorienterad Programmering (TDDC77)

Objektorienterad Programmering (TDDC77) Objektorienterad Programmering (TDDC77) Föreläsning II: utmatning, variabler, typer Ahmed Rezine IDA, Linköpings Universitet Hösttermin 2017 Outline Java Språket Utmatning av Sträng litteraler Variabler

Läs mer

Addition och subtraktion generalisering

Addition och subtraktion generalisering Modul: Algebra Del 8: Avslutande reflektion och utvärdering Addition och subtraktion generalisering Håkan Lennerstad, Blekinge Tekniska Högskola & Cecilia Kilhamn, Göteborgs Universitet Detta lärandeobjekt

Läs mer

5B1817 Tillämpad ickelinjär optimering. Metoder för problem utan bivillkor, forts.

5B1817 Tillämpad ickelinjär optimering. Metoder för problem utan bivillkor, forts. 5B1817 Tillämpad ickelinjär optimering Föreläsning 5 Metoder för problem utan bivillkor, forts. A. Forsgren, KTH 1 Föreläsning 5 5B1817 2006/2007 Lösningar För en given metod blir en lösning den bästa

Läs mer

729G43. Neurala faltningsnät MASKINSYN PÅ SVENSKA VENDELA FOLKER ÅKERLIND

729G43. Neurala faltningsnät MASKINSYN PÅ SVENSKA VENDELA FOLKER ÅKERLIND 729G43 Neurala faltningsnät MASKINSYN PÅ SVENSKA VENDELA FOLKER ÅKERLIND Innehållsförteckning Bakgrund... 2 Historia... 2 ImageNet... 2 Avgränsningar och språk... 3 Artificiella neurala nät... 3 Tillbakaspridning...

Läs mer

Vad är Artificiell Intelligens (AI) Olika typer av AI och deras användningsområden Innovation med hjälp av AI Framtiden och etiska frågeställningar

Vad är Artificiell Intelligens (AI) Olika typer av AI och deras användningsområden Innovation med hjälp av AI Framtiden och etiska frågeställningar 1 Agenda Vad är Artificiell Intelligens (AI) Olika typer av AI och deras användningsområden Innovation med hjälp av AI Framtiden och etiska frågeställningar 2 Nuvarande AI Funktioner en grov Analogi Rekommendation,

Läs mer

Fördjupningsarbete HT 2012 FUZZY LOGIC

Fördjupningsarbete HT 2012 FUZZY LOGIC FUZZY LOGIC 1 Innehåll Bakgrund & Introduktion till fuzzy logic... 3 Syfte... 3 Fuzzy sets... 4 Hedges... 5 Fuzzy set logic... 6 IF-THEN relger... 7 Fuzzy Inference... 7 Användandet utav fuzzy logic i

Läs mer

Datorlära 6. Arbeta med strängar Inmatning med tangentbordet Bygga ett program med inmatning, funktioner, osv

Datorlära 6. Arbeta med strängar Inmatning med tangentbordet Bygga ett program med inmatning, funktioner, osv Datorlära 6 Arbeta med strängar Inmatning med tangentbordet Bygga ett program med inmatning, funktioner, osv 1 Arbeta med Strängar Strängar skapas med text inom citattecken, enkla eller dubbla.!>> str=

Läs mer

BAS A01 Baskurs för universitetsstudier!

BAS A01 Baskurs för universitetsstudier! BAS A01 Baskurs för universitetsstudier! Jeanette Emt, Filosofiska institutionen! Det mesta som vi menar när vi talar om våra minnen finns i långtidsminnet. Karaktäristiskt för detta är att vi inte anstränger

Läs mer

Block 2 Algebra och Diskret Matematik A. Följder, strängar och tal. Referenser. Inledning. 1. Följder

Block 2 Algebra och Diskret Matematik A. Följder, strängar och tal. Referenser. Inledning. 1. Följder Block 2 Algebra och Diskret Matematik A BLOCK INNEHÅLL Referenser Inledning 1. Följder 2. Rekursiva definitioner 3. Sigmanotation för summor 4. Strängar 5. Tal 6. Övningsuppgifter Referenser Följder, strängar

Läs mer

Perceptron som ordklasstaggare: ett fördjupningsarbete i 729G43 -Artificiell Intelligens

Perceptron som ordklasstaggare: ett fördjupningsarbete i 729G43 -Artificiell Intelligens Perceptron som ordklasstaggare: ett fördjupningsarbete i 729G43 -Artificiell Intelligens Niklas Blomstrand Linköpings Universitet Inledning Att veta vilken ordklass ett ord tillhör är en viktig del i bearbetning

Läs mer

Föreläsning 9: NP-fullständighet

Föreläsning 9: NP-fullständighet Föreläsning 9: NP-fullständighet Olika typer av problem: 1. Beslutsproblem: A(x) =Ja. 2. Optimeringsproblem: A(x) =m Vanligen max/min. 3. Konstruktionsproblem: A(x) =En struktur. Vanligen lösningen till

Läs mer

Artificiell intelligens II, 729g11 Projekt HT-11. Taligenkänning. Nina Knez

Artificiell intelligens II, 729g11 Projekt HT-11. Taligenkänning. Nina Knez Taligenkänning 1 Sammanfattning Taligenkänning är i dagens samhälle en nödvändig teknik för många människor för att lättare ta sig fram genom vardagen. Man hittar tekniken i olika sammanhang som telefonupplysning,

Läs mer

Programmeringsteknik med C och Matlab

Programmeringsteknik med C och Matlab Programmeringsteknik med C och Matlab Kapitel 6: Filhantering Henrik Björklund Umeå universitet 13 oktober 2009 Björklund (UmU) Programmeringsteknik 13 oktober 2009 1 / 22 Textfiler Filer är sekvenser

Läs mer

Geometriska vektorer

Geometriska vektorer Föreläsning 1, Linjär algebra IT VT2008 1 Geometriska vektorer De begrepp som linjär algebra kretsar kring är vektorer och matriser Dessa svarar mot datorernas fält (`arra') av dimension ett respektive

Läs mer

SF1624 Algebra och geometri Lösningsförsag till modelltentamen

SF1624 Algebra och geometri Lösningsförsag till modelltentamen SF1624 Algebra och geometri Lösningsförsag till modelltentamen DEL A (1) a) Definiera begreppen rektangulär form och polär form för komplexa tal och ange sambandet mellan dem. (2) b) Ange rötterna till

Läs mer

1 Duala problem vid linjär optimering

1 Duala problem vid linjär optimering Krister Svanberg, april 2012 1 Duala problem vid linjär optimering Detta kapitel handlar om två centrala teoretiska resultat för LP, nämligen dualitetssatsen och komplementaritetssatsen. Först måste vi

Läs mer

TAL OCH RÄKNING HELTAL

TAL OCH RÄKNING HELTAL 1 TAL OCH RÄKNING HELTAL Avsnitt Heltal... 6 Beräkningar med heltal...16 Test Kan du?... 1, 27 Kapiteltest... 28 Begrepp addition avrundning bas differens division exponent faktor kvadratroten ur kvot

Läs mer

5B1146 med Matlab. Laborationsr. Laborationsgrupp: Sebastian Johnson Erik Lundberg, Ann-Sofi Åhn ( endst tal1-3

5B1146 med Matlab. Laborationsr. Laborationsgrupp: Sebastian Johnson Erik Lundberg, Ann-Sofi Åhn ( endst tal1-3 1 Revision 4 2006-12-16 2. SIDFÖRTECKNING 5B1146 med Matlab Laborationsr Laborationsgrupp: Sebastian Johnson, Ann-Sofi Åhn ( endst tal1-3 Titel Sida 1. Uppgift 1.8.1....3 2. Uppgift 1.8.2....6 3. Uppgift

Läs mer

Neurala nätverk vid bildsökning

Neurala nätverk vid bildsökning Neurala nätverk vid bildsökning Carl-Johan Rosén Sammanfattning I denna rapport diskuteras situationen för neurala nätverk inom bildsökningsområdet. Först beskrivs några grundläggande metoder för bildsökning

Läs mer

SF1624 Algebra och geometri Lösningsförslag till modelltentamen DEL A

SF1624 Algebra och geometri Lösningsförslag till modelltentamen DEL A SF1624 Algebra och geometri Lösningsförslag till modelltentamen DEL A (1) Vid lösningen av ekvationssystemet x 1 3x 2 +3x 3 4x 4 = 1, x 2 +x 3 x 4 = 0, 4x 1 +x 2 x 3 2x 4 = 5, kommer man genom Gausselimination

Läs mer

Finns det över huvud taget anledning att förvänta sig något speciellt? Finns det en generell fördelning som beskriver en mätning?

Finns det över huvud taget anledning att förvänta sig något speciellt? Finns det en generell fördelning som beskriver en mätning? När vi nu lärt oss olika sätt att karaktärisera en fördelning av mätvärden, kan vi börja fundera över vad vi förväntar oss t ex för fördelningen av mätdata när vi mätte längden av en parkeringsficka. Finns

Läs mer

Vad behövs för att skapa en tillståndsrymd?

Vad behövs för att skapa en tillståndsrymd? OBS! För flervalsfrågorna gäller att ett, flera eller inget alternativ kan vara korrekt. På flervarlsfrågorna ges 1 poäng för korrekt svar och 0,5 poäng om skillnaden mellan antalet korrekta svar och antalet

Läs mer

A B C D E F A B C D E F (3) Svar: Tabellen ger grafen:

A B C D E F A B C D E F (3) Svar: Tabellen ger grafen: 1. Russel & Norvig menar att man kan utveckla AI-system som antingen tänker som en människa, handlar som en människa, tänker rationellt eller handlar rationellt. Förklara och exemplifiera dessa fyra synsätt.

Läs mer

Ekvivalensrelationer

Ekvivalensrelationer Abstrakt datatyp för disjunkta mängder Vi skall presentera en abstrakt datatyp för att representera disjunkta mängder Kan bl.a. användas för att lösa ekvivalensproblemet avgör om två godtyckliga element

Läs mer

Självkoll: Ser du att de två uttrycken är ekvivalenta?

Självkoll: Ser du att de två uttrycken är ekvivalenta? ANTECKNINGAR TILL RÄKNEÖVNING 1 & - LINJÄR ALGEBRA För att verkligen kunna förstå och tillämpa kvantmekaniken så måste vi veta något om den matematik som ligger till grund för formuleringen av vågfunktionen

Läs mer

kl Tentaupplägg

kl Tentaupplägg Tentaupplägg TIPS 1: Läs igenom ALLA uppgifterna. Välj den du känner är lättast först. Det kan gärna ta 10-20 minuter. Försök skriva saker som kan vara problem i uppgifterna. Är det något du absolut kommer

Läs mer

MATEMATIK GU. LLMA60 MATEMATIK FÖR LÄRARE, GYMNASIET Analys, ht 2014. Block 5, översikt

MATEMATIK GU. LLMA60 MATEMATIK FÖR LÄRARE, GYMNASIET Analys, ht 2014. Block 5, översikt MATEMATIK GU H4 LLMA6 MATEMATIK FÖR LÄRARE, GYMNASIET Analys, ht 24 I block 5 ingår följande avsnitt i Stewart: Kapitel 2, utom avsnitt 2.4 och 2.6; kapitel 4. Block 5, översikt Första delen av block 5

Läs mer

Algoritmer, datastrukturer och komplexitet

Algoritmer, datastrukturer och komplexitet Algoritmer, datastrukturer och komplexitet Övning 12 Anton Grensjö grensjo@csc.kth.se 10 december 2015 Anton Grensjö ADK Övning 12 10 december 2015 1 / 19 Idag Idag Komplexitetsklasser Blandade uppgifter

Läs mer

Innehåll. Föreläsning 11. Organisation av Trie. Trie Ytterligare en variant av träd. Vi har tidigare sett: Informell specifikation

Innehåll. Föreläsning 11. Organisation av Trie. Trie Ytterligare en variant av träd. Vi har tidigare sett: Informell specifikation Innehåll Föreläsning 11 Trie Sökträd Trie och Sökträd 356 357 Trie Ytterligare en variant av träd. Vi har tidigare sett: Oordnat träd där barnen till en nod bildar en mängd Ordnat träd där barnen till

Läs mer

Lösningsförslag till tentamen i SF1861 Optimeringslära för T. Torsdag 28 maj 2010 kl

Lösningsförslag till tentamen i SF1861 Optimeringslära för T. Torsdag 28 maj 2010 kl Lösningsförslag till tentamen i SF86 Optimeringslära för T. Torsdag 28 maj 2 kl. 4. 9. Examinator: Per Enqvist, tel. 79 62 98. (a) Inför variablerna x = (x sr, x sm, x sp, x sa, x sd, x gr, x gm, x gp,

Läs mer

Korttidsminne-arbetsminne

Korttidsminne-arbetsminne Översikt Korttidsminne-arbetsminne Klassiska teorier om korttidsminnet 7 ± 2 platser Rollen av repetition Lagringskapacitet beror på tid att repetera Arbetsminne Inkluderar repetitionsloopar Störningar

Läs mer

Linjär Algebra, Föreläsning 2

Linjär Algebra, Föreläsning 2 Linjär Algebra, Föreläsning 2 Tomas Sjödin Linköpings Universitet Riktade sträckor och Geometriska vektorer En (geometrisk) vektor är ett objekt som har storlek och riktning, men inte någon naturlig startpunkt.

Läs mer

1 Ortogonalitet. 1.1 Skalär produkt. Man kan tala om vinkel mellan vektorer.

1 Ortogonalitet. 1.1 Skalär produkt. Man kan tala om vinkel mellan vektorer. Ortogonalitet Man kan tala om vinkel mellan vektorer.. Skalär produkt Vi definierar längden (eller normen) av en vektor som ett reellt tal 0 (Se boken avsnitt.). Vi definierar skalär produkt (Inner product),

Läs mer