Bayesianska numeriska metoder II
|
|
- Ola Lundström
- för 8 år sedan
- Visningar:
Transkript
1 Bayesianska numeriska metoder II T. Olofsson Gibb's sampling Vi har sett att en viktig teknik vid Bayesiansk inferens är s.k marginalisering vilket, för kontinuerliga variabler, innebär att vi integrerar bort variabler som vi inte är intresserade av, s.k. nuissance-parametrar. I ett av våra tidigare exempel var vi tex endast intresserade av att uttala oss om parametern w men modellen innehöll även den okända parametern. Vi kunde erhålla p(w X, Y) genom att beräkna integralen p(w, X, Y)d. Hade vi haft er nuissance-parametrar, w,..., w, så hade vi behövt beräkna en multipelintegral... p(w,,,..., w X, Y)d...dw. () w Ett viktigt praktiskt problem är att multipla integraler är svåra att beräkna av era skäl och vårt motmedel var här att använda oss av MonteCarlo simuleringar. Integralen ovan kan approximeras numeriskt genom att. Dra ett stort antal vektorvärda sampel,, w,..., w M, från fördelningen med PDF p(w,,,..., dw X, Y). (Varje w i består av en w -komponent, en -komponent osv.). Spara endast w -komponenterna i samplen. Bilda mängden {,..., w M }. Elementen i mängden {,..., w M } har nu en fördelning med PDF p(w X, Y) och det står oss fritt att använda dessa som vi vill för att numeriskt ta fram en approximation av denna PDF. Nästa hinder som vi stötte på var att det brukar generellt vara svårt att dra sampel ur en godtycklig vektorvärd fördelning. (Ett viktigt undantag är de fördelningar där komponenterna i vektorn är statistiskt oberoende eftersom vi då kan dra en komponent i taget.) Det är däremot mycket enklare att dra sampel från någon godtycklig endimensionell fördelning, p(w). Vi kan till exempel använda acceptance/rejectionmetoden. Denna metod hade bland annat fördelen att det räcker med att vi känner till en funktion, f(w), som PDF:en är proportionell mot, dvs vi behöver endast veta kurvformen, f(w). En metod som utnyttjar sampling från endimensionella fördelningar för att eektivt dra sampel från vektorvärda fördelningar är Gibb's sampling. Denna metod ingår i en större familj av metoder som går under samlingsnamnet Markov Chain MonteCarlo (MCMC eller (MC) ). MonteCarlo-delen i metoderna har vi redan behandlat ovan. Namnet Markov Chain kommer sig av att samplen dras sekventiellt från fördelningen och det sampel som dras beror endast på det tidigare dragna samplet (jmfr Markovegenskapen). Förloppet kan beskrivas med hjälp av Markovkedjor och beviset för att metoderna verkligen ger oss sampel från rätt fördelning baserar sig på teori för stationära fördelningar för Markovkedjor. I ett delavsnitt nedan kommer vi att kortfattat gå igenom ett exempel som illustrerar vad det hela går ut på. Vi hoppar dock över den tyngre teorin. Låt oss återgå till problemet att dra sampel från en fördelning med PDF p(w,,,..., w X, Y) med hjälp av Gibb's sampling. Det går det till som följer: Ansätt startvärden (w,..., w ). Dra ett sampel ur den betingade fördelningen p(w w,,..., w, X, Y). Man brukar skriva p(w w,,..., w, X, Y) för att beskriva detta. Pilen representerar en slumpmässig tilldelning. Det kan kanske vara lite svårt att se vart marginaliseringsintegralen i MonteCarlo simuleringen tog vägen. Faktum är att när vi kastar alla - till w -komponenter och beräknar tex ett histogram över de kvarvarande w -värdena så är detta samma sak som att säga att vi summerar integrerar över alla vektorvärda sampel för vilka w -komponenterna ligger i något visst intervall.
2 Dra ett sampel w p( w, w,..., w, X, Y). Notera att vi har stoppat tillbaks det nyss dragna samplet bakom betingat-strecket. Allmänt, dra ett sampel i p(w i,,..., i, w i+,..., w, X, Y). När vi dragit den sista skalären, bilda = (w,..., w ) T som får utgöra det första vektorvärda samplet. Upprepa förloppet cykliskt för komponenter w,,,..., w. Den allmänna formeln under iteration nr k blir wi k p(w i w, k w, k..., wi k, wk i+,..., wk, X, Y). Varje gång i = är uppfyllt, dvs då vi gått igenom en cykel, bilda samplet w k = (w, k..., w k )T. För att de vektorvärda sampel vi får ur denna algoritm skall gälla som dragna ur den eftersökta fördelningen krävs bland annat att algoritmen har kommit in i sin stationära fas. Denna fas inträder först efter en initialfas som brukar kallas burn in. Man brukar därför bortse från de första samplen (det är dock svårt att säga exakt hur många detta ska vara) när man utnyttjar data från denna algoritm. Det brukar vara relativt lätt att tro på att ovanstående schema faktiskt ger oss sampel från rätt fördelning om man ritar upp en tvådimensionell fördelning och tänker sig hur algoritmen skulle fungera i detta enkla fall. Se gurerna till 3 nedan. 8 6 p(w X,Y) Satrtvärde w Figure : Vi ska med hjälp av Gibb's sampling dra sampel från denna -d fördelning. Startvektorn är markerad med en pil. Vi ser ur schemat att vi endast behöver dra sampel från endimensionella fördelningar. urvformen för dessa fördelningar kommer vi lätt åt via Bayes sats: p(w i w, k w, k..., wi, k w k i+,..., wk, X, Y) = = p(y wk, w k,..., w k i, w i, w k i+,..., wk p(y w k, wk,..., wk i, wk i+, X )p(w i w, k w, k..., wi k, wk i+,..., wk, X ),..., wk, X ) () Observera att vi bör se uttrycket i ekv. () som en funktion av w i. (Notera att alla parametrar utom w i antar xa värden som erhållits under tidigare iterationer.) Nämnaren är som vanligt en normeringskonstant och innehåller inte w i, dvs den påverkar inte kurvformen. Med hjälp av tex acceptance/rejection-metoden kan vi nu dra ett ett sampel från p(w i w k, w k,..., w k i, wk i+,..., wk, X, Y).
3 .3. p(w ).. p( w )..3 w. w p(w ).. p( w )..4 w. w p(w ). p( w 3 ).. w. w p(w 3 ).5 p( w 4 ). w w Figure : Fyra iterationer av algoritmen. I varje iteration dras först ett w -värde från den betingade fördelningen p(w w k ) (vänstra kolumnen). Det dragna värdet markeras här med ett kryss. Notera att den betingade fördelningen erhålls graskt genom att skära ett snitt genom den tvådimensionella fördelningen i g. för ett xerat = w k. Givet det nya värdet, w, k dras ett nytt värde från den betingade fördelningen p( w). k Det dragna värdet markeras återigen med ett kryss. Den nya vektorn (w, k w) k plottas till sist i ett spridningsdiagram i den högra kolumnen (tillsammans med tidigare dragna vektorer). En beskrivning av Gibb's sampling med hjälp av Markovkedor. Diskreta fördelningar. Även om det rent intuitivt verkar troligt att Gibbs sampling fungerar så är det ju för den skull inte självklart att metoden verkligen garanterar vektorvärda sampel dragna från exakt rätt fördelning. I detta delavsnitt kommer vi visserligen inte att bevisa att metoden har denna egenskap men vi kommer med hjälp av ett enkelt exempel att dels illustrera hur metoden kan beskrivas av en Markovkedja och visa att Markovkedjan som motsvarar det valda exemplet genererar sampel från exakt rätt fördelning. För att kunna göra detta måste vi dock först förbereda oss med lite extra teori för Markovkedjor. Låt oss rekapitulera Markovmodellen. Vi har ett antal tillstånd, q,..., q M, och en M M matris, T, med övergångssannolikheter t ij = P (S t+ = q i S t = q j ) som element. Anta att vi låter en Markovmodell snurra under lång tid och är intresserade av hur ofta ett visst tillstånd besöks i allmänhet under stationäritet. Tänk er först att vi startar modellen, vid tiden t =, genom att slumpmässigt välja starttillstånd. Låt oss deniera vektorn φ enligt där initialsannolikheten P i står för φ = (P,..., P M ) T (kolumnvektor) (3) P i = P (S = q i ). (4) Vilken är sannolikheten att benna sig i tillstånd q j vid tiden t =, dvs efter en tillståndsövergång? Svaret får vi med hjälp av summaregeln: P (S = q j ) = i P (S = q j, S = q i ) = i P (S = q j S = q i )P (S = q i ) = i t ji P i. (5) Om vi placerar dessa sannolikheter i en kolumnvektor φ = (P (S = q ), P (S = q ),..., P (S = q M )) T så kan vi skriva ekv. (5) på matrisform som φ = Tφ. (6) 3
4 w Figure 3: Spridningsdiagram som visar 5 vektorsampel dragna med hjälp av Gibb's sampling från fördelningen i gur. Det är sen lätt att inse att denna formel kan appliceras rekursivt för att beräkna sannolikhetsfördelningar för godtyckliga t. Vi kommer fram till dels φ t+ = Tφ t och φ t = T t φ (7) En Markovkedja sägs vara i sin stationära fas då fördelningen inte ändras från iteration till iteration, dvs då φ t+ = φ t. Fördelningen φ är då stationär (dvs beror ej av t) och om vi betecknar denna stationära fördelning med φ så måste följande ekvation gälla för φ : φ = Tφ. (8) Observera att denna ekvation är en egenvektorsekvation där egenvärdet är. Slutsatsen är alltså att vi kan ta fram den sannolikhetsfördelning för tillstånden som vi skulle få genom att låta modellen iterera under lång tid genom att helt enkelt beräkna den egenvektor till matrisen T som svarar mot egenvärdet. Exempel: Stationär fördelning för Markovkedja med fyra tillstånd Betrakta en Markovmodell med övergångsmatrisen T = Ett exempel på sekvens som kan genereras av denna modell är (9) S = {, 4, 4,, 3,, 4,, 4,,...} () I gur 4 visas ett antal histogramskattningar av den stationära sannolikhetsfördelningen. De baseras på samma sekvens men olika antal tillstånd har använts vid beräkningen av histogrammen. Den sista grafen allas ibland även jämviktsfördelning 4
5 visar den teoretiskt beräknade stationära fördelningen som baseras på egenvektorsberäkningen enligt ekv. (8). 3 I guren ser vi tydligt att den teoretiskt beräknade stationära fördelningen sammanfaller i princip exakt med det histogram vi erhåller efter t =, vilket i sammanhanget bör gälla som en mycket god approximation av den faktiska stationära födelningen..5 t =.4 t = t =.4 Stationary distribution Figure 4: Jämförelse mellan histogramskattningar av sannolikhetsfördelningen för tillstånden i Markovmodellen med övergångsmatrisen T och den teoretiskt beräknade stationära fördelningen. Nu har vi sett att en Markovkedja med given övergångsmatris har en stationär fördelning och dessutom något om hur vi kan beräkna denna fördelning. Låt oss nu vända på steken och ställa oss frågan hur vi kan skapa en Markovkedja så att den i sin stationära fas genererar sampel från någon önskad fördelning. Detta scenario är precis det vi hade tidigare. Vi kände till utseendet på någon PDF och ville dra sampel från denna men visste inte riktigt hur vi skulle göra. Alla metoder som ingår i MCMC-familjen baseras på idén att skapa en lämplig Markovkedja som ger oss den stationära fördelning vi vill ha. Det som skiljer metoderna åt är helt enkelt hur man sätter ihop en lämplig Markovkedja, och därmed implicit den associerade övergångsmatrisen, T. Det är lätt att inse att era Markovkedjor kan ha samma stationära fördelning (på samma sätt som era matriser kan ha samma egenvektorer, jmfr ekv. (8)). Den kedja som vi får med Gibb's sampling är alltså bara en i mängden av många möjliga. Exempel: Gibb's sampling av -d binär vektor Tidigare beskrev vi hur Gibb's sampling gick till för kontinuerliga variabler,,..., w. För att se en tydlig koppling mellan Gibb's sampling och en specik Markovkedja så är det dock betydligt enklare att betrakta ett enkelt fall för diskreta variabler. Vi väljer det enklast möjliga fallet med en tvådimensionell vektor, x, bestående av två binära variabler, x och x. Vi har alltså fyra tänkbara realiseringar av x så den totala sannolikhetsfördelningen beskrivs fullständigt av de fyra sannolikheterna P = P (x =, x = ), P = P (x =, x = ), P = P (x =, x = ), och P = P (x =, x = ) () 3 Man måste här tänka på att egenvektorer inte är entydigt bestämda och de som beräknas via numeriska metoder kan peka i den negativa riktningen. Dessutom är det vanligt i numeriska paket att normera vektorerna med avseende på kvadratnormen. Vi vill däremot normera φ så att alla komponenter är positiva (eller noll) samt att summan av elementen är (sannolikheter). 5
6 Gibb's sampling från denna fördelning går till så att vi låser x och drar ett sampel från den betingade fördelningen P (x x ). Det värde på x vi får vid denna dragning håller vi sen xt när vi drar ett sampel från den betingade fördelningen P (x x ). Schemat itereras sedan. De betingade fördelningarna, P (x x ) och P (x x ), fås enkelt genom en omskrivning av produktregeln P (x x ) = P (x, x ) P (x ) samt P (x x ) = P (x, x ) P (x ) Nämnarna P (x ) och P (x ) får vi i sin tur via summaregeln (marginalisering). Till exempel får vi att () P (x = ) = P (x =, x = ) + P (x =, x = ) (3) Låt oss exempelvis betrakta fallet då vi har följande simultana sannolikheter: Låt tillstånden q,..., q 4 motsvara P =.5, P =., P =., P =. (4) q = x =, x =, q = x =, x =, q 3 = x =, x =, q 4 = x =, x =. (5) Beroende på i vilken fas under samplingsalgoritmen vi benner oss (sampling av x eller x ) kommer vi att hoppa mellan dessa olika tillstånd med olika sannolikheter. Vi är dock intresserade av sannolikheten att hoppa mellan tillstånden via kombinationen av båda dessa steg. Ett naturligt och förhållandevis enkelt sätt att komma fram till vilken övergångsmatrisen T är, är att dela upp hela steget från x k till x k+ i två steg, nämligen x k+ P (x x k ) och x k+ P (x x k+ ). De två separata stegen kan enkelt beskrivas med varsin övergångsmatris, T och T, med de respektive utseendena och T = T = P (x = x = ) P (x = x = ) P (x = x = ) P (x = x = ) P (x = x = ) P (x = x = ) P (x = x = ) P (x = x = ) P (x = x = ) P (x = x = ) P (x = x = ) P (x = x = ) P (x = x = ) P (x = x = ) P (x = x = ) P (x = x = ) (6) (7) Nollorna i de båda matriserna kommer sig helt enkelt av att vi inte tillåts byta tillstånd på den variabel som vi för tillfället håller låst. Den totala övergångsmatrisen, T, får vi sen genom produkten (jämför tex ekv. (5)) I vårt exempel får vi T = T = T T. (8) (9) Beräknar vi nu den egenvektor som svarar mot egenvärdet så får vi den stationära fördelningen φ = (.5,.,.,.) T () Vilket är precis den fördelning vi eftersökte. produkten Tφ vilket visar sig bli φ. Vi kan enkelt kontrollera att det stämmer genom att ta 6
7 Simulated annealing En tillämpning av MCMC, eller den variant vi fokuserat på nämligen Gibb's sampling, är global optimering. Det vi kan åstadkomma med Markovkedjan är endast att kunna dra sampel från någon godtycklig fördelningsfunktion så vad har detta med optimering att göra? Idén med optimerinsgmetoden simulated annealing (SA) är följande:. För en given funktion, f(w), som vi vill minimera, 4 skapa en associerad PDF, p(w), som har egenskapen att den har sitt globala maximum, w, på samma ställe som f(w) har sitt minimum, dvs arg max w p(w) = arg min f(w). (). Modiera långsamt p(w) till att en serie av PDF:er som succesivt konvergerar mot en PDF som är noll överallt utom i w där den har en spik. Dra hela tiden sampel från denna långsamt förändrade PDF. Eftersom PDF:en succesivt går mot att vara i princip en enda skarp topp kring ett enda värde, w, så måste i så fall det sampel vi drar från denna skarpa fördelning vara just w. Den associerade PDF vi använder i simulated annealing är w p T (w) = f(w) e T () Z där T > står för temperatur 5 och Z är en normeringskonstant som garanterar att vår PDF integrerar till. Vi noterar först att p(w) har sitt maximum i samma punkt som f(w) har sitt minimum. Detta gäller oavsett vilket värde T har. Vi noterar för övrigt att p T (w) kan relateras till p (w) (fördelningen då T = ) genom proportionaliteten p T (w) p (w) T. (3) Alltså, funktionsutseendet (normeringskonstanten borträknad) ges av p (w) /T. Om p T (w) för ett stort T har en utsträckt topp så kommer p T (w) för ett litet T att vara mer isolerad (mer utkristalliserad). Simulated annealing går till enligt schemat. Sätt T till ett stort värde.. Dra sampel från p(w) under det att T sänks (långsamt). Man kan visa att detta schema, under relativt allmänna villkor, konvergerar med sannolikhet gränsande till till det globala minimat till funktionen f(w). Tyvärr baserar sig beviset på ett avkylningsschema som i de esta praktiska situationer är outhärdligt långsamt, nämligen T k = log k, (4) där är en konstant och k är iterationsnumret. I praktiska situationer används oftare varianten T k = µt k (5) vilket ger en temperatur som avtar exponentiellt med iterationsnumret. Sen håller man tummarna och hoppas att det ska fungera ändå. 4 Som vanligt skulle vi lika gärna kunna formulera optimeringsproblemet som ett maximeringsproblem. Vi får då modiera resonemanget därefter. 5 SA kommer historiskt sett från statistisk mekanik. I denna litteratur brukar man i nämnaren i exponenten även ha en faktor k som står för Boltzmanns konstant. Vi kan här välja att sätta k till. 7
Bayesianska numeriska metoder I
Baesianska numeriska metoder I T. Olofsson Marginalisering En återkommende teknik inom Baesiansk inferens är det som kallas för marginalisering. I grund och botten rör det sig om tillämpning av ett specialfall
TAMS79: Föreläsning 10 Markovkedjor
TAMS79: Föreläsning 0 Markovkedjor Johan Thim december 08 0. Markovkedjor Vi ska nu betrakta en speciell tidsdiskret diskret stokastisk process, nämligen Markovkedjan. Vi börjar med en definition Definition.
Grafer och grannmatriser
Föreläsning 2, Linjär algebra IT VT2008 Som avslutning på kursen ska vi knyta samman linjär algebra med grafteori och sannolikhetsteori från första kursen. Resultatet blir så kallade slumpvandringar på
Markovkedjor. Patrik Zetterberg. 8 januari 2013
Markovkedjor Patrik Zetterberg 8 januari 2013 1 / 15 Markovkedjor En markovkedja är en stokastisk process där både processen och tiden antas diskreta. Variabeln som undersöks kan både vara numerisk (diskreta)
Stokastiska processer
Stokastiska processer Fredrik Olsson, fredrik.olsson@iml.lth.se Avdelningen för produktionsekonomi Lunds tekniska högskola, Lunds universitet Dessa förläsningsanteckningar kommer att behandla diskreta
Markovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 3 Markovprocesser 16 April 2015 Johan Westerborn Markovprocesser (1) Föreläsning 3 Föreläsningsplan 1 Förra Föreläsningen 2 Markovprocesser
Markovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 3 Markovprocesser 13 April 2016 Johan Westerborn Markovprocesser (1) Föreläsning 3 Föreläsningsplan 1 Förra Föreläsningen 2 Markovprocesser
P(X nk 1 = j k 1,..., X n0 = j 0 ) = j 1, X n0 = j 0 ) P(X n0 = j 0 ) = etc... P(X n0 = j 0 ) ... P(X n 1
Kaitel 1 Mer Markovkedjor Med att secificera en Markovkedja menar vi att man bestämmer övergångsmatrisen P. Detta säger ju allt om dynamiken för rocessen. Om vi dessutom vet hur kedjan startar, dvs startfördelningen
Konvergens för iterativa metoder
Konvergens för iterativa metoder 1 Terminologi Iterativa metoder används för att lösa olinjära (och ibland linjära) ekvationssystem numeriskt. De utgår från en startgissning x 0 och ger sedan en följd
Fö relä sning 2, Kö system 2015
Fö relä sning 2, Kö system 2015 Vi ska börja titta på enskilda kösystem som ser ut på följande sätt: Det kan finnas en eller fler betjänare och bufferten kan vara ändlig eller oändlig. Om bufferten är
1 LP-problem på standardform och Simplexmetoden
Krister Svanberg, mars 202 LP-problem på standardform och Simplexmetoden I detta avsnitt utgår vi från LP-formuleringen (2.2) från föreläsning. Denna form är den bäst lämpade för en strömlinjeformad implementering
1 Minkostnadsflödesproblem i nätverk
Krister Svanberg, april 2012 1 Minkostnadsflödesproblem i nätverk Ett nätverk består av en given mängd noder numrerade från 1 till m (där m är antalet noder) samt en given mängd riktade bågar mellan vissa
Lösningsförslag till övningsuppgifter, del V
Lösningsförslag till övningsuppgifter, del V Obs! Preliminär version! Ö.1. (a) Vi kan lösa uppgiften genom att helt enkelt räkna ut avståndet mellan vart och ett av de ( 7 ) = 1 paren. Först noterar vi
Determinanter, egenvectorer, egenvärden.
Determinanter, egenvectorer, egenvärden. Determinanter av kvadratiska matriser de nieras recursivt: först för matriser, sedan för matriser som är mest användbara. a b det = ad bc c d det a a a a a a a
Bayes i praktiken. exempel och reflektioner från en forskarutbildningskurs. Ralf Rittner, Arbets och Miljömedicin
Bayes i praktiken exempel och reflektioner från en forskarutbildningskurs Ralf Rittner, Arbets och Miljömedicin 2012 11 07 Bayesian Data Analysis Practical Data Analysis with BUGS using R Bendix Carstensen
4 Diskret stokastisk variabel
4 Diskret stokastisk variabel En stokastisk variabel är en variabel vars värde bestäms av utfallet av ett slumpmässigt försök. En stokastisk variabel betecknas ofta med X, Y eller Z (i läroboken används
Om Markov Chain Monte Carlo
Om Markov Chain Monte Carlo Gunnar Englund Matematisk statistik KTH Ht 2001 1 Inledning Markov Chain Monte Carlo MCMC är en modern teknik att simulera komplicerade fördelningar som har fått stora tillämpningar
Exempel. Vi observerar vädret och klassificerar det i tre typer under en följd av dagar. vackert (V) mulet (M) regn (R)
Exempel Vi observerar vädret och klassificerar det i tre typer under en följd av dagar. vackert (V mulet (M regn (R Exempel Vackert idag vackert imorgon sannolikheten 0.6 Vackert idag mulet imorgon sannolikheten
Finns det över huvud taget anledning att förvänta sig något speciellt? Finns det en generell fördelning som beskriver en mätning?
När vi nu lärt oss olika sätt att karaktärisera en fördelning av mätvärden, kan vi börja fundera över vad vi förväntar oss t ex för fördelningen av mätdata när vi mätte längden av en parkeringsficka. Finns
LABORATION cos (3x 2 ) dx I =
SF1518,SF1519,numpbd14 LABORATION 2 Trapetsregeln, ekvationer, ekvationssystem, MATLAB-funktioner Studera kapitel 6 och avsnitt 5.2.1, 1.3 och 3.8 i NAM parallellt med arbetet på denna laboration. Genomför
Tentamen i Beräkningsvetenskap I (nya versionen), 5.0 hp, Del A
Uppsala universitet Institutionen för informationsteknologi Teknisk databehandling Tentamen i Beräkningsvetenskap I (nya versionen), 5.0 hp, 010-06-07 Skrivtid: 14 00 17 00 (OBS! Tre timmars skrivtid!)
Demonstration av laboration 2, SF1901
KTH 29 November 2017 Laboration 2 Målet med dagens föreläsning är att repetera några viktiga begrepp från kursen och illustrera dem med hjälp av MATLAB. Laboration 2 har följande delar Fördelningsfunktion
Markovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 4 Markovprocesser 20 April 2015 Johan Westerborn Markovprocesser (1) Föreläsning 4 Föreläsningsplan 1 Förra Föreläsningen 2 Innbäddade
Kursombud sökes! Kursens syfte är att ge en introduktion till metoder för att förutsäga realtidsegenskaper hos betjäningssystem, i synnerhet för data- och telekommunikationssystem. Såväl enkla betjäningssystem,
Tentamen i matematisk statistik, TAMS15/TEN (4h)
LINKÖPINGS UNIVERSITET Kurskod: TAMS1 Matematiska institutionen Provkod: TEN1 Johan Thim Datum: 2018-12-42 Institution: MAI Tentamen i matematisk statistik, TAMS1/TEN1 2018-12-42 (4h Hjälpmedel är: miniräknare
1 Duala problem vid linjär optimering
Krister Svanberg, april 2012 1 Duala problem vid linjär optimering Detta kapitel handlar om två centrala teoretiska resultat för LP, nämligen dualitetssatsen och komplementaritetssatsen. Först måste vi
Introduktion till algoritmer - Lektion 4 Matematikgymnasiet, Läsåret 2014-2015. Lektion 4
Introduktion till algoritmer - Lektion 4 Matematikgymnasiet, Läsåret 014-015 Denna lektion ska vi studera rekursion. Lektion 4 Principen om induktion Principen om induktion är ett vanligt sätt att bevisa
Övning 1 Sannolikhetsteorins grunder
Övning 1 Sannolikhetsteorins grunder Två händelser A och B är disjunkta om {A B} =, det vill säga att snittet inte innehåller några element. Om vi har en mängd händelser A 1, A 2, A 3,..., A n, vilka är
TAMS79: Föreläsning 4 Flerdimensionella stokastiska variabler
TAMS79: Föreläsning 4 Flerdimensionella stokastiska variabler Johan Thim (johan.thim@liu.se) 1 november 18 Vi fokuserar på två-dimensionella variabler. Det är steget från en dimension till två som är det
Googles sidrankning - linjär algebra värt en förmögenhet
Googles sidrankning - linjär algebra värt en förmögenhet Outline 1 Sökmotorer 2 Grafteori Linjär algebra 3 Målet Utifrån användarens sökord lista de mest relevanta webbsidorna. Dessutom i en ordning som
MATEMATIK Datum: 2015-08-19 Tid: eftermiddag Hjälpmedel: inga. Mobiltelefoner är förbjudna. A.Heintz Telefonvakt: Tim Cardilin Tel.
MATEMATIK Datum: 0-08-9 Tid: eftermiddag Chalmers Hjälmedel: inga. Mobiltelefoner är förbjudna. A.Heintz Telefonvakt: Tim Cardilin Tel.: 0703-088304 Lösningar till tenta i TMV036 Analys och linjär algebra
Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012
Föreläsning 1 Repetition av sannolikhetsteori Patrik Zetterberg 6 december 2012 1 / 28 Viktiga statistiska begrepp För att kunna förstå mer avancerade koncept under kursens gång är det viktigt att vi förstår
. (2p) 2x + 2y + z = 4 y + 2z = 2 4x + 3y = 6
Kursen bedöms med betyg, 4, 5 eller underkänd, där 5 är högsta betyg För godkänt betyg krävs minst 4 poäng från uppgifterna -7 Var och en av dessa sju uppgifter kan ge maximalt poäng För var och en av
MATEMATIK GU. LLMA60 MATEMATIK FÖR LÄRARE, GYMNASIET Analys, ht 2014. Block 5, översikt
MATEMATIK GU H4 LLMA6 MATEMATIK FÖR LÄRARE, GYMNASIET Analys, ht 24 I block 5 ingår följande avsnitt i Stewart: Kapitel 2, utom avsnitt 2.4 och 2.6; kapitel 4. Block 5, översikt Första delen av block 5
Föresläsningsanteckningar Sanno II
Föresläsningsanteckningar 1 Gammafunktionen I flera av våra vanliga sannolikhetsfördelningar ingår den s.k. gamma-funktionen. Γ(p) = 0 x p 1 e x dx vilken är definierad för alla reella p > 0. Vi ska här
Sidor i boken f(x) = a x 2 +b x+c
Sidor i boken 18-151 Andragradsfunktioner Här ska vi studera andragradsfunktionen som skrivs f(x) = ax +bx+c där a, b, c är konstanter (reella tal) och där a 0. Grafen (kurvan) till f(x), y = ax + bx +
Statistik 1 för biologer, logopeder och psykologer
Innehåll 1 Grunderna i sannolikhetslära 2 Innehåll 1 Grunderna i sannolikhetslära 2 Satistik och sannolikhetslära Statistik handlar om att utvinna information från data. I praktiken inhehåller de data
Föreläsning 5. Approximationsteori
Föreläsning 5 Approximationsteori Låt f vara en kontinuerlig funktion som vi vill approximera med en enklare funktion f(x) Vi kommer använda två olika approximationsmetoder: interpolation och minstrakvadratanpassning
Institutionen för Matematiska Vetenskaper TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1/TM1, TMA671 2014-05-26
Institutionen för Matematiska Vetenskaper Göteborg TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F/TM, TMA67 4-5-6 DAG: Måndag 6 maj 4 TID: 4. - 8. SAL: V Ansvarig: Ivar Gustafsson, tel: 75-33545 Förfrågningar:
Stokastiska processer och simulering I 24 augusti
STOCKHOLMS UNIVERSITET LÖSNINGAR MATEMATISKA INSTITUTIONEN Stokastiska processer och simulering I Avd Matematisk statistik 24 augusti 2016 Lösningar Stokastiska processer och simulering I 24 augusti 2016
LABORATION 2. Trapetsregeln, MATLAB-funktioner, ekvationer, numerisk derivering
SF1518,SF1519,numpbd15 LABORATION 2 Trapetsregeln, MATLAB-funktioner, ekvationer, numerisk derivering - Genomför laborationen genom att göra de handräkningar och MATLAB-program som begärs. Var noga med
1 Stokastiska processer. 2 Poissonprocessen
1 Stokastiska processer En stokastisk process är en stokastisk variabel X(t), som beror på en parameter t, kallad tiden. Tiden kan vara kontinuerlig, eller diskret (i vilket fall man brukar beteckna processen
Lektionsanteckningar 11-12: Normalfördelningen
Lektionsanteckningar 11-12: Normalfördelningen När utfallsrummet för en slumpvariabel kan anta vilket värde som helst i ett givet intervall är variabeln kontinuerlig. Det är väsentligt att utfallsrummet
LAB 1. FELANALYS. 1 Inledning. 2 Flyttal. 1.1 Innehåll. 2.1 Avrundningsenheten, µ, och maskinepsilon, ε M
TANA21+22/ 5 juli 2016 LAB 1. FELANALYS 1 Inledning I laborationerna används matrishanteringsprogrammet MATLAB. som genomgående använder dubbel precision vid beräkningarna. 1.1 Innehåll Du ska 1. bestämma
Markovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 2 Markovprocesser 4 April 2016 Johan Westerborn Markovprocesser (1) Föreläsning 2 Föreläsningsplan 1 Förra Föreläsningen 2 Absorption
2.1 Mikromodul: stokastiska processer
2. Mikromodul: stokastiska processer 9 2. Mikromodul: stokastiska processer 2.. Stokastiska variabler En stokastiskt variabel X beskrivs av dess täthetsfunktion p X (x), vars viktigaste egenskaper sammanfattas
Markovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 2 Markovprocesser 30 Mars 2015 Johan Westerborn Markovprocesser (1) Föreläsning 2 Föreläsningsplan 1 Förra Föreläsningen 2 Absorption
Transformer och differentialekvationer (MVE100)
Chalmers tekniska högskola och Göteborgs universitet Matematik 25 januari 2011 Transformer och differentialekvationer (MVE100 Inledning Fouriertransformen Fouriertransform är en motsvarighet till Fourierserier
Laboration 4: Stora talens lag, Centrala gränsvärdessatsen och enkla punktskattningar
LUNDS TEKNISKA HÖGSKOLA MATEMATIKCENTRUM MATEMATISK STATISTIK DATORLABORATION 4 MATEMATISK STATISTIK, FÖR I/PI, FMS 121/2, HT-3 Laboration 4: Stora talens lag, Centrala gränsvärdessatsen och enkla punktskattningar
Fixpunktsiteration. Kapitel Fixpunktsekvation. 1. f(x) = x = g(x).
Kapitel 5 Fixpunktsiteration 5.1 Fixpunktsekvation En algebraisk ekvation kan skrivas på följande två ekvivalenta sätt (vilket innebär att lösningarna är desamma). 1. f(x) = 0. En lösning x kallas en rot
Markovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 1 Markovprocesser 25 Mars 2015 Johan Westerborn Markovprocesser (1) Föreläsning 1 Föreläsningsplan 1 Kursinformation 2 Stokastiska processer
bli bekant med summor av stokastiska variabler.
LUNDS TEKNISKA HÖGSKOLA MATEMATIKCENTRUM MATEMATISK STATISTIK DATORÖVNING 2 MATEMATISK STATISTIK FÖR E FMSF20 Syfte: Syftet med dagens laborationen är att du skall: få förståelse för diskreta, bivariate
SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A
SF1624 Algebra och geometri Lösningsförslag till tentamen 2010-10-22 DEL A (1) Uttrycket (x, y, z) (1, 1, 1) + s(1, 3, 0) + t(0, 5, 1) definierar ett plan W i rummet där s och t är reella parametrar. (a)
Introduktion till statistik för statsvetare
Stockholms universitet November 2011 Data på annat sätt - I Stolpdiagram Data på annat sätt - II Histogram För kvalitativa data som nominal- och ordinaldata infördes stapeldiagram. För kvantitativa data
Vectorer, spannet av vektorer, lösningsmängd av ett ekvationssystem.
Vectorer, spannet av vektorer, lösningsmängd av ett ekvationssystem. Begrepp som diskuteras i det kapitlet. Vektorer, addition och multiplikation med skalärer. Geometrisk tolkning. Linjär kombination av
Föreläsning 7: Punktskattningar
Föreläsning 7: Punktskattningar Matematisk statistik David Bolin Chalmers University of Technology April 7, 2014 Projektuppgift Projektet går ut på att genomföra ett statistiskt försök och analysera resultaten.
DATORÖVNING 2 MATEMATISK STATISTIK FÖR D, I, PI OCH FYSIKER; FMSF45 & MASB03. bli bekant med summor av stokastiska variabler.
LUNDS TEKNISKA HÖGSKOLA MATEMATIKCENTRUM MATEMATISK STATISTIK DATORÖVNING 2 MATEMATISK STATISTIK FÖR D, I, PI OCH FYSIKER; FMSF45 & MASB03 Syfte: Syftet med dagens laborationen är att du skall: få förståelse
Bayesiansk statistik utan tårar
Bayesiansk statistik utan tårar Lennart Robertson, SMHI Lånad titel A.F.M Smith A.E Gelfand American Statistician 1992 2 Innehåll Ett litet exempel Några enkla statistiska betraktelser Bayes teorem Bayesiansk
SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A
SF1624 Algebra och geometri Lösningsförslag till tentamen 2013-10-28 DEL A 1. Vi har matriserna 1 1 1 1 1 0 3 0 A = 1 1 1 1 1 1 1 1 och E = 0 0 0 1 0 0 1 0. 1 0 0 1 0 1 0 0 (a) Bestäm vilka elementära
--x T Kx. Ka = f. K( a a i. = f f i. r i. = a a i. Ke i. a i 1. p i. Ka i. p i Kai α i
CHALMERS FinitElementmetod M3 illämpad mekanik Föreläsning 18, 15/1 014 91. Lösningen till ekvationssystemet Gradient och konjugerad gradientmetod. a f (1) minimerar den kvadratiska funktionen Π( x) 1
Tentamen i Linjär algebra (TATA31/TEN1) ,
Linköpings universitet Matematiska institutionen Ulf Janfalk Kurskod: TATA Provkod: TEN Tentamen i Linjär algebra TATA/TEN) 8, 9. Inga hjälpmedel. Ej räknedosa. För godkänt räcker 9 poäng och minst uppgifter
Simulering av Poissonprocesser Olle Nerman, Grupprojekt i MSG110,GU HT 2015 (max 5 personer/grupp)
Simulering av Poissonprocesser Olle Nerman, 2015-09-28 Grupprojekt i MSG110,GU HT 2015 (max 5 personer/grupp) Frågeställning: Hur åstadkommer man en realisering av en Poissonprocess på ett tidsintervall
Matematisk statistik för D, I, Π och Fysiker
Matematisk statistik för D, I, Π och Fysiker Föreläsning 9 Johan Lindström 16 oktober 2018 Johan Lindström - johanl@maths.lth.se FMSF45/MASB03 F9 1/26 Johan Lindström - johanl@maths.lth.se FMSF45/MASB03
Bisektionsalgoritmen. Kapitel Kvadratroten ur 2
Kapitel 4 Bisektionsalgoritmen Vi ska konstruera lösningar till algebraiska ekvationer av formen f(x) = 0 med hjälp av bisektionsalgoritmen (intervallhalveringsmetoden). På samma gång ska vi se hur man
Lycka till!
VK Matematiska institutionen avd matematisk statistik TENTAMEN I 5B1555 DATORINTENSIVA METODER ONSDAGEN DEN 24 MAJ 2006 KL 14.00 19.00. Examinator: Gunnar Englund, tel. 7907416. Email: gunnare@math.kth.se
Tentamen TANA17 Matematiska beräkningar Provkod: DAT1 Godkänd: 9p av totalt 20p Hjälpmedel: MATLAB
MAI/Linköpings universitet Fredrik Berntsson Tentamen TANA17 Matematiska beräkningar Provkod: DAT1 Godkänd: 9p av totalt 20p Hjälpmedel: MATLAB Redovisning Lös först uppgifterna i Matlab. Då du har en
Vektorgeometri för gymnasister
Vektorgeometri för gymnasister Per-Anders Svensson http://w3.msi.vxu.se/users/pa/vektorgeometri/gymnasiet.html Institutionen för datavetenskap, fysik och matematik Linnéuniversitetet Vektorer i planet
STABILITET FÖR LINJÄRA HOMOGENA SYSTEM MED KONSTANTA KOEFFICIENTER
Armin Halilovic: EXTRA ÖVNINGAR, SF676 STABILITET FÖR LINJÄRA HOMOGENA SYSTEM MED KONSTANTA KOEFFICIENTER Innehåll Stabilitet för en kritisk punkt (grundbegrepp) Stabilitet för ett linjärt homogent system
Kontrollera att följande punkter är uppfyllda innan rapporten lämnas in: Första sidan är ett försättsblad (laddas ned från kurshemsidan)
Statistiska institutionen VT 2012 Inlämningsuppgift 1 Statistisk teori med tillämpningar Instruktioner Ett av problemen A, B eller C tilldelas gruppen vid första övningstillfället. Rapporten ska lämnas
Laboration 3: Stora talens lag, centrala gränsvärdessatsen och enkla punktskattningar
Lunds tekniska högskola Matematikcentrum Matematisk statistik Laboration 3 Matematisk statistik AK för CDIFysiker, FMS012/MASB03, HT15 Laboration 3: Stora talens lag, centrala gränsvärdessatsen och enkla
Lösningsförslag till skrivningen i Vektorgeometri (MAA702) måndagen den 30 maj 2005
VÄXJÖ UNIVERSITET Matematiska och systemtekniska institutionen Per-Anders Svensson Lösningsförslag till skrivningen i Vektorgeometri (MAA702) måndagen den 30 maj 2005 Uppgift. Bestäm samtliga vektorer
SKRIVNING I VEKTORGEOMETRI
SKRIVNING I VEKTORGEOMETRI 2016-05-10 14.00-17.00 Om inget annat uttryckligen sägs, kan koordinaterna för en vektor i antas vara givna i en ON-bas. Baser i rummet kan dessutom antas vara positivt orienterade.
Diagonalisering och linjära system ODE med konstanta koe cienter.
Diagonalisering och linjära system ODE med konstanta koe cienter. Variabelbyte i linjära system di erentialekvationer. Målet med det kapitlet i kursen är att lösa linjära system di erentialekvationer på
1 Konvexa optimeringsproblem grundläggande egenskaper
Krister Svanberg, april 2012 1 Konvexa optimeringsproblem grundläggande egenskaper Ett optimeringsproblem är i viss mening godartat om det tillåtna området är en konvex mängd och den målfunktion som ska
Vektorgeometri för gymnasister
Vektorgeometri för gymnasister Per-Anders Svensson http://homepage.lnu.se/staff/psvmsi/vektorgeometri/gymnasiet.html Fakulteten för teknik Linnéuniversitetet Diagonalisering av linjära avbildningar III
Tentamen i Beräkningsvetenskap II, 5.0 hp, Del A
Uppsala universitet Institutionen för informationsteknologi Beräkningsvetenskap Tentamen i Beräkningsvetenskap II, 5.0 hp, 2016-03-16 Del A 1. (a) Beräkna lösningen Ù vid Ø = 03 till differentialekvationen
Omtentamen i DV & TDV
Umeå Universitet Institutionen för Datavetenskap Gunilla Wikström (e-post wikstrom) Omtentamen i Teknisk-Vetenskapliga Beräkningar för DV & TDV Tentamensdatum: 2006-06-05 Skrivtid: 9-15 Hjälpmedel: inga
Matematisk analys för ingenjörer Matlabövning 2 Numerisk ekvationslösning och integration
10 februari 2017 Matematisk analys för ingenjörer Matlabövning 2 Numerisk ekvationslösning och integration Syfte med övningen: Introduktion till ett par numeriska metoder för lösning av ekvationer respektive
Stat. teori gk, ht 2006, JW F7 STOKASTISKA VARIABLER (NCT 5.7) Ordlista till NCT
Stat. teori gk, ht 2006, JW F7 STOKASTISKA VARIABLER (NCT 5.7) Ordlista till NCT Jointly distributed Joint probability function Marginal probability function Conditional probability function Independence
Egenvärden och egenvektorer
Föreläsning 10, Linjär algebra IT VT2008 1 Egenvärden och egenvektorer Denition 1 Antag att A är en n n-matris. En n-vektor v 0 som är sådan att A verkar som multiplikation med ett tal λ på v, d v s Av
Föreläsning 7: Punktskattningar
Föreläsning 7: Punktskattningar Matematisk statistik Chalmers University of Technology April 27, 2015 Tvådimensionella fördelningar Definition En två dimensionell slumpvariabel (X, Y ) tillordnar två numeriska
Om existens och entydighet av lösningar till ordinära differentialekvationer
Om existens och entydighet av lösningar till ordinära differentialekvationer Anders Källén 11 maj 2016 1 Introduktion I det här kapitlet ska vi diskutera vad vi allmänt kan säga om lösningar till ett system
Datorlaboration :: 1 Problembeskrivning ::
Datorlaboration :: Ett hyrbilsföretags problem Laborationen går ut på att lösa Labbuppgift 1 till 5. Laborationen redovisas individuellt genom att skicka laborationens Mathematicafil till Mikael Forsberg
4 Fler deriveringsregler
4 Fler deriveringsregler 4. Dagens Teori Derivatan av potensfunktioner. Potensfunktioner med heltalsexponenter, som du redan kan derivera, kallas polynomfunktioner, som till exempel: f(x) = 2x4 x3 + 2x
SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A
SF64 Algebra och geometri Lösningsförslag till tentamen 533 DEL A Planet H ges av ekvationen 3x y + 5z + a) Bestäm en linje N som är vinkelrät mot H ( p) b) Bestäm en linje L som inte skär planet H ( p)
Gemensamt projekt: Matematik, Beräkningsvetenskap, Elektromagnetism. Inledning. Fysikalisk bakgrund
Gemensamt projekt: Matematik, Beräkningsvetenskap, Elektromagnetism En civilingenjör ska kunna idealisera ett givet verkligt problem, göra en adekvat fysikalisk modell och behandla modellen med matematiska
Matematik 3c Kap 2 Förändringshastighet och derivator
Matematik 3c Kap 2 Förändringshastighet och derivator Inledning Konkretisering av ämnesplan (länk) http://www.ioprog.se/public_html/ämnesplan_matematik/struktur_äm nesplan_matematik/struktur_ämnesplan_matematik.html
TAIU07 Matematiska beräkningar med Matlab
TAIU07 Matematiska beräkningar med Matlab Datorlektion 2. Villkor och Repetition 1 Logiska uttryck Uppgift 1.1 Låt a=3 och b=6 Vad blir resultatet av testerna ab? Uppgift 1.2 Låt a, b,
Poisson Drivna Processer, Hagelbrus
Kapitel 6 Poisson Drivna Processer, Hagelbrus Poissonprocessen (igen) Vi har använt Poissonprocessen en hel del som exempel. I den här föreläsningen kommer vi att titta närmare på den, och även andra processer
Frågorna 1 till 6 ska svaras med ett kryss för varje korrekt påstående. Varje uppgift ger 1 poäng.
ATM-Matematik Mikael Forsberg 34-4 3 3 Matematik med datalogi, mfl. Linjär algebra mag4 6 3 Skrivtid: 9:-4:. Inga hjälpmedel. Lösningarna skall vara fullständiga och lätta att följa. Börja varje ny uppgift
1. (Dugga 1.1) (a) Bestäm v (3v 2u) om v = . (1p) and u =
Kursen bedöms med betyg,, 5 eller underkänd, där 5 är högsta betyg. För godkänt betyg krävs minst poäng från uppgifterna -7. Var och en av dessa sju uppgifter kan ge maximalt poäng. För var och en av uppgifterna
Vektorer, matriser, nätverk - några elementa
Vektorer, matriser, nätverk - några elementa Innehåll: Vektorer Radvektorer och kolumnvektorer Operationer med vektorer Input- och outputvektorer i neurala nätverk Utvikning om kompetitiva nät Matriser
Gripenberg. Mat Grundkurs i matematik 1 Tentamen och mellanförhörsomtagning,
Mat-. Grundkurs i matematik Tentamen och mellanförhörsomtagning,..23 Skriv ditt namn, nummer och övriga uppgifter på varje papper! Räknare eller tabeller får inte användas i detta prov! Gripenberg. Skriv
Markov Chain Monte Carlo, contingency tables and Gröbner bases
Markov Chain Monte Carlo, contingency tables and Gröbner bases Diaconis, P., Sturmfels, B. (998. Algebraic algorithms for sampling from conditional distributions. Gunnar Englund Annals of Statistics Vol.
Lite Kommentarer om Gränsvärden
Lite Kommentarer om Gränsvärden På föreläsningen (Föreläsning 2 för att vara eakt) så introducerade vi denitionen Denition. Vi säger att f() går mot a då går mot oändligheten, uttryckt i symboler som f()
Föreläsn. anteckn. TMV206-VT13. Vecka 6-7. Egenvärden och Egenvektorer. Kap. 8-9
Föreläsn. Anteckn., Linjär algebra IT VT2013/Genkai Zhang 1 Föreläsn. anteckn. TMV206-VT13. Vecka 6-7. Egenvärden och Egenvektorer. Kap. 8-9 Det tredje huvuda momentet av kursen är egenvektorer/egenvärden
Tentamen i Beräkningsvetenskap I/KF, 5.0 hp,
Uppsala universitet Institutionen för informationsteknologi Teknisk databehandling Tentamen i Beräkningsvetenskap I/KF, 5. hp, 215-3-17 Skrivtid: 14 17 (OBS! Tre timmars skrivtid!) Hjälpmedel: Bifogat
Exempel :: Spegling i godtycklig linje.
c Mikael Forsberg oktober 009 Exempel :: Spegling i godtycklig linje. abstract:: I detta dokument så är vårt uppdrag att beräkna matrisen för spegling i en godtycklig linje y = kx som går genom origo.
Hemuppgift 2, SF1861 Optimeringslära för T, VT-10
Hemuppgift 2, SF1861 Optimeringslära för T, VT-1 Kursansvarig: Per Enqvist, tel: 79 6298, penqvist@math.kth.se. Assistenter: Mikael Fallgren, werty@kth.se, Amol Sasane, sasane@math.kth.se. I denna uppgift
Linjära ekvationssystem. Avsnitt 1. Vi ska lära oss en metod som på ett systematiskt sätt löser alla linjära ekvationssystem. Linjära ekvationssystem
Avsnitt Linjära ekvationssystem Elementära radoperationer Gausseliminering Exempel Räkneschema Exempel med exakt en lösning Exempel med parameterlösning Exempel utan lösning Slutschema Avläsa lösningen