Informationsteori. Repetition Kanalkapaciteten C. Repetition Källkodhastigheten R 2. Repetition Kanalkodhastigheten R 1. Huffmans algoritm: D-när kod

Storlek: px
Starta visningen från sidan:

Download "Informationsteori. Repetition Kanalkapaciteten C. Repetition Källkodhastigheten R 2. Repetition Kanalkodhastigheten R 1. Huffmans algoritm: D-när kod"

Transkript

1 Informationsteori Repetition Kanalkapaciteten C Källkodare Kanalkodare X Kanal Mats Cedervall Mottagare vkodare Kanalavkodare Y Kanalkodningssatsen C =supi(x; Y ) p(x) Informationsteori, fl#7 1 Informationsteori, fl#7 2 Repetition Kanalkodhastigheten R 1 Repetition Källkodhastigheten R 2 U = U 1...U w X = X 1...X n S = S 1...S k U = U 1...U w Källkodare Kanalkodare Källkodare Kanalkodare Kanal Kanal Mottagare vkodare Kanalavkodare Mottagare vkodare Kanalavkodare Û Ŝ Pr(U Û) <ɛ, w n = R 1 <C Pr(S Ŝ) <ɛ, w k = R 2 >H(S) Källkodningssatsen Informationsteori, fl#7 3 Informationsteori, fl#7 4 Källkodning, R = E{W }/E{K} Huffmans algoritm: D-när kod U = U 1...U K meddelande Källkodare X = X 1...X W kodord HD1: Skapa L noder. Var och en representerar symbolerna u 1,u 2,...,u L. Varje nod u i tilldelas sannolikheten p(u i ) för i =1, 2,...,L. Beräkna t = R D 1 [L 2] + 2. Huffmankodning: Tunstallkodning: Meddelandelängden K är fix. Kodordslängden W varierar. Målet är att minimerar E{W }. Kodordslängden W är fix. Meddelandelängden K varierar. Målet är att maximera E{K}. HD2: HD3: Förena de t minst sannolika aktiva noderna med en ny nod tillordna denna en sannolikhet som är lika med summan av sannolikheterna för de t just förenade noderna. De t noderna tilldelas olika kodsymboler. Om det finns endast en aktiv nod är vi klara. I annat fall, sätt t = D och gå till HD2. Informationsteori, fl#7 5 Informationsteori, fl#7 6 Tunstallkodning Betrakta en källa vars utsymbol är en stokastisk variabel U med följande sannolikhetsfördelning. u u 1 u 2 u 3 u 4 u 5 u 6 p(u) Konstruera en optimal ternär kod till denna källa. U = U 1...U K meddelande Källkodare X = X 1...X W kodord U i är en stokastisk variabel {u 1,u 2,...,u L }. Den är L- när. Successiva värden väljes oberoende av varandra! K är en stokastisk variabel, dvs. den stokastiska variabeln U:s värden är L-nära vektorer av varierande längd. X i är en stokastisk variabel {, 1,...,D 1}. Den är D-när. Fix kodordslängd (=W ). Informationsteori, fl#7 7 Informationsteori, fl#7 8

2 Mål Varje kodord representerar ett meddelande. I medel vill vi få in så många källsymboler som möjligt i ett meddelande. Medelantalet D-nära kodsymboler per källsymbol är W E{K}. Denna kvot vill vi ha så liten som möjligt. Vi skall maximera E{K}. För att vi skall kunna känna igen ett meddelande så snart som det är fullständigt får inget meddelande vara prefix till ett annat. Informationsteori, fl#7 9 Antalet meddelanden, som vi kan representera med ett L-närt träd, i vilket vi har en komplett uppsättning grenar, dvs. L stycken för varje nod, är där q är ett ickenegativt heltal. M = L + q(l 1), Vi kallar ett sådant träd för komplett och motsvarande meddelandemängd för en komplett meddelandemängd. Informationsteori, fl#7 1 Följande kompletta träd med L =3kan representera M =5 meddelanden (q =1). En komplett meddelandemängd med M = L + q(l 1) meddelanden kallas en Tunstall-meddelandemängd för en L-när DMS om motsvarande L-nära träd kan bildas genom att vi successivt utvidgar den mest sannolika noden. Informationsteori, fl#7 11 Informationsteori, fl#7 12 Lemma Betrakta en binär minnesfria källan med p() =.6 och p(1) =.4. En komplett meddelandemängd för en L-när DMS är en Tunstallmängd om och endast om varje inre nod i dess träd är minst lika sannolik som varje slutnod. Beskriv en Tunstallmängd med M =5meddelanden? Informationsteori, fl#7 13 Informationsteori, fl#7 14 En komplett meddelandemängd med M meddelanden från en DMS maximerar medelmeddelandelängden, E{K}, om och endast om den är en Tunstallmängd. Tunstalls algoritm: D-när kodning TA1: Bestäm q = TA2: D n L. L 1 Konstruera Tunstallmängden med M = L + q (L 1) element för källan genom att starta med den utvidgade roten och därefter utföra q stycken successiva utvidgningar av den mest sannolika noden. TA3: Tillordna ett distinkt D-närt kodord av längd n till varje meddelande i Tunstallmängden. Informationsteori, fl#7 15 Informationsteori, fl#7 16

3 Källsymbolerna beror av varandra Betrakta en binär minnesfri källa med p() =.6 och p(1) =.4. Ange en Tunstallmängd om kodens blocklängd skall vara W =3. U 1...U K... meddelande Källkodare X 1...X W... kodord Vad händer om källsymbolerna U i beror av varandra? Betrakta olikheten H(U i U i 1 ) H(U i ). Denna indikerar att ju mer vi känner om källan ju bättre källkodning bör vi kunna utföra. Informationsteori, fl#7 17 Informationsteori, fl#7 18 Shannon antog ett alfabet med 27 symboler, dvs. 26 bokstäver och ett mellanrum. Nollte ordningens approximation av engelska. Symbolerna väljes oberoende av varandra och likafördelade. Första ordningens approximation av engelska. Symbolerna väljes oberoende av varandra men med förekomstsannolikheter enligt vanlig engelsk text (12 % E, 2% W, etc.). XFOML RXKHRJFFJUJ ZLPWCFWKCYJ FFJEYVKCQSGHYD QPAAMKBZAACIBZLHJQD OCRO HLI RGWR NMIELWIS EU LL NBNESEBYA TH EEI ALHENHTTPA OOBTTVA NAH BRL Informationsteori, fl#7 19 Informationsteori, fl#7 2 Andra ordningens approximation av engelska. Då en symbol har valts, väljes nästa enligt den sannolikhetsfördelning med vilken de olika symbolerna följer efter just denna. ON IE ANTSOUTINYS ARE T INCTORE ST BE S DEAMY ACHIN D ILONASIVE TUCOOWE AT TEASONARE FUSO TIZIN ANDY TOBE SEACE CTISBE Tredje ordningens approximation av engelska. IN NO IST LAT WHEY CRATICT FROURE BIRS GROCID PONDENOME OF DEMONSTRURES OF THE REPTAGIN IS REGOACTIONA OF CRE Likheten med vanlig engelska ökar med ökad approximationsgrad. Informationsteori, fl#7 21 Informationsteori, fl#7 22 Första ordningens ordapproximation av engelska. Orden väljes oberoende av varandra och med en sannolikhet som speglar deras förekomst. REPRESENTING AND SPEEDILY IS AN GOOD APT OR COME CAN DIFFERENT NATURAL HERE HE THE A IN CAME THE TO OF TO EXPERT GRAY COME TO FURNISHES THE LINE MESSAGE HAD BE THESE Informationsteori, fl#7 23 Andra ordningens ordapproximation av engelska. Här är det tagits hänsyn till sannolikheten att ett ord följs av ett annat. THE HEAD AND IN FRONTAL ATTACK ON AN ENGLISH WRITER THAT THE CHARACTER OF THIS POINT IS THEREFORE ANOTHER METHOD FOR THE LETTERS THAT THE TIME OF WHO EVER TOLD THE PROBLEM FOR AN UNEXPECTED Talande maskiner? Informationsteori, fl#7 24

4 Markovkällor Karakteriseras av en ändlig tillståndsmängd S = {,s 2,...,s r }, en en övergångsmatris Π=[p ij ],i,j =1, 2,...,r, med p ij för alla i, j och r j=1 p ij =1för alla i, funktion f, som avbildar ett tillstånd på en utsignal. Mängden av källans utsignaler kallas källans alfabet. Låt S,S 1,S 2,... vara en följd av stokastiska variabler S i S och låt fördelningen för S vara godtycklig. Egenskapen Pr(S n+1 = s k S = s i,s 1 = s i1,...,s n = s in )= = Pr(S n+1 = s k S n = s in ) kallas Markovegenskapen och betyder att sannolikheten att vi går till ett speciellt tillstånd endast beror på föregående tillstånd. Informationsteori, fl#7 25 Informationsteori, fl#7 26 Egenskapen Pr(S n+1 = s k S n = s i )=p(s i,s k )=p ik visar att den betingade sannolikheten är oberoende av n (tiden) och kallas övergångssannolikheternas stationaritet. En stokastisk följd av tillstånd S,S 1,S 2,... som har dessa båda egenskaper kallas en ändlig, homogen Markovkedja. s 3 1/4 3/4 s 2 S = {,s 2,s 3 } U = {, 1} f( ) = f(s 2 ) = 1 f(s 3 ) = 1 Informationsteori, fl#7 27 Informationsteori, fl#7 28 (forts) Vid start t =är begynnelsefördelningen Pr(S = )=Pr(S = s 2 )=Pr(S = s 3 )= 1 3. Vilken är fördelningen vid tiden t =1? Notation Sannolikheten att kedjan är i tillstånd s j vid tiden t = n betecknar vi w (n) j =Pr(S n = s j ). Om vi låter w (n) beteckna tillståndsfördelningen vid tiden n, dvs. w (n) =(w (n) 1 w(n) 2...w r (n) ), så skriver vi uppdateringen enligt p p 1r w (n) = w (n 1).. = w (n 1) Π. p r1... p rr Informationsteori, fl#7 29 Informationsteori, fl#7 3 Π 2 = Π 4 = (forts) = = Π 8 =... = er För stora n närmar sig tillståndsfördelningen vid tiden t = n den asymptotiska fördelningen lim n p(n) ij = w j för i, j =1, 2,...,r, där w j är oberoende av i. Talet w j kallas den asymptotiska sannolikheten för tillståndet s j. Om det finns en mängd tal w 1,w 2,...,w r, sådana att de uppfyller ovanstående gränsvärde, så säger vi, att asymptotiska sannolikheter existerar för kedjan. Informationsteori, fl#7 31 Informationsteori, fl#7 32

5 Om en Markovkedja med övergångsmatris Π har de asymptotiska sannolikheterna w =(w 1 w 2...w r ) så gäller det att a) r j=1 w j =1 (forts) Bestäm de asymptotiska sannolikheterna för Markovkedjan. b) w =(w 1 w 2...w r ) är en stationär fördelning för kedjan, dvs. wπ =w. c) w är den entydiga stationära fördelningen för kedjan, dvs. om v =(v 1 v 2...v r ) med alla v i och r i=1 v i =1, så implicerar vπ =v att v = w. Informationsteori, fl#7 33 Informationsteori, fl#7 34 (Nytt) En Markovsk informationskälla är en följd av stokastiska variabler U = f(s ),U 1 = f(s 1 ),..., sådana att 1 s 3 s 2 1) Följden S,S 1,... är en ändlig Markovkedja. 2) Varje U i antar värden ur en ändlig mängd, källans alfabet. 3) Följden är stationär. För alla icke negativa heltal i 1,...,i k,h gäller Pr(U i1 = u j1,...,u ik = u jk )=Pr(U i1 +h = u j1,...,u ik +h = u jk ). 4) S väljes enligt en stationär fördelning, dvs. Pr(S = s j )=w j. Informationsteori, fl#7 35 Informationsteori, fl#7 36 För en informationskälla U,U 1,... definieras entropin hos källan som lim H(U n U U 1...U n 1 )=H (U). n Om U,U 1,...,U n är en följd av oberoende och likafördelade stokastiska variabler, så gäller att Om U,U 1,... är en informationskälla, så gäller H(U U 1...U n ) H (U) = lim. n n +1 H (U) =H(U i ), i. Informationsteori, fl#7 37 Informationsteori, fl#7 38, en unifilär källa Betrakta en Markovsk informationskälla med tillståndsmängd S = {,s 2,...,s r },alfabetu, funktion f : S U,och stationär fördelning w =(w 1 w 2...w r ). Låt för varje tillstånd s k, följden s k1,s k2,...,s knk vara de tillstånd, som kan nås i ett steg från s k, dvs. tillstånd s j sådana att p kj >. 1/4 S = {,s 2,s 3 } U = {, 1} f( ) = f(s 2 ) = 1 f(s 3 ) = 1 n säges vara unifilär, om symbolerna f(s k1 ),...,f(s knk ) är distinkta för varje tillstånd s k. s 3 3/4 s 2 Informationsteori, fl#7 39 Informationsteori, fl#7 4

6 Låt s k1,s k2,...,s knk beteckna de tillstånd, som är direkt uppnåeliga från s k,k=1, 2,...,r. Entropin hos tillståndet s k definieras som n k H(S k )= p kki log p kki. i=1 Entropin hos en unifilär Markovkälla ges av r H (U) = w k H(S k ). k=1 Informationsteori, fl#7 41 Informationsteori, fl#7 42, beräkna H 2 (U) och H (U) 1/4 S = {,s 2,s 3 } U = {, 1} f( ) = f(s 2 ) = 1 f(s 3 ) = 1 s 3 3/4 s 2 Informationsteori, fl#7 43

Källkodning. Egenskaper hos koder. Några exempel

Källkodning. Egenskaper hos koder. Några exempel Källkodning Källkodning innebär att vi avbildar sekvenser av symboler ur en källas alfabet på binära sekvenser (kallade kodord). Mängden av alla kodord kalls för en kod. (Man kan förstås tänka sig att

Läs mer

Krafts olikhet. En momentant avkodbar kod (prefixkod) med kodordslängderna l 1,...,l N existerar om och endast om. 2 l i. 1 i=1

Krafts olikhet. En momentant avkodbar kod (prefixkod) med kodordslängderna l 1,...,l N existerar om och endast om. 2 l i. 1 i=1 Datakompression fö 2 p.1 Krafts olikhet En momentant avkodbar kod (prefixkod) med kodordslängderna l 1,...,l N existerar om och endast om N 2 l i 1 Bevis: Antag att vi har en trädkod. Låt l max =max{l

Läs mer

TAMS79: Föreläsning 10 Markovkedjor

TAMS79: Föreläsning 10 Markovkedjor TAMS79: Föreläsning 0 Markovkedjor Johan Thim december 08 0. Markovkedjor Vi ska nu betrakta en speciell tidsdiskret diskret stokastisk process, nämligen Markovkedjan. Vi börjar med en definition Definition.

Läs mer

Optimala koder. Övre gräns för optimala koder. Gränser. Övre gräns för optimala koder, forts.

Optimala koder. Övre gräns för optimala koder. Gränser. Övre gräns för optimala koder, forts. Datakompression fö 3 p.3 Datakompression fö 3 p.4 Optimala koder Övre gräns för optimala koder En prefixkod kallas optimal om det inte existerar någon annan kod (för samma alfabet och sannolikhetsfördelning)

Läs mer

Optimala koder. Det existerar förstås flera koder som har samma kodordsmedellängd. Enklaste fallet är att bara byta 0:or mot 1:or.

Optimala koder. Det existerar förstås flera koder som har samma kodordsmedellängd. Enklaste fallet är att bara byta 0:or mot 1:or. Datakompression fö 3 p.1 Optimala koder En prefixkod kallas optimal om det inte existerar någon annan kod (för samma alfabet och sannolikhetsfördelning) som har lägre kodordsmedellängd. Det existerar förstås

Läs mer

Markovprocesser SF1904

Markovprocesser SF1904 Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 2 Markovprocesser 30 Mars 2015 Johan Westerborn Markovprocesser (1) Föreläsning 2 Föreläsningsplan 1 Förra Föreläsningen 2 Absorption

Läs mer

Markovprocesser SF1904

Markovprocesser SF1904 Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 2 Markovprocesser 4 April 2016 Johan Westerborn Markovprocesser (1) Föreläsning 2 Föreläsningsplan 1 Förra Föreläsningen 2 Absorption

Läs mer

Markovkedjor. Patrik Zetterberg. 8 januari 2013

Markovkedjor. Patrik Zetterberg. 8 januari 2013 Markovkedjor Patrik Zetterberg 8 januari 2013 1 / 15 Markovkedjor En markovkedja är en stokastisk process där både processen och tiden antas diskreta. Variabeln som undersöks kan både vara numerisk (diskreta)

Läs mer

Aritmetisk kodning. F (0) = 0 Exempel: A = {1, 2, 3} k=1. Källkodning fö 5 p.1/12

Aritmetisk kodning. F (0) = 0 Exempel: A = {1, 2, 3} k=1. Källkodning fö 5 p.1/12 Aritmetisk kodning Vi identifierar varje sekvens av källsymboler med ett tal i intervallet [0, 1). Vi gör det med hjälp av fördelningsfunktionen (cumulative distribution function) F. För enkelhets skull

Läs mer

Markovprocesser SF1904

Markovprocesser SF1904 Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 3 Markovprocesser 13 April 2016 Johan Westerborn Markovprocesser (1) Föreläsning 3 Föreläsningsplan 1 Förra Föreläsningen 2 Markovprocesser

Läs mer

Markovprocesser SF1904

Markovprocesser SF1904 Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 3 Markovprocesser 16 April 2015 Johan Westerborn Markovprocesser (1) Föreläsning 3 Föreläsningsplan 1 Förra Föreläsningen 2 Markovprocesser

Läs mer

TSBK04 Datakompression. Övningsuppgifter

TSBK04 Datakompression. Övningsuppgifter TSBK04 Datakompression Övningsuppgifter Innehåll 1 Informationsteoretiska begrepp........................ 1 2 Källkodning................................... 4 Copyright c 2004 Bildkodningsgruppen, Linköpings

Läs mer

TSBK04 Datakompression Övningsuppgifter

TSBK04 Datakompression Övningsuppgifter TSBK04 Datakompression Övningsuppgifter Innehåll 1 Informationsteoretiska begrepp........................ 1 2 Källkodning................................... 4 Copyright c 2004 Bildkodningsgruppen, Linköpings

Läs mer

Matematisk statistik för D, I, Π och Fysiker

Matematisk statistik för D, I, Π och Fysiker Matematisk statistik för D, I, Π och Fysiker Föreläsning 9 Johan Lindström 16 oktober 2018 Johan Lindström - johanl@maths.lth.se FMSF45/MASB03 F9 1/26 Johan Lindström - johanl@maths.lth.se FMSF45/MASB03

Läs mer

Datakompression. Harald Nautsch ISY Bildkodning, Linköpings universitet.

Datakompression. Harald Nautsch ISY Bildkodning, Linköpings universitet. Datakompression fö 1 p.1 Datakompression Harald Nautsch harna@isy.liu.se http://www.icg.isy.liu.se/courses/tsbk04/ ISY Bildkodning, Linköpings universitet Datakompression fö 1 p.2 Kursinnehåll Källmodellering:

Läs mer

Kursinnehåll. Datakompression. Föreläsningar, preliminärt program. Examination

Kursinnehåll. Datakompression. Föreläsningar, preliminärt program. Examination Datakompression fö 1 p.3 Datakompression fö 1 p.4 Kursinnehåll Datakompression Harald Nautsch harna@isy.liu.se http://www.icg.isy.liu.se/courses/tsbk04/ ISY Bildkodning, Linköpings universitet Källmodellering:

Läs mer

Exempel. Vi observerar vädret och klassificerar det i tre typer under en följd av dagar. vackert (V) mulet (M) regn (R)

Exempel. Vi observerar vädret och klassificerar det i tre typer under en följd av dagar. vackert (V) mulet (M) regn (R) Exempel Vi observerar vädret och klassificerar det i tre typer under en följd av dagar. vackert (V mulet (M regn (R Exempel Vackert idag vackert imorgon sannolikheten 0.6 Vackert idag mulet imorgon sannolikheten

Läs mer

Detta ger oss att kanalkapaciteten för den ursprungliga kanalen är C = q 1 C 1 + q 2 C C =1 h ( ) 0.30.

Detta ger oss att kanalkapaciteten för den ursprungliga kanalen är C = q 1 C 1 + q 2 C C =1 h ( ) 0.30. Lösning på problem a) Kanalen är symmetrisk och vi gör nedanstående uppdelning av den. Vi får två starkt symmetriska kanaler vilkas kanalkapacitet ges av C och C 2. Kanalerna väljes med sannolikheterna

Läs mer

Skurlängdskodning. aaaabbbbbbbccbbbbaaaa. Man beskriver alltså sekvensen med ett annat alfabet än det ursprungliga.

Skurlängdskodning. aaaabbbbbbbccbbbbaaaa. Man beskriver alltså sekvensen med ett annat alfabet än det ursprungliga. Datakompression fö 4 p1 Skurlängdskodning Ibland har man källor som producerar långa delsekvenser av samma symbol Det kan då vara praktiskt att istället för att beskriva sekvensen som en följd av enstaka

Läs mer

Stokastiska processer

Stokastiska processer Stokastiska processer Fredrik Olsson, fredrik.olsson@iml.lth.se Avdelningen för produktionsekonomi Lunds tekniska högskola, Lunds universitet Dessa förläsningsanteckningar kommer att behandla diskreta

Läs mer

FLAC (Free Lossless Audio Coding)

FLAC (Free Lossless Audio Coding) Datakompression fö 9 p.1 FLAC (Free Lossless Audio Coding) Distorsionsfri kodning av ljud Ljudsignalen delas in i block (typiskt några tusen sampel). Koda summa/skillnad av de två stereokanalerna om det

Läs mer

Markovprocesser SF1904

Markovprocesser SF1904 Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 1 Markovprocesser 25 Mars 2015 Johan Westerborn Markovprocesser (1) Föreläsning 1 Föreläsningsplan 1 Kursinformation 2 Stokastiska processer

Läs mer

Träd och koder. Anders Björner KTH

Träd och koder. Anders Björner KTH 27 Träd och koder Anders Björner KTH 1. Inledning. Det är i flera sammanhang viktigt att representera information digitalt (d.v.s omvandla till sviter av nollor och ettor). Beroende på vilka villkor som

Läs mer

Fö relä sning 2, Kö system 2015

Fö relä sning 2, Kö system 2015 Fö relä sning 2, Kö system 2015 Vi ska börja titta på enskilda kösystem som ser ut på följande sätt: Det kan finnas en eller fler betjänare och bufferten kan vara ändlig eller oändlig. Om bufferten är

Läs mer

Shannon-Fano-Elias-kodning

Shannon-Fano-Elias-kodning Datakompression fö 5 p.1 Shannon-Fano-Elias-kodning Antag att vi har en minnesfri källa X i som tar värden i {1, 2,...,L}. Antag att sannolikheterna för alla symboler är strikt positiva: p(i) > 0, i. Fördelningsfunktionen

Läs mer

Markovprocesser SF1904

Markovprocesser SF1904 Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 4 Markovprocesser 20 April 2015 Johan Westerborn Markovprocesser (1) Föreläsning 4 Föreläsningsplan 1 Förra Föreläsningen 2 Innbäddade

Läs mer

Markovprocesser SF1904

Markovprocesser SF1904 Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 1 Markovprocesser Johan Westerborn Markovprocesser (1) Föreläsning 1 Föreläsningsplan 1 Kursinformation 2 Stokastiska processer 3 Betingade

Läs mer

Tentamen i FMS180/MASC03 Markovprocesser

Tentamen i FMS180/MASC03 Markovprocesser Matematisk statistik Matematikcentrum Lunds Universitet Tentamen i FMS80/MASC03 Markovprocesser 009-05-5 Lösningsförslag. Följande är en möjlighet. 6 5 3 4 Här är tillstånden, och 3 transienta, tillstånd

Läs mer

Stokastiska processer och simulering I 24 maj

Stokastiska processer och simulering I 24 maj STOCKHOLMS UNIVERSITET LÖSNINGAR MATEMATISKA INSTITUTIONEN Stokastiska processer och simulering I Avd. Matematisk statistik 24 maj 2016 Lösningar Stokastiska processer och simulering I 24 maj 2016 9 14

Läs mer

Matematisk statistik KTH. Formel- och tabellsamling i Matematisk statistik, grundkurs

Matematisk statistik KTH. Formel- och tabellsamling i Matematisk statistik, grundkurs Matematisk statistik KTH Formel- och tabellsamling i Matematisk statistik, grundkurs Varterminen 2005 . Kombinatorik ( ) n = k n! k!(n k)!. Tolkning: ( n k mängd med n element. 2. Stokastiska variabler

Läs mer

P =

P = Avd. Matematisk statistik TENTAMEN I SF297 (f d 5B157) TILLFÖRLITLIGHETSTEORI LÖRDAGEN DEN 2 OKTOBER 21 KL 1. 18.. Examinator: Gunnar Englund, tel. 79716, e-postadress: gunnare@math.kth.se Tillåtna hjälpmedel:

Läs mer

P(X nk 1 = j k 1,..., X n0 = j 0 ) = j 1, X n0 = j 0 ) P(X n0 = j 0 ) = etc... P(X n0 = j 0 ) ... P(X n 1

P(X nk 1 = j k 1,..., X n0 = j 0 ) = j 1, X n0 = j 0 ) P(X n0 = j 0 ) = etc... P(X n0 = j 0 ) ... P(X n 1 Kaitel 1 Mer Markovkedjor Med att secificera en Markovkedja menar vi att man bestämmer övergångsmatrisen P. Detta säger ju allt om dynamiken för rocessen. Om vi dessutom vet hur kedjan startar, dvs startfördelningen

Läs mer

b) Vad är sannolikheten att personen somnar i lägenheten? (4 p) c) Hur många gånger förväntas personen byta rum? (4 p)

b) Vad är sannolikheten att personen somnar i lägenheten? (4 p) c) Hur många gånger förväntas personen byta rum? (4 p) Avd. Matematisk statistik TENTAMEN I SF904 MARKOVPROCESSER TISDAGEN DEN 9 JUNI 05 KL 4.00 9.00. Examinator: Boualem Djehiche tel. 790 78 75. Tillåtna hjälpmedel: Formel- och tabellsamling i Matematisk

Läs mer

Markovprocesser SF1904

Markovprocesser SF1904 Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 5 Markovprocesser 24 April 2015 Johan Westerborn Markovprocesser (1) Föreläsning 5 Föreläsningsplan 1 Förra Föreläsningen 2 Poissonprocessen

Läs mer

Markovprocesser SF1904

Markovprocesser SF1904 Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 5 Markovprocesser 2 Maj 2016 Johan Westerborn Markovprocesser (1) Föreläsning 5 Föreläsningsplan 1 Förra Föreläsningen 2 Poissonprocessen

Läs mer

Föreläsning 9, FMSF45 Markovkedjor

Föreläsning 9, FMSF45 Markovkedjor Föreläsning 9, FMSF45 Markovkedjor Stas Volkov 2017-10-10 Stanislav Volkov s.volkov@maths.lth.se FMSF45 F9: Markovkedjor 1/1 Stokastisk process (rep) En stokastisk process {X(t), t T} är en följd av stokastiska

Läs mer

** a) Vilka värden ska vara istället för * och **? (1 p) b) Ange för de tre tillstånden vilket som svarar mot 0,1,2 i figuren.

** a) Vilka värden ska vara istället för * och **? (1 p) b) Ange för de tre tillstånden vilket som svarar mot 0,1,2 i figuren. Avd. Matematisk statistik TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 19 AUGUSTI 2016 KL 08.00 13.00. Examinator: Jimmy Olsson tel. 790 72 01. Tillåtna hjälpmedel: Formel- och tabellsamling i Matematisk

Läs mer

Tentamen i matematisk statistik, TAMS15/TEN (4h)

Tentamen i matematisk statistik, TAMS15/TEN (4h) LINKÖPINGS UNIVERSITET Kurskod: TAMS1 Matematiska institutionen Provkod: TEN1 Johan Thim Datum: 2018-12-42 Institution: MAI Tentamen i matematisk statistik, TAMS1/TEN1 2018-12-42 (4h Hjälpmedel är: miniräknare

Läs mer

Föreläsninsanteckningar till föreläsning 3: Entropi

Föreläsninsanteckningar till föreläsning 3: Entropi Föreläsninsanteckningar till föreläsning 3: Entropi Johan Håstad, transkriberat av Pehr Söderman 2006-01-20 1 Entropi Entropi är, inom kryptografin, ett mått på informationsinnehållet i en slumpvariabel.

Läs mer

Föreläsning 7. Felrättande koder

Föreläsning 7. Felrättande koder Föreläsning 7 Felrättande koder Antag att vi vill skicka ett meddelande som består av bokstäver a,b,c,d. Vi kan koda a,b,c,d. Antag att det finns en viss sannolikhet att en bit i ett meddelande som skickas

Läs mer

Ordbokskodning. Enkel variant av kodning med variabelt antal insymboler och fixlängds kodord. (Jfr tunstallkodning)

Ordbokskodning. Enkel variant av kodning med variabelt antal insymboler och fixlängds kodord. (Jfr tunstallkodning) Datakompression fö 6 p.1 Ordbokskodning Enkel variant av kodning med variabelt antal insymboler och fixlängds kodord. (Jfr tunstallkodning) Man skapar en ordbok som innehåller 2 b olika sekvenser av symboler

Läs mer

Exempel, minnesfri binär källa. Ordbokskodning. Lempel-Zivkodning. Lempel-Zivkodning, forts.

Exempel, minnesfri binär källa. Ordbokskodning. Lempel-Zivkodning. Lempel-Zivkodning, forts. Datakompression fö 6 p.3 Datakompression fö 6 p.4 Ordbokskodning Exempel, minnesfri binär källa Enkel variant av kodning med variabelt antal insymboler och fixlängds kodord. (Jfr tunstallkodning) Man skapar

Läs mer

Lab 3 Kodningsmetoder

Lab 3 Kodningsmetoder Lab 3. Kodningsmetoder 15 Lab 3 Kodningsmetoder Starta Matlab och ladda ner följande filer från kurswebben till er lab-katalog: lab3blocks.mdl okodat.mdl repetitionskod.mdl hammingkod.mdl planet.mat Denna

Läs mer

TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 17 AUGUSTI 2018 KL

TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 17 AUGUSTI 2018 KL Avd. Matematisk statistik TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 17 AUGUSTI 2018 KL 8.00 13.00. Examinator: Björn-Olof Skytt tel. 790 86 49 Kursansvarig: Björn-Olof Skytt tel. 790 86 49 Tillåtna

Läs mer

Kodning med distorsion

Kodning med distorsion Kodning med distorsion Vi har en signal x n, n = 1... N som ska kodas. Alfabetet är en delmängd av de reella talen A R. Alfabetet kan vara kontinuerligt. Om vi inte har kravet att den avkodade signalen

Läs mer

Stokastiska processer och simulering I 24 augusti

Stokastiska processer och simulering I 24 augusti STOCKHOLMS UNIVERSITET LÖSNINGAR MATEMATISKA INSTITUTIONEN Stokastiska processer och simulering I Avd Matematisk statistik 24 augusti 2016 Lösningar Stokastiska processer och simulering I 24 augusti 2016

Läs mer

TAMS14/36 SANNOLIKHETSLÄRA GK Poissonprocessen (komplettering) Torkel Erhardsson 14 maj 2010

TAMS14/36 SANNOLIKHETSLÄRA GK Poissonprocessen (komplettering) Torkel Erhardsson 14 maj 2010 TAMS14/36 SANNOLIKHETSLÄRA GK Poissonprocessen (komplettering) Torkel Erhardsson 14 maj 2010 1 1 Stokastiska processer Definition 1.1 En stokastisk process är en familj {X(t);t T } (kan även skrivas {X

Läs mer

Om Markov Chain Monte Carlo

Om Markov Chain Monte Carlo Om Markov Chain Monte Carlo Gunnar Englund Matematisk statistik KTH Ht 2001 1 Inledning Markov Chain Monte Carlo MCMC är en modern teknik att simulera komplicerade fördelningar som har fått stora tillämpningar

Läs mer

Bayesianska numeriska metoder II

Bayesianska numeriska metoder II Bayesianska numeriska metoder II T. Olofsson Gibb's sampling Vi har sett att en viktig teknik vid Bayesiansk inferens är s.k marginalisering vilket, för kontinuerliga variabler, innebär att vi integrerar

Läs mer

TENTAMEN I SF1904 MARKOVPROCESSER TISDAGEN DEN 29 MAJ 2018 KL

TENTAMEN I SF1904 MARKOVPROCESSER TISDAGEN DEN 29 MAJ 2018 KL Avd. Matematisk statistik TENTAMEN I SF904 MARKOVPROCESSER TISDAGEN DEN 29 MAJ 208 KL 4.00 9.00. Examinator: Björn-Olof Skytt tel. 790 86 49 Kursansvarig: Björn-Olof Skytt tel. 790 86 49 Tillåtna hjälpmedel:

Läs mer

Grafer och grannmatriser

Grafer och grannmatriser Föreläsning 2, Linjär algebra IT VT2008 Som avslutning på kursen ska vi knyta samman linjär algebra med grafteori och sannolikhetsteori från första kursen. Resultatet blir så kallade slumpvandringar på

Läs mer

Digital- och datorteknik

Digital- och datorteknik Digital- och datorteknik Föreläsning #2 Biträdande professor Jan Jonsson Institutionen för data- och informationsteknik Chalmers tekniska högskola Talomvandling Principer för omvandling mellan olika talsystem:

Läs mer

TENTAMEN I SF1906 (f d 5B1506) MATEMATISK STATISTIK GRUNDKURS,

TENTAMEN I SF1906 (f d 5B1506) MATEMATISK STATISTIK GRUNDKURS, Avd. Matematisk statistik TENTAMEN I SF1906 (f d 5B1506) MATEMATISK STATISTIK GRUNDKURS, TORSDAGEN DEN 7 JUNI 2012 KL 14.00 19.00 Examinator:Gunnar Englund, 073 3213745 Tillåtna hjälpmedel: Formel- och

Läs mer

Markov Chain Monte Carlo, contingency tables and Gröbner bases

Markov Chain Monte Carlo, contingency tables and Gröbner bases Markov Chain Monte Carlo, contingency tables and Gröbner bases Diaconis, P., Sturmfels, B. (998. Algebraic algorithms for sampling from conditional distributions. Gunnar Englund Annals of Statistics Vol.

Läs mer

DIGITALA TAL OCH BOOLESK ALGEBRA

DIGITALA TAL OCH BOOLESK ALGEBRA DIGITALA TAL OCH BOOLESK ALGEBRA Innehåll Talsystem och koder Aritmetik för inära tal Grundläggande logiska operationer Logiska grindar Definitioner i Boolesk algera Räknelagar BINÄRA TALSYSTEMET Binärt

Läs mer

Matematisk statistik för D, I, Π och Fysiker

Matematisk statistik för D, I, Π och Fysiker Matematisk statistik för D, I, Π och Fysiker Föreläsning 8 Johan Lindström 9 oktober 218 Johan Lindström - johanl@maths.lth.se FMSF45/MASB3 F8 1/26 process Johan Lindström - johanl@maths.lth.se FMSF45/MASB3

Läs mer

Lycka till!

Lycka till! VK Matematiska institutionen avd matematisk statistik TENTAMEN I 5B1555 DATORINTENSIVA METODER ONSDAGEN DEN 24 MAJ 2006 KL 14.00 19.00. Examinator: Gunnar Englund, tel. 7907416. Email: gunnare@math.kth.se

Läs mer

Block 2 Algebra och Diskret Matematik A. Följder, strängar och tal. Referenser. Inledning. 1. Följder

Block 2 Algebra och Diskret Matematik A. Följder, strängar och tal. Referenser. Inledning. 1. Följder Block 2 Algebra och Diskret Matematik A BLOCK INNEHÅLL Referenser Inledning 1. Följder 2. Rekursiva definitioner 3. Sigmanotation för summor 4. Strängar 5. Tal 6. Övningsuppgifter Referenser Följder, strängar

Läs mer

a) Beräkna sannolikheten att en följd avkodas fel, det vill säga en ursprungliga 1:a tolkas som en 0:a eller omvänt, i fallet N = 3.

a) Beräkna sannolikheten att en följd avkodas fel, det vill säga en ursprungliga 1:a tolkas som en 0:a eller omvänt, i fallet N = 3. Avd. Matematisk statistik TENTAMEN I SF1901 SANNOLIKHETSTEORI OCH STATISTIK, TISDAGEN DEN 14:E MARS 017 KL 08.00 13.00. Examinator: Thomas Önskog, 08 790 84 55. Tillåtna hjälpmedel: Formel- och tabellsamling

Läs mer

SF1624 Algebra och geometri Tentamen med lösningsförslag onsdag, 11 januari 2017

SF1624 Algebra och geometri Tentamen med lösningsförslag onsdag, 11 januari 2017 SF64 Algebra och geometri Tentamen med lösningsförslag onsdag, januari 7. (a) För vilka värden på k har ekvationssystemet (med avseende på x, y och z) kx + ky + z 3 x + ky + z 4x + 3y + 3z 8 en entydig

Läs mer

Kontinuitet och gränsvärden

Kontinuitet och gränsvärden Kapitel Kontinuitet och gränsvärden.1 Introduktion till kontinuerliga funktioner Kapitlet börjar med allmänna definitioner. Därefter utvidgar vi successivt familjen av kontinuerliga funktioner, genom specifika

Läs mer

TENTAMEN I SF2937 (f d 5B1537) TILLFÖRLITLIGHETSTEORI TORSDAGEN DEN 14 JANUARI 2010 KL

TENTAMEN I SF2937 (f d 5B1537) TILLFÖRLITLIGHETSTEORI TORSDAGEN DEN 14 JANUARI 2010 KL Avd. Matematisk statistik TENTAMEN I SF2937 (f d 5B1537) TILLFÖRLITLIGHETSTEORI TORSDAGEN DEN 14 JANUARI 2010 KL 08.00 13.00. Examinator: Gunnar Englund, tel. 7907416, e-postadress: gunnare@math.kth.se

Läs mer

LINKÖPINGS UNIVERSITET EXAM TAMS 15 / TEN 1

LINKÖPINGS UNIVERSITET EXAM TAMS 15 / TEN 1 LINKÖPINGS UNIVERSITET Matematiska institutionen EXAM TAMS 5 / TEN januari 08, klockan 4.00-8.00 Examinator: Jörg-Uwe Löbus (Tel: 0709-6087) Tillåtna hjälpmedel är en räknare, formelsamling i matematisk

Läs mer

Övning 1(a) Vad du ska kunna efter denna övning. Problem, nivå A. Redogöra för begreppen diskret och kontinuerlig stokastisk variabel.

Övning 1(a) Vad du ska kunna efter denna övning. Problem, nivå A. Redogöra för begreppen diskret och kontinuerlig stokastisk variabel. Övning 1(a) Vad du ska kunna efter denna övning Redogöra för begreppen diskret och kontinuerlig stokastisk variabel. Definiera fördelningsfunktionen för en stokastisk variabel. Definiera frekvensfunktionen

Läs mer

Föreläsningsanteckningar i kurs 5B1506 Markovprocesser och köteori. Jan Grandell

Föreläsningsanteckningar i kurs 5B1506 Markovprocesser och köteori. Jan Grandell Föreläsningsanteckningar i kurs 5B1506 Markovprocesser och köteori Jan Grandell 2 Förord Dessa anteckningar gjordes för mitt privata bruk av föreläsningsmanuskript och har aldrig varit tänkta att användas

Läs mer

Kurslitteratur. Kompression av ljud och bild. Föreläsningar, preliminärt program. Laborationer. Khalid Sayood, Introduction to Data Compression

Kurslitteratur. Kompression av ljud och bild. Föreläsningar, preliminärt program. Laborationer. Khalid Sayood, Introduction to Data Compression TSBK35 fö 1 p.3 TSBK35 fö 1 p.4 Kurslitteratur Kompression av ljud och bild Harald Nautsch harna@isy.liu.se http://www.icg.isy.liu.se/courses/tsbk35/ ISY Bildkodning, Linköpings universitet Khalid Sayood,

Läs mer

Material till kursen SF1679, Diskret matematik: Lite om kedjebråk. 0. Inledning

Material till kursen SF1679, Diskret matematik: Lite om kedjebråk. 0. Inledning Matematik, KTH Bengt Ek november 207 Material till kursen SF679, Diskret matematik: Lite om kedjebråk 0 Inledning Talet π (kvoten mellan en cirkels omkrets och dess diameter) är inte ett rationellt tal

Läs mer

Konvergens och Kontinuitet

Konvergens och Kontinuitet Kapitel 7 Konvergens och Kontinuitet Gränsvärdesbegreppet är väldigt centralt inom matematik. Som du förhoppningsvis kommer ihåg från matematisk analys så definieras tex derivatan av en funktion f : R

Läs mer

x f (x) dx 1/8. Kan likhet gälla i sistnämnda relation. (Torgny Lindvall.) f är en kontinuerlig funktion på 1 x sådan att lim a

x f (x) dx 1/8. Kan likhet gälla i sistnämnda relation. (Torgny Lindvall.) f är en kontinuerlig funktion på 1 x sådan att lim a Elementa Årgång 50, 967 Årgång 50, 967 Första häftet 2603. Låt ξ, ξ 2,..., ξ n vara stokastiska variabler med väntevärden E[ξ i ], i =, 2,..., n. Visa att E[max(ξ, ξ 2,..., ξ n )] max(e[ξ ], E[ξ 2 ],...,

Läs mer

2.1 Mikromodul: stokastiska processer

2.1 Mikromodul: stokastiska processer 2. Mikromodul: stokastiska processer 9 2. Mikromodul: stokastiska processer 2.. Stokastiska variabler En stokastiskt variabel X beskrivs av dess täthetsfunktion p X (x), vars viktigaste egenskaper sammanfattas

Läs mer

Markovprocesser SF1904

Markovprocesser SF1904 Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 6 Markovprocesser 9 Maj 2016 Johan Westerborn Markovprocesser (1) Föreläsning 6 Föreläsningsplan 1 Förra Föreläsningen 2 Johan Westerborn

Läs mer

Tentamen LMA 200 Matematisk statistik,

Tentamen LMA 200 Matematisk statistik, Tentamen LMA 00 Matematisk statistik, 0 Tentamen består av åtta uppgifter motsvarande totalt 50 poäng. Det krävs minst 0 poäng för betyg, minst 0 poäng för 4 och minst 40 för 5. Examinator: Ulla Blomqvist,

Läs mer

PCP-satsen på kombinatoriskt manér

PCP-satsen på kombinatoriskt manér austrin@kth.se Teorigruppen Skolan för Datavetenskap och Kommunikation 2005-10-24 Agenda 1 Vad är ett bevis? Vad är ett PCP? PCP-satsen 2 Vad, hur och varför? Lite definitioner Huvudresultatet 3 Ännu mer

Läs mer

3 Teori för symmetriska system

3 Teori för symmetriska system 55 3 Ordning är när man genast vet var man absolut inte behöver leta. 3.1 Kodning Informationsteorin infördes av Claude Shannon på 40-talets första hälft för att kunna resonera kvantitativt om kodning

Läs mer

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.). STOKASTISKA VARIABLER Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.). Definition 1. En reellvärld funktion definierad på ett utfallsrum Ω kallas en (endimensionell)

Läs mer

Probabilistisk logik 1

Probabilistisk logik 1 729G43 Artificiell intelligens / 2016 Probabilistisk logik 1 Marco Kuhlmann Institutionen för datavetenskap Osäkerhet 1.01 Osäkerhet Agenter måste kunna hantera osäkerhet. Agentens miljö är ofta endast

Läs mer

En generell prediktiv kodare utnyttjar signalens utseende N steg tillbaka i tiden för kodningen, dvs vi kodar efter den betingade fördelningen

En generell prediktiv kodare utnyttjar signalens utseende N steg tillbaka i tiden för kodningen, dvs vi kodar efter den betingade fördelningen Prediktiv kodning Närliggande sampel i en signal är oftast starkt korrelerade med varandra, det kan därför vara en bra ide att försöka utnyttja denna korrelation (minnet) innan kvantiseringen för att få

Läs mer

Kunna beräkna medelantal kunder för alla köer i ett könät utan återkopplingar. I denna övning kallas ett kösystem som ingår i ett könät oftast nod.

Kunna beräkna medelantal kunder för alla köer i ett könät utan återkopplingar. I denna övning kallas ett kösystem som ingår i ett könät oftast nod. Övning 7 Vad du ska kunna efter denna övning Kunna beräkna medelantal kunder för alla köer i ett könät utan återkopplingar. Kunna beräkna medeltiden som en kund tillbringar i ett könät utan återkopplingar.

Läs mer

Linjär prediktion. Prediktiv kodning. Linjär prediktion. Prediktiv kodare och avkodare

Linjär prediktion. Prediktiv kodning. Linjär prediktion. Prediktiv kodare och avkodare Prediktiv kodning Linjär prediktion Närliggande sampel i en signal är oftast starkt korrelerade med varandra, det kan därför vara en bra ide att försöka utnyttja denna korrelation (minnet) innan kvantiseringen

Läs mer

Kunna definiera laplacetransformen för en kontinuerlig stokastisk variabel. Kunna definiera z-transformen för en diskret stokastisk variabel.

Kunna definiera laplacetransformen för en kontinuerlig stokastisk variabel. Kunna definiera z-transformen för en diskret stokastisk variabel. Övning 2 Vad du ska kunna efter denna övning Kunna definiera laplacetransformen för en kontinuerlig stokastisk variabel. Kunna definiera z-transformen för en diskret stokastisk variabel. Kunna beräkna

Läs mer

SF1901: SANNOLIKHETSTEORI OCH FLERDIMENSIONELLA STOKASTISKA STATISTIK VARIABLER. Tatjana Pavlenko. 8 september 2017

SF1901: SANNOLIKHETSTEORI OCH FLERDIMENSIONELLA STOKASTISKA STATISTIK VARIABLER. Tatjana Pavlenko. 8 september 2017 SF1901: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 5 FLERDIMENSIONELLA STOKASTISKA VARIABLER Tatjana Pavlenko 8 september 2017 PLAN FÖR DAGENS FÖRELÄSNING Repetition av de viktiga begreppen diskret/kontinuerlig

Läs mer

Algoritmer, datastrukturer och komplexitet

Algoritmer, datastrukturer och komplexitet Algoritmer, datastrukturer och komplexitet Övning 1 Anton Grensjö grensjo@csc.kth.se 14 september 2015 Anton Grensjö ADK Övning 1 14 september 2015 1 / 22 Översikt Kursplanering F1: Introduktion, algoritmanalys

Läs mer

Jörgen Säve-Söderbergh

Jörgen Säve-Söderbergh SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 8 Binomial-, hypergeometrisk- och Poissonfördelning Exakta egenskaper Approximativa egenskaper Jörgen Säve-Söderbergh Binomialfördelningen

Läs mer

TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 18 AUGUSTI 2017 KL

TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 18 AUGUSTI 2017 KL Avd. Matematisk statistik TENTAMEN I SF904 MARKOVPROCESSER FREDAGEN DEN 8 AUGUSTI 207 KL 08.00 3.00. Examinator: Boualem Djehiche tel. 790 78 75 Kursansvarig: Björn-Olof Skytt tel. 790 86 49 Tillåtna hjälpmedel:

Läs mer

DEL I 15 poäng totalt inklusive bonus poäng.

DEL I 15 poäng totalt inklusive bonus poäng. Matematiska Institutionen KTH TENTAMEN i Linjär algebra, SF604, den 5 december, 2009. Kursexaminator: Sandra Di Rocco Svaret skall motiveras och lösningen skrivas ordentligt och klart. Inga hjälpmedel

Läs mer

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 6 Väntevärden Korrelation och kovarians Stora talens lag. Jörgen Säve-Söderbergh

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 6 Väntevärden Korrelation och kovarians Stora talens lag. Jörgen Säve-Söderbergh SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 6 Väntevärden Korrelation och kovarians Stora talens lag Jörgen Säve-Söderbergh Väntevärde för en funktion av en stokastisk variabel Om

Läs mer

Matrisexponentialfunktionen

Matrisexponentialfunktionen U.U.D.M. Project Report 206:2 Matrisexponentialfunktionen Neda Farzaneh Examensarbete i matematik, 5 hp Handledare: Martin Herschend Examinator: Jörgen Östensson Juni 206 Department of Mathematics Uppsala

Läs mer

Kunna använda Littles sats för enkla räkningar på kösystem.

Kunna använda Littles sats för enkla räkningar på kösystem. Övning 3 Vad du ska kunna efter denna övning Kunna använda Littles sats för enkla räkningar på kösystem. Känna till begreppen ankomstintensitet, avgångsintensitet, medelavstånd mellan ankomster och medelbetjäningstid

Läs mer

Övningstentamen i matematisk statistik

Övningstentamen i matematisk statistik Övningstentamen i matematisk statistik Uppgift : Från ett register över manliga patienter med diabetes fick man följande statistik i procent: Lindrigt fall Allvarligt fall Patientens Någon förälder med

Läs mer

Grundläggande matematisk statistik

Grundläggande matematisk statistik Grundläggande matematisk statistik Kontinuerliga fördelningar Uwe Menzel, 8 www.matstat.de Begrepp fördelning Hur beter sig en variabel slumpmässigt? En slumpvariabel (s.v.) har en viss fördelning, d.v.s.

Läs mer

Matematisk statistik KTH. Formelsamling i matematisk statistik

Matematisk statistik KTH. Formelsamling i matematisk statistik Matematisk statistik KTH Formelsamling i matematisk statistik Vårterminen 2017 1 Kombinatorik ) n n! = k k! n k)!. Tolkning: mängd med n element. ) n = antalet delmängder av storlek k ur en k 2 Stokastiska

Läs mer

Tentamen LMA 200 Matematisk statistik,

Tentamen LMA 200 Matematisk statistik, Tentamen LMA Matematisk statistik, Tentamen består av åtta uppgifter motsvarande totalt poäng. Det krävs minst poäng för betyg, minst poäng för 4 och minst 4 poäng för. Examinator: Ulla Blomqvist, ankn

Läs mer

SF1922/SF1923: SANNOLIKHETSTEORI OCH DISKRETA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 23 mars, 2018

SF1922/SF1923: SANNOLIKHETSTEORI OCH DISKRETA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 23 mars, 2018 SF1922/SF1923: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 3 DISKRETA STOKASTISKA VARIABLER Tatjana Pavlenko 23 mars, 2018 PLAN FÖR DAGENSFÖRELÄSNING Repetition av betingade sannolikheter, användbara satser

Läs mer

Innehåll. Föreläsning 11. Organisation av Trie. Trie Ytterligare en variant av träd. Vi har tidigare sett: Informell specifikation

Innehåll. Föreläsning 11. Organisation av Trie. Trie Ytterligare en variant av träd. Vi har tidigare sett: Informell specifikation Innehåll Föreläsning 11 Trie Sökträd Trie och Sökträd 356 357 Trie Ytterligare en variant av träd. Vi har tidigare sett: Oordnat träd där barnen till en nod bildar en mängd Ordnat träd där barnen till

Läs mer

Giriga algoritmer och dynamisk programmering

Giriga algoritmer och dynamisk programmering Föreläsning 1 Giriga algoritmer och dynamisk programmering Douglas Wikström KTH Stockholm popup-help@csc.kth.se Dagens citat Using the wrong algorithm to solve a problem is like trying to cut a steak with

Läs mer

MVE035. Sammanfattning LV 1. Blom, Max. Engström, Anne. Cvetkovic Destouni, Sofia. Kåreklint, Jakob. Hee, Lilian.

MVE035. Sammanfattning LV 1. Blom, Max. Engström, Anne. Cvetkovic Destouni, Sofia. Kåreklint, Jakob. Hee, Lilian. MVE035 Sammanfattning LV 1 Blom, Max Engström, Anne Cvetkovic Destouni, Sofia Kåreklint, Jakob Hee, Lilian Hansson, Johannes 11 mars 2017 1 Partiella derivator Nedan presenteras en definition av partiell

Läs mer

Adaptiv aritmetisk kodning

Adaptiv aritmetisk kodning Datakompression fö 8 p.1 Adaptiv aritmetisk kodning Aritmetisk kodning är väldigt enkel att göra adaptiv, eftersom vi bara behöver göra en adaptiv sannolikhetsmodell, medan själva kodaren är fix. Till

Läs mer

Tiden i ett tillstånd

Tiden i ett tillstånd Föreläsning 3 I denna föreläsning ska vi behandla markovska kösystem som har ett begränsat antal buffertplatser och även ett begränsat antal kunder. För att kunna göra detta behöver man några resultat

Läs mer

Uppsala Universitet Matematiska Institutionen Bo Styf. Sammanfattning av föreläsningarna 11-14, 16/11-28/

Uppsala Universitet Matematiska Institutionen Bo Styf. Sammanfattning av föreläsningarna 11-14, 16/11-28/ Uppsala Universitet Matematiska Institutionen Bo Styf Transformmetoder, 5 hp gy, IT, W, X 2011-10-26 Sammanfattning av föreläsningarna 11-14, 16/11-28/11 2012. Här lär vi oss använda transformer för att

Läs mer