TSBK04 Datakompression Övningsuppgifter

Storlek: px
Starta visningen från sidan:

Download "TSBK04 Datakompression Övningsuppgifter"

Transkript

1 TSBK04 Datakompression Övningsuppgifter Innehåll 1 Informationsteoretiska begrepp Källkodning Copyright c 2004 Bildkodningsgruppen, Linköpings Universitet

2 Problem 1 Informationsteoretiska begrepp 1.1 Den stokastiska variabeln X tar värden i alfabetet {1,2,3,4}. Sannolikhetsfunktionen är p X (x i ) = 1 4, x i. Beräkna H(X) 1.2 Den stokastiska variabeln Y tar värden i alfabetet {1,2,3,4}. Sannolikhetsfunktionen är p Y (1) = 1 2, p Y (2) = 1 4, p Y (3) = p Y (4) = 1 8. Beräkna H(Y) 1.3 Antag att X och Y i 1.1 och 1.2 är oberoende. Betrakta den stokastiska variabeln (X,Y ). a) Bestäm p XY (x i,y j ). b) Beräkna H((X,Y )) = H(X,Y ) c) Visa att H(X,Y ) = H(X) + H(Y ) då X och Y är oberoende. d) Generalisering: Visa att H(X 1,X 2,...,X n ) = H(X 1 ) H(X n ) så länge alla variablerna är inbördes oberoende. 1.4 Z tar värden i {1, 2, 3, 4} a) Ge ett exempel på en sannolikhetsfunktion p Z som maximerar H(Z). Är p Z unik? b) Ge ett exempel på en sannolikhetsfunktion p Z som minimerar H(Z). Är p Z unik? 1.5 Låt den stokastiska variabeln U ta värden i det oändliga alfabetet {0,1,2,...}, med sannolikhetsfunktionen p U (u i ) = q i (1 q), 0 < q < 1. a) Kontrollera att p U (u i ) = 1. b) Beräkna H(U) i=0 c) Beräkna väntevärdet E {U } 1.6 Visa att, Ledning: Utnyttja olikheten ln x x 1. I(X,Y ) = H(X) H(X Y ) En binär minnesfri källa där de två symbolerna har sannolikheterna {p,1 p} har entropin H. Uttryck entropierna för följande källor i H. a) En minnesfri källa med fyra symboler med sannolikheterna { p 2, p 2, 1 p 2, 1 p 2 } b) En minnesfri ternär källa med sannolikheterna { p 2, p,1 p} 2 c) En minnesfri källa med fyra symboler med sannolikheterna {p 2,p(1 p),(1 p)p,(1 p) 2 }. 1.8 Låt X vara en stokastisk variabel och f en godtycklig deterministisk funktion av alfabetet. Visa att a) H(f(X) X) = 0 b) H(X, f(x)) = H(X) c) H(f(X)) H(X) 1.9 Låt X och Y vara två oberoende stokastiska variabler. Visa att 1.10 Visa att H(X) H(X + Y ) H(X,Y ) H(X Z) H(X Y ) + H(Y Z) Ledning: Starta med H(X Y ) H(X Y Z) och utnyttja kedjeregeln 1.11 Visa att H(X 1,...,X n+1 ) = H(X 1,...,X n ) + H(X n+1 X 1,...X n ) 1.12 En likformigt fördelad stokastisk variabel tar värden ur alfabetet {0000, 0001, 0010,..., 1011} (talen 0 till 11 skrivna som fyrabitars binära tal). a) Vad är entropin för den minst signifikanta biten? b) Vad är entropin för den mest signifikanta biten? c) Vad är entropin för hela fyrabitarsordet? 1 2

3 1.13 En första ordningens markovkälla X i med alfabet {0,1,2} har övergångssannolikheter enligt figuren. Beräkna de stationära sannolikheterna för tillstånden Betrakta markovkällan i a) Beräkna den minnesfria entropin b) Beräkna blockentropin H(X i,x i+1 ). Jämför med H(X i ) + H(X i+1 ) = 2H(X i ). c) Beräkna den betingade entropin H(X i X i 1 ) 1.15 En andra ordningens markovkälla X i med alfabet {a,b} har övergångssannolikheterna p Xi Xi 1X i 2 nedan: p(a aa) = 0.7, p(b aa) = 0.3, p(a ba) = 0.4, p(b ba) = 0.6 p(a ab) = 0.9, p(b ab) = 0.1, p(a bb) = 0.2, p(b bb) = 0.8 Beräkna entropierna H(X i ), H(X i X i 1 ), H(X i X i 1 X i 2 ), H(X i X i 1 ) och H(X i X i 1 X i 2 ). 2 Källkodning 2.1 En föreslagen kod för en källa med alfabet A = {1,...,8} har kodordslängderna l 1 = 2, l 2 = 2, l 3 = 3, l 4 = 4, l 5 = 4, l 6 = 5, l 7 = 5 och l 8 = 6. Kan man konstruera en prefixkod med dessa längder? 2.2 En källa har det oändliga alfabetet A = {1,2,3,..., } och symbolsannolikheter P = { 1 2, 1 4, 1 8,...}, dvs p(i) = 2 i, i A. Konstruera en optimal binär prefixkod för källan och beräkna den förväntade datatakten R i bitar/symbol. 2.3 Betrakta följande markovkälla av ordning 1, där p = 8 0.5: p a 1 p 1 p Konstruera huffmankoder för källan där vi kodar 2 respektive 3 symboler i taget. Beräkna datatakterna för de två koderna. Vilken kod är bäst? 2.4 Betrakta källan i problem 2.3. Den ger ifrån sig skurar av a och b. Istället för att koda symboler, kan man koda längden av varje skur. Vi skapar alltså en ny källa R som har ett oändligt alfabet av skurlängder B = {1, 2, 3,...}. a) Vad är sannolikheten för en skur av längd r? b) Vad är den förväntade skurlängden (i symboler/skur)? c) Vad är entropin för R (i bitar/skur)? d) Vad är entropitakten för källan (i bitar/symbol)? 2.5 Vi vill nu göra en enkel systematisk kod för skurlängderna från källan i 2.3. a) Konstruera en fyrabitars fixlängdskod för skurlängderna 1 till 14. Längre skurar kodas som 15 följt av kodordet för en skur av längd-15, dvs skurlängden 15 kodas som 15 0, skurlängden 17 kodas som 15 2, skurlängden 40 kodas som och så vidare. Beräkna datatakten för koden i bitar/symbol. b) Ändra kordslängden till fem bitar och gör samma sak som ovan b p 3 4

4 2.6 Vi vill nu koda skurlängderna från källan i 2.3 med hjälp av golombkodning. a) Hur ska parametern m väljas så att vi får en optimal kod? b) Beräkna den resulterande datatakten. 2.7 Vi vill sända dokument med en faxmaskin. Faxen klarar av färgerna svart och vitt. Experiment har visat att textområden och bildområden av dokumenten har olika statistiska egenskaper. Dokumenten läses av och kodas radvis, enligt en tidsdiskret stationär process. De följande betingade sannolikheterna har skattats från en stor mängd testdata Färg på Sannolikhet för färg på nästa bildpunkt nuvarande Textområde Bildområde bildpunkt svart vit svart vit svart vit Sannolikheten att vi befinner oss i ett textområde är 4 5 och sannolikheten att vi befinner oss i ett bildområde är 1 5. Antag att de estimerade sannolikheterna är korrekta och besvara nedanstående frågor. a) Antag att vi kan försumma kostnaden för att koda vilka områden i dokumentet som är text och vilka områden som är bilder. Beräkna en övre gräns för den teoretiskt lägsta datatakten som vi kan koda dokument med, i bitar/bildpunkt. b) Konstruera en huffmankod för textområdena som har en datatakt på 0.65 bitar/bildpunkt eller mindre. 2.8 Betrakta följande markovkälla av ordning A C B D a) Visa att det är möjligt att koda utsignalen från källan med en datatakt som är mindre än 0.6 bitar/symbol. b) Konstruera optimala trädkoder för enstaka symboler och för par av symboler från källan. Beräkna de resulterande datatakterna. 5 6

5 2.9 Man vill koda konturer av objekt i bilder effektivt. Konturer utgörs av en kedja konturelement. Ett konturelement är den en bildpunkt långa gränsen mellan två bildpunkter. Till höger visas en kontur bestående av 22 konturelement: Ett naturligt sätt att koda en kontur är att införa ett alfabet A = {V,R,H} där V står för sväng vänster, R för rakt fram och H för sväng höger. Märk att redan genom detta val av alfabet har man utnyttjat minne i konturkällan genom att man strykt möjligheten att konturen går bakåt in i sig själv. Man vill dock gå ett steg längre och koda betingat även på elementet två steg bakåt. Man har ur en stor mängd testdata mätt upp följande fördelning för de olika prinicipiella konturerna med 3 element (bortsett från rotationen): Kontur Frekvens Man kan anta att det är lika stor sannolikhet att följa en kontur från ena hållet som det andra. T.ex. så genererar den andra typen av kontur symbolföljderna RH eller V R beroende på vilken ände man startar i. a) Konstruera en huffmankod (blocklängd 1) för konturkällan (med alfabet A). Vad blir datatalten (bit/konturelement) b) Sannolikheterna ovan definierar implicit en markovmodell. Hur bra kan man som bäst koda denna modell? (bit/konturelement) En minnesfri källa har alfabet A = {a 1,a 2,a 3 } och sannolikheter P = {0.6,0.2,0.2}. Vi vill koda sekvensen a 3 a 1 a 1 a 2 med aritmetisk kodning. Ta fram kodordet. Anta att alla beräkningar kan göras med oändlig precision Gör samma sak som i uppgift 2.10, men låt alla sannolikheter och gränser lagras med sex bitars noggrannhet. Skifta ut kodordsbitar så snart som möjligt Antag samma källa som i uppgift 2.10 och uppgift Låt alla sannolikheter och gränser lagras med sex bitars noggrannhet. Avkoda kodordet Vi vet att kodordet motsvarar fem symboler Ett system för att överföra enkla färgbilder använder färgerna vitt, svart, rött, blått grönt och gult. Källan modelleras som en första ordningens markovkälla med följande övergångssannolikheter Tillstånd sannolikhet för nästa tillstånd vitt svart rött blått grönt gult vitt svart rött blått grönt gult Vi använder aritmetisk kodning för att koda sekvenser från källan. Kodaren utnyttjar de betingade sannolikheterna vid kodningen. a) En sekvens börjar med rött, vitt, vitt. Vilket intervall motsvaras detta av? Antag att den föregående bildpunkten var röd. b) Avkodaren väntar på en ny sekvens. Bitströmmen tas emot. Vilka är de två första färgerna i denna sekvens? Den sista pixeln i föregående sekvens var svart Man vill koda en stationär och binär minneskälla med alfabetet A = {a, b}. Följande blocksannolikheter p(x n,x n+1 ) har mätts upp och kan antas vara de sanna: p(aa) = 1/7 p(ab) = 1/7 p(ba) = 1/7 p(bb) = 4/7 Konstruera ett kodord för sekvensen bbab genom att använda aritmetisk kodning. Koden ska vara baserad på betingade sannolikheter. Anta att symbolen närmast innan sekvensen som ska kodas är b En källa har alfabtetet A = {a,b}. Koda sekvensen ababbaaababbbbaaabaaaaaababba... med LZ77. Historiebufferten har storlek 16 och maximal matchlängd är 15. Kontrollera din lösning genom att avkoda kodorden Koda sekvensen i uppgift 2.15 med LZ Koda sekvensen i uppgift 2.15 med LZW. 7 8

6 Lösningar eftersom E { } P(X)P(Y ) P(X,Y ) = P(x,y) P(x)P(y) = 1. P(x,y) x,y 1.1 H(X) = 4 i=1 p X(x i ) log p X (x i ) = log 1 4 = H(Y ) = 4 i=1 p Y (x i ) log p Y (y i ) = 1 2 log log log 1 8 = a) Oberoende ger direkt att p XY (x i,y j ) = p X (x i ) p Y (y j ). b) Eftersom X och Y är oberoende gäller att H(X,Y ) = H(X) + H(Y ) = 3.75 c) H(X,Y ) = p XY (x i,y j ) log p XY (x i,y j ) i j = p X (x i ) p Y (y j )(log p X (x i ) + log p Y (y j )) i j = p Y (y j ) p X (x i ) log p X (x i ) ( ) p X (x i ) p Y (y j ) log p Y (y j ) i j j i = H(X) + H(Y ) d) Betrakta (X 1,...,X n 1 ) som en stokastisk variabel och konstruera ett induktionsbevis. 1.4 a) p Z (z i ) = 1 4, z i ger maximal entropi. b) p Z (1) = 1, p Z (2) = p Z (3) = p Z (4) = 0 ger H(Z) = 0. Eftersom entropin alltid är icke-negativ är detta minimalt. Lösningen är inte unik. 1.5 a) Ledning: i=0 i=0 q i = 1, q < 1. 1 q b) H(U) = h(q) 1 q Ledning: i q i q = (1 q) 2, q < 1. c) E { U } = q 1 q ( ) 1.6 ln 2 I(X;Y ) = ln 2 H(X Y ) H(X) { = E ln P(X)P(Y ) } { P(X)P(Y ) E P(X,Y ) P(X,Y ) ( = ln 2 } 1 = 0 ) H(X,Y ) H(X) H(Y ) 1.7 a) H + 1 b) H + p c) 2H 1.8 a) H(f(X) X) = / Z = f(x) / = H(Z X) = = p XZ (a i,b j ) log p }{{} Z X(b j a i ) }{{} b j A Z a i A X =0,f(a i) b j = 0 b) H(X,f(X)) = / kedjeregeln / =1,f(a i)=b j = H(X) + H(f(X) X) }{{} =0 enligt a) c) H(X) H(f(X)) = / enligt b) / = H(X,f(X)) H(f(X)) = / kedjeregeln / = H(X f(x)) Enligt 1.8 så har en funktion av en stokastisk variabel lika eller mindre entropi än variabeln själv, vilket leder till den högra olikheten. För den vänstra olikheten sätter vi Z = X + Y och visar att H(Z Y ) = = z y p ZY (z,y) log = x y p XY (x,y) log (1) = x y p X(x)p Y (y) log 1.10 Visa pzy (z,y) p Y (y) pxy (x,y) p Y (y) px(x)py (y) p Y (y) = ( y p Y (y)) ( y p X(x) log p X (x) = / / x=z y Vid (1) använde vi oberoendet. Vi kan nu skriva ) = H(X) H(X + Y ) H(X + Y Y ) = H(X) Se 1.6 för ett bevis på att betingning inte kan öka entropin. H(X Y ) + H(Y Z) (1) 9 10

7 H(X Y Z) + H(Y Z) = H(X Y Z) + H(Y Z) + H(Z) H(Z) }{{} kedjeregeln =H(XY Z) = H(XY Z) H(Z) (2) = H(X Z) + H(Y XZ) H(X Z) där vi vid (1) utnyttjade det faktum att betingning aldrig ökar entropin och vid (2) använde kedjeregeln: H(XY Z) = H(Z) + H(X Z) + H(Y XZ) Kedjeregeln bevisas genom H(X,Y ) = E { log p XY (X,Y ) } = E { log p X Y (X Y )p Y (Y ) } = E { log p X Y (X Y ) } + E { log p Y (Y ) } = H(X Y ) + H(Y ) Låt nu X = X n+1 och Y = (X 1,...,X n ) a) H = 1 b) H = h( 8 12 ) = 8 12 log log 12 4 c) H = log Notera att detta är mindre än summan av entropierna för de olika bitarna, eftersom de olika bitarna inte är oberoende av varandra Övergångsmatrisen P för källan är P = Den stationära fördelningen w = (w 0, w 1, w 2 ) ges av ekvationssystemet w = w P. Ersätt någon av ekvationerna (vilken som helst) med ekvationen w 0 + w 1 + w 2 = 1 och lös systemet. Det ger oss lösningen w = 1 (5, 1, 1) (0.714, 0.143, 0.143) a) H(X i ) = 5 7 log log [bit/sym]. b) Blocksannolikheterna ges av symbolpar sannolikhet 00 5/7 0.8 = 8/ /7 0.1 = 1/ /7 0.1 = 1/ /7 0.5 = 1/ /7 0.5 = 1/ /7 0.5 = 1/ /7 0.5 = 1/14 H(X i,x i+1 ) = 8 14 log log [bitar/par]. ( 1.05 [bitar/symbol]). Entropin för par är mindre än 2 gånger den minnesfria entropin. c) Enligt kedjeregeln är H(X i X i 1 ) = H(X i 1,X i ) H(X i 1 ) Övergångsmatrisen P för källan är P = Den stationära fördelningen w = (w aa, w ab, w ba,w bb ) ges av ekvationssystemet w = w P. Ersätt någon av ekvationerna (vilken som helst) med ekvationen w aa + w ab + w ba + w bb = 1 och lös systemet. Det ger oss lösningen w = 1 (3, 1, 1, 3) 8 Den stationära fördelningen är förstås också sannolikheterna för par av symboler, så vi kan beräkna H(X i X i 1 ) direkt H(X i X i 1 ) = log log Sannolikheterna för enstaka symboler fås ur marginalfördelningen p(a) = p(aa) + p(ab) = 0.5, p(b) = p(ba) + p(bb) = 0.5 H(X i ) = 1 Sannolikheterna för tre symboler fås ur p XiX i 1X i 2 = p Xi 1X i 2 p Xi X i 1X i 2 p(aaa) = = 21 80, p(baa) = = 9 80 p(aba) = = 4 80, p(bba) = =

8 Vilket ger oss p(aab) = = 9 80, p(bab) = = 1 80 p(abb) = = 6 80, p(bbb) = = 8 80 H(X i X i 1 X i 2 ) Nu kan vi beräkna de betingade entropierna med hjälp av kedjeregeln H(X i X i 1 ) = H(X i X i 1 ) H(X i 1 ) H(X i X i 1 X i 2 ) = H(X i X i 1 X i 2 ) H(X i 1 X i 2 ) Ja, eftersom Krafts olikhet är uppfylld R = 2 [bit/sym]. 2.3 Sannolikheter för par av symboler: {0.4585,0.0415, , } Sannolikheter för tre symboler: {0.4205, , , , , , , } 1 = (1 p) 1 p log(1 p) (1 p) p (1 p) 2 log p = h(p) [bitar/skur] 1 p d) H(R) = h(p) [bitar/symbol] r Samma svar fås naturligtvis om vi räknar ut entropitakten direkt från källan. 2.5 a) Om vi gör en direkt avbildning till den binära representationen får vi l = E {kodordslängd/skur } = (1 p)p r (1 p)p r (1 p)p r = 5 r=30 4 (1 p)p r 1 + 4p 14 (1 p)p r 1 + 4p 29 (1 p)p r = 4 (1 p)p r 1 (1 + p 14 p 15i ) = 4(1 + p14 1 p15) [bitar/skur] i=0 Från problem 2.3 vet vi att r [symboler/skur], därför blir datatakten [bitar/symbol]. l r b) På samma sätt som i a) får vi p l 30 = 5(1 + 1 p31) [bitar/skur] och datatakten [bitar/sym]. aa bb ab ba l 1.62 R 0.81 l 1.95 R 0.65 Det är bättre att koda tre symboler i taget. 2.4 a) p(r) = p r 1 (1 p) b) r = r (1 p) p r 1 = 1 1 p = [symboler/skur] 0.5 c) H(R) = (1 p) p r 1 log((1 p) p r 1 ) = (1 p) log(1 p) p r 1 (1 p) log p (r 1) p r a) Eftersom skurar av a respektive b har samma sannolikheter kan vi använda samma golombkod för båda typerna av skurar. Eftersom sannolikheten för en skur av längd r är p(r) = p r 1 (1 p) får vi en optimal kod om m väljs som m = 1 log p = 8 b) En golombkod med parameter m = 8 har 8 kodord av längd 4, 8 kodord av längd 5, 8 kodord av längd 6 et c. Kodordsmedellängden blir l = E {kodordslängd/skur } = (1 p)p r (1 p)p r r= (1 p)p r = 4 (1 p)p r 1 + p 8 (1 p)p r 1 + p 16 (1 p)p r = 4 + p 8i = 4 + p8 1 p 8 = 5 [bitar/skur] i=

9 Från problem 2.3 vet vi att r [symboler/skur], därför blir datatakten [bitar/symbol]. l r 2.7 a) Den teoretiskt lägsta gränsen ges av entropitakten för källan. Den bästa modell av källan vi kan göra, givet den information vi har, är en markovkälla av ordning 1. I textområdena ser den ut som B W De stationära sannolikheterna för denna källa är w B = 1 6 and w W = 5 6 och entropitakten för när vi befinner oss i ett textområde är därför H t = w B h(0.5) + w W h(0.9) För bildområden blir, på samma sätt, entropitakten H p Den totala entropitakten för källan är därför H = 4 5 H t H p Detta är det bästa estimat vi kan göra, den riktiga entropitakten för källan kan vara lägre, om minnet är längre än bara en bildpunkt tillbaka, som vi antog. b) Den önskade datatakten kan uppnås genom att koda block om 3 symboler. Sannolikheterna för de 8 olika blocken kan beräknas som De åtta sannolikheterna blir P(X 1 X 2 X 3 ) = P(X 1 )P(X 2 X 1 )P(X 3 X 2 ) P = 1 { } 120 Konstruera koden med huffmanalgoritmen. Den resulterande datatakten blir bitar/bildpunkt. 2.8 a) Det är möjligt att komma godtyckligt nära källans entropitakt. För den givna källan ges entropitakten av H(S n+1 S n ) = w A H(S n+1 S n = A) + w B H(S n+1 S n = B) + w C H(S n+1 S n = C) + w D H(S n+1 S n = D) 2.9 där w A et.c. betecknar de stationära sannolikheterna för tillstånden. Dessa beräknas ur följande ekvationssytem, plus det faktum att de ska summera till w A w A (w A w B w C w D ) = 1 ( ) 731 och entropitakten blir då w B w C w D = w B w C w D H(S n+1 S n ) = ( h(0.2) + 560h(0.1) + 80h(0.3)) = bitar/symbol. b) Optimala trädkoder kan konstrueras med hjälp av huffmans algoritm. När vi kodar enstaka symboler använder vi de stationära sannolikheterna. Till exempel kan vi få följande kod symbol sannolikhet kodord längd A 56/ B 35/ C 560/ D 80/ som ger en datatakt på bitar/symbol 731 Sannolikheterna för par av symboler beräknas enkelt ur P(X 1 X 2 ) = P(X 1 )P(X 2 X 1 ). Vi får till exempel följande kod. symbol sannolikhet kodord längd AB 28/ AD 28/ BB 7/ BD 28/ CA 56/ CC 504/ DC 56/ DD 24/ Den resulterande datatakten är bitar/symbol a) Sannolikheterna för de olika konturerna ger följande blocksannolikheter: RR 0.24 RH, HR, V R, RV 0.10 V H, HV 0.16 V V, HH

10 2.10 Vi vill koda en symbol i taget och behöver därför de (stationära) sannolikheterna för de enstaka symbolerna. Dessa kan beräknas exempelvis enligt: P(V ) = P(V V ) + P(V R) + P(V H) = 0.28 P(R) = P(RV ) + P(RR) + P(RH) = 0.44 P(H) = P(HV ) + P(HR) + P(HH) = 0.28 Huffmanträdet blir då R. V H Datatakten: R = l = = 1.56 b) Gränsen för en markovkälla ges av den betingade entropin H(X 2 X 1 ). H(X 2 X 1 ) kan t ex beräknas med hjälp av kedjeregeln: H(X 2 X 1 ) = H(X 1,X 2 ) H(X 1 ) = = F(0) = 0, F(1) = 0.6, F(2) = 0.8, F(3) = 1 l (0) = 0 u (0) = 1 l (1) = 0 + (1 0) 0.8 = 0.8 u (1) = 0 + (1 0) 1 = 1 l (2) = (1 0.8) 0 = 0.8 u (2) = (1 0.8) 0.6 = 0.92 l (3) = ( ) 0 = 0.8 u (3) = ( ) 0.6 = l (4) = ( ) 0.6 = u (4) = ( ) 0.8 = Intervallet som motsvarar sekvensen är alltså [0.8432, ). Storleken på intervallet är , vilket, innebär att vi ska använda minst log = 7 bitar i kodordet. Alternativ 1: Det minsta tal med 7 bitar som ligger i intervallet är ( ) 2 = Eftersom även ( ) 2 = ligger i intervallet räcker det med 7 bitar, och kodordet blir alltså Alternativ 2: Mittpunkten på intervallet är = ( ) 2. Trunkera till 7+1=8 bitar, vilket ger oss kodordet Med sex bitar lagras alla värden som -delar. Fördelningen blir då F(0) = 0, F(1) = 38, F(2) = 51, F(3) = l (0) = 0 = (000000) 2 u (0) = 63 = (111111) 2 l (1) ( ) 51 = 0 + = 51 = (110011) 2 u (1) ( ) = = 63 = (111111) 2 Skifta ut 1 till kodordet, skifta in 0 i l och 1 in u l (1) = (100110) 2 = 38 u (1) = (111111) 2 = 63 Skifta ut 1 till kodordet, skifta in 0 i l och 1 in u l (1) = (001100) 2 = 12 u (1) = (111111) 2 = 63 l (2) ( ) 0 = 12 + = 12 = (001100) 2 u (2) ( ) 38 = = 41 = (101001) 2 l (3) ( ) 0 = 12 + = 12 = (001100) 2 u (3) ( ) 38 = = 28 = (011100) 2 Skifta ut 0 till kodordet, skifta in 0 i l och 1 in u l (3) = (011000) 2 = 24 u (3) = (111001) 2 = 57 l (4) ( ) 38 = 24 + = 44 = (101100) 2 u (4) ( ) 51 = = 50 = (110010) 2 Eftersom det inte kommer några fler symboler behöver vi inte göra fler skiftoperationer. Kodordet blir de bitar som skiftats ut tidigare plus hela l (4), dvs

11 2.12 Med sex bitar lagras alla värden som -delar. Fördelningen blir då F(0) = 0, F(1) = 38, F(2) = 51, F(3) = Det innebär att intervallet 0-37 hör till symbol a 1, intervallet till symbol a 2 och intervallet till symbol a 3. l (0) = (000000) 2 = 0 u (0) = (111111) 2 = 63 t = (101110) 2 = 46 ( ) 1 = 46 a l (1) ( ) 38 = 0 + = 38 = (100110) 2 u (1) ( ) 51 = = 50 = (110010) 2 Skifta ut 1, skifta in 0 i l, 1 in u och en ny bit från kodordet i t. l (1) = (001100) 2 = 12 u (1) = (100101) 2 = 37 t = (011101) 2 = 29 ( ) 1 = 44 a l (2) ( ) 38 = 12 + = 27 = (011011) 2 u (2) ( ) 51 = = 31 = (011111) 2 De tre första bitarna är desamma i l och u. Skifta ut dem, skifta in nollor i l, ettor i u och tre nya bitar från kodordet i t. l (2) = (011000) 2 = 24 u (2) = (111111) 2 = 63 t = (101010) 2 = 42 ( ) 1 = 30 a l (3) ( ) 0 = 24 + = 24 = (011000) 2 u (3) ( ) 38 = = 46 = (101110) 2 De två första bitarna i l är 01 och de två första i u är 10. Skifta l, u och t ett steg, invertera den nya mest signifikanta biten och skifta in 0 i l, 1 i l och en ny bit från kodordet i t l (3) = (010000) 2 = 16 u (3) = (111101) 2 = 61 t = (110100) 2 = 52 ( ) 1 = 51 a l (4) ( ) 51 = 16 + = 52 = (110100) 2 u (4) ( ) = = 61 = (111101) 2 De två första bitarna är desamma i l och u. Skifta ut dem, skifta in nollor i l, ettor i u och två nya bitar från kodordet i t. l (4) = (010000) 2 = 16 u (4) = (110111) 2 = 55 t = (010000) 2 = 16 ( ) 1 = 1 a Eftersom vi nu har avkodat fem symboler behöver vi inte göra fler beräkningar. Den avkodade sekvensen blir alltså a 2 a 2 a 1 a 3 a a) Under antagandet att vi har ordnat färgerna i samma ordning som i tabellen, med vitt närmast 0, så blir intervallet [0.05, ). Om du valde en annan symbolordning borde du i alla fall ha fått samma intervallängd. b) grönt, grönt 2.14 Sannolikheter för enskilda symboler p(x n ) fås ur marginalfördelningen, dvs p(a) = p(aa) + p(ab) = 2/7, p(b) = p(ba) + p(bb) = 5/7 De betingade sannolikheterna p(x n+1 x n ) blir p(a a) = p(aa) p(a) = 1/7 2/7 = 0.5 p(b a) = p(ab) p(a) = 1/7 2/7 =

12 p(a b) = p(ba) p(b) = 1/7 5/7 = 0.2 p(b b) = p(bb) p(b) = 4/7 5/7 = 0.8 Intervallet som motsvarar sekvensen är [0.424,0.488) Intervallstorleken är 0.0, vilket betyder att vi behöver minst log 0.0 = 4 bitar i vårt kodord. Alternativ 1: Det minsta tal med 4 bitar som ligger i intervallet är (0.0111) 2 = Eftersom (0.1000) 2 = 0.5 inte ligger i intervallet räcker det inte med 4 bitar, utan vi måste använda 5 bitar. Vi använder talet ( ) 2 = och kodordet blir alltså Alternativ 2: Mittpunkten på intervallet är = ( ) 2 Trunkera till 4+1=5 bitar, vilket ger oss kodordet Offset 0 är längst till höger i historiebufferten Kodord: (offset, längd, ny symbol) Binärt kodord (0,0,a) (0,0,b) (1,2,b) (2,1,a) (6,5,b) (8,6,a) (1,4,b) (15,3,a) Den kodade sekvensen av par <index, ny symbol> blir: < 0,a > < 0,b > < 1,b > < 2,a > < 1,a > < 4,b > < 2,b > < 4,a > < 3,a > < 5,a > < 5,b > < 3,b >... Om vi antar att ordboken har storleken 16 så går det åt 4+1 bitar för att koda varje par. Ordboken ser i detta läge ut som: index sekvens 0-1 a 2 b 3 ab 4 ba 5 aa 6 bab 7 bb 8 baa 9 aba 10 aaa 11 aab 12 abb 2.17 Den kodade sekvensen av <index> blir: < 0 > < 1 > < 2 > < 3 > < 0 > < 2 > < 4 > < 1 > < 5 > < 7 > < 6 > < 12 > < 3 > < 9 >... Om vi antar att ordboken har storleken 16 så går det åt 4 bitar för att koda varje index. Ordboken ser i detta läge ut som: index sekvens 0 a 1 b 2 ab 3 ba 4 abb 5 baa 6 aa 7 aba 8 abbb 9 bb 10 baaa 11 abaa 12 aaa 13 aaab 14 bab 15 bba 21 22

TSBK04 Datakompression. Övningsuppgifter

TSBK04 Datakompression. Övningsuppgifter TSBK04 Datakompression Övningsuppgifter Innehåll 1 Informationsteoretiska begrepp........................ 1 2 Källkodning................................... 4 Copyright c 2004 Bildkodningsgruppen, Linköpings

Läs mer

Krafts olikhet. En momentant avkodbar kod (prefixkod) med kodordslängderna l 1,...,l N existerar om och endast om. 2 l i. 1 i=1

Krafts olikhet. En momentant avkodbar kod (prefixkod) med kodordslängderna l 1,...,l N existerar om och endast om. 2 l i. 1 i=1 Datakompression fö 2 p.1 Krafts olikhet En momentant avkodbar kod (prefixkod) med kodordslängderna l 1,...,l N existerar om och endast om N 2 l i 1 Bevis: Antag att vi har en trädkod. Låt l max =max{l

Läs mer

Aritmetisk kodning. F (0) = 0 Exempel: A = {1, 2, 3} k=1. Källkodning fö 5 p.1/12

Aritmetisk kodning. F (0) = 0 Exempel: A = {1, 2, 3} k=1. Källkodning fö 5 p.1/12 Aritmetisk kodning Vi identifierar varje sekvens av källsymboler med ett tal i intervallet [0, 1). Vi gör det med hjälp av fördelningsfunktionen (cumulative distribution function) F. För enkelhets skull

Läs mer

Shannon-Fano-Elias-kodning

Shannon-Fano-Elias-kodning Datakompression fö 5 p.1 Shannon-Fano-Elias-kodning Antag att vi har en minnesfri källa X i som tar värden i {1, 2,...,L}. Antag att sannolikheterna för alla symboler är strikt positiva: p(i) > 0, i. Fördelningsfunktionen

Läs mer

Källkodning. Egenskaper hos koder. Några exempel

Källkodning. Egenskaper hos koder. Några exempel Källkodning Källkodning innebär att vi avbildar sekvenser av symboler ur en källas alfabet på binära sekvenser (kallade kodord). Mängden av alla kodord kalls för en kod. (Man kan förstås tänka sig att

Läs mer

TSBK35 Kompression av ljud och bild

TSBK35 Kompression av ljud och bild TSBK35 Kompression av ljud och bild Övningshäfte 0 februari 013 Innehåll I Problem 1 1 Informationsteori................................ 1 Källkodning................................... 3 3 Kvantisering...................................

Läs mer

Skurlängdskodning. aaaabbbbbbbccbbbbaaaa. Man beskriver alltså sekvensen med ett annat alfabet än det ursprungliga.

Skurlängdskodning. aaaabbbbbbbccbbbbaaaa. Man beskriver alltså sekvensen med ett annat alfabet än det ursprungliga. Datakompression fö 4 p1 Skurlängdskodning Ibland har man källor som producerar långa delsekvenser av samma symbol Det kan då vara praktiskt att istället för att beskriva sekvensen som en följd av enstaka

Läs mer

Optimala koder. Övre gräns för optimala koder. Gränser. Övre gräns för optimala koder, forts.

Optimala koder. Övre gräns för optimala koder. Gränser. Övre gräns för optimala koder, forts. Datakompression fö 3 p.3 Datakompression fö 3 p.4 Optimala koder Övre gräns för optimala koder En prefixkod kallas optimal om det inte existerar någon annan kod (för samma alfabet och sannolikhetsfördelning)

Läs mer

Optimala koder. Det existerar förstås flera koder som har samma kodordsmedellängd. Enklaste fallet är att bara byta 0:or mot 1:or.

Optimala koder. Det existerar förstås flera koder som har samma kodordsmedellängd. Enklaste fallet är att bara byta 0:or mot 1:or. Datakompression fö 3 p.1 Optimala koder En prefixkod kallas optimal om det inte existerar någon annan kod (för samma alfabet och sannolikhetsfördelning) som har lägre kodordsmedellängd. Det existerar förstås

Läs mer

FLAC (Free Lossless Audio Coding)

FLAC (Free Lossless Audio Coding) Datakompression fö 9 p.1 FLAC (Free Lossless Audio Coding) Distorsionsfri kodning av ljud Ljudsignalen delas in i block (typiskt några tusen sampel). Koda summa/skillnad av de två stereokanalerna om det

Läs mer

Datakompression. Harald Nautsch ISY Bildkodning, Linköpings universitet.

Datakompression. Harald Nautsch ISY Bildkodning, Linköpings universitet. Datakompression fö 1 p.1 Datakompression Harald Nautsch harna@isy.liu.se http://www.icg.isy.liu.se/courses/tsbk04/ ISY Bildkodning, Linköpings universitet Datakompression fö 1 p.2 Kursinnehåll Källmodellering:

Läs mer

Kursinnehåll. Datakompression. Föreläsningar, preliminärt program. Examination

Kursinnehåll. Datakompression. Föreläsningar, preliminärt program. Examination Datakompression fö 1 p.3 Datakompression fö 1 p.4 Kursinnehåll Datakompression Harald Nautsch harna@isy.liu.se http://www.icg.isy.liu.se/courses/tsbk04/ ISY Bildkodning, Linköpings universitet Källmodellering:

Läs mer

Adaptiv aritmetisk kodning

Adaptiv aritmetisk kodning Datakompression fö 8 p.1 Adaptiv aritmetisk kodning Aritmetisk kodning är väldigt enkel att göra adaptiv, eftersom vi bara behöver göra en adaptiv sannolikhetsmodell, medan själva kodaren är fix. Till

Läs mer

Ordbokskodning. Enkel variant av kodning med variabelt antal insymboler och fixlängds kodord. (Jfr tunstallkodning)

Ordbokskodning. Enkel variant av kodning med variabelt antal insymboler och fixlängds kodord. (Jfr tunstallkodning) Datakompression fö 6 p.1 Ordbokskodning Enkel variant av kodning med variabelt antal insymboler och fixlängds kodord. (Jfr tunstallkodning) Man skapar en ordbok som innehåller 2 b olika sekvenser av symboler

Läs mer

Exempel, minnesfri binär källa. Ordbokskodning. Lempel-Zivkodning. Lempel-Zivkodning, forts.

Exempel, minnesfri binär källa. Ordbokskodning. Lempel-Zivkodning. Lempel-Zivkodning, forts. Datakompression fö 6 p.3 Datakompression fö 6 p.4 Ordbokskodning Exempel, minnesfri binär källa Enkel variant av kodning med variabelt antal insymboler och fixlängds kodord. (Jfr tunstallkodning) Man skapar

Läs mer

Kompression av ljud och bild

Kompression av ljud och bild Kompression av ljud och bild Harald Nautsch harna@isy.liu.se ISY Informationskodning, Linköpings universitet http://www.icg.isy.liu.se/courses/tsbk35/ Kurslitteratur Rekommenderad bok: Khalid Sayood, Introduction

Läs mer

Kurslitteratur. Kompression av ljud och bild. Föreläsningar, preliminärt program. Laborationer

Kurslitteratur. Kompression av ljud och bild. Föreläsningar, preliminärt program. Laborationer TSBK35 källkodning p.3/89 TSBK35 källkodning p.4/89 Kurslitteratur Kompression av ljud och bild Harald Nautsch harna@isy.liu.se http://www.icg.isy.liu.se/courses/tsbk35/ ISY Informationskodning, Linköpings

Läs mer

Kurslitteratur. Kompression av ljud och bild. Föreläsningar, preliminärt program. Laborationer. Khalid Sayood, Introduction to Data Compression

Kurslitteratur. Kompression av ljud och bild. Föreläsningar, preliminärt program. Laborationer. Khalid Sayood, Introduction to Data Compression TSBK35 fö 1 p.3 TSBK35 fö 1 p.4 Kurslitteratur Kompression av ljud och bild Harald Nautsch harna@isy.liu.se http://www.icg.isy.liu.se/courses/tsbk35/ ISY Bildkodning, Linköpings universitet Khalid Sayood,

Läs mer

Linjär prediktion. Prediktiv kodning. Linjär prediktion. Prediktiv kodare och avkodare

Linjär prediktion. Prediktiv kodning. Linjär prediktion. Prediktiv kodare och avkodare Prediktiv kodning Linjär prediktion Närliggande sampel i en signal är oftast starkt korrelerade med varandra, det kan därför vara en bra ide att försöka utnyttja denna korrelation (minnet) innan kvantiseringen

Läs mer

En generell prediktiv kodare utnyttjar signalens utseende N steg tillbaka i tiden för kodningen, dvs vi kodar efter den betingade fördelningen

En generell prediktiv kodare utnyttjar signalens utseende N steg tillbaka i tiden för kodningen, dvs vi kodar efter den betingade fördelningen Prediktiv kodning Närliggande sampel i en signal är oftast starkt korrelerade med varandra, det kan därför vara en bra ide att försöka utnyttja denna korrelation (minnet) innan kvantiseringen för att få

Läs mer

Informationsteori. Repetition Kanalkapaciteten C. Repetition Källkodhastigheten R 2. Repetition Kanalkodhastigheten R 1. Huffmans algoritm: D-när kod

Informationsteori. Repetition Kanalkapaciteten C. Repetition Källkodhastigheten R 2. Repetition Kanalkodhastigheten R 1. Huffmans algoritm: D-när kod Informationsteori Repetition Kanalkapaciteten C Källkodare Kanalkodare X Kanal Mats Cedervall Mottagare vkodare Kanalavkodare Y Kanalkodningssatsen C =supi(x; Y ) p(x) Informationsteori, fl#7 1 Informationsteori,

Läs mer

Detta ger oss att kanalkapaciteten för den ursprungliga kanalen är C = q 1 C 1 + q 2 C C =1 h ( ) 0.30.

Detta ger oss att kanalkapaciteten för den ursprungliga kanalen är C = q 1 C 1 + q 2 C C =1 h ( ) 0.30. Lösning på problem a) Kanalen är symmetrisk och vi gör nedanstående uppdelning av den. Vi får två starkt symmetriska kanaler vilkas kanalkapacitet ges av C och C 2. Kanalerna väljes med sannolikheterna

Läs mer

Träd och koder. Anders Björner KTH

Träd och koder. Anders Björner KTH 27 Träd och koder Anders Björner KTH 1. Inledning. Det är i flera sammanhang viktigt att representera information digitalt (d.v.s omvandla till sviter av nollor och ettor). Beroende på vilka villkor som

Läs mer

Burrows-Wheelers transform

Burrows-Wheelers transform Datakompression fö 7 p.1 Burrows-Wheelers transform Transformen själv ger ingen kompression, men gör det lättare att koda signalen med en enkel kodare. Antag att vi vill koda en sekvens av längd n. Skapa

Läs mer

Föreläsninsanteckningar till föreläsning 3: Entropi

Föreläsninsanteckningar till föreläsning 3: Entropi Föreläsninsanteckningar till föreläsning 3: Entropi Johan Håstad, transkriberat av Pehr Söderman 2006-01-20 1 Entropi Entropi är, inom kryptografin, ett mått på informationsinnehållet i en slumpvariabel.

Läs mer

Idag: Reguljära språk Beskrivs av Reguljära uttryck DFA Grammatik

Idag: Reguljära språk Beskrivs av Reguljära uttryck DFA Grammatik Idag: Reguljära språk Beskrivs av Reguljära uttryck DFA Grammatik Först några definitioner: Alfabet = en ändlig mängd av tecken. Ex. {0, 1}, {a,b}, {a, b,..., ö} Betecknas ofta med symbolen Σ Sträng =

Läs mer

Markovkedjor. Patrik Zetterberg. 8 januari 2013

Markovkedjor. Patrik Zetterberg. 8 januari 2013 Markovkedjor Patrik Zetterberg 8 januari 2013 1 / 15 Markovkedjor En markovkedja är en stokastisk process där både processen och tiden antas diskreta. Variabeln som undersöks kan både vara numerisk (diskreta)

Läs mer

Satsen om total sannolikhet och Bayes sats

Satsen om total sannolikhet och Bayes sats Satsen om total sannolikhet och Bayes sats Satsen om total sannolikhet Ibland är det svårt att direkt räkna ut en sannolikhet pga att händelsen är komplicerad/komplex. Då kan man ofta använda satsen om

Läs mer

Kodning med distorsion

Kodning med distorsion Kodning med distorsion Vi har en signal x n, n = 1... N som ska kodas. Alfabetet är en delmängd av de reella talen A R. Alfabetet kan vara kontinuerligt. Om vi inte har kravet att den avkodade signalen

Läs mer

SF1901 Sannolikhetsteori och statistik I

SF1901 Sannolikhetsteori och statistik I SF1901 Sannolikhetsteori och statistik I Jimmy Olsson Föreläsning 3 4 november 2016 1 / 28 Idag Förra gången Stokastiska variabler (Kap. 3.2) Diskret stokastisk variabel (Kap. 3.3 3.4) Kontinuerlig stokastisk

Läs mer

Stokastiska processer och simulering I 24 maj

Stokastiska processer och simulering I 24 maj STOCKHOLMS UNIVERSITET LÖSNINGAR MATEMATISKA INSTITUTIONEN Stokastiska processer och simulering I Avd. Matematisk statistik 24 maj 2016 Lösningar Stokastiska processer och simulering I 24 maj 2016 9 14

Läs mer

Stokastiska processer

Stokastiska processer Stokastiska processer Fredrik Olsson, fredrik.olsson@iml.lth.se Avdelningen för produktionsekonomi Lunds tekniska högskola, Lunds universitet Dessa förläsningsanteckningar kommer att behandla diskreta

Läs mer

a = a a a a a a ± ± ± ±500

a = a a a a a a ± ± ± ±500 4.1 Felanalys Vill man hårddra det hela, kan man påstå att det inte finns några tal i den tillämpade matematiken, bara intervall. Man anger till exempel inte ett uppmätt värde till 134.78 meter utan att

Läs mer

x 23 + y 160 = 1, 2 23 = ,

x 23 + y 160 = 1, 2 23 = , Matematiska Institutionen KTH Lösningar till några övningar, inför tentan moment B, på de avsnitt som inte omfattats av lappskrivningarna, Diskret matematik för D2 och F, vt08.. Ett RSA-krypto har n =

Läs mer

Tentamen'i'TMA321'Matematisk'Statistik,'Chalmers'Tekniska'Högskola.''

Tentamen'i'TMA321'Matematisk'Statistik,'Chalmers'Tekniska'Högskola.'' Tentamen'i'TMA321'Matematisk'Statistik,'Chalmers'Tekniska'Högskola.'' Hjälpmedel:'Valfri'räknare,'egenhändigt'handskriven'formelsamling'(4''A4Esidor'på'2'blad)' och'till'skrivningen'medhörande'tabeller.''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''

Läs mer

Matematisk statistik 9 hp Föreläsning 3: Transformation och simulering

Matematisk statistik 9 hp Föreläsning 3: Transformation och simulering Matematisk statistik 9 hp Föreläsning 3: Transformation och simulering Anna Lindgren 8+9 september 216 Anna Lindgren - anna@maths.lth.se FMS12/MASB3: transform 1/11 Stokastisk variabel Kvantil Stokastisk

Läs mer

TAMS79: Föreläsning 10 Markovkedjor

TAMS79: Föreläsning 10 Markovkedjor TAMS79: Föreläsning 0 Markovkedjor Johan Thim december 08 0. Markovkedjor Vi ska nu betrakta en speciell tidsdiskret diskret stokastisk process, nämligen Markovkedjan. Vi börjar med en definition Definition.

Läs mer

Kombinatorik. Kapitel 2. Allmänt kan sägas att inom kombinatoriken sysslar man huvudsakligen med beräkningar av

Kombinatorik. Kapitel 2. Allmänt kan sägas att inom kombinatoriken sysslar man huvudsakligen med beräkningar av Kapitel 2 Kombinatorik Allmänt kan sägas att inom kombinatoriken sysslar man huvudsakligen med beräkningar av det antal sätt, på vilket elementen i en given mängd kan arrangeras i delmängder på något sätt.

Läs mer

Föreläsning 9: Turingmaskiner och oavgörbarhet. Turingmaskinen. Den maximalt förenklade modell för beräkning vi kommer använda är turingmaskinen.

Föreläsning 9: Turingmaskiner och oavgörbarhet. Turingmaskinen. Den maximalt förenklade modell för beräkning vi kommer använda är turingmaskinen. Föreläsning 9: Turingmaskiner och oavgörbarhet Turingmaskinen Den maximalt förenklade modell för beräkning vi kommer använda är turingmaskinen. Data är ett oändligt långt band där nollor och ettor står

Läs mer

Stokastiska processer och simulering I 24 augusti

Stokastiska processer och simulering I 24 augusti STOCKHOLMS UNIVERSITET LÖSNINGAR MATEMATISKA INSTITUTIONEN Stokastiska processer och simulering I Avd Matematisk statistik 24 augusti 2016 Lösningar Stokastiska processer och simulering I 24 augusti 2016

Läs mer

SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016

SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016 SF1901: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 4 KONTINUERLIGA STOKASTISKA VARIABLER Tatjana Pavlenko 7 september 2016 PLAN FÖR DAGENS FÖRELÄSNING Repetition av diskreta stokastiska variabler. Väntevärde

Läs mer

Turingmaskiner och oavgörbarhet. Turingmaskinen. Den maximalt förenklade modell för beräkning vi kommer använda är turingmaskinen.

Turingmaskiner och oavgörbarhet. Turingmaskinen. Den maximalt förenklade modell för beräkning vi kommer använda är turingmaskinen. Turingmaskiner och oavgörbarhet Turingmaskinen Den maximalt förenklade modell för beräkning vi kommer använda är turingmaskinen. Data är ett oändligt långt band där nollor och ettor står skrivna: Oändligt

Läs mer

Tentamen i IE1204/5 Digital Design måndagen den 15/

Tentamen i IE1204/5 Digital Design måndagen den 15/ Tentamen i IE1204/5 Digital Design måndagen den 15/10 2012 9.00-13.00 Allmän information Examinator: Ingo Sander. Ansvarig lärare: William Sandqvist, tel 08-790 4487 (Kista IE1204), Tentamensuppgifterna

Läs mer

Moment Viktiga exempel Övningsuppgifter

Moment Viktiga exempel Övningsuppgifter Moment Viktiga exempel Övningsuppgifter Inga Inga Inga Linjära ekvationssystem Vi har redan tidigare i kursen stött på linjära ekvationssystem. Nu är stunden kommen till en mera systematisk genomgång.

Läs mer

Föreläsning 7. Felrättande koder

Föreläsning 7. Felrättande koder Föreläsning 7 Felrättande koder Antag att vi vill skicka ett meddelande som består av bokstäver a,b,c,d. Vi kan koda a,b,c,d. Antag att det finns en viss sannolikhet att en bit i ett meddelande som skickas

Läs mer

2.1 Mikromodul: stokastiska processer

2.1 Mikromodul: stokastiska processer 2. Mikromodul: stokastiska processer 9 2. Mikromodul: stokastiska processer 2.. Stokastiska variabler En stokastiskt variabel X beskrivs av dess täthetsfunktion p X (x), vars viktigaste egenskaper sammanfattas

Läs mer

MVE051/MSG Föreläsning 14

MVE051/MSG Föreläsning 14 MVE051/MSG810 2016 Föreläsning 14 Petter Mostad Chalmers December 14, 2016 Beroende och oberoende variabler Hittills i kursen har vi tittat på modeller där alla observationer representeras av stokastiska

Läs mer

Lösningsförslag till övningsuppgifter, del V

Lösningsförslag till övningsuppgifter, del V Lösningsförslag till övningsuppgifter, del V Obs! Preliminär version! Ö.1. (a) Vi kan lösa uppgiften genom att helt enkelt räkna ut avståndet mellan vart och ett av de ( 7 ) = 1 paren. Först noterar vi

Läs mer

Moment 5.5 Övningsuppgifter I 5.60a. 5.60b, 5.60.c, 61

Moment 5.5 Övningsuppgifter I 5.60a. 5.60b, 5.60.c, 61 Moment 5.5 Övningsuppgifter I 5.0a. 5.0b, 5.0.c, 1 Linjära ekvationssystem Vi har redan tidigare i kursen stött på linjära ekvationssystem. Nu är stunden kommen till en mera systematisk genomgång. Kvadratiska

Läs mer

19.1 Funktioner av stokastiska variabler

19.1 Funktioner av stokastiska variabler 9. Funktioner av stokastiska variabler 9.. Oberoende stokastiska variabler Som vi minns innebär P(A B) = P(A) P(B) att händelserna A och B är oberoende. Låt A vara händelsen att X < x och B vara händelsen

Läs mer

Kurssammanfattning MVE055

Kurssammanfattning MVE055 Obs: Detta är enbart tänkt som en översikt och innehåller långt ifrån allt som ingår i kursen (vilket anges exakt på hemsidan). Fullständiga antaganden i satser kan saknas och fel kan förekomma så kontrollera

Läs mer

SF1901: Sannolikhetslära och statistik

SF1901: Sannolikhetslära och statistik SF9: Sannolikhetslära och statistik Föreläsning 3. Stokastiska variabler, diskreta och kontinuerliga Jan Grandell & Timo Koski 8.9.28 Jan Grandell & Timo Koski () Matematisk statistik 8.9.28 / 45 Stokastiska

Läs mer

Lösning till tentamensskrivning i Diskret Matematik för CINTE, CL2 och Media 1, SF1610 och 5B1118, onsdagen den 17 augusti 2011, kl

Lösning till tentamensskrivning i Diskret Matematik för CINTE, CL2 och Media 1, SF1610 och 5B1118, onsdagen den 17 augusti 2011, kl Matematiska Institutionen KTH Lösning till tentamensskrivning i Diskret Matematik för CINTE, CL och Media, SF60 och 5B8, onsdagen den 7 augusti 0, kl 4.00-9.00. Examinator: Olof Heden Hjälpmedel: Inga

Läs mer

1. För vilka värden på konstanterna a och b är de tre vektorerna (a,b,b), (b,a,b) och (b,b,a) linjärt beroende.

1. För vilka värden på konstanterna a och b är de tre vektorerna (a,b,b), (b,a,b) och (b,b,a) linjärt beroende. Institutionen för matematik KTH MOELLTENTAMEN Tentamensskrivning, år månad dag, kl. x. (x + 5).. 5B33, Analytiska metoder och linjär algebra. Uppgifterna 5 svarar mot varsitt moment i den kontinuerliga

Läs mer

Föreläsning 12: Repetition

Föreläsning 12: Repetition Föreläsning 12: Repetition Marina Axelson-Fisk 25 maj, 2016 GRUNDLÄGGANDE SANNOLIKHETSTEORI Grundläggande sannolikhetsteori Utfall = resultatet av ett försök Utfallsrum S = mängden av alla utfall Händelse

Läs mer

Tentamen i matematisk statistik, TAMS15/TEN (4h)

Tentamen i matematisk statistik, TAMS15/TEN (4h) LINKÖPINGS UNIVERSITET Kurskod: TAMS1 Matematiska institutionen Provkod: TEN1 Johan Thim Datum: 2018-12-42 Institution: MAI Tentamen i matematisk statistik, TAMS1/TEN1 2018-12-42 (4h Hjälpmedel är: miniräknare

Läs mer

Matematisk statistik 9 hp Föreläsning 4: Flerdim

Matematisk statistik 9 hp Föreläsning 4: Flerdim Matematisk statistik 9 hp Föreläsning 4: Flerdim Johan Lindström 3+4 september 26 Johan Lindström - johanl@maths.lth.se FMS2 F4: Flerdim /5 Transformer Inversmetoden Transformation av stokastiska variabler

Läs mer

Övning 1 Sannolikhetsteorins grunder

Övning 1 Sannolikhetsteorins grunder Övning 1 Sannolikhetsteorins grunder Två händelser A och B är disjunkta om {A B} =, det vill säga att snittet inte innehåller några element. Om vi har en mängd händelser A 1, A 2, A 3,..., A n, vilka är

Läs mer

Probabilistisk logik 2

Probabilistisk logik 2 729G43 Artificiell intelligens / 2016 Probabilistisk logik 2 Marco Kuhlmann Institutionen för datavetenskap Översikt Probabilistiska modeller Probabilistisk inferens 1: Betingad sannolikhet Probabilistisk

Läs mer

Lab 3 Kodningsmetoder

Lab 3 Kodningsmetoder Lab 3. Kodningsmetoder 15 Lab 3 Kodningsmetoder Starta Matlab och ladda ner följande filer från kurswebben till er lab-katalog: lab3blocks.mdl okodat.mdl repetitionskod.mdl hammingkod.mdl planet.mat Denna

Läs mer

Induktion, mängder och bevis för Introduktionskursen på I

Induktion, mängder och bevis för Introduktionskursen på I Induktion, mängder och bevis för Introduktionskursen på I J A S, ht 04 1 Induktion Detta avsnitt handlar om en speciell teknik för att försöka bevisa riktigheten av påståenden eller formler, för alla heltalsvärden

Läs mer

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3 Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3 Kontinuerliga sannolikhetsfördelningar (LLL Kap 7 & 9) Department of Statistics (Gebrenegus Ghilagaber, PhD, Associate Professor) Financial Statistics

Läs mer

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012 Föreläsning 1 Repetition av sannolikhetsteori Patrik Zetterberg 6 december 2012 1 / 28 Viktiga statistiska begrepp För att kunna förstå mer avancerade koncept under kursens gång är det viktigt att vi förstår

Läs mer

Innehåll. Föreläsning 11. Organisation av Trie. Trie Ytterligare en variant av träd. Vi har tidigare sett: Informell specifikation

Innehåll. Föreläsning 11. Organisation av Trie. Trie Ytterligare en variant av träd. Vi har tidigare sett: Informell specifikation Innehåll Föreläsning 11 Trie Sökträd Trie och Sökträd 356 357 Trie Ytterligare en variant av träd. Vi har tidigare sett: Oordnat träd där barnen till en nod bildar en mängd Ordnat träd där barnen till

Läs mer

Grundläggande matematisk statistik

Grundläggande matematisk statistik Grundläggande matematisk statistik Flerdimensionella Uwe Menzel, 2018 uwe.menzel@slu.se; uwe.menzel@matstat.de www.matstat.de Flerdimensionella Ett slumpförsök kan ge upphov till flera (s.v.): kast med

Läs mer

Grafer och grannmatriser

Grafer och grannmatriser Föreläsning 2, Linjär algebra IT VT2008 Som avslutning på kursen ska vi knyta samman linjär algebra med grafteori och sannolikhetsteori från första kursen. Resultatet blir så kallade slumpvandringar på

Läs mer

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12 LINKÖPINGS UNIVERSITET MAI Johan Thim Tentamen i matematisk statistik (9MA21/9MA31, STN2) 212-8-2 kl 8-12 Hjälpmedel är: miniräknare med tömda minnen och formelbladet bifogat. Varje uppgift är värd 6 poäng.

Läs mer

SF1901: SANNOLIKHETSTEORI OCH FLERDIMENSIONELLA STOKASTISKA STATISTIK VARIABLER. Tatjana Pavlenko. 8 september 2017

SF1901: SANNOLIKHETSTEORI OCH FLERDIMENSIONELLA STOKASTISKA STATISTIK VARIABLER. Tatjana Pavlenko. 8 september 2017 SF1901: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 5 FLERDIMENSIONELLA STOKASTISKA VARIABLER Tatjana Pavlenko 8 september 2017 PLAN FÖR DAGENS FÖRELÄSNING Repetition av de viktiga begreppen diskret/kontinuerlig

Läs mer

4 Diskret stokastisk variabel

4 Diskret stokastisk variabel 4 Diskret stokastisk variabel En stokastisk variabel är en variabel vars värde bestäms av utfallet av ett slumpmässigt försök. En stokastisk variabel betecknas ofta med X, Y eller Z (i läroboken används

Läs mer

Optimering med bivillkor

Optimering med bivillkor Kapitel 9 Optimering med bivillkor 9.1. Optimering med bivillkor Låt f(x) vara en funktion av x R. Vi vill optimera funktionen f under bivillkoret g(x) =C (eller bivllkoren g 1 (x) =C 1,..., g k (x) =C

Läs mer

1, 2, 3, 4, 5, 6,...

1, 2, 3, 4, 5, 6,... Dagens nyhet handlar om talföljder, ändliga och oändliga. Talföljden 1,, 3, 4, 5, 6,... är det första vi, som barn, lär oss om matematik över huvud taget. Så småningom lär vi oss att denna talföljd inte

Läs mer

2x ex dx. 0 = ln3 e

2x ex dx. 0 = ln3 e Institutionen för Matematik Lösningsförslag till tentamen i SF627, Matematik för ekonomer, del 2, 6 hp. 26..7. Räkna inte denna uppgift om du är godkänd på lappskrivning 3 Visa att funktionen f (x) = x

Läs mer

Lineära system av differentialekvationer

Lineära system av differentialekvationer Föreläsning 8 Lineära system av differentialekvationer 8.1 Aktuella avsnitt i läroboken (5.1) Matrices and Linear Systems. (5.2) The Eigenvalue Method for Homogeneous Systems. (5.3) Second-Order Systems

Läs mer

Tentamen i Digitalteknik, EITF65

Tentamen i Digitalteknik, EITF65 Elektro- och informationsteknik Tentamen i Digitalteknik, EITF65 3 januari 2018, kl. 14-19 Skriv anonymkod och identifierare, eller personnummer, på alla papper. Börja en ny uppgift på ett nytt papper.

Läs mer

TMS136: Dataanalys och statistik Tentamen

TMS136: Dataanalys och statistik Tentamen TMS136: Dataanalys och statistik Tentamen 013-08-7 Examinator och jour: Mattias Sunden, tel. 0730 79 9 79 Hjälpmedel: Chalmersgodkänd räknare och formelsamling (formelsamling delas ut med tentan). Betygsgränser:

Läs mer

Föreläsningen ger en introduktion till differentialekvationer och behandlar stoff från delkapitel 18.1, 18.3 och 7.9 i Adams. 18.

Föreläsningen ger en introduktion till differentialekvationer och behandlar stoff från delkapitel 18.1, 18.3 och 7.9 i Adams. 18. Föreläsningen ger en introduktion till differentialekvationer och behandlar stoff från delkapitel 18.1, 18.3 och 7.9 i Adams. 18.1 Delkapitlet introducerar en del terminologi och beteckningar som används.

Läs mer

Grundläggande matematisk statistik

Grundläggande matematisk statistik Grundläggande matematisk statistik Kontinuerliga fördelningar Uwe Menzel, 8 www.matstat.de Begrepp fördelning Hur beter sig en variabel slumpmässigt? En slumpvariabel (s.v.) har en viss fördelning, d.v.s.

Läs mer

Lektionsanteckningar 11-12: Normalfördelningen

Lektionsanteckningar 11-12: Normalfördelningen Lektionsanteckningar 11-12: Normalfördelningen När utfallsrummet för en slumpvariabel kan anta vilket värde som helst i ett givet intervall är variabeln kontinuerlig. Det är väsentligt att utfallsrummet

Läs mer

Blandade problem från elektro- och datateknik

Blandade problem från elektro- och datateknik Blandade problem från elektro- och datateknik Sannolikhetsteori (Kapitel 1-10) E1. En viss typ av elektroniska komponenter anses ha exponentialfördelade livslängder. Efter 3000 timmar brukar 90 % av komponenterna

Läs mer

Ekvationslösning genom substitution, rotekvationer

Ekvationslösning genom substitution, rotekvationer Sidor i boken -3, 70-73 Ekvationslösning genom substitution, rotekvationer Rotekvationer Med en rotekvation menas en ekvation, i vilken den obekanta förekommer under ett rotmärke. Observera att betecknar

Läs mer

Finansiell statistik. Multipel regression. 4 maj 2011

Finansiell statistik. Multipel regression. 4 maj 2011 Finansiell statistik Föreläsning 4 Multipel regression Jörgen Säve-Söderbergh 4 maj 2011 Samband mellan variabler Vi människor misstänker ofta att det finns många variabler som påverkar den variabel vi

Läs mer

SF1901: SANNOLIKHETSTEORI OCH STATISTIKTEORI KONSTEN ATT DRA INTERVALLSKATTNING. STATISTIK SLUTSATSER. Tatjana Pavlenko.

SF1901: SANNOLIKHETSTEORI OCH STATISTIKTEORI KONSTEN ATT DRA INTERVALLSKATTNING. STATISTIK SLUTSATSER. Tatjana Pavlenko. SF1901: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 10 STATISTIKTEORI KONSTEN ATT DRA SLUTSATSER. INTERVALLSKATTNING. Tatjana Pavlenko 25 april 2017 PLAN FÖR DAGENS FÖRELÄSNING Statistisk inferens oversikt

Läs mer

SF1911: Statistik för bioteknik

SF1911: Statistik för bioteknik SF1911: Statistik för bioteknik Föreläsning 6. TK 14.11.2016 TK Matematisk statistik 14.11.2016 1 / 38 Lärandemål Stokastiska modeller för kontinuerliga datatyper Fördelningsfunktion (cdf) Sannolikhetstäthetsfunktion

Läs mer

Föreläsning 7: Bild- och videokodning

Föreläsning 7: Bild- och videokodning Föreläsning 7: Bild- och videokodning Inledning - varför bildkodning - tillämpningar - grundprinciper Förlustfri kodning - Variabellängdskodning - Skurländskodning - Huffmankodning Irreversibla kodningsmetoder

Läs mer

6. Flerdimensionella stokastiska variabler

6. Flerdimensionella stokastiska variabler 6 Flerdimensionella stokastiska variabler 61 Simultana fördelningar Den simultana fördelningsfunktionen av X och Y, vilka som helst två stokastiska variabler, definieras F(a,b) = F X,Y (a,b) = P(X a,y

Läs mer

Tentamen i Digitalteknik, EIT020

Tentamen i Digitalteknik, EIT020 Elektro- och informationsteknik Tentamen i Digitalteknik, EIT020 18 december 2010, kl 8-13 Skriv namn och årskurs på alla papper. Börja en ny lösning på ett nytt papper. Använd bara en sida av pappret.

Läs mer

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 14 18

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 14 18 LINKÖPINGS UNIVERSITET MAI Johan Thim Tentamen i matematisk statistik (9MA241/9MA341, STN2) 213-1-11 kl 14 18 Hjälpmedel är: miniräknare med tömda minnen och formelbladet bifogat. Varje uppgift är värd

Läs mer

SF1905 Sannolikhetsteori och statistik: Lab 2 ht 2011

SF1905 Sannolikhetsteori och statistik: Lab 2 ht 2011 Avd. Matematisk statistik Tobias Rydén 2011-09-30 SF1905 Sannolikhetsteori och statistik: Lab 2 ht 2011 Förberedelser. Innan du går till laborationen, läs igenom den här handledningen. Repetera också i

Läs mer

Föreläsning 3, Matematisk statistik Π + E

Föreläsning 3, Matematisk statistik Π + E Repetition Kvantil Presentation Slumptal Transformer Inversmetoden Föreläsning 3, Matematisk statistik Π + E Sören Vang Andersen 13 november 2014 Sören Vang Andersen - sva@maths.lth.se FMS012 F3 1/19 Repetition

Läs mer

4x 1 = 2(x 1). i ( ) får vi 5 3 = 5 1, vilket inte stämmer alls, så x = 1 2 är en falsk rot. Svar. x = = x x + y2 1 4 y

4x 1 = 2(x 1). i ( ) får vi 5 3 = 5 1, vilket inte stämmer alls, så x = 1 2 är en falsk rot. Svar. x = = x x + y2 1 4 y UPPSALA UNIVERSITET Matematiska institutionen Styf Prov i matematik BASKURS DISTANS 011-03-10 Lösningar till tentan 011-03-10 Del A 1. Lös ekvationen 5 + 4x 1 5 x. ( ). Lösning. Högerledet han skrivas

Läs mer

Industriell matematik och statistik, LMA136 2013/14

Industriell matematik och statistik, LMA136 2013/14 Industriell matematik och statistik, LMA136 2013/14 7 Mars 2014 Disposition r Kondensintervall och hypotestest Kondensintervall Statistika Z (eller T) har fördelning F (Z en funktion av ˆθ och θ) q 1 α/2

Läs mer

TENTAMEN I SF2937 (f d 5B1537) TILLFÖRLITLIGHETSTEORI TORSDAGEN DEN 14 JANUARI 2010 KL

TENTAMEN I SF2937 (f d 5B1537) TILLFÖRLITLIGHETSTEORI TORSDAGEN DEN 14 JANUARI 2010 KL Avd. Matematisk statistik TENTAMEN I SF2937 (f d 5B1537) TILLFÖRLITLIGHETSTEORI TORSDAGEN DEN 14 JANUARI 2010 KL 08.00 13.00. Examinator: Gunnar Englund, tel. 7907416, e-postadress: gunnare@math.kth.se

Läs mer

Tentamen. TSEA22 Digitalteknik 5 juni, 2015, kl

Tentamen. TSEA22 Digitalteknik 5 juni, 2015, kl Tentamen TSEA22 Digitalteknik 5 juni, 2015, kl. 08.00-12.00 Tillåtna hjälpmedel: Inga. Ansvarig lärare: Mattias Krysander Visning av skrivningen sker mellan 10.00-10.30 den 22 juni på Datorteknik. Totalt

Läs mer

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.). STOKASTISKA VARIABLER Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.). Definition 1. En reellvärld funktion definierad på ett utfallsrum Ω kallas en (endimensionell)

Läs mer

Föreläsning 2 (kap 3): Diskreta stokastiska variabler

Föreläsning 2 (kap 3): Diskreta stokastiska variabler Föreläsning 2 (kap 3): Diskreta stokastiska variabler Marina Axelson-Fisk 20 april, 2016 Idag: Diskreta stokastiska (random) variabler Frekvensfunktion och fördelningsfunktion Väntevärde Varians Några

Läs mer

Övning 6 - Tillämpad datalogi 2012

Övning 6 - Tillämpad datalogi 2012 /home/lindahlm/activity-phd/teaching/12dd1320/exercise6/exercise6.py October 2, 20121 0 # coding : latin Övning 6 - Tillämpad datalogi 2012 Sammanfattning Idag gick vi igenom komprimering, kryptering och

Läs mer

Matlab övningsuppgifter

Matlab övningsuppgifter CTH/GU MVE5-7/8 Matematiska vetenskaper Matlab övningsuppgifter Inledning Vi skall först se hur man kan lösa system av icke-linjära ekvationer. Därefter skall vi se på optimering utan bivillkor. Vi skall

Läs mer

Statistiska metoder för säkerhetsanalys

Statistiska metoder för säkerhetsanalys F6: Betingade fördelningar Exempel: Tillförlitlighet Styrkan hos en lina (wire) kan modelleras enligt en stokastisk variabel Y. En tänkbar modell för styrkan är Weibullfördelning. Den last som linan utsätts

Läs mer

Lösningar till övningstentan. Del A. UPPSALA UNIVERSITET Matematiska institutionen Styf. Övningstenta BASKURS DISTANS

Lösningar till övningstentan. Del A. UPPSALA UNIVERSITET Matematiska institutionen Styf. Övningstenta BASKURS DISTANS UPPSALA UNIVERSITET Matematiska institutionen Styf Övningstenta BASKURS DISTANS 011-0-7 Lösningar till övningstentan Del A 1. Lös ekvationen 9 + 5x = x 1 ( ). Lösning. Genom att kvadrera ekvationens led

Läs mer