TSBK35 Kompression av ljud och bild

Storlek: px
Starta visningen från sidan:

Download "TSBK35 Kompression av ljud och bild"

Transkript

1 TSBK35 Kompression av ljud och bild Övningshäfte 0 februari 013 Innehåll I Problem 1 1 Informationsteori Källkodning Kvantisering Linjär prediktiv kodning Transform- och delbandskodning II Lösningar 17

2

3 Del I Problem 1 Informationsteori 1.1 Den stokastiska variabeln X tar värden i alfabetet {1,, 3, 4}. Sannolikheterna för de olika utfallen är Beräkna H(X). P X (1) = P X () = P X (3) = P X (4) = Den stokastiska variabeln Y tar värden i alfabetet {1,, 3, 4}. Sannolikheterna för de olika utfallen är Beräkna H(Y). P Y (1) = 0.5, P Y () = 0.5, P Y (3) = P Y (4) = Antag att X och Y i 1.1 och 1. är oberoende. Betrakta den stokastiska variabeln (X,Y). a) Bestäm P XY (x i,y j ). b) Beräkna H(X,Y) c) Visa att H(X,Y) = H(X)+H(Y) då X och Y är oberoende. d) Generalisering: Visa att H(X 1,X,...,X n ) = H(X 1 )+...+H(X n ) så länge alla variablerna är inbördes oberoende. 1.4 Z tar värden i {1,,3,4} a) Ge ett exempel på en sannolikhetsfördelning P Z som maximerar H(Z). Är P Z unik? b) Ge ett exempel på en sannolikhetsfunktion P Z som minimerar H(Z). Är P Z unik? 1

4 1.5 Låt den stokastiska variabeln U ta värden i det oändliga alfabetet {0,1,,...}, med sannolikhetsfunktionen P U (i) = q i (1 q), 0 < q < 1. a) Kontrollera att P U (i) = 1. i=0 b) Beräkna H(U) c) Beräkna väntevärdet E{U } 1.6 En likformigt fördelad stokastisk variabel tar värden ur alfabetet {0000,0001,0010,...,1011} (talen 0 till 11 skrivna som fyrabitars binära tal). a) Vad är entropin för den minst signifikanta biten? b) Vad är entropin för den mest signifikanta biten? c) Vad är entropin för hela fyrabitarsordet? 1.7 En första ordningens markovkälla X i med alfabet {0,1,} har övergångssannolikheter enligt figuren. Beräkna de stationära sannolikheterna för tillstånden Betrakta markovkällan i 1.7. a) Beräkna den minnesfria entropin. b) Beräkna blockentropin H(X i,x i+1 ). Jämför med H(X i )+H(X i+1 ) = H(X i ). c) Beräkna den betingade entropin H(X i X i 1 )

5 1.9 En delvis okänd binär stationär källa genererar alternerande skurar om nollor och ettor. Skurlängderna r är oberoende av varandra och har följande fördelningar P(r nollor) = q r 1 0 (1 q 0 ) P(r ettor) = q r 1 1 (1 q 1 ) a) Vadärmedelskurlängdernar 0 ochr 1 [symboler/skur]förnollorrespektiveettor? b) Vad är entropierna H 0 och H 1 för noll- respektive ettskurar [bitar/skur]? c) Vad är entropitakten för källan [bitar/symbol]? Föreslå en källmodell som genererar skurarna. Källkodning.1 En föreslagen kod för en källa med alfabet A = {1,...,8} har kodordslängderna l 1 =, l =, l 3 = 3, l 4 = 4, l 5 = 4, l 6 = 5, l 7 = 5 och l 8 = 6. Kan man konstruera en prefixkod med dessa längder?. En minnesfri källa har det oändliga alfabetet A = {1,,3,...,} och symbolsannolikheter P(i) = i, dvs P(1) = 0.5,P() = 0.5,P(3) = 0.15,... Konstruera en optimal binär prefixkod för källan och beräkna den förväntade datatakten R i bitar/symbol..3 En minnesfri källa har alfabetet A = {x, y, z} och symbolsannolikheterna a) Vad är källans entropi? P(x) = 0.6, P(y) = 0.3, P(z) = 0.1 b) Konstruera en huffmankod för enskilda symboler från källan och beräkna kodens medeldatatakt i bitar/symbol. c) Konstruera en huffmankod för par av symboler från källan och beräkna kodens medeldatatakt i bitar/symbol..4 Betrakta följande markovkälla av ordning 1, där p = 0.9: 1 p p a b p 1 p Konstruera huffmankoder för källan där vi kodar respektive 3 symboler i taget. Beräkna datatakterna för de två koderna. Vilken kod är bäst? 3

6 .5 Betrakta källan i problem.4. Den ger ifrån sig skurar av a och b. Istället för att koda symboler, kan man koda längden av varje skur. Vi skapar alltså en ny källa R som har ett oändligt alfabet av skurlängder B = {1,,3,...}. a) Vad är sannolikheten för en skur av längd r? b) Vad är medelskurlängden (i symboler/skur)? c) Vad är entropin för R (i bitar/skur)? d) Vad är entropitakten för källan (i bitar/symbol)?.6 Vi vill nu göra en enkel systematisk kod för skurlängderna från källan i.4. a) Konstruera en fyrabitars fixlängdskod för skurlängderna 1 till 15, dvs: skurlängd kodord Längre skurar kodas som 1111 följt av kodordet för en skur av längd-15, dvs skurlängden 16 kodas som , skurlängden 17 kodas som , skurlängden 4 kodas som och så vidare. Beräkna datatakten för koden i bitar/symbol. b) Ändra kordslängden till fem bitar och gör samma sak som ovan 4

7 .7 Vi vill sända dokument med en faxmaskin. Faxen klarar av färgerna svart och vitt. Experiment har visat att textområden och bildområden av dokumenten har olika statistiska egenskaper. Dokumenten läses av och kodas radvis, enligt en tidsdiskret stationär process. De följande betingade sannolikheterna har skattats från en stor mängd testdata Färg på Sannolikhet för färg på nästa bildpunkt nuvarande Textområde Bildområde bildpunkt svart vit svart vit svart vit Sannolikheten att vi befinner oss i ett textområde är 4 5 och sannolikheten att vi befinner oss i ett bildområde är 1 5. Antag att de estimerade sannolikheterna är korrekta och besvara nedanstående frågor. a) Antag att vi kan försumma kostnaden för att koda vilka områden i dokumentet som är text och vilka områden som är bilder. Beräkna en övre gräns för den teoretiskt lägsta datatakten som vi kan koda dokument med, i bitar/bildpunkt. b) Konstruera en huffmankod för textområdena som har en datatakt på 0.65 bitar/bildpunkt eller mindre..8 Betrakta följande markovkälla av ordning 1 A 0.5 B C D a) Visa att det är möjligt att koda utsignalen från källan med en datatakt som är mindre än 0.6 bitar/symbol. b) Konstruera huffmankoder för enstaka symboler och för par av symboler från källan. Beräkna de resulterande datatakterna..9 En minnesfri källa har alfabet A = {1,,3} och sannolikheter P = {0.6,0.,0.}. Vi vill koda sekvensen 3,1,1, med aritmetisk kodning. Ta fram kodordet. 5

8 .10 En minnesfri källa har alfabetet A = {a 1,a,a 3 } och symbolsannolikheterna P(a 1 ) = 0., P(a ) = 0.75 och P(a 3 ) = Vi vill koda källan med aritmetisk kodning. Visa hur detta går till genom att koda sekvensen a 1 a a 3 a a Ange både det resulterande intervallet och motsvarande kodord. Man kan anta oändlig noggrannhet i alla beräkningar..11 En stationär första ordningens markovkälla X i har alfabet A = {a,b} och betingade sannolikheter P(x i x i 1 ) enligt P(a a) = 0.8, P(b a) = 0., P(a b) = 0.3, P(b b) = 0.7 Koda sekvensen abbba med aritmetisk kodning. Kodningen ska ta hänsyn till källans minne. Ange vilket intervall sekvensen motsvarar och vad kodordet blir. Antag att föregående symbol var a. Alla beräkningar kan antas kunna utföras med oändlig precision..1 Man vill kodaen stationär och binärminneskällamedalfabetet A = {a,b}. Följande parsannolikheter P(x i,x i+1 ) har mätts upp och kan antas vara de sanna: P(a,a) = 1/7 P(a,b) = 1/7 P(b,a) = 1/7 P(b,b) = 4/7 Konstruera ett kodord för sekvensen bbab genom att använda aritmetisk kodning. Koden ska vara baserad på betingade sannolikheter. Anta att symbolen närmast innan sekvensen som ska kodas är b. 6

9 .13 Ett system för att överföra enkla färgbilder använder färgerna vitt, svart, rött, blått grönt och gult. Källan modelleras som en första ordningens markovkälla med följande övergångssannolikheter Tillstånd sannolikhet för nästa tillstånd vitt svart rött blått grönt gult vitt svart rött blått grönt gult Vi använder aritmetisk kodning för att koda sekvenser från källan. Kodaren utnyttjar de betingade sannolikheterna vid kodningen. a) En sekvens börjar med rött, vitt, vitt. Vilket intervall motsvaras detta av? Antag att den föregående bildpunkten var röd. b) Avkodaren väntar på en ny sekvens. Bitströmmen tas emot. Vilka är de två första färgerna i denna sekvens? Den sista pixeln i föregående sekvens var svart..14 En källa har alfabetet A = {a,b}. Koda sekvensen ababbaaababbbbaaabaaaaaababba... med LZ77. Historiebufferten har storlek 16 och maximal matchlängd är 15. Kontrollera din lösning genom att avkoda kodorden..15 Koda sekvensen i uppgift.14 med LZ Koda sekvensen i uppgift.14 med LZW. 7

10 .17 En källa har alfabetet {a, b, c, d}. a) Koda sekvensen babadacccabbadabbccab med hjälp av LZW. Ange både den resulterande indexsekvensen och den slutliga ordboken. b) En sekvens från källan kodas med LZW och ger följande indexsekvens: < > < 0 > < 4 > < 6 > < 0 > < 1 > < 0 > < 3 > < 8 > < 5 > Startordboken är: index sekvens 0 a 1 b c 3 d Avkoda indexsekvensen. Ange även hur den slutliga ordboken ser ut..18 En källa har alfabetet {a, b, c, d, e, f}. En lång sekvens från källan kodas med LZW. Den resulterande indexsekvensen börjar som Startordboken är: 3, 0, 6, 8, 4, 1, 11, 7, 10, 1,... index sekvens 0 a 1 b c 3 d 4 e 5 f Avkoda indexsekvensen. Ange även hur den slutliga ordboken ser ut. 3 Kvantisering 3.1 Låt X vara en kontinuerlig stokastisk variabel, likformigt fördelad över ( T, T). Bestäm rekonstruktionspunkter och beslutsgränser för en trenivåers Lloyd-Maxkvantiserare och beräkna den förväntade distorsionen. 8

11 3. Låt X vara en kontinuerlig laplacefördelad stokastisk variabel: f(x) = 1 x a e a a) Bestäm rekonstruktionspunkter och beslutsgränser för en tvånivåers Lloyd- Max-kvantiserare och beräkna den förväntade distorsionen D = E {(X ˆX) } Tips: Förenkla problemet genom att anta vissa symmetrier. b) Som i uppgift a, men för tre nivåer istället. 3.3 En tidskontinuerlig elektrisk signal X(t) ska samplas och skalärkvantiseras. X(t) har spektraltätheten Φ(f ) R 0-15kHz f 15kHz och en likformigt fördelad amplitud. Konstruera en kodare för signalen sådan att den förväntade distorsionen inte överskrider 30 db och som håller datatakten så låg som möjligt. Ange alla antaganden som görs. 3.4 En normalfördelad stokastisk variabel med medelvärde 0 och varians σ = 5 kvantiseras optimalt till två nivåer. a) Hur stor blir distorsionen? b) Vad är entropin för den kvantiserade signalen? c) Vad är den teoretiskt lägsta datatakten (enligt rate-distortionfunktionen R(D)) vid samma distorsion som i uppgift a? 3.5 En gaussisk stokastisk variabel med medelvärde 0 och varians σ kvantiseras till fyra nivåer. Vilka värden på distorsionen kan man få? 3.6 På en vanlig ljud-cd är ljudet kvantiserat med 16 bits/sampel. Antag att ljudet kan beskrivas som en normalfördelad stokastisk process med medelvärde 0 och varians σ. Kvantiseraren som används är likformig i intervallet [ a,a], där a har valts så att a = 6σ. Ingen entropikodning görs. Hur mycket skulle man kunna tjäna (i SNR) om man använde en Lloyd-Maxkvantiserare istället för en likformig kvantiserare? 9

12 3.7 Detta problem exemplifierar huvudstegen i LBG-algoritmen för att träna kodböcker för vektorkvantiserare. Antag att vi vill kvantisera två närliggande bildpunkter i taget som en tvådimensionell vektor. Vi vill ha fyra rekonstruktionspunkter A, B, C och D. Vi använder 13 bildpunktspar (se figuren) som träningsdata. a) Beräkna medeldistorsionen (medelkvadratfelet) för träningsmängden, givet figurens rekonstruktionspunkter och beslutsområden. b) Hur bör rekonstruktionspunkterna modifieras för att minimera distorsionen? Beräkna den nya distorsionen. c) Givet de nya rekonstruktionspunkterna, hur ska beslutsområdena modifieras för att minimera distorsionen? 1 3 A 4 9 C B 1 D 13 Punkt X Y A B C D En bild med bildpunkter delas in i små block som sedan vektorkvantiseras så att den resulterande datatakten är 1.5 bit/bildpunkt. Antag att kodboken inte har någon struktur, så att vi måste göra en fullständig sökning för att hitta den rätta rekonstruktionspunkten för varje block. Antag dessutom att det går åt 1 µs/dimension för att beräkna avståndet mellan två block. a) Hur lång tid tar det att koda bilden om blockstorleken är 8 8 bildpunkter? b) Vad är den maximala blockstorleken om vi vill koda bilden på mindre än en sekund? c) Vad är den maximala blockstorleken om vi vill koda bilden på mindre än en minut? 10

13 4 Linjär prediktiv kodning 4.1 En tidsdiskret normalfördelad signal X i med medelvärde 0 och en autokorrelationsfunktion R XX (k) = E{X i X i+k } med följande värden i punkterna 0, 1 and : R XX (0) = 1.0, R XX (1) = 0.9, R XX () = 0.7 a) Bestäm den prediktor av ordning 1 som minimerar prediktionsfelets varians, samt beräkna denna varians. b) Bestäm den prediktor av ordning som minimerar prediktionsfelets varians, samt beräkna denna varians. 4. En tidsdiskret signal X i har medelvärde 0 och autokorrelationsfunktion R XX (k) = ρ k, ρ < 1. a) Bestäm den prediktor av ordning 1 som minimerar prediktionsfelets varians, samt beräkna denna varians. b) Bestäm den prediktor av ordning som minimerar prediktionsfelets varians, samt beräkna denna varians. 4.3 En musiksignal modelleras som en endimensionell tidsdiskret stationär normalfördelad processx n. Manskattar medelvärdet till 0och autokorrelationsfunktionens värden i några punkter till R XX (0) = 9.00, R XX (1) = 7.55, R XX () = 6.39, R XX (3) = 4.07 Autokorrelationsfunktionen definieras som R XX (k) = E{X n X n+k }. Konstruera en tvåstegsprediktor för signalen så att prediktionsfelets varians minimeras samt beräkna denna varians. Prediktionsfelet kvantiseras med en Lloyd-Max-kvantiserare till 64 nivåer, dvs datatakten är 6 bitar/sampel. Vad blir signal-brus-förhållandet? 4.4 En ljudsignal modelleras som en tidsdiskret stationär normalfördelad process X n med medelvärde 0 och autokorrelationsfunktion R XX (k) = E{X n X n+k }. R XX (0) = 17.0, R XX (1) = 15.3, R XX () = 1.9 Konstruera en tvåstegsprediktor för signalen så att prediktionsfelets varians minimeras samt beräkna denna varians. Prediktionsfelet kvantiseras skalärt och källkodas minnesfritt. Vilken är den lägsta datatakt vi kan använda om vi vill ha ett signal-brus-förhållande som är minst 40 db? 11

14 4.5 En bildkälla modelleras som en tvådimensionell normalfördelad process X i,j (där i och j är koordinater i bilden) med medelvärde noll. Autokorrelationsfunktionen R XX (k,l) = E{X i,j X i+k,j+l } har från en stor mängd testdata skattats till: R XX (0,0) = 6.00, R XX (1,0) = 5.40 R XX (0,1) = 5.58, R XX (1,1) = R XX (1, 1) = 5.10 Källan kodas med prediktorn p i,j = a 1 ˆX i 1,j +a ˆX i,j 1 Hitta de prediktorkoefficienter a 1 och a som minimerar prediktionsfelets varians. Antag att prediktionsfelet kvantiseras skalärt och källkodas minnesfritt. Vad är den lägsta datatakt som kan användas om vi vill att signal-brusförhållandet ska vara minst 38 db? 5 Transform- och delbandskodning 5.1 En ljudsignal modelleras som en tidsdiskret stationär normalfördelad process X i med medelvärde 0 och autokorrelationsfunktion R XX (k). R XX (k) = E{X i X i+k } = 0.94 k Om vi antar att kvantiseringen är fin, hur stor SNR-vinst (i db) kan man teoretiskt göra genom att transformkoda signalen med en hadamardtransform, jämfört med att kvantisera signalen direkt? Undersök resultatet för både en tvåpunkters och en fyrapunkters transform. 5. En ljudsignal modelleras som en tidsdiskret stationär normalfördelad process X n med medelvärde 0 och autokorrelationsfunktion R XX (k) = E{X n X n+k }. R XX (0) =.0, R XX (1) = 1.8, R XX () = 1.7 Signalen transformkodas med en 3-punkters DCT. Transformkomponenterna Lloyd- Max-kvantiseras så att medeldatatakten blir bitar/sampel. Fördela bitar till transformkomponenterna så att medeldistorsionen minimeras och beräkna det resulterande signal-brus-förhållandet. Vad får man för signal-brus-förhållande om man istället Lloyd-Maxkvantiserar X n direkt, utan transformen, till samma medeldatatakt som ovan? 1

15 5.3 En monoljudsignal modelleras som en tidsdiskret stationär normalfördelad process X n. Från en stor mängd testdata har man skattat medelvärdet E{X n } och autokorrelationsfunktionen R XX (k) = E{X n X n+k } enligt E{X n } = R XX (0) = 0.307, R XX (1) = 0.64 R XX () = 0.3, R XX (3) = 0.53 Signal transformkodas med en 4-punkters hadamardtransform och Lloyd-Maxkvantiseras så att medeldatatakten blir bitar/sampel. Fördela bitar så att medeldistorsionen minimeras. Beräkna vilket signalbrusförhållande (i db) detta motsvarar. Hur hög datatakt måste vi ha för att uppnå minst lika stort signal-brusförhållande om vi Lloyd-Max-kvantiserat signalen direkt, utan att använda någon transform? 5.4 En bildkälla modelleras som en stationär tvådimensionell gaussprocess X i,j. Källan har följande statistiska egenskaper E{X i,j } = 0 E{X i,j X k,l } = 0.95 i k 0.9 j l Vi vill koda bilden genom att ta block om bildpunkter och utföra en separabel hadamardtransform på blocken. Transformkomponenterna ska sedan Lloyd-Maxkvantiseras. Den önskade datatakten är 1.75 bitar/bildpunkt. Hur ska bitarna fördelas mellan transformkomponenterna så att distorsionen minimeras? Vad är det resulterande signal-brus-förhållandet? 13

16 5.5 En tidsdiskret signal modelleras som en stationär normalfördelad process X[n] med medelvärde 0 och autokorrelationsfunktion R XX (k) = 0.9 k Signalen ska transformkodas till i medel bitar/sampel. Till vårt förfogande har vi transformenheter T som tar två insampel (a, b) som indata och producerar två transformkomponenter enligt { c = 1 (a+b) d = 1 (a b) Vi betraktar två sätt att kombinera transformenheterna. I båda fallen läses fyra konsekutiva sampel från X[n] in och fyra transformkomponenter genereras enligt figuren nedan Hur mycket ökar signal-brus-förhållande (i db) om vi använder transformkomponenterna vid B i stället för vid A? Lloyd-Max-kvantisering med optimal bittilldelning används i båda fallen. a b T c d A a b T c d B a b T c d.. 14

17 5.6 En bildkälla modelleras som en stationär, endimensionell gaussprocess X[n], E{X[n]} = 0 E{X[n]X[m]} = 0.85 n m Vi vill delbandskoda bilden enligt figuren nedan och Lloyd-Max-kvantisera så att den resulterande medeldatatakten blir bitar/bildpunkt. H 0 (z) Y 1 Q 1 H 0 (z) X H 1 (z) Y Q H 1 (z) Y 3 Q 3 Filtren som används är H 0 (z) = 1 (1+z 1 ) och H 1 (z) = 1 (1 z 1 ), d.v.s. den normerade summan respektive skillnaden mellan två närliggande sampel. Symbolen betecknar nersampling, d.v.s. att vartannat sampel kastas bort. Filtren H 0 och H 1 är ortogonala, normerade och insignalen kan återskapas perfekt från nersamplade utdata. a) Fördela bitar till kvantiserarna Q 1, Q och Q 3 såatt kravet pådatatakt uppfylls och så att distorsionen minimeras. b) Beräkna den förväntade distorsionen och jämför med den distorsion man får om man Lloyd-Max-kvantiserar insignalen direkt, utan delbandskodning. 15

18 5.7 En bild modelleras som en tvådimensionell gaussprocess X[i, j] (i och j är koordinater i bilden) med statistiken E{X[i,j]} = 0 E{X[i,j]X[k,l]} = 0.9 (i k) +(j l) / Vi vill koda bilden med en tvådimensionell delbandskodare och Lloyd-Maxkvantisera så att medeldatatakten blir bitar/bildpunkt. H 0h Y 1 4 Q 1 H 0v H 1h 4 Y Q X H 0h 4 Y 3 Q 3 H 1v H 1h 4 Y 4 Q 4 Signalen filtreras först vertikalt med filtren H 0v (lågpass) och H 1v (högpass) och därefter horisontellt med filtren H 0h (lågpass) och H 1h (högpass). Filtrena är enkla summa- och skillnadsfilter, d.v.s. h 0v [k,l] = (δ[k,l]+δ[k,l +1])/ h 1v [k,l] = (δ[k,l] δ[k,l +1])/ h 0h [k,l] = (δ[k,l]+δ[k +1,l])/ h 1h [k,l] = (δ[k,l] δ[k +1,l])/ Symbolen 4 betyder nersampling med en faktor 4, d.v.s. endast 1/4 av samplen behålls efter filtreringen. Fördela bitar till de fyra kvantiserarna Q 1,...,Q 4 så att medeldistorsionen minimeras. Beräkna den resulterande distorsionen. 16

19 Del II Lösningar 1.1 H(X) = 4 i=1 P X(i) logp X (i) = log 1 4 = 1. H(Y) = 4 i=1 P Y(i) logp Y (i) = 1 log log log 1 8 = a) Oberoende ger direkt att P XY (x i,y j ) = P X (x i ) P Y (y j ), dvs P XY y j x i b) H(X,Y) = Detta kan beräknas från P XY eller med hjälp av kedjeregeln. Eftersom X och Y är oberoende gäller att H(Y X) = H(Y) (se nästa delproblem). c) H(X,Y) = P XY (x i,y j ) logp XY (x i,y j ) i j = P X (x i ) P Y (y j )(logp X (x i )+logp Y (y j )) i j = P Y (y j ) P X (x i ) logp X (x i ) ( ) P X (x i ) P Y (y j ) logp Y (y j ) i j j i = H(X)+H(Y) d) Betrakta (X 1,...,X n 1 ) som en stokastisk variabel och konstruera ett induktionsbevis. 1.4 a) P Z (z i ) = 1 4, z i ger maximal entropi. b) P Z (1) = 1, P Z () = P Z (3) = P Z (4) = 0 ger H(Z) = 0. Eftersom entropin alltid är icke-negativ är detta minimalt. Lösningen är inte unik. 1.5 a) Ledning: b) H(U) = i=0 q i = 1, q < 1. 1 q q logq (1 q) log(1 q) 1 q = h(q) 1 q 17

20 Ledning: c) E{U } = i q i = i=0 q 1 q q (1 q), q < a) H = 1 b) H = h( 8 1 ) = 8 1 log log 1 4 c) H = log Notera att detta är mindre än summan av entropierna för de olika bitarna, eftersom de olika bitarna inte är oberoende av varandra. 1.7 Övergångsmatrisen P för källan är P = Den stationära fördelningen w = (w 0, w 1, w ) ges av ekvationssystemet w = w P. Ersätt någon av ekvationerna (vilken som helst) med ekvationen w 0 +w 1 +w = 1 och lös systemet. Det ger oss lösningen w = 1 (5, 1, 1) (0.714, 0.143, 0.143) a) H(X i ) = 5 7 log log [bit/sym]. b) Blocksannolikheterna ges av symbolpar sannolikhet 00 5/7 0.8 = 8/ /7 0.1 = 1/14 0 5/7 0.1 = 1/ /7 0.5 = 1/ /7 0.5 = 1/ /7 0.5 = 1/ /7 0.5 = 1/14.09 [bitar/par]. ( 1.05 [bi- H(X i,x i+1 ) = 8 14 log log 1 14 tar/symbol]). Entropin för par är mindre än gånger den minnesfria entropin. c) Enligt kedjeregeln är H(X i X i 1 ) = H(X i 1,X i ) H(X i 1 )

21 1.9 a) r 0 = 1 1 q 0 och r 1 = 1 1 q 1. b) H 0 = r 0 h(q 0 ) and H 1 = r 1 h(q 1 ). c) Varannan skur är en nollskur och varannan en ettskur. Entropin för skurarna blir då H 0+H 1 och medelskurlängden blir r 0+r 1. Symbolentropin blir då H = H 0 +H 1 r 0 +r 1 ( ) q0 1 q En första ordningens markovkälla med P = 0 är en källa som 1 q 1 q 1 genererar sekvenser med den givna fördelningen..1 Ja, eftersom Krafts olikhet är uppfylld.. Kodträdet för en optimal kod ser ut som: Denna kod ger datatakten (lika med kodordsmedellängden) R = i i = [bitar/symbol] i=1 Jämför datatkten med källans entropi..3 a) 0.6 log log log b) Kodordslängder samt exempel på kodord: symbol längd kodord x 1 0 y 10 z 11 Kodordsmedelängden är 1.4 bitar/kodord och medeldatatakten är 1.4 bitar/symbol. c) Kodordslängder (inte unika för denna fördelning) samt exempel på kodord: 19

22 symbol längd kodord xx 1 0 xy xz yx yy yz zx zy zz Kodordsmedelängden är.67 bitar/kodord och medeldatatakten är bitar/symbol..4 Källans stationära fördelning är P(a) = P(b) = 0.5. Detta kan lätt inses eftersom källan är symmetrisk. Alternativt kan man lösa ekvationssystemet { P(a) = 0.9 P(a)+0.1 P(b) P(a)+P(b) = 1 Sannolikheter för par av symboler ges av P(x i,x i+1 ) = P(x i ) P(x i+1 x i ), vilket ger sannolikheterna {0.45, 0.05, 0.05, 0.45} SannolikheterförtresymbolergesavP(x i,x i+1,x i+ ) = P(x i ) P(x i+1 x i ) P(x i+ x i+1 ), vilket ger sannolikheterna {0.405, 0.045, 0.005, 0.045, 0.045, 0.005, 0.045, 0.405} Kodträden för de två koderna ser ut som aa bb ab ba l l = 1.65 R = = 0.85 l l =.04 R = 3 = 0.68 Det är bättre att koda tre symboler i taget..5 a) P(r) = p r 1 (1 p) b) r = r (1 p) p r 1 = 1 1 p = 1 = 10 [symboler/skur] 0.1 r=1 c) H(R) = (1 p) p r 1 log((1 p) p r 1 ) r=1 = (1 p) log(1 p) p r 1 (1 p) logp (r 1) p r 1 r=1 r=1 0

23 1 = (1 p) 1 p log(1 p) (1 p) p (1 p) logp = h(p) [bitar/skur] 1 p d) H(R) = h(p) [bitar/symbol] r Samma svar fås naturligtvis om vi räknar ut entropitakten direkt från källan..6 a) l = E{kodordslängd/skur} = (1 p)p r 1 +8 (1 p)p r r=1 r=16 45 r=31 (1 p)p r = (1 p)p r 1 +4p 15 (1 p)p r 1 +4p 30 (1 p)p r = r=1 r=1 i=0 r=1 4 (1 p)p r 1 p 15i 1 = [bitar/skur] 1 p15 Från problem.5 vet vi att r = 10 [symboler/skur], därför blir datatakten [bitar/symbol]. Jämför detta med källans entropitakt. l r b) På samma sätt som i a) får vi 1 l = [bitar/skur] 1 p31 och datatakten [bitar/sym]. r=1.7 a) Den teoretiskt lägsta gränsen ges av entropitakten för källan. Den bästa modell av källan vi kangöra, givet deninformation vihar, är enmarkovkälla av ordning 1. I textområdena ser den ut som S V De stationära sannolikheterna för denna källa är w S = 1 6 och w V = 5 6 och entropitakten för när vi befinner oss i ett textområde är därför H t = w S h(0.5)+w V h(0.9) För bildområden blir, på samma sätt, entropitakten H b

24 Den totala entropitakten för källan är därför H = 4 5 H t H b Detta är det bästa estimat vi kan göra, den riktiga entropitakten för källan kan vara lägre, om minnet är längre än bara en bildpunkt tillbaka, som vi antog. b) Den önskade datatakten kan uppnås genom att koda block om 3 symboler. Sannolikheterna för de 8 olika blocken kan beräknas som P(x i,x i+1,x i+ ) = P(x i ) P(x i+1 x i ) P(x x+ x i+1 ) De åtta sannolikheterna blir P = 1 { } 10 Konstruera koden med huffmanalgoritmen. Den resulterande datatakten blir 0.65 bitar/bildpunkt..8 a) Det är möjligt att komma godtyckligt nära källans entropitakt. För den givna källan ges entropitakten av H(S n+1 S n ) = w A H(S n+1 S n = A)+w B H(S n+1 S n = B)+w C H(S n+1 S n = C) + w D H(S n+1 S n = D) där w A et.c. betecknar de stationära sannolikheterna för tillstånden. Dessa beräknas ur följande ekvationssystem, plus det faktum att de ska summera till (w A w B w C w D ) = (w A w B w C w D ) (w A w B w C w D ) = 1 ( ) 731 och entropitakten blir då H(S n+1 S n ) = (56 h(0.5) +35 h(0.) +560 h(0.1)+80 h(0.3)) = bitar/symbol. b) När vi kodar enstaka symboler använder vi de stationära sannolikheterna. Till exempel kan vi få följande kod symbol sannolikhet kodord längd A 56/ B 35/ C 560/ D 80/ som ger en datatakt på bitar/symbol 731

25 Sannolikheterna för par av symboler beräknas enkelt ur P(xi,x i+1 ) = P(x i ) P(x i+1 x i ). Vi får till exempel följande kod. symbol sannolikhet kodord längd AB 8/ AD 8/ BB 7/ BD 8/ CA 56/ CC 504/ DC 56/ DD 4/ Den resulterande datatakten är bitar/symbol.9 Intervallet som motsvarar sekvensen är [0.843, ). Storleken på intervallet är , vilket, innebär att vi ska använda minst log = 7 bitar i kodordet. Alternativ 1: Det minsta tal med 7 bitar som ligger i intervallet är ( ) = Eftersom även ( ) = ligger i intervallet räcker det med 7 bitar, och kodordet blir alltså Alternativ : Mittpunkten på intervallet är = ( ). Trunkera till 7+1=8 bitar, vilket ger oss kodordet Ommanlåtera 1 ligganärmast0blirdetresulterandeintervallet [ ), av storlek Antalet bitar i kodordet måste vara minst eventuellt krävs 9 bitar. log = 8 Alternativ 1: Det minsta talet med 8 bitar i intervallet är ( ) = Tyvärr finns det tal som börjar på samma sätt som inte ligger i intervallet, alltså måstevianvända9bitar:( ) = Kodordetblirdå Alternativ : Mittpunkten i intervallet är = ( ). Ta de första 9 bitarna som kodord: Om delintervallet som hör till a alltid läggs närmast 0, så kommer det intervall som hör till den givna sekvensen att vara [ ). Det kommer att gå åt minst log ( ) = 6 bitar i kodaordet, eventuellt 7. Detminstabinäratal med6siffrorsomligger iintervalletär( ) = Tyvärr finns det längre tal som börjar med dessa siffor som ligger utanför intervallet, vilket gör att vi måste använda 7 bitar i kodordet, t.ex. talet ( ) = 3

26 , vilket alltså ger kodordet Även kodordet kommer att fungera. Alternativ lösning: Tag mittpunkten i intervallet = ( ) och trunkera till 7 bitar, vilket ger oss kodordet Sannolikheter för enskilad symboler fås ur marginalfördelningen P(a) = P(a,a)+P(a,b) = /7, P(b) = P(b,a)+P(b,b) = 5/7 De betingade sannolikheterna kan beräknas ur P(x i,x x+1 ) = P(x i )P(x i+1 x i ) vilket ger oss P(a a) = 0.5, P(b a) = 0.5, P(a b) = 0., P(b b) = 0.8 Intervallet som motsvarar sekvensen är [0.44, 0.488) Intervallstorleken är 0.064, vilket betyder att vi behöver minst log = 4 bitar i vårt kodord. Alternativ 1: Det minsta tal med 4 bitar som ligger i intervallet är (0.0111) = Eftersom (0.1000) = 0.5 inte ligger i intervallet räcker det inte med 4 bitar, utan vi måste använda 5 bitar. Vi använder talet ( ) = och kodordet blir alltså Alternativ : Mittpunkten på intervallet är = ( ) Trunkera till 4+1=5 bitar, vilket ger oss kodordet a) Under antagandet att vi har ordnat färgerna i samma ordning som i tabellen, med vitt närmast 0, så blir intervallet [0.05, ). Om du valde en annan symbolordning borde du i alla fall ha fått samma intervallängd. b) grönt, grönt.14 Offset 0 är längst till höger i historiebufferten Kodord: (offset, längd, ny symbol) Binärt kodord (0,0,a) (0,0,b) (1,,b) (,1,a) (6,5,b) (8,6,a) (1,4,b) (15,3,a)

27 .15 Den kodade sekvensen av par <index, ny symbol> blir: < 0,a > < 0,b > < 1,b > <,a > < 1,a > < 4,b > <,b > < 4,a > < 3,a > < 5,a > < 5,b > < 3,b >... Om vi antar att ordboken har storleken 16 så går det åt 4+1 bitar för att koda varje par. Ordboken ser i detta läge ut som: index sekvens index sekvens index sekvens index sekvens 0-4 ba 8 baa 1 abb 1 a 5 aa 9 aba b 6 bab 10 aaa 3 ab 7 bb 11 aab.16 Den kodade sekvensen av <index> blir: < 0 > < 1 > < > < 3 > < 0 > < > < 4 > < 1 > < 5 > < 7 > < 6 > < 1 > < 3 > < 9 >... Om vi antar att ordboken har storleken 16 så går det åt 4 bitar för att koda varje index. Ordboken ser i detta läge ut som: index sekvens index sekvens index sekvens index sekvens 0 a 4 abb 8 abbb 1 aaa 1 b 5 baa 9 bb 13 aaab ab 6 aa 10 baaa 14 bab 3 ba 7 aba 11 abaa 15 bba.17 a) Indexsekvensen blir < 1 > < 0 > < 4 > < 3 > < 0 > < > < 9 > < 5 > < 6 > < 11 > < 10 > och ordboken ser i detta läge ut som index sekvens index sekvens index sekvens index sekvens 0 a 4 ba 8 ac 1 bada 1 b 5 ab 9 cc 13 abbc c 6 bad 10 cca 14 ccab 3 d 7 da 11 abb b) Den avkodade sekvensen är och ordboken ser i detta läge ut som cacacacabadabac index sekvens index sekvens index sekvens index sekvens 0 a 4 ca 8 ab 1 aba 1 b 5 ac 9 ba 13 ac c 6 cac 10 ad 3 d 7 caca 11 da 5

28 .18 Den avkodade sekvensen är och ordboken ser i detta läge ut som dadadadebbbadebbba... index sekvens index sekvens index sekvens index sekvens 0 a 4 e 8 dad 1 bba 1 b 5 f 9 dade 13 ade c 6 da 10 eb 14 ebb 3 d 7 ad 11 bb 15 bba 3.1 Tre rekonstruktionspunkter (y 1, y och y 3 ) och fyra beslutsgränser (b 0, b 1, b och b 3 ). Eftersom täthetsfunktionen är symmetrisk kring origo måste y 1 = y 3 och y = 0. De optimala beslutsgränserna ska ligga mitt emellan rekonstruktionspunkterna (förutom de två ändgränserna, som ska ligga i fördelningens ändpunkter). Vi får alltså b 0 = T, b 1 = y 1+y = y 3, b = y +y 3 = y 3 och b 3 = T. Återstår att räkna ut y 3. Den ska ligga i tyngdpunkten för sitt område, dvs y 3 = b3 b x f(x) dx b3 b f(x) dx Vi har och vilket ger oss b3 b3 b f(x) dx = b x f(x) dx = T y 3 / y 3 / x y 3 = T + y 3 1 T dx = 1 T 1 T dx = 1 4T = y 3 = T 3 ( T y ) 3 ( T ( y3 ) ) Rekonstruktionspunkter: y 1 = T 3, y = 0, y 3 = T 3. Beslutsgränser: b 0 = T, b 1 = T 3, b = T 3, b 3 = T. Observera att Lloyd-Max-kvantiseraren för en likformig fördelning är en likformig kvantiserare. Kvantiserarens distorsion ges av D = = 3 T T/3 T T/3 (x+ T 3 ) 1 T dx+ T/3 x dx = 3 T [ x 3 3 T/3 T/3 ] T/3 T/3 x 1 T T dx+ (x T 1 T/3 3 ) T dx = = T 7 6

29 3. Vi börjar med att beräkna fördelningens varians: σ = = = x f(x) dx = 0 [ x e x/a] [ axe x/a] x xe x/a dx = 1 a e x/a dx = ae x/a dx = [ a e x/a] = 0 a a) Tvårekonstruktionspunkter(y 1 ochy )ochtrebeslutsgränser(b 0,b 1 ochb ).Eftersomtäthetsfunktionenärsymmetriskkringorigomåstey 1 = y.deoptimala beslutsgränserna ska ligga mitt emellan rekonstruktionspunkterna (förutom de två ändgränserna, som ska ligga i fördelningens ändpunkter). Vi får alltså b 0 =, b 1 = y 1+y = 0 och b =. Återstår att räkna ut y. Den ska ligga i tyngdpunkten för sitt område, dvs y = b b 1 x f(x) dx b b 1 f(x) dx Vi har och b b b 1 x f(x) dx = b 1 f(x) dx = 0 x 0 [ 1 a e x/a dx = 1 ] e x/a 0 = 1 1 a e x/a dx = [ x e x/a] e x/a dx = = [ a e x/a] = a Vi får alltså rekonstruktionspunkterna y 1 = a = σ och y = a = σ Kvantiserarens distorsion ges av D = = 0 (x+a) f(x) dx+ 0 0 (x a) f(x) dx = x f(x) dx+a f(x) dx 4a = a +a 4a a = a = 1 σ 0 xf(x) dx = Jämför resultatet med formelsamlingen! b) Tre rekonstruktionspunkter (y 1, y och y 3 ) och fyra beslutsgränser (b 0, b 1, b och b 3 ). Eftersom täthetsfunktionen är symmetrisk kring origo måste y 1 = y 3 och y = 0. De optimala beslutsgränserna ska ligga mitt emellan rekonstruktionspunkterna (förutom de två ändgränserna, som ska ligga i fördelningens 7

30 ändpunkter). Vi får alltså b 0 =, b 1 = y 1+y = y 3, b = y +y 3 b 3 =. = y 3 Återstår att räkna ut y 3. Den ska ligga i tyngdpunkten för sitt område, dvs och y 3 = b3 b x f(x) dx b3 b f(x) dx Vi har b3 b f(x) dx = y 3 / f(x) dx = [ 1 ] e x/a = 1 y 3 / e y 3/a och b3 b x f(x) dx = vilket ger oss 1 x y 3 / a e x/a dx = [ x e x/a] 1 + y 3 / y 3 / e x/a dx = = y 3 4 e y 3/a + [ a e x/a] ( y3 = y 3 / 4 + a ) e y 3/a y 3 = y 3 +a = y 3 = a Rekonstruktionspunkter: y 1 = a, y = 0, y 3 = a. Beslutsgränser: b 0 =, b 1 = a, b = a, b 3 =. Kvantiserarens distorsion ges av D = = a (x+a) f(x) dx+ a a x f(x) dx+ x f(x) dx+8a f(x) dx 8a a a a (x a) f(x) dx = xf(x) dx = = a +4a e 1 8a e 1 = a (1 e 1 ) = σ (1 e 1 ) 0.64 σ 3.3 Sampla med den dubbla bandbredden, d.v.s. 30kHz. Detta kommer inte att ge någon distorsion på mottagarsidan, givet att rekonstruktionsfiltret är idealt. Antag att kvantiseringsbruset är okorrelerat med själva signalen. Spektraltätheten för bruset kommer då bara att adderas till signalens spektraltäthet. Variansen för den samplade signalen kommer inte heller att påverkas av en ideal pulsmodulator. Spektraltätheten för bruset kommer då bara att adderas till signalens spektraltäthet, både före och efter pulsmoduleringen. Eftersom variansen för en signal inte ändras av en ideal pulsmodulering kommer distorsionen att bero på den kvantiserare som används. Det naturliga valet för en likformig fördelning är förstås likformig kvantisering. Antag att signalen är likformigt fördelad mellan T och T. 8

31 Variansen för signalen är då σ = T 3. Låt antalet kvantiseringssteg vara N = R. Kvantiserarens steglängd blir = T N = T R Distorsionen för likformig kvantisering av en likformig fördelning är D = 1, vilket ger oss D = 1 = (T) R 1 = T R 3 = σ R vilket ger oss R = 1 log För att fåett SNR påminst30 dbkrävsatt σ D 103 vilket ger att (om vi begränsar oss till heltal) att R 5 [bitar/sampel] vilket motsvarar en datatakt på minst 150 kbit/s. σ D 3.4 a) Enligt tabellen är D σ = b) Eftersom de två nivåerna är lika sannolika blir entropin H = 1 [bit/symbol] c) 1 σ log D 1 log [bit/symbol] Den lägsta distorsionen får man om kvantiseraren är en Lloyd-Max-kvantiserare (se tabell). Distorsionen kan förstås bli hur stor som helst, om vi väljer rekonstruktionspunkterna på ett dåligt sätt. Alltså: σ D < 3.6 Först måste vi göra vissa antaganden och approximationer. 16 bitar/sampel är en väldigt fin kvantisering, så vi kan anta att fördelningen är konstant inom varje kvantiseringsintervall. Eftersom a = 6σ kan vi försumma sannolikheten att kvantiseraren överstyr (den blir ungefär 10 9 ). Dessa approximationer ger att distorsionen för den likformiga kvantiseraren är D U 1. Antalet nivåer i kvantiseraren är vilket ger oss M = a = 16 D U 1 = a 16 = σ Om vi använder Lloyd-Max-kvantisering istället för likformig kvantisering så blir distorsionen (se formelsamlingen) D M σ π

32 Skillnaden i SNR är 10 log 10 σ D M 10 log 10 σ D U = 10 log 10 D U D M = 7 = 10 log 10 3π 6.4 [db] 3 Man skulle alltså kunna tjäna 6.4 db på att använda Lloyd-Max-kvantisering istället för likformig kvantisering. 3.7 a) D 438 b) Varje rekonstruktionspunkt ska flyttas till medelvärdet av de träningsvektorer som ligger i dess region. Aflyttastill( 130 3, 30),B till(0 3, 10 3 ),C till( 40 3, 40 3 )ochdtill(31.5,38.75). Ny distorsion: D 340 c) För att minimera distorsionen ska varje träningsvektor kvantiseras till den rekonstruktionspunkt som ligger närmast. Det innebär att gränsen mellan två områden ska vara en linje mitt emellan rekonstruktionspunkterna, vinkelrät mot linjen som förbinder de två rekonstruktionspunkterna. Vektor 4 kommer nu hamna i område A istället för i område C. Ny distorsion: D a) år. Storleken på kodboken blir enorm eftersom = 96 bitar används för att adressera den. Om blockstorleken är n bildpunkter, så är tiden för att koda en bild 56 n 1.5 n n = 1.5 n+16 [µs]. b) Två bildpunkter/block c) Sex bildpunkter/block. 4.1 a) p i = 0.9 X i 1, σ d = 0.19 b) p i = 7 19 X i X i, σ d a) p i = ρ X i 1, σ d = 1 ρ. b) p i = ρ X i 1 +0 X i, σ d = 1 ρ. (d.v.s. ingen skillnad gentemot prediktorn av ordning 1. Kommer någon linjär prediktor av högre ordning att vara bättre?) 30

33 4.3 Prediktionen ser ut som p i = a 1 ˆX i 1 +a ˆX i a 1 X i 1 +a X i Prediktionsfelets varians σ d ges av σ d = E{(X i p i ) } = = E{(X i a 1 X i 1 a X i ) } = = (1+a 1 +a )R XX(0) a 1 R XX (1) a R XX ()+a 1 a R XX (1) Derivera med avseende på a 1 respektive a och sätt lika med 0, vilket ger oss lösningen ( a1 a ) = ( RXX (0) R XX (1) R XX (1) R XX (0) ) 1 ( RXX (1) R XX () σ d.8108 ) ( Prediktionsfelet kommer approximativt att vara gaussiskt, vilket ger oss distorsionen och signal-brus-förhållandet D π 3 SNR = 10 log D σ d [db] ) 4.4 Prediktionen ser ut som p n = a 1 ˆX n 1 +a ˆX n a 1 X n 1 +a X n Prediktionsfelets varians σ d ges av σ d = E{(X n p n ) } E{(X n a 1 X n 1 a X n ) } = = (1+a 1 +a )R XX(0) a 1 R XX (1) a R XX ()+a 1 a R XX (1) Derivera med avseende på a 1 respektive a och sätt lika med 0, vilket ger oss lösningen ( a1 a ) = ( RXX (0) R XX (1) R XX (1) R XX (0) ) 1 ( RXX (1) R XX () σ d.9957 För att nå ett SNR på 40 db måste distorsionen uppfylla D σ x ) ( ) 31

34 Antag att vi gör bästa möjliga kvantisering, dvs likformig kvantisering följt av entropikodning. Prediktionsfelet kommer approximativt att vara gaussiskt, vilket ger oss distorsionen D πe 6 σ d R Alltså är den minsta datatakten vi kan använda R = 1 log π e σ d σ x 5.65 bitar/sampel 4.5 Prediktionen ser ut som p i,j = a 1 ˆX i 1,j +a ˆX i,j 1 a 1 X i 1,j +a X i,j 1 Prediktionsfelets varians σ d ges av σ d = E{(X i,j p i,j ) } E{(X i,j a 1 X i 1,j a X i,j 1 ) } = = (1+a 1 +a )R XX(0,0) a 1 R XX (1,0) a R XX (0,1)+a 1 a R XX (1, 1) Derivera med avseende på a 1 respektive a och sätt lika med 0, och lös ekvationssystemet: ( a1 a ) = ( RXX (0,0) R XX (1, 1) R XX (1, 1) R XX (0,0) Prediktionsfelets varians: σd = 6.00 ( ) ( ) 5.40 a 1 a 5.58 ) 1 ( RXX (1,0) R XX (0,1) ) ( Givet att kvantiseringen är fin så kommer prediktionsfelet approximativt att vara normalfördelat. Om vi gör likformig kvantisering följt av perfekt entropikodning blir den resulterande distorsionen D σ d πe 6 R För att nå ett SNR på 38 db måste distorsionen uppfylla D σ x Alltså är den minsta datatakten vi kan använda ) R 1 log π e σ d σ x bitar/bildpunkt 3

35 5.1 Antag att den önskade datatakten är R bitar/sampel och att vi använder samma typ av kvantisering i alla fallen. Eftersom signalen är normalfördelad kommer alla transformkomponenter också att vara normalfördelade. Om signalen kvantiseras fint utan någon transformation får man distorsionen D o c σ X R där c beror på vilken typ av kvantisering som görs och σ X = R XX(0) = 1. Signalbrus-förhållandet blir SNR o = 10 log 10 σ X D o Transformmatris för en tvåpunkters hadamardtransform: A = 1 ( ) Varianserna för de två transformkomponenterna blir σ 0 = 1.94 och σ 1 = Om bitarna fördelas optimalt (R i = R+ 1 log och signalbrusförhållandet D c σ0 σ 1 R σ i σ 0 σ 1), får vi distorsionen SNR = 10 log 10 σ X D Transformmatris för en fyrapunkters hadamardtransform (utan sortering av basvektorerna): A 4 = Varianserna för de fyra transformkomponenterna blir σ , σ , σ och σ Om bitarna fördelas optimalt (R i = R+ 1 log och signalbrusförhållandet D 4 c 4 σ0 σ 1 σ σ 3 R σ i 4 σ 0 σ 1 σ σ 3), får vi distorsionen SNR 4 = 10 log 10 σ X D 4 33

36 Vinsten vid en tvåpunkters transform blir SNR SNR o = 10 log 10 σ X σ 0 σ db Vinsten vid en fyrapunkters transform blir SNR 4 SNR o = 10 log 10 σx 4 σ 0 σ1 σ σ db 5. Transformmatrisen (basvektorer i raderna) för en 3-punkters DCT ser ut som: 1/ 1/ 1/ 1/ 3 1/ 3 1/ 3 A = 3/ 0 3/ = 1/ 0 1/ 3 1/ 1 1/ 1/ 6 / 6 1/ 6 Varianser för de tre transformkomponenterna: σ 0 = E{θ 0 } = 1 3 E{(X 0 +X 1 +X ) } = = 1 3 (3R XX(0)+4R XX (1)+R XX ()) = σ 1 = E{θ 1} = 1 E{(X 0 X ) } = = 1 (R XX(0) R XX ()) = 0.3 σ = E{θ } = 1 6 E{(X 0 X 1 +X ) } = = 1 6 (6R XX(0) 8R XX (1)+R XX ()) = Alternativt kan man räkna ut varianserna som diagonalelementen i A R X A T, där R X = Medeldatatakten ska vara bitar/sampel, så vi ska dela ut 3 = 6 bitar på de tre transformkomponenterna. Distorsionen minimeras om man ger 4 bitar till komponent 0, och en bit vardera till de två andra. Medeldistorsionen blir D 1 3 ( σ σ σ ) Signal-brus-förhållandet blir Utan transform får man distorsionen σx 10 log 10 D = 10 log [db] D D Q =

37 som ger signal-brus-förhållandet 10 log 10.0 D Q 9.30 [db] 5.3 Transformmatris med sorterade basfunktioner (sorteringen är inte nödvändig för att lösa uppgiften) A = Korrelationsmatris för signalen R X = Korrelationsmatris för transformkomponenterna. Varianser för transformkomponenterna i huvuddiagonalen R θ = AR X A T = Varianserna kan förstås också beräknas direkt från definitionen. Den bittilldelning som minimerar distorsionen är fyra bitar till den första komponenten, två bitar vardera till komponent två och tre och inga bitar till den sista komponenten. Den resulterande medeldistorsionen blir D = ) 4 vilket ger SNR SNR = 10 log D [db] För att uppnå minst samma SNR utan transform med Lloyd-Max-kvantisering måste vi använda 4 bitars kvantisering, vilket ger SNR 10 log db. Tre bitars kvantisering kommer inte att räcka, för det ger ett SNR som är 14.6 db. 5.4 En tvåpunkters hadamardtransform ges av transformmatrisen H = 1 ( )

38 Vi tar block om bildpunkter som ( X00 X X = 01 X 10 X 11 ) och transformerar enligt ( ) θ00 θ Θ = 01 = H θ 10 θ X H T = 11 ( X00 +X 01 +X 10 +X 11 X 00 X 01 +X 10 X 11 ) = 1 X 00 +X 01 X 10 X 11 X 00 X 01 X 10 +X 11 Varianserna för de fyra transformkomponenterna är σ 00 = E{θ 00} = σ 01 = E{θ 01 } = σ 10 = E{θ 10 } = σ 11 = E{θ 11 } = Vi har total = 7 bitar att fördela på de fyra transformkomponenterna. Medeldistorsionen minimeras om vi kvantiserar θ 00 med 4 bitar, θ 01 med bitar, θ 10 med 1 bit och θ 11 med 0 bitar. Den resulterande distorsionen blir då D 1 4 ( σ σ σ 10 +σ 11) och motsvarande SNR är 10 log 10 1 D [db] 5.5 Om man uttrycker de två transformerna som matriser så får vi / 1/ 1/ 1/ T 1 = och T = 1/ 1/ 1/ 1/ 1/ 1/ / 1/ Låt R X = vara korrelationsmatrisen för källan. Varianserna för transformkomponenterna kan nu hittas i diagonalerna för matriserna T 1 R X T t 1 respektive T R X T t. Om vi iterativt tilldelar en bit i taget till den komponent som har den för tillfället största distorsionen, får vi följande tabeller (använd formelsamlingen) 36

39 Varianser bit bitar bitar Transform A Varianser bit bitar bitar bitar Transform B Eftersom båda transformerna är ortonormala kan vi jämföra distorsionerna direkt i transformplanet 10 log Transform B ger alltså ett SNR som är ungefär 1.68 db högre än transform A. 5.6 a) De resulterande varianserna för de olika Y-signalerna: σ Y 1 = , σ Y = och σ Y 3 = bitar kommer att ges till Y 1, bitar till Y och 1 bit till Y 3. Observera att sampeltakten för Y 3 är dubbelt så hög som för Y 1 och Y. För varje 4 insampel så får man sampel på Y 3 och ett vardera på Y 1 och Y. Bitarna som fördelas till Y 3 räknas alltså dubbelt. Medeldatatakten blir då (4++ 1)/4 = bitar/sampel. b) D 1 ( ) En fyranivåers Lloyd-Max-kvantisering av insignalen ger distorsionen D = = 0.35, d.v.s. 4 db sämre än delbandskodaren. 5.7 Kodaren är ekvivalent med en transformkodare som använder hadamardtransformen på block om bildpunkter. De fyra transformkomponenterna är Y 1 [i,j] = (X[i,j] +X[i,j +1]+X[i+1,j]+X[i+1,j +1])/ Y [i,j] = (X[i,j] +X[i,j +1] X[i+1,j] X[i+1,j +1])/ Y 3 [i,j] = (X[i,j] X[i,j +1]+X[i+1,j] X[i+1,j +1])/ Y 4 [i,j] = (X[i,j] X[i,j +1] X[i+1,j]+X[i+1,j +1])/ med varianserna σ 1 = Var{Y 1 [i,j]} = σ = Var{Y [i,j]} = σ 3 = Var{Y 3 [i,j]} = σ 4 = Var{Y 4[i,j]} =

40 Datatakt bitar/bildpunkt fördela 4 = 8 bitar på de fyra kvantiserarna. Y 1 kommer att kvantiseras med 4 bitar, Y med bitar och Y 3 och Y 4 med en bit vardera. Det ger den resulterande medeldistorsionen D = ( σ σ (σ 3 +σ 4))/

TSBK04 Datakompression. Övningsuppgifter

TSBK04 Datakompression. Övningsuppgifter TSBK04 Datakompression Övningsuppgifter Innehåll 1 Informationsteoretiska begrepp........................ 1 2 Källkodning................................... 4 Copyright c 2004 Bildkodningsgruppen, Linköpings

Läs mer

TSBK04 Datakompression Övningsuppgifter

TSBK04 Datakompression Övningsuppgifter TSBK04 Datakompression Övningsuppgifter Innehåll 1 Informationsteoretiska begrepp........................ 1 2 Källkodning................................... 4 Copyright c 2004 Bildkodningsgruppen, Linköpings

Läs mer

En generell prediktiv kodare utnyttjar signalens utseende N steg tillbaka i tiden för kodningen, dvs vi kodar efter den betingade fördelningen

En generell prediktiv kodare utnyttjar signalens utseende N steg tillbaka i tiden för kodningen, dvs vi kodar efter den betingade fördelningen Prediktiv kodning Närliggande sampel i en signal är oftast starkt korrelerade med varandra, det kan därför vara en bra ide att försöka utnyttja denna korrelation (minnet) innan kvantiseringen för att få

Läs mer

Linjär prediktion. Prediktiv kodning. Linjär prediktion. Prediktiv kodare och avkodare

Linjär prediktion. Prediktiv kodning. Linjär prediktion. Prediktiv kodare och avkodare Prediktiv kodning Linjär prediktion Närliggande sampel i en signal är oftast starkt korrelerade med varandra, det kan därför vara en bra ide att försöka utnyttja denna korrelation (minnet) innan kvantiseringen

Läs mer

Krafts olikhet. En momentant avkodbar kod (prefixkod) med kodordslängderna l 1,...,l N existerar om och endast om. 2 l i. 1 i=1

Krafts olikhet. En momentant avkodbar kod (prefixkod) med kodordslängderna l 1,...,l N existerar om och endast om. 2 l i. 1 i=1 Datakompression fö 2 p.1 Krafts olikhet En momentant avkodbar kod (prefixkod) med kodordslängderna l 1,...,l N existerar om och endast om N 2 l i 1 Bevis: Antag att vi har en trädkod. Låt l max =max{l

Läs mer

Kodning med distorsion

Kodning med distorsion Kodning med distorsion Vi har en signal x n, n = 1... N som ska kodas. Alfabetet är en delmängd av de reella talen A R. Alfabetet kan vara kontinuerligt. Om vi inte har kravet att den avkodade signalen

Läs mer

Källkodning. Egenskaper hos koder. Några exempel

Källkodning. Egenskaper hos koder. Några exempel Källkodning Källkodning innebär att vi avbildar sekvenser av symboler ur en källas alfabet på binära sekvenser (kallade kodord). Mängden av alla kodord kalls för en kod. (Man kan förstås tänka sig att

Läs mer

Aritmetisk kodning. F (0) = 0 Exempel: A = {1, 2, 3} k=1. Källkodning fö 5 p.1/12

Aritmetisk kodning. F (0) = 0 Exempel: A = {1, 2, 3} k=1. Källkodning fö 5 p.1/12 Aritmetisk kodning Vi identifierar varje sekvens av källsymboler med ett tal i intervallet [0, 1). Vi gör det med hjälp av fördelningsfunktionen (cumulative distribution function) F. För enkelhets skull

Läs mer

Optimala koder. Övre gräns för optimala koder. Gränser. Övre gräns för optimala koder, forts.

Optimala koder. Övre gräns för optimala koder. Gränser. Övre gräns för optimala koder, forts. Datakompression fö 3 p.3 Datakompression fö 3 p.4 Optimala koder Övre gräns för optimala koder En prefixkod kallas optimal om det inte existerar någon annan kod (för samma alfabet och sannolikhetsfördelning)

Läs mer

Optimala koder. Det existerar förstås flera koder som har samma kodordsmedellängd. Enklaste fallet är att bara byta 0:or mot 1:or.

Optimala koder. Det existerar förstås flera koder som har samma kodordsmedellängd. Enklaste fallet är att bara byta 0:or mot 1:or. Datakompression fö 3 p.1 Optimala koder En prefixkod kallas optimal om det inte existerar någon annan kod (för samma alfabet och sannolikhetsfördelning) som har lägre kodordsmedellängd. Det existerar förstås

Läs mer

Shannon-Fano-Elias-kodning

Shannon-Fano-Elias-kodning Datakompression fö 5 p.1 Shannon-Fano-Elias-kodning Antag att vi har en minnesfri källa X i som tar värden i {1, 2,...,L}. Antag att sannolikheterna för alla symboler är strikt positiva: p(i) > 0, i. Fördelningsfunktionen

Läs mer

Skurlängdskodning. aaaabbbbbbbccbbbbaaaa. Man beskriver alltså sekvensen med ett annat alfabet än det ursprungliga.

Skurlängdskodning. aaaabbbbbbbccbbbbaaaa. Man beskriver alltså sekvensen med ett annat alfabet än det ursprungliga. Datakompression fö 4 p1 Skurlängdskodning Ibland har man källor som producerar långa delsekvenser av samma symbol Det kan då vara praktiskt att istället för att beskriva sekvensen som en följd av enstaka

Läs mer

FLAC (Free Lossless Audio Coding)

FLAC (Free Lossless Audio Coding) Datakompression fö 9 p.1 FLAC (Free Lossless Audio Coding) Distorsionsfri kodning av ljud Ljudsignalen delas in i block (typiskt några tusen sampel). Koda summa/skillnad av de två stereokanalerna om det

Läs mer

Transformkodning Idé: 1. Tag datasekvensen och dela in den i block av storlek N (eller N N om signalen är tvνadimensionell). Transformera dessa block

Transformkodning Idé: 1. Tag datasekvensen och dela in den i block av storlek N (eller N N om signalen är tvνadimensionell). Transformera dessa block Transformkodning Idé:. Tag datasekvensen och dela in den i block av storlek N (eller N N om signalen är tvνadimensionell). Transformera dessa block med en lämplig, reversibel transform till en ny sekvens.

Läs mer

Datakompression. Harald Nautsch ISY Bildkodning, Linköpings universitet.

Datakompression. Harald Nautsch ISY Bildkodning, Linköpings universitet. Datakompression fö 1 p.1 Datakompression Harald Nautsch harna@isy.liu.se http://www.icg.isy.liu.se/courses/tsbk04/ ISY Bildkodning, Linköpings universitet Datakompression fö 1 p.2 Kursinnehåll Källmodellering:

Läs mer

Kursinnehåll. Datakompression. Föreläsningar, preliminärt program. Examination

Kursinnehåll. Datakompression. Föreläsningar, preliminärt program. Examination Datakompression fö 1 p.3 Datakompression fö 1 p.4 Kursinnehåll Datakompression Harald Nautsch harna@isy.liu.se http://www.icg.isy.liu.se/courses/tsbk04/ ISY Bildkodning, Linköpings universitet Källmodellering:

Läs mer

Ordbokskodning. Enkel variant av kodning med variabelt antal insymboler och fixlängds kodord. (Jfr tunstallkodning)

Ordbokskodning. Enkel variant av kodning med variabelt antal insymboler och fixlängds kodord. (Jfr tunstallkodning) Datakompression fö 6 p.1 Ordbokskodning Enkel variant av kodning med variabelt antal insymboler och fixlängds kodord. (Jfr tunstallkodning) Man skapar en ordbok som innehåller 2 b olika sekvenser av symboler

Läs mer

Exempel, minnesfri binär källa. Ordbokskodning. Lempel-Zivkodning. Lempel-Zivkodning, forts.

Exempel, minnesfri binär källa. Ordbokskodning. Lempel-Zivkodning. Lempel-Zivkodning, forts. Datakompression fö 6 p.3 Datakompression fö 6 p.4 Ordbokskodning Exempel, minnesfri binär källa Enkel variant av kodning med variabelt antal insymboler och fixlängds kodord. (Jfr tunstallkodning) Man skapar

Läs mer

Kurslitteratur. Kompression av ljud och bild. Föreläsningar, preliminärt program. Laborationer. Khalid Sayood, Introduction to Data Compression

Kurslitteratur. Kompression av ljud och bild. Föreläsningar, preliminärt program. Laborationer. Khalid Sayood, Introduction to Data Compression TSBK35 fö 1 p.3 TSBK35 fö 1 p.4 Kurslitteratur Kompression av ljud och bild Harald Nautsch harna@isy.liu.se http://www.icg.isy.liu.se/courses/tsbk35/ ISY Bildkodning, Linköpings universitet Khalid Sayood,

Läs mer

Kompression av ljud och bild

Kompression av ljud och bild Kompression av ljud och bild Harald Nautsch harna@isy.liu.se ISY Informationskodning, Linköpings universitet http://www.icg.isy.liu.se/courses/tsbk35/ Kurslitteratur Rekommenderad bok: Khalid Sayood, Introduction

Läs mer

Kurslitteratur. Kompression av ljud och bild. Föreläsningar, preliminärt program. Laborationer

Kurslitteratur. Kompression av ljud och bild. Föreläsningar, preliminärt program. Laborationer TSBK35 källkodning p.3/89 TSBK35 källkodning p.4/89 Kurslitteratur Kompression av ljud och bild Harald Nautsch harna@isy.liu.se http://www.icg.isy.liu.se/courses/tsbk35/ ISY Informationskodning, Linköpings

Läs mer

Analys/syntes-kodning

Analys/syntes-kodning Analys/syntes-kodning Många talkodare bygger på en princip som kallas analys/syntes-kodning. Istället för att koda en vågform, som man normalt gör i generella ljudkodare och i bildkodare, så har man parametrisk

Läs mer

2.1 Mikromodul: stokastiska processer

2.1 Mikromodul: stokastiska processer 2. Mikromodul: stokastiska processer 9 2. Mikromodul: stokastiska processer 2.. Stokastiska variabler En stokastiskt variabel X beskrivs av dess täthetsfunktion p X (x), vars viktigaste egenskaper sammanfattas

Läs mer

4/27/12. Fönstring i MDCT. Föreläsning 10: Ljudkodning ( Audio Coding ) 1. Inledning PCM, standardmetoder, MDCT, psykoakustik, ljudtryck

4/27/12. Fönstring i MDCT. Föreläsning 10: Ljudkodning ( Audio Coding ) 1. Inledning PCM, standardmetoder, MDCT, psykoakustik, ljudtryck Föreläsning 10: Ljudkodning ( Audio Coding ) 1. Inledning PCM, standardmetoder, MDCT, psykoakustik, ljudtryck 2. Hörselsinnet Hörnivåkurvor, hörseltröskel, maskeringseffekter, Barkskalan 3. Ljudkodning

Läs mer

Föreläsning 10: Ljudkodning ( Audio Coding )

Föreläsning 10: Ljudkodning ( Audio Coding ) Föreläsning 10: Ljudkodning ( Audio Coding ) 1. Inledning PCM, standardmetoder, MDCT, psykoakustik, ljudtryck 2. Hörselsinnet Hörnivåkurvor, hörseltröskel, maskeringseffekter, Barkskalan 1. Ljudkodning

Läs mer

DIGITAL KOMMUNIKATION

DIGITAL KOMMUNIKATION EN KOR SAMMANFANING AV EORIN INOM DIGIAL KOMMUNIKAION Linjär kod En binär linjär kod kännetecknas av att summan av två kodord också är ett kodord. Ett specialfall är summan av ett kodord med sig själv

Läs mer

Stokastiska processer med diskret tid

Stokastiska processer med diskret tid Stokastiska processer med diskret tid Vi tänker oss en följd av stokastiska variabler X 1, X 2, X 3,.... Talen 1, 2, 3,... räknar upp tidpunkter som förflutit från startpunkten 1. De stokastiska variablerna

Läs mer

Adaptiv aritmetisk kodning

Adaptiv aritmetisk kodning Datakompression fö 8 p.1 Adaptiv aritmetisk kodning Aritmetisk kodning är väldigt enkel att göra adaptiv, eftersom vi bara behöver göra en adaptiv sannolikhetsmodell, medan själva kodaren är fix. Till

Läs mer

Exempel. Kontinuerliga stokastiska variabler. Integraler i stället för summor. Integraler i stället för summor

Exempel. Kontinuerliga stokastiska variabler. Integraler i stället för summor. Integraler i stället för summor Kontinuerliga stokastiska variabler Exempel En stokastisk variabel är kontinuerlig om den kan anta vilka värden som helst i ett intervall, men sannolikheten för varje enskilt utfall är noll: P(X = x) =.

Läs mer

Föreläsning 7: Bild- och videokodning

Föreläsning 7: Bild- och videokodning Föreläsning 7: Bild- och videokodning Inledning - varför bildkodning - tillämpningar - grundprinciper Förlustfri kodning - Variabellängdskodning - Skurländskodning - Huffmankodning Irreversibla kodningsmetoder

Läs mer

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3 Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3 Kontinuerliga sannolikhetsfördelningar (LLL Kap 7 & 9) Department of Statistics (Gebrenegus Ghilagaber, PhD, Associate Professor) Financial Statistics

Läs mer

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012 Föreläsning 1 Repetition av sannolikhetsteori Patrik Zetterberg 6 december 2012 1 / 28 Viktiga statistiska begrepp För att kunna förstå mer avancerade koncept under kursens gång är det viktigt att vi förstår

Läs mer

Spektrala Transformer

Spektrala Transformer Spektrala Transformer Tidsdiskreta signaler, kvantisering & sampling Tidsdiskreta signaler Tidskontinuerlig signal Ex: x(t) = sin(ωt) t är ett reellt tal ω har enheten rad/s Tidsdiskret signal Ex: x(n)

Läs mer

Lektionsanteckningar 11-12: Normalfördelningen

Lektionsanteckningar 11-12: Normalfördelningen Lektionsanteckningar 11-12: Normalfördelningen När utfallsrummet för en slumpvariabel kan anta vilket värde som helst i ett givet intervall är variabeln kontinuerlig. Det är väsentligt att utfallsrummet

Läs mer

Stat. teori gk, ht 2006, JW F7 STOKASTISKA VARIABLER (NCT 5.7) Ordlista till NCT

Stat. teori gk, ht 2006, JW F7 STOKASTISKA VARIABLER (NCT 5.7) Ordlista till NCT Stat. teori gk, ht 2006, JW F7 STOKASTISKA VARIABLER (NCT 5.7) Ordlista till NCT Jointly distributed Joint probability function Marginal probability function Conditional probability function Independence

Läs mer

Psykoakustik. Ljudtrycksnivå. Hörselns omfång. Hörnivå(loudness) Människans hörsel är ganska väl studerad och det finns bra modeller för den.

Psykoakustik. Ljudtrycksnivå. Hörselns omfång. Hörnivå(loudness) Människans hörsel är ganska väl studerad och det finns bra modeller för den. Psykoakustik Ljudtrycksnivå Människans hörsel är ganska väl studerad och det finns bra modeller för den. Detta kan utnyttjas vid ljudkodning för att placera distorsionen (kvantiseringsbruset) så att det

Läs mer

Stokastiska processer med diskret tid

Stokastiska processer med diskret tid Stokastiska processer med diskret tid Vi tänker oss en följd av stokastiska variabler X 1, X 2, X 3,.... Talen 1, 2, 3,... räknar upp tidpunkter som förflutit från startpunkten 1. De stokastiska variablerna

Läs mer

Tentamen MVE301 Sannolikhet, statistik och risk

Tentamen MVE301 Sannolikhet, statistik och risk Tentamen MVE30 Sannolikhet, statistik och risk 207-06-0 kl. 8:30-3:30 Examinator: Johan Jonasson, Matematiska vetenskaper, Chalmers Telefonvakt: Ivar Simonsson, telefon: 03-7725348 Hjälpmedel: Valfri miniräknare.

Läs mer

Stokastiska vektorer och multivariat normalfördelning

Stokastiska vektorer och multivariat normalfördelning Stokastiska vektorer och multivariat normalfördelning Johan Thim johanthim@liuse 3 november 08 Repetition Definition Låt X och Y vara stokastiska variabler med EX µ X, V X σx, EY µ Y samt V Y σy Kovariansen

Läs mer

Stokastiska signaler. Mediesignaler

Stokastiska signaler. Mediesignaler Stokastiska signaler Mediesignaler Stokastiska variabler En slumpvariabel är en funktion eller en regel som tilldelar ett nummer till varje resultatet av ett experiment Symbol som representerar resultatet

Läs mer

Matematisk statistik KTH. Formelsamling i matematisk statistik

Matematisk statistik KTH. Formelsamling i matematisk statistik Matematisk statistik KTH Formelsamling i matematisk statistik Vårterminen 2017 1 Kombinatorik ) n n! = k k! n k)!. Tolkning: mängd med n element. ) n = antalet delmängder av storlek k ur en k 2 Stokastiska

Läs mer

Kap 2. Sannolikhetsteorins grunder

Kap 2. Sannolikhetsteorins grunder Kap 2. Sannolikhetsteorins grunder Olika händelser och deras mängbetäckningar Sats 2.7 Dragning utan återläggning av k element ur n (utan hänsyn till ordning) kan ske på ( n ) olika sätt k För två händelser

Läs mer

Finansiell statistik. Multipel regression. 4 maj 2011

Finansiell statistik. Multipel regression. 4 maj 2011 Finansiell statistik Föreläsning 4 Multipel regression Jörgen Säve-Söderbergh 4 maj 2011 Samband mellan variabler Vi människor misstänker ofta att det finns många variabler som påverkar den variabel vi

Läs mer

Resttentamen i Signaler och System Måndagen den 11.januari 2010, kl 14-19

Resttentamen i Signaler och System Måndagen den 11.januari 2010, kl 14-19 Resttentamen i Signaler och System Måndagen den 11.januari 2010, kl 14-19 Tillåtna hjälpmedel: Valfri miniräknare (utan möjlighet till trådlös kommunkation). Valfri litteratur, inkl. kursböcker, formelsamlingar.

Läs mer

Väntevärde och varians

Väntevärde och varians TNG6 F5 19-4-216 Väntevärde och varians Exempel 5.1. En grupp teknologer vid ITN slår sig ihop för att starta ett företag som utvecklar datorspel. Man vet att det är 8% chans för ett felfritt spel som

Läs mer

SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016

SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016 SF1901: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 4 KONTINUERLIGA STOKASTISKA VARIABLER Tatjana Pavlenko 7 september 2016 PLAN FÖR DAGENS FÖRELÄSNING Repetition av diskreta stokastiska variabler. Väntevärde

Läs mer

Föreläsninsanteckningar till föreläsning 3: Entropi

Föreläsninsanteckningar till föreläsning 3: Entropi Föreläsninsanteckningar till föreläsning 3: Entropi Johan Håstad, transkriberat av Pehr Söderman 2006-01-20 1 Entropi Entropi är, inom kryptografin, ett mått på informationsinnehållet i en slumpvariabel.

Läs mer

TMS136. Föreläsning 4

TMS136. Föreläsning 4 TMS136 Föreläsning 4 Kontinuerliga stokastiska variabler Kontinuerliga stokastiska variabler är stokastiska variabler som tar värden i intervall av den reella axeln Det kan handla om längder, temperaturer,

Läs mer

Stokastiska vektorer

Stokastiska vektorer TNG006 F2 9-05-206 Stokastiska vektorer 2 Kovarians och korrelation Definition 2 Antag att de sv X och Y har väntevärde och standardavvikelse µ X och σ X resp µ Y och σ Y Då kallas för kovariansen mellan

Läs mer

Spektrala Transformer

Spektrala Transformer Spektrala Transformer Tidsdiskreta signaler, kvantisering & sampling Tidsdiskreta signaler Tidskontinuerlig signal Ex: x(t) = sin(ωt) t är ett reellt tal ω har enheten rad/s Tidsdiskret signal Ex: x(n)

Läs mer

Föreläsning 5, FMSF45 Summor och väntevärden

Föreläsning 5, FMSF45 Summor och väntevärden Föreläsning 5, FMSF45 Summor och väntevärden Stas Volkov 2017-09-19 Stanislav Volkov s.volkov@maths.lth.se FMSFF45 F5: väntevärden 1/18 2D stokastisk variabel Tvådimensionella stokastisk variabel (X, Y)

Läs mer

Statistik 1 för biologer, logopeder och psykologer

Statistik 1 för biologer, logopeder och psykologer Innehåll 1 Grunderna i sannolikhetslära 2 Innehåll 1 Grunderna i sannolikhetslära 2 Satistik och sannolikhetslära Statistik handlar om att utvinna information från data. I praktiken inhehåller de data

Läs mer

Övning 1(a) Vad du ska kunna efter denna övning. Problem, nivå A. Redogöra för begreppen diskret och kontinuerlig stokastisk variabel.

Övning 1(a) Vad du ska kunna efter denna övning. Problem, nivå A. Redogöra för begreppen diskret och kontinuerlig stokastisk variabel. Övning 1(a) Vad du ska kunna efter denna övning Redogöra för begreppen diskret och kontinuerlig stokastisk variabel. Definiera fördelningsfunktionen för en stokastisk variabel. Definiera frekvensfunktionen

Läs mer

Kunna definiera laplacetransformen för en kontinuerlig stokastisk variabel. Kunna definiera z-transformen för en diskret stokastisk variabel.

Kunna definiera laplacetransformen för en kontinuerlig stokastisk variabel. Kunna definiera z-transformen för en diskret stokastisk variabel. Övning 2 Vad du ska kunna efter denna övning Kunna definiera laplacetransformen för en kontinuerlig stokastisk variabel. Kunna definiera z-transformen för en diskret stokastisk variabel. Kunna beräkna

Läs mer

Psykoakustik. Ljudtrycksnivå. Hörselns omfång. Hörnivå (loudness) Människans hörsel är ganska väl studerad och det finns bra modeller för den.

Psykoakustik. Ljudtrycksnivå. Hörselns omfång. Hörnivå (loudness) Människans hörsel är ganska väl studerad och det finns bra modeller för den. Psykoakustik TSBK35 fö 10 p.3 Ljudtrycksnivå TSBK35 fö 10 p.4 Människans hörsel är ganska väl studerad och det finns bra modeller för den. Detta kan utnyttjas vid ljudkodning för att placera distorsionen

Läs mer

Människans hörsel är ganska väl studerad och det finns bra modeller för den.

Människans hörsel är ganska väl studerad och det finns bra modeller för den. Psykoakustik Människans hörsel är ganska väl studerad och det finns bra modeller för den. Detta kan utnyttjas vid ljudkodning för att placera distorsionen (kvantiseringsbruset) så att det ska märkas så

Läs mer

TAMS79: Föreläsning 10 Markovkedjor

TAMS79: Föreläsning 10 Markovkedjor TAMS79: Föreläsning 0 Markovkedjor Johan Thim december 08 0. Markovkedjor Vi ska nu betrakta en speciell tidsdiskret diskret stokastisk process, nämligen Markovkedjan. Vi börjar med en definition Definition.

Läs mer

Matematisk statistik 9hp Föreläsning 5: Summor och väntevärden

Matematisk statistik 9hp Föreläsning 5: Summor och väntevärden Matematisk statistik 9hp Föreläsning 5: Summor och väntevärden Anna Lindgren 20+21 september 2016 Anna Lindgren anna@maths.lth.se FMS012/MASB03 F5: väntevärden 1/18 2D stokastisk variabel Tvådim. stokastisk

Läs mer

Kurssammanfattning MVE055

Kurssammanfattning MVE055 Obs: Detta är enbart tänkt som en översikt och innehåller långt ifrån allt som ingår i kursen (vilket anges exakt på hemsidan). Fullständiga antaganden i satser kan saknas och fel kan förekomma så kontrollera

Läs mer

MVE051/MSG Föreläsning 14

MVE051/MSG Föreläsning 14 MVE051/MSG810 2016 Föreläsning 14 Petter Mostad Chalmers December 14, 2016 Beroende och oberoende variabler Hittills i kursen har vi tittat på modeller där alla observationer representeras av stokastiska

Läs mer

Uppgift 1. f(x) = 2x om 0 x 1

Uppgift 1. f(x) = 2x om 0 x 1 Avd. Matematisk statistik TENTAMEN I Matematisk statistik SF1907, SF1908 OCH SF1913 TORSDAGEN DEN 30 MAJ 2013 KL 14.00 19.00. Examinator: Gunnar Englund, 073 321 3745 Tillåtna hjälpmedel: Formel- och tabellsamling

Läs mer

Föreläsning 3. Kapitel 4, sid Sannolikhetsfördelningar

Föreläsning 3. Kapitel 4, sid Sannolikhetsfördelningar Föreläsning 3 Kapitel 4, sid 79-124 Sannolikhetsfördelningar 2 Agenda Slumpvariabel Sannolikhetsfördelning 3 Slumpvariabel (Stokastisk variabel) En variabel som beror av slumpen Ex: Tärningskast, längden

Läs mer

Tentamen i tmv036c och tmv035c, Analys och linjär algebra C för K, Kf och Bt A =, = det(a λi) = e 2t + c 2. x(t) = c 1. = c 1.

Tentamen i tmv036c och tmv035c, Analys och linjär algebra C för K, Kf och Bt A =, = det(a λi) = e 2t + c 2. x(t) = c 1. = c 1. Institutionen för matematiska vetenskaper Chalmers tekniska högskola Niklas Eriksen Tentamen i tmv6c och tmv5c, Analys och linjär algebra C för K, Kf och Bt Lösningar 9--6. Lös initialvärdesproblemet x

Läs mer

SF1901: Sannolikhetslära och statistik

SF1901: Sannolikhetslära och statistik SF1901: Sannolikhetslära och statistik Föreläsning 5. Kovarians, korrelation, väntevärde och varians för summor av s.v.:er, normalfördelning (del 1) Jan Grandell & Timo Koski 15.09.2008 Jan Grandell &

Läs mer

Föreläsning 7: Stokastiska vektorer

Föreläsning 7: Stokastiska vektorer Föreläsning 7: Stokastiska vektorer Johan Thim johanthim@liuse oktober 8 Repetition Definition Låt X och Y vara stokastiska variabler med EX = µ X, V X = σx, EY = µ Y samt V Y = σy Kovariansen CX, Y definieras

Läs mer

SF1911: Statistik för bioteknik

SF1911: Statistik för bioteknik SF1911: Statistik för bioteknik Föreläsning 6. TK 14.11.2016 TK Matematisk statistik 14.11.2016 1 / 38 Lärandemål Stokastiska modeller för kontinuerliga datatyper Fördelningsfunktion (cdf) Sannolikhetstäthetsfunktion

Läs mer

TATA42: Föreläsning 8 Linjära differentialekvationer av högre ordning

TATA42: Föreläsning 8 Linjära differentialekvationer av högre ordning TATA42: Föreläsning 8 Linjära differentialekvationer av högre ordning Johan Thim 23 april 2018 1 Differentialoperatorer För att underlätta notation och visa på underliggande struktur introducerar vi begreppet

Läs mer

Föreläsning 3, Matematisk statistik Π + E

Föreläsning 3, Matematisk statistik Π + E Repetition Kvantil Presentation Slumptal Transformer Inversmetoden Föreläsning 3, Matematisk statistik Π + E Sören Vang Andersen 13 november 2014 Sören Vang Andersen - sva@maths.lth.se FMS012 F3 1/19 Repetition

Läs mer

SF1901 Sannolikhetsteori och statistik I

SF1901 Sannolikhetsteori och statistik I SF1901 Sannolikhetsteori och statistik I Jimmy Olsson Föreläsning 6 13 november 2017 1 / 29 Idag Förra gången Mer om väntevärden och varianser (Kap. 5.2 5.3) Beroendemått (Kap. 5.4) Summor, linjärkombinationer

Läs mer

Tentamen i Beräkningsvetenskap II, 5.0 hp,

Tentamen i Beräkningsvetenskap II, 5.0 hp, Uppsala universitet Institutionen för informationsteknologi Beräkningsvetenskap Stefan Engblom, tel. 471 27 54, Per Lötstedt, tel. 471 29 72 Tentamen i Beräkningsvetenskap II, 5.0 hp, 2016-03-16 Skrivtid:

Läs mer

Matematisk statistik 9 hp Föreläsning 3: Transformation och simulering

Matematisk statistik 9 hp Föreläsning 3: Transformation och simulering Matematisk statistik 9 hp Föreläsning 3: Transformation och simulering Anna Lindgren 8+9 september 216 Anna Lindgren - anna@maths.lth.se FMS12/MASB3: transform 1/11 Stokastisk variabel Kvantil Stokastisk

Läs mer

19.1 Funktioner av stokastiska variabler

19.1 Funktioner av stokastiska variabler 9. Funktioner av stokastiska variabler 9.. Oberoende stokastiska variabler Som vi minns innebär P(A B) = P(A) P(B) att händelserna A och B är oberoende. Låt A vara händelsen att X < x och B vara händelsen

Läs mer

Grundläggande matematisk statistik

Grundläggande matematisk statistik Grundläggande matematisk statistik Kontinuerliga fördelningar Uwe Menzel, 8 www.matstat.de Begrepp fördelning Hur beter sig en variabel slumpmässigt? En slumpvariabel (s.v.) har en viss fördelning, d.v.s.

Läs mer

Fördelningsfunktionen för en kontinuerlig stokastisk variabel. Täthetsfunktionen för en kontinuerlig och en diskret stokastisk variabel.

Fördelningsfunktionen för en kontinuerlig stokastisk variabel. Täthetsfunktionen för en kontinuerlig och en diskret stokastisk variabel. Övning 1 Vad du ska kunna efter denna övning Diskret och kontinuerlig stokastisk variabel. Fördelningsfunktionen för en kontinuerlig stokastisk variabel. Täthetsfunktionen för en kontinuerlig och en diskret

Läs mer

Föreläsning 5, Matematisk statistik Π + E

Föreläsning 5, Matematisk statistik Π + E Repetition Summor max/min Väntevärde Varians Föreläsning 5, Matematisk statistik Π + E Sören Vang Andersen 25 november 2014 Sören Vang Andersen - sva@maths.lth.se FMS012 F5 1/16 Repetition Summor max/min

Läs mer

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 6 Väntevärden Korrelation och kovarians Stora talens lag. Jörgen Säve-Söderbergh

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 6 Väntevärden Korrelation och kovarians Stora talens lag. Jörgen Säve-Söderbergh SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 6 Väntevärden Korrelation och kovarians Stora talens lag Jörgen Säve-Söderbergh Väntevärde för en funktion av en stokastisk variabel Om

Läs mer

Ulrik Söderström 20 Jan Signaler & Signalanalys

Ulrik Söderström 20 Jan Signaler & Signalanalys Ulrik Söderström ulrik.soderstrom@tfe.umu.se 20 Jan 2009 Signaler & Signalanalys Sinusspänning Sinus och cosinus samma form men fasförskjutna Fasförskjutning tidsfördröjning Sinus och cosinus är väldigt

Läs mer

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12 LINKÖPINGS UNIVERSITET MAI Johan Thim Tentamen i matematisk statistik (9MA21/9MA31, STN2) 212-8-2 kl 8-12 Hjälpmedel är: miniräknare med tömda minnen och formelbladet bifogat. Varje uppgift är värd 6 poäng.

Läs mer

Ulrik Söderström 19 Jan Signalanalys

Ulrik Söderström 19 Jan Signalanalys Ulrik Söderström ulrik.soderstrom@tfe.umu.se 9 Jan 200 Signaler & Signalanalys l Sinusspänning Sinus och cosinus samma form men fasförskjutna Fasförskjutning tidsfördröjning Sinus och cosinus är väldigt

Läs mer

Lösningar till SF1861/SF1851 Optimeringslära, 24/5 2013

Lösningar till SF1861/SF1851 Optimeringslära, 24/5 2013 Lösningar till SF86/SF85 Optimeringslära, 4/5 03 Uppgift (a) Inför de 3 variablerna x ij = kvantitet (i sorten ton) som fabrik nr i åläggs att tillverka av produkt nr j, samt t = tiden (i sorten timmar)

Läs mer

TMS136: Dataanalys och statistik Tentamen

TMS136: Dataanalys och statistik Tentamen TMS136: Dataanalys och statistik Tentamen 013-08-7 Examinator och jour: Mattias Sunden, tel. 0730 79 9 79 Hjälpmedel: Chalmersgodkänd räknare och formelsamling (formelsamling delas ut med tentan). Betygsgränser:

Läs mer

Grundläggande matematisk statistik

Grundläggande matematisk statistik Grundläggande matematisk statistik Flerdimensionella Uwe Menzel, 2018 uwe.menzel@slu.se; uwe.menzel@matstat.de www.matstat.de Flerdimensionella Ett slumpförsök kan ge upphov till flera (s.v.): kast med

Läs mer

Matematisk statistik 9hp Föreläsning 7: Normalfördelning

Matematisk statistik 9hp Föreläsning 7: Normalfördelning Matematisk statistik 9hp Föreläsning 7: Normalfördelning Anna Lindgren 29+3 september 216 Anna Lindgren anna@maths.lth.se FMS12/MASB3 F7: normalfördelning 1/18 Kovarians, C(X, Y) Repetition Normalfördelning

Läs mer

SF1669 Matematisk och numerisk analys II Lösningsförslag till tentamen DEL A. r cos t + (r cos t) 2 + (r sin t) 2) rdrdt.

SF1669 Matematisk och numerisk analys II Lösningsförslag till tentamen DEL A. r cos t + (r cos t) 2 + (r sin t) 2) rdrdt. 1. Beräkna integralen medelpunkt i origo. SF1669 Matematisk och numerisk analys II Lösningsförslag till tentamen 218-3-14 D DEL A (x + x 2 + y 2 ) dx dy där D är en cirkelskiva med radie a och Lösningsförslag.

Läs mer

Sidor i boken Figur 1: Sträckor

Sidor i boken Figur 1: Sträckor Sidor i boken 37-39 Vektorer Det vi ska studera här är bara en liten del av den teori du kommer att stifta bekantskap med i dina fortsatta studier i kursen Linjär algebra. Många av de objekt man arbetar

Läs mer

Blandade problem från elektro- och datateknik

Blandade problem från elektro- och datateknik Blandade problem från elektro- och datateknik Sannolikhetsteori (Kapitel 1-10) E1. En viss typ av elektroniska komponenter anses ha exponentialfördelade livslängder. Efter 3000 timmar brukar 90 % av komponenterna

Läs mer

Burrows-Wheelers transform

Burrows-Wheelers transform Datakompression fö 7 p.1 Burrows-Wheelers transform Transformen själv ger ingen kompression, men gör det lättare att koda signalen med en enkel kodare. Antag att vi vill koda en sekvens av längd n. Skapa

Läs mer

LINKÖPINGS UNIVERSITET EXAM TAMS 79 / TEN 1

LINKÖPINGS UNIVERSITET EXAM TAMS 79 / TEN 1 LINKÖPINGS UNIVERSITET Matematiska institutionen EXAM TAMS 79 / TEN 1 augusti 14, klockan 8.00-12.00 Examinator: Jörg-Uwe Löbus Tel: 28-1474) Tillåtna hjälpmedel är en räknare, formelsamling i matematisk

Läs mer

LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2

LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2 LINKÖPINGS UNIVERSITET Matematiska institutionen EXAM TAMS 27 / TEN 2 augusti 218, klockan 8.-12. Examinator: Jörg-Uwe Löbus (Tel: 79-62827) Tillåtna hjälpmedel är en räknare, formelsamling i matematisk

Läs mer

Stokastiska Processer och ARIMA. Patrik Zetterberg. 19 december 2012

Stokastiska Processer och ARIMA. Patrik Zetterberg. 19 december 2012 Föreläsning 7 Stokastiska Processer och ARIMA Patrik Zetterberg 19 december 2012 1 / 22 Stokastiska processer Stokastiska processer är ett samlingsnamn för Sannolikhetsmodeller för olika tidsförlopp. Stokastisk=slumpmässig

Läs mer

Lösningar till tentamensskrivning för kursen Linjära statistiska modeller. 14 januari

Lösningar till tentamensskrivning för kursen Linjära statistiska modeller. 14 januari STOCKHOLMS UNIVERSITET MATEMATISK STATISTIK Lösningar till tentamensskrivning för kursen Linjära statistiska modeller 14 januari 2010 9 14 Examinator: Anders Björkström, tel. 16 45 54, bjorks@math.su.se

Läs mer

Matematisk kommunikation för Π Problemsamling

Matematisk kommunikation för Π Problemsamling Problemsamling Charlotte Soneson & Niels Chr. Overgaard september 200 Problem. Betrakta formeln n k = k= n(n + ). 2 Troliggör den först genom att exempelvis i summan +2+3+4+5+6 para ihop termer två och

Läs mer

Detta ger oss att kanalkapaciteten för den ursprungliga kanalen är C = q 1 C 1 + q 2 C C =1 h ( ) 0.30.

Detta ger oss att kanalkapaciteten för den ursprungliga kanalen är C = q 1 C 1 + q 2 C C =1 h ( ) 0.30. Lösning på problem a) Kanalen är symmetrisk och vi gör nedanstående uppdelning av den. Vi får två starkt symmetriska kanaler vilkas kanalkapacitet ges av C och C 2. Kanalerna väljes med sannolikheterna

Läs mer

Industriell matematik och statistik, LMA136 2013/14

Industriell matematik och statistik, LMA136 2013/14 Industriell matematik och statistik, LMA136 2013/14 7 Mars 2014 Disposition r Kondensintervall och hypotestest Kondensintervall Statistika Z (eller T) har fördelning F (Z en funktion av ˆθ och θ) q 1 α/2

Läs mer

SF1901 Sannolikhetsteori och statistik I

SF1901 Sannolikhetsteori och statistik I SF1901 Sannolikhetsteori och statistik I Jimmy Olsson Föreläsning 4 7 november 2017 1 / 29 Idag Förra gången Viktiga kontinuerliga fördelningar (Kap. 3.6) Fördelningsfunktion (Kap. 3.7) Funktioner av stokastiska

Läs mer

Stokastiska processer och simulering I 24 maj

Stokastiska processer och simulering I 24 maj STOCKHOLMS UNIVERSITET LÖSNINGAR MATEMATISKA INSTITUTIONEN Stokastiska processer och simulering I Avd. Matematisk statistik 24 maj 2016 Lösningar Stokastiska processer och simulering I 24 maj 2016 9 14

Läs mer

Lösningsförslag till övningsuppgifter, del V

Lösningsförslag till övningsuppgifter, del V Lösningsförslag till övningsuppgifter, del V Obs! Preliminär version! Ö.1. (a) Vi kan lösa uppgiften genom att helt enkelt räkna ut avståndet mellan vart och ett av de ( 7 ) = 1 paren. Först noterar vi

Läs mer

TATA42: Föreläsning 9 Linjära differentialekvationer av ännu högre ordning

TATA42: Föreläsning 9 Linjära differentialekvationer av ännu högre ordning TATA42: Föreläsning 9 Linjära differentialekvationer av ännu högre ordning Johan Thim 4 mars 2018 1 Linjära DE av godtycklig ordning med konstanta koefficienter Vi kommer nu att betrakta linjära differentialekvationer

Läs mer

x f (x) dx 1/8. Kan likhet gälla i sistnämnda relation. (Torgny Lindvall.) f är en kontinuerlig funktion på 1 x sådan att lim a

x f (x) dx 1/8. Kan likhet gälla i sistnämnda relation. (Torgny Lindvall.) f är en kontinuerlig funktion på 1 x sådan att lim a Elementa Årgång 50, 967 Årgång 50, 967 Första häftet 2603. Låt ξ, ξ 2,..., ξ n vara stokastiska variabler med väntevärden E[ξ i ], i =, 2,..., n. Visa att E[max(ξ, ξ 2,..., ξ n )] max(e[ξ ], E[ξ 2 ],...,

Läs mer

Tentamen LMA 200 Matematisk statistik,

Tentamen LMA 200 Matematisk statistik, Tentamen LMA 00 Matematisk statistik, 0 Tentamen består av åtta uppgifter motsvarande totalt 50 poäng. Det krävs minst 0 poäng för betyg, minst 0 poäng för 4 och minst 40 för 5. Examinator: Ulla Blomqvist,

Läs mer