Kodning med distorsion

Storlek: px
Starta visningen från sidan:

Download "Kodning med distorsion"

Transkript

1 Kodning med distorsion Vi har en signal x n, n = 1... N som ska kodas. Alfabetet är en delmängd av de reella talen A R. Alfabetet kan vara kontinuerligt. Om vi inte har kravet att den avkodade signalen ska vara exakt densamma som originalsignalen kan vi få en lägre datatakt än om vi har distorsionsfri kodning. Typiskt så beskriver man signalen med ett mindre alfabet än vad originalsignalen har (kvantisering). I de fall man har ett kontinuerligt alfabet skulle det generellt krävas ett oändligt antal bitar för att beskriva signalen exakt. Ju fler bitar som kan användas, desto mer lik originalsignalen kommer den avkodade signalen ˆx n vara.

2 Distorsionsmått Vi behöver ett mått på hur mycket signalen har förstörts, den s.k. distorsionen. Det allra vanligaste är att man använder ett kvadratisk felmått och att man medelvärdesbildar över hela sekvensen D = 1 N N (x n ˆx n ) 2 n=1 Detta är medelkvadratfelet (mean square error) för sekvensen. I vissa sammanhang händer det att man istället använder absolutvärdet av felet istället för kvadraten.

3 SNR Ofta vill man betrakta distorsionen (bruseffekten) i förhållande till signaleffekten, det s.k. signal-brus-förhållandet (SNR) N σ 2 x = 1 N n=1 x 2 n SNR anges nästan alltid i db SNR = σ2 x D SNR = 10 log 10 σ 2 x D

4 PSNR Vid kodning av stillbilder och video används ofta peak-to-peak signal to noise ratio (PSNR) PSNR = 10 log 10 x 2 pp D där x pp är skillnaden mellan signalens största och minsta värde. Till exempel, om datat man kodar är en gråskalebild kvantiserad till 8 bitar innebär det att insignalen kan ta värden mellan 0 och 255. PSNR blir då PSNR = 10 log D

5 Stokastiska signalmodeller En signal kan modelleras som en amplitudkontinuerlig stationär stokastisk process X n, med fördelningsfunktion F X (x) och täthetsfunktion f X (x). F X (x) = Pr(X x) f X (x) = d dx F X (x) f X (x) 0, x f X (x)dx = 1 Pr(a X b) = F X (b) F X (a) = b a f X (x)dx

6 Stokastiska signalmodeller, forts. Medelvärde Kvadratiskt medelvärde Varians m X = E{X n } = E{X 2 n } = x f X (x)dx x 2 f X (x)dx σ 2 X = E{(X n m x ) 2 } = E{X 2 n } m 2 x I de flesta fall kommer vi att använda signalmodeller med medelvärde 0, och då är variansen lika med det kvadratiska medelvärdet. Variansen (egentligen det kvadratiska medelvärdet) är ett mått på hur mycket signaleffekt det finns.

7 Vanliga fördelningar Likformig fördelning f X (x) = { 1 b a a x b 0 annars Medelvärde m = a+b 2, varians σ2 = (b a)2 12 Gaussisk fördelning (normalfördelning) f X (x) = 1 e (x m)2 2σ 2 2πσ Laplacefördelning f X (x) = 1 e 2 x m σ 2σ

8 Stokastiska signalmodeller, forts. Beroendet mellan signalens värde i två olika tidpunkter n och m ges av den tvådimensionella täthetsfunktionen f XnX m (x n, x m ). Om man kan skriva den som en produkt f X (x n ) f X (x m ) säger vi att signalen i de två tidpunkterna är oberoende. En signal där alla tidpunkter är oberoende av varandra är en minnesfri signal eller en vit signal. I de flesta fall beskriver man istället beroendet med hjälp av korrelationen E{X n X m }. Om E{X n X m } = E{X n } E{X m } säger vi att signalen i de två tidpunkterna är okorrelerade. Oberoende signaler är okorrelerade, men omvändningen är inte nödvändigtvis sann.

9 Minneskällor Markovkälla av ordning k f (x n x n 1 x n 2...) = f (x n x n 1... x n k ) Linjära modeller, ɛ n vitt (minnesfritt) brus. AR(N) N x n = a i x n i + ɛ n MA(M) M x n = b i ɛ n j + ɛ n j=1 ARMA(N, M) N M x n = a i x n i + b i ɛ n j + ɛ n i=1 i=1 j=1

10 Stokastiska signalmodeller, forts. Signalens korrelationsegenskaper uttrycks normalt med hjälp av autokorrelationsfunktionen, som för en stationär process ges av R XX (k) = E{X n X n+k } Autokorrelationsfunktionen är symmetrisk: R XX ( k) = R XX (k). Det gäller även att: R XX (k) R XX (0). För en minnesfri (vit) process är För en AR(1)-process är R XX (k) = σ 2 X δ(k) = { σ 2 X k = 0 0 annars R XX (k) = a k σ 2 X ( a < 1)

11 Flerdimensionella signaler Autokorrelationsfunktionen kan förstås också definieras för flerdimensionella signaler. Till exempel, för en tvådimensionell stationär stokastisk process X i,j ges autokorrelationsfunktionen av R XX (k, l) = E{X i,j X i+k,j+l } Autokorrelationsfunktionen är symmetrisk: R XX ( k, l) = R XX (k, l) Vi har även: R XX (k, l) R XX (0, 0) = E{X 2 i,j }

12 Stokastiska signalmodeller, forts. För en stokastisk signal X n som kodas och avkodas till ˆX n ges distorsionen av D = E{(X ˆX ) 2 } = Signaleffekten är (givet medelvärde noll) (x ˆx) 2 f X (x)dx och SNR ges som tidigare av E{X 2 } = σ 2 X (E{X }) 2 = σ 2 X SNR = 10 log 10 σ 2 x D

13 Teoretisk gräns Rate-distortion-funktionen R(D) för en källa ger den teoretiskt lägsta datatakt R vi kan använda för att koda källan, givet att den maximalt tillåtna distorsionen är D. Jämför med entropigränsen vid källkodning. Exempel: Vit gaussprocess med varians σ 2 R(D) = { 1 2 log σ2 D 0 < D σ 2 0 annars Dvs, om vi tillåter en distorsion som är större än processens varians, behöver vi inte överföra några bitar alls. Avkodaren kan sätta den avkodade signalen lika med medelvärdet i varje tidpunkt, vilket ger en distorsion som är lika med signalens varians. Vi ser också att R då D 0

14 Kvantisering Avbildning från ett kontinuerligt alfabet till ett diskret (även avbildning från ett stort diskret alfabet till ett mindre). Efter kvantisering har vi en diskret signal, som vi kan använda våra källkodningsmetoder på (huffman, aritmetisk kodning, et c.) En generell M-nivåers kvantiserare specificeras av M + 1 stycken beslutsgränser b i ; i = 0... M och M stycken rekonstruktionsnivåer (eller -punkter) y i ; i = 1... M. Kvantiseringsoperatorn Q(x) ges av Q(x) = y i om b i 1 < x b i och den rekonstruerade signalen är alltså ˆx n = Q(x n )

15 Kvantisering Ibland kan det vara praktiskt att se kvantisering och rekonstruktion som två separata operationer istället för en enda. Kvantisering: x j så att y j är den rekonstruktionspunkt som ligger närmast x. Rekonstruktion: ˆx = y j En sekvens av x ger alltså en sekvens av index j som till exempel kodas med en källkodare. Avkodaren avkodar indexsekvensen och avbildar sen index på de motsvarande rekonstruktionspunkterna.

16 Kvantisering, forts. Givet en stokastisk signalmodell blir distorsionen D = E{(X ˆX ) 2 } = = = bi M i=1 (x Q(x)) 2 f X (x)dx = b i 1 (x y i ) 2 f X (x)dx Om ingen källkodning används, dvs om vi använder ett kodord av fix längd för varje kvantiseringsnivå, så blir datatakten R = log 2 M

17 Likformig kvantisering Avståndet mellan två rekonstruktionspunkter är konstant y j y j 1 = kallas för kvantiserarens steglängd. Rekonstruktionspunkterna ligger i mitten av sina intervall, vilket innebär att även alla beslutsområden (eventuellt förutom ändintervallen) är lika stora b i b i 1 =

18 Likformig kvantisering, forts. För enkelhets skull antar vi att antalet rekonstruktionspunkter ges av M = 2 R för att förenkla beräkningarna. Följande resultat kan dock enkelt generaliseras för godtyckligt M. Antag även att kvantiseraren ligger symmetriskt kring origo. Rekonstruktionspunkten som hör till intervallet [(j 1), j ] är då y j = 2j 1 2 Det enklaste fallet får vi om fördelningen är likformig på intervallet [ A, A]: = 2A M

19 Likformig kvantisering, forts. Distorsion för likformig kvantisering av en likformig fördelning: D = M/2 i= M/2+1 i (i 1) (x 2i 1 ) A dx = M 1 2A 3 12 = 2 12 σ 2 X = (2A)2 12 = 2 M 2 12 SNR = σx 2 10 log 10 D = 10 log 10 M 2 = = 10 log R = 20 R log R Varje extra bit vi använder i kvantiseringen ger alltså cirka 6 db högre SNR.

20 Likformig kvantisering, forts. För obegränsade fördelningar (t.ex. gauss) blir de två yttersta beslutsområdena oändligt stora (i beräkningarna nedan antas att M är jämn och att kvantiseraren är placerad symmetriskt kring origo). D = + + M/2 i= M/2+1 (M/2) (M/2) i (i 1) (x 2i 1 ) 2 f X (x)dx + 2 (x M 1 ) 2 f X (x)dx + 2 (x M + 1 ) 2 f X (x)dx 2 De två sista termerna brukar kallas för kvantiserarens överstyrningsdistorsion.

21 Likformig kvantisering, forts. För att hitta det som minimerar distorsionen måste vi lösa D = 0 vilket generellt sett är svårt. Normalt får man hitta en numerisk lösning. Om antalet kvantiseringsnivåer är stort och väljs så att överstyrningsdistorsionen är tillräckligt liten i förhållande till den totala distorsionen, så blir distorsionen approximativt D 2 12

22 Midrise vs midtread ˆx ˆx x x När man kodar bild- och ljuddata vill man oftast ha en kvantiserare som har en rekonstruktionsnivå i 0.

23 Likformig kvantisering, exempel Likformig kvantisering (midtread) av en talsignal Originalsignal Kvantiserad med = 0.1 Uppmätt distorsion: D (Jämför med 2 / )

24 Lloyd-Max-kvantisering Hur ska beslutsgränser och rekonstruktionspunkter väljas för att distorsionen ska bli så liten som möjligt? Detta kommer naturligtvis bero av signalens utseende. För en generell kvantiserare har vi D = M i=1 bi b i 1 (x y i ) 2 f X (x)dx Vi vill hitta den kvantiserare som minimerar distorsionen D. bj b D = 0 y j = j 1 x f X (x)dx y bj j b j 1 f X (x)dx Den optimala placeringen av rekonstruktionspunkterna är alltså i sannolikhetsmassans tyngdpunkt i varje intervall.

25 Lloyd-Max-kvantisering, forts. D = 0 b j = y j+1 + y j b j 2 Den optimala placeringen av beslutsgränserna är mitt emellan rekonstruktionspunkterna, vilket innebär att man ska kvantisera till den närmaste rekonstruktionspunkten. Notera att dessa krav är nödvändiga men ej tillräckliga. Notera också att y j beror av b j 1 och b j och att b j beror av y j+1 och y j. Normalt är det bara möjligt att hitta slutna lösningar för ganska enkla fördelningar (t.ex. likformig fördelning eller laplacefördelning) och när man har få rekonstruktionspunkter. För övriga fördelningar får man hitta lösningen numeriskt. Ett sätt att göra detta är Lloyds algoritm.

26 Lloyds algoritm 1. Börja med en startuppsättning rekonstruktionspunkter y (0) i, i = 1... M. Sätt k = 0, D ( 1) = och välj en tröskel ɛ. 2. Beräkna optimala beslutsgränser b (k) j 3. Beräkna distorsionen D (k) = M i=1 b (k) i b (k) i 1 4. Om D (k 1) D (k) < ɛ sluta, annars fortsätt = y (k) j+1 + y (k) j 2 (x y (k) i ) 2 f (x)dx 5. k = k + 1. Beräkna nya optimala rekonstruktionspunkter y (k) j = b (k 1) j b (k 1) j 1 b (k 1) j b (k 1) j 1 6. Repetera från 2 x f (x)dx f (x)dx

27 Exempel Lloyd-Max-kvantiserare för en gaussisk fördelning. R = 3, d.v.s. M = 2 3 = 8.

28 Kvantisering med kompander Kompressorfunktion: c(x) Expanderfunktion: c 1 (x) Kvantisera c(x) istället för x. Kvantiseringen är likformig. Mottagaren applicerar expanderfunktionen på mottagna data. c(x) väljs så att kvantiseringen blir finare för små värden på x. Exempel på kompander: µ-law ln(1 + µ x x c(x) = x max ) max sgn(x) ln(1 + µ) c 1 (x) = x x max ((1 + µ) xmax 1) sgn(x) µ Används i det amerikanska telenätet för kodning av talsignaler med µ = 255. För det europeiska telenätet finns en motsvarande standard specificerad som kallas A-law.

29 Kvantisering med källkodning Sannolikheten P(j) att hamna i intervall j är P(j) = bj b j 1 f X (x)dx Typiskt så är dessa sannolikheter olika för olika intervall. Vi skulle alltså kunna få en lägre datatakt än log M genom någon form av källkodning. Att hitta en optimal kvantiserare givet en tillåten datatakt R efter källkodning är ett svårt problem. Det går dock att visa att för tillräckligt stora R (fin kvantisering) så är den optimala kvantiseringen en likformig kvantisering. Om vi ändå ska göra källkodning räcker det alltså med den enklaste formen av kvantisering.

30 Fin kvantisering Om man har fin kvantisering, dvs om antalet kvantiseringsnivåer är stort, så ges distorsionen approximativt av D c σ 2 X 2 2R där σx 2 är signalens varians, R är datatakten och c är en konstant som beror av typen av kvantisering och signalens fördelning. Gaussfördelning, Lloyd-Max-kvantisering: c = π 3 2 Gaussfördelning, likformig kvantisering, perfekt entropikodning (R = H( ˆX )): c = πe 6

31 Fin kvantisering För fin kvantisering har vi approximationerna D (x)f (x)dx M 1 (x) dx där (x) är en funktion som beskriver storleken av kvantiseringsintervallet vid x och M är det resulterande antalet rekonstruktionspunkter. För fin Lloyd-Max-kvantisering ska man välja (x) = k (f (x)) 1 3 och den resulterande datatakten blir R = log 2 M.

32 Approximation vs riktiga värden SNR [db] Real Approximation Rate [bits/sample] Likformig kvantisering av gaussisk signal, följt av perfekt källkodning (R = H( ˆX )). Riktiga värden jämfört med approximationen D πe 6 σ2 X 2 2R.

33 Approximation vs riktiga värden SNR [db] Real Approximation Rate [bits/sample] Lloyd-Max-kvantisering av gaussisk signal. Riktiga värden jämfört med approximationen D π 3 2 σ 2 X 2 2R.

34 Exempel Musiken i heyhey.wav kodas med likformig kvantisering (midtread), följt av huffmankodning. Datatakten varieras genom att kvantiserarens steglängd varieras. Ingen begränsning av antalet nivåer görs. Som jämförelse har även den kvantiserade signalens entropi mätts Huffman entropy SNR [db] R [bits/sample]

35 Vektorkvantisering Närliggande sampel i en signal är oftast starkt korrelerade. Exempel: 4000 sampel från en talsignal, plotta [x i, x i+1 ]

36 Vektorkvantisering, forts. För att utnyttja beroendet mellan sampel kan vi använda någon form av källkodning som tar hänsyn till flera sampel i taget, t.ex. utvidgad huffmankodning, eller aritmetisk kodning där intervalluppdelningen är beroende av föregående symbol(er). Man kan även utnyttja korrelationen mellan sampel direkt vid kvantiseringen, genom att kvantisera flera sampel i taget, vektorkvantisering. Betrakta L sampel från källan som en L-dimensionell vektor. x 1 x 2 x =. x L

37 Vektorkvantisering, forts. Kvantiseraren bestäms av sina rekonstruktionsvektorer y i och beslutsområden V i Exempel: I två dimensioner kan det se ut som

38 Vektorkvantisering, forts. Mängden av rekonstruktionspunkter {y i }, i = 1... M brukar kallas för kodbok. Distorsion D = 1 L M i=1 V i x y i 2 f (x) dx Jämför med distorsionen vid skalär kvantisering D = M i=1 bi b i 1 (x y i ) 2 f (x)dx En skalär kvantiserare är en endimensionell vektorkvantiserare.

39 Datatakt För att koda de M nivåerna med en fixlängds kod krävs log M bitar, och eftersom vi kodar L sampel i taget, blir datatakten R = log M L [bitar/sampel] Alternativt, givet dimension L och datatakt R M = 2 RL Man kan förstås även använda någon källkodningsmetod även vid vektorkvantisering, men det görs oftast inte.

40 Minnes- och tidsåtgång Både på kodar- och avkodarsidan måste vi lagra kodboken. Den kan även behöva överföras som sidoinformation. Om vi använder L dimensioner, har en datatakt på R bitar per sampel och de enskilda elementen i vektorerna lagras med b bitar, så krävs det alltså 2 RL L b bitar för att lagra hela kodboken. Minnesåtgången växer alltså väldigt snabbt när vi går upp i dimension. Om det inte finns någon struktur i kodboken måste vi jämföra vektorn som ska kvantiseras med alla vektorer i kodboken för att hitta den närmaste. Detta kommer att ta mycket tid för stora dimensioner L.

41 Lloyd-Max i flera dimensioner Vi vill hitta en kvantiserare som minimerar distorsionen Nödvändiga villkoren för minimal distorsion: Gränserna mellan beslutsområdena ska ligga mitt mellan rekonstruktionspunkterna, dvs vi ska kvantisera till den rekonstruktionspunkt som ligger närmast. Rekonstruktionspunkterna ska ligga i beslutsområdenas tyngdpunkter, de s.k. centroiderna V y i = i x f (x)dx V i f (x)dx Jämför med Lloyd-Max-kvantisering i en dimension

42 Lloyds generaliserade algoritm 1. Börja med en startkodbok y (0) i, i = 1... M. Sätt k = 0, D ( 1) = och välj en tröskel ɛ. 2. Beräkna optimala beslutsområden 3. Beräkna distorsionen V (k) i = {x : x y i 2 < x y j 2 j i} D (k) = M i=1 V (k) i x y (k) i 2 f (x)dx 4. Om D (k 1) D (k) < ɛ sluta, annars fortsätt 5. k = k + 1. Beräkna nya optimala rekonstruktionspunkter som är centroiderna i varje V (k 1) i. 6. Repetera från 2

43 Träningsdata Oftast vet man inte källans täthetsfunktion f (x). Man skulle då kunna skatta täthetsfunktionen från en lång sekvens från källan (träningsdata). Istället för att göra det kan man modifera Lloyds algoritm, så att man använder träningsdatat direkt i algoritmen Algoritmen brukar då kallas LBG-algoritmen eller K-means.

44 LBG-algoritmen 1. Börja med en startkodbok y (0) i, i = 1... M och en uppsättning träningsvektorer x n, n = 1... N. Sätt k = 0, D ( 1) = och välj en tröskel ɛ. 2. Beräkna optimala beslutsområden V (k) i = {x n : x n y i 2 < x n y j 2 j i} 3. Beräkna distorsionen D (k) = M i=1 x n V (k) i 4. Om D (k 1) D (k) < ɛ sluta, annars fortsätt x n y (k) i 2 5. k = k + 1. Beräkna nya optimala rekonstruktionspunkter som är medelvärdet av vektorerna i varje V (k 1) i. 6. Repetera från 2

45 Hur välja startkodboken i LBG? Beroende på hur startkodboken väljs kan man få olika resulterande kodböcker. Några varianter: Välj M stycken godtyckliga vektorer. Välj M stycken vektorer slumpmässigt ur träningsmängden. Generera flera startkodböcker slumpmässigt och välj den som ger lägst distorsion. PNN (Pairwise Nearest Neighbour). Starta med att varje träningsvektor är en rekonstruktionspunkt. Slå i varje steg ihop de två vektorer som är närmast varandra och ersätt dem med medelvärdet av de två vektorerna. Repetera tills bara M vektorer återstår.

46 Variant av LBG: Splitting 1. Börja med bara en rekonstruktionspunkt som är medelvärdet av all träningsvektorer. 2. Skapa ny kodbok genom att till varje vektor i kodboken addera en liten förskjutningsvektor δ. 3. Optimera kodboken med LBG-algoritmen. 4. Om vi har M vektorer i kodboken är vi klara, annars går vi till steg 2.

47 Tomma områden Vad gör man om något område blir tomt under ett steg i LBG-algoritmen? Ersätt den rekonstruktionsvektor som har ett tomt beslutsområde med en ny vektor. Några varianter: 1. Välj den nya rekonstruktionspunkten slumpmässigt från det område som har flest träningsdata. 2. Välj den nya rekonstruktionspunkten slumpmässigt från det område som har störst distorsion. 3. Optimera en tvåpunkters kvantiserare i det område som har störst distorsion. Metod 3 är mer beräkningsintensiv, men har inte visat sig ge några speciella fördelar gentemot metod 1 eller 2.

48 För- och nackdelar För- och nackdelar med vektorkvantisering jämfört med skalär kvantisering. + Kan utnyttja eventuellt minne i källan + Distorsionen vid en given datatakt kommer alltid att minska när vi ökar antalet dimensioner i kvantiseringen, även för minnesfria källor. Både det minnesutrymme som krävs för att lagra kodboken och den tid det tar att genomföra kvantiseringen växer exponentiellt med antalet dimensioner. Eftersom det inte finns någon struktur i kodboken, så måste vi vid kvantiseringen jämföra vår vektor med alla rekonstruktionspunkter för att hitta den närmaste.

49 LBG, exempel Vi optimerar en skalär kvantiserare med datatakten 2 bitar/sampel (dvs 2 2 = 4 nivåer) för vår talsignal. Om vi betraktar denna kvantiserare i två dimensioner, där vi kvantiserar varje dimension separat, så ser beslutsgränser och rekonstruktionspunkter ut som nedan SNR är ungefär 8.6 db.

50 LBG, exempel Om vi istället optimerar en tvådimensionell vektorkvantiserare för vår talsignal med datatakten 2 bitar/sampel (dvs = 16 vektorer i kodboken), så ser beslutsområden och rekonstruktionspunkter ut som nedan SNR är ungefär 14.4 db.

51 LBG, exempel Vi vill koda denna bild ( bildpunkter, 8 bitar/bildpunkt). Träningsdata: bildpunkter som dimensionella vektorer Önskad datatakt är 2 bitar/bildpunkt, vilket ger att att vi ska ha M = 2 RL = = 16 rekonstruktionspunkter.

52 LBG, exempel Figurerna visar träningsdata i grönt, samt rekonstruktionspunkter med tillhörande beslutsområden Startkodbok 1 iteration 10 iterationer

53 LBG, exempel Kodas bilden med den erhållna kvantiseraren blir resultatet Original Kvantiserad Det resulterande signal-brusförhållandet är db. Sidoinformationen (kodboken) kräver bitar.

54 Tree-Structured Vector Quantization Placera rekonstruktionsvektorerna som löv i ett binärt träd. I varje inre nod i trädet lagrar vi två testvektorer. När man ska kvantisera en vektor, börjar man med att jämföra den med de två testvektorerna i trädets rot. Beroende på vilken testvektor som är närmast så går vi ner i den ena eller andra grenen. Fortsätt så i varje nod tills vi når ett löv, dvs en rekonstruktionspunkt. Fördelarna är att vi bara behöver göra 2 log 2 M istället för M jämförelser. Nackdelarna är att vi inte kan garantera att vi väljer den rekonstruktionspunkt som ligger närmast, dvs distorsionen blir lite större än vid fullständig sökning. Minnesåtgången ökar också eftersom vi även måste lagra testvektorerna. En TSVQ kan designas med en variant av splitting-algoritmen

55 Gain-shape VQ En vektor x kan beskrivas som x = x x x Vi konstruerar en skalär kvantiserare för längden ( gain ) av vektorn x och en vektorkvantiserare för den normerade vektorn ( shape ) Lägre komplexitet jämfört med en full vektorkvantiserare, men distorsionen kan bli lite högre. x x.

56 Multistage VQ Istället för att ha en enda L-dimensionell kvantiserare med datatakten R bitar/sampel, så har man k stycken L-dimensionella kvantiserare med datatakterna R 1, R 2,..., R k, så att R = R 1 + R R k. Man kvantiserar först x med kvantiserare 1. Kvantiseringsfelet x 1 = x Q 1 (x) kvantiseras sedan med kvantiserare 2. Kvantiseringsfelet x 2 = x 1 Q 2 (x 1 ) kvantiseras sedan med kvantiserare 3, och så vidare. Man får en kvantiserare med lägre komplexitet (mindre kodbok och färre jämförelser) till priset av att distorsionen blir högre.

57 Gitterkvantisering (Lattice VQ) Generalisering av likformig kvantisering till flera dimensioner. Rekonstruktionspunkterna placeras ut i den L-dimensionella rymden i ett regelbundet mönster. Komplexiteten låg, eftersom man inte behöver lagra alla rekonstruktionspunkter utan bara en beskrivning av hur mönstret ser ut. Snabba metoder finns för att hitta den närmaste rekonstruktionspunkten, så man behöver inte heller göra en fullständig sökning när man kvantiserar. Ger bättre prestanda än en skalär kvantiserare, men sämre än en generell vektorkvantiserare.

58 Gitterkvantisering, forts. Exempel på gitterkvantiserare i två dimensioner: Hexagonalt gitter Vid fin kvantisering ger det hexagonala gittret en vinst på cirka 0.17 db, jämfört med likformig skalär kvantisering. Det bästa kända gittret är ett 24-dimensionellt gitter som ger en vinst på 1.03 db.

En generell prediktiv kodare utnyttjar signalens utseende N steg tillbaka i tiden för kodningen, dvs vi kodar efter den betingade fördelningen

En generell prediktiv kodare utnyttjar signalens utseende N steg tillbaka i tiden för kodningen, dvs vi kodar efter den betingade fördelningen Prediktiv kodning Närliggande sampel i en signal är oftast starkt korrelerade med varandra, det kan därför vara en bra ide att försöka utnyttja denna korrelation (minnet) innan kvantiseringen för att få

Läs mer

Linjär prediktion. Prediktiv kodning. Linjär prediktion. Prediktiv kodare och avkodare

Linjär prediktion. Prediktiv kodning. Linjär prediktion. Prediktiv kodare och avkodare Prediktiv kodning Linjär prediktion Närliggande sampel i en signal är oftast starkt korrelerade med varandra, det kan därför vara en bra ide att försöka utnyttja denna korrelation (minnet) innan kvantiseringen

Läs mer

Källkodning. Egenskaper hos koder. Några exempel

Källkodning. Egenskaper hos koder. Några exempel Källkodning Källkodning innebär att vi avbildar sekvenser av symboler ur en källas alfabet på binära sekvenser (kallade kodord). Mängden av alla kodord kalls för en kod. (Man kan förstås tänka sig att

Läs mer

Skurlängdskodning. aaaabbbbbbbccbbbbaaaa. Man beskriver alltså sekvensen med ett annat alfabet än det ursprungliga.

Skurlängdskodning. aaaabbbbbbbccbbbbaaaa. Man beskriver alltså sekvensen med ett annat alfabet än det ursprungliga. Datakompression fö 4 p1 Skurlängdskodning Ibland har man källor som producerar långa delsekvenser av samma symbol Det kan då vara praktiskt att istället för att beskriva sekvensen som en följd av enstaka

Läs mer

Optimala koder. Övre gräns för optimala koder. Gränser. Övre gräns för optimala koder, forts.

Optimala koder. Övre gräns för optimala koder. Gränser. Övre gräns för optimala koder, forts. Datakompression fö 3 p.3 Datakompression fö 3 p.4 Optimala koder Övre gräns för optimala koder En prefixkod kallas optimal om det inte existerar någon annan kod (för samma alfabet och sannolikhetsfördelning)

Läs mer

Optimala koder. Det existerar förstås flera koder som har samma kodordsmedellängd. Enklaste fallet är att bara byta 0:or mot 1:or.

Optimala koder. Det existerar förstås flera koder som har samma kodordsmedellängd. Enklaste fallet är att bara byta 0:or mot 1:or. Datakompression fö 3 p.1 Optimala koder En prefixkod kallas optimal om det inte existerar någon annan kod (för samma alfabet och sannolikhetsfördelning) som har lägre kodordsmedellängd. Det existerar förstås

Läs mer

TSBK35 Kompression av ljud och bild

TSBK35 Kompression av ljud och bild TSBK35 Kompression av ljud och bild Övningshäfte 0 februari 013 Innehåll I Problem 1 1 Informationsteori................................ 1 Källkodning................................... 3 3 Kvantisering...................................

Läs mer

Aritmetisk kodning. F (0) = 0 Exempel: A = {1, 2, 3} k=1. Källkodning fö 5 p.1/12

Aritmetisk kodning. F (0) = 0 Exempel: A = {1, 2, 3} k=1. Källkodning fö 5 p.1/12 Aritmetisk kodning Vi identifierar varje sekvens av källsymboler med ett tal i intervallet [0, 1). Vi gör det med hjälp av fördelningsfunktionen (cumulative distribution function) F. För enkelhets skull

Läs mer

Shannon-Fano-Elias-kodning

Shannon-Fano-Elias-kodning Datakompression fö 5 p.1 Shannon-Fano-Elias-kodning Antag att vi har en minnesfri källa X i som tar värden i {1, 2,...,L}. Antag att sannolikheterna för alla symboler är strikt positiva: p(i) > 0, i. Fördelningsfunktionen

Läs mer

Krafts olikhet. En momentant avkodbar kod (prefixkod) med kodordslängderna l 1,...,l N existerar om och endast om. 2 l i. 1 i=1

Krafts olikhet. En momentant avkodbar kod (prefixkod) med kodordslängderna l 1,...,l N existerar om och endast om. 2 l i. 1 i=1 Datakompression fö 2 p.1 Krafts olikhet En momentant avkodbar kod (prefixkod) med kodordslängderna l 1,...,l N existerar om och endast om N 2 l i 1 Bevis: Antag att vi har en trädkod. Låt l max =max{l

Läs mer

Analys/syntes-kodning

Analys/syntes-kodning Analys/syntes-kodning Många talkodare bygger på en princip som kallas analys/syntes-kodning. Istället för att koda en vågform, som man normalt gör i generella ljudkodare och i bildkodare, så har man parametrisk

Läs mer

2.1 Mikromodul: stokastiska processer

2.1 Mikromodul: stokastiska processer 2. Mikromodul: stokastiska processer 9 2. Mikromodul: stokastiska processer 2.. Stokastiska variabler En stokastiskt variabel X beskrivs av dess täthetsfunktion p X (x), vars viktigaste egenskaper sammanfattas

Läs mer

Stokastiska vektorer

Stokastiska vektorer TNG006 F2 9-05-206 Stokastiska vektorer 2 Kovarians och korrelation Definition 2 Antag att de sv X och Y har väntevärde och standardavvikelse µ X och σ X resp µ Y och σ Y Då kallas för kovariansen mellan

Läs mer

Transformkodning Idé: 1. Tag datasekvensen och dela in den i block av storlek N (eller N N om signalen är tvνadimensionell). Transformera dessa block

Transformkodning Idé: 1. Tag datasekvensen och dela in den i block av storlek N (eller N N om signalen är tvνadimensionell). Transformera dessa block Transformkodning Idé:. Tag datasekvensen och dela in den i block av storlek N (eller N N om signalen är tvνadimensionell). Transformera dessa block med en lämplig, reversibel transform till en ny sekvens.

Läs mer

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3 Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3 Kontinuerliga sannolikhetsfördelningar (LLL Kap 7 & 9) Department of Statistics (Gebrenegus Ghilagaber, PhD, Associate Professor) Financial Statistics

Läs mer

Stokastiska processer med diskret tid

Stokastiska processer med diskret tid Stokastiska processer med diskret tid Vi tänker oss en följd av stokastiska variabler X 1, X 2, X 3,.... Talen 1, 2, 3,... räknar upp tidpunkter som förflutit från startpunkten 1. De stokastiska variablerna

Läs mer

Adaptiv aritmetisk kodning

Adaptiv aritmetisk kodning Datakompression fö 8 p.1 Adaptiv aritmetisk kodning Aritmetisk kodning är väldigt enkel att göra adaptiv, eftersom vi bara behöver göra en adaptiv sannolikhetsmodell, medan själva kodaren är fix. Till

Läs mer

SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016

SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016 SF1901: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 4 KONTINUERLIGA STOKASTISKA VARIABLER Tatjana Pavlenko 7 september 2016 PLAN FÖR DAGENS FÖRELÄSNING Repetition av diskreta stokastiska variabler. Väntevärde

Läs mer

SF1901 Sannolikhetsteori och statistik I

SF1901 Sannolikhetsteori och statistik I SF1901 Sannolikhetsteori och statistik I Jimmy Olsson Föreläsning 6 13 november 2017 1 / 29 Idag Förra gången Mer om väntevärden och varianser (Kap. 5.2 5.3) Beroendemått (Kap. 5.4) Summor, linjärkombinationer

Läs mer

Kap 2. Sannolikhetsteorins grunder

Kap 2. Sannolikhetsteorins grunder Kap 2. Sannolikhetsteorins grunder Olika händelser och deras mängbetäckningar Sats 2.7 Dragning utan återläggning av k element ur n (utan hänsyn till ordning) kan ske på ( n ) olika sätt k För två händelser

Läs mer

4/27/12. Fönstring i MDCT. Föreläsning 10: Ljudkodning ( Audio Coding ) 1. Inledning PCM, standardmetoder, MDCT, psykoakustik, ljudtryck

4/27/12. Fönstring i MDCT. Föreläsning 10: Ljudkodning ( Audio Coding ) 1. Inledning PCM, standardmetoder, MDCT, psykoakustik, ljudtryck Föreläsning 10: Ljudkodning ( Audio Coding ) 1. Inledning PCM, standardmetoder, MDCT, psykoakustik, ljudtryck 2. Hörselsinnet Hörnivåkurvor, hörseltröskel, maskeringseffekter, Barkskalan 3. Ljudkodning

Läs mer

TSBK04 Datakompression. Övningsuppgifter

TSBK04 Datakompression. Övningsuppgifter TSBK04 Datakompression Övningsuppgifter Innehåll 1 Informationsteoretiska begrepp........................ 1 2 Källkodning................................... 4 Copyright c 2004 Bildkodningsgruppen, Linköpings

Läs mer

Föreläsning 10: Ljudkodning ( Audio Coding )

Föreläsning 10: Ljudkodning ( Audio Coding ) Föreläsning 10: Ljudkodning ( Audio Coding ) 1. Inledning PCM, standardmetoder, MDCT, psykoakustik, ljudtryck 2. Hörselsinnet Hörnivåkurvor, hörseltröskel, maskeringseffekter, Barkskalan 1. Ljudkodning

Läs mer

TSBK04 Datakompression Övningsuppgifter

TSBK04 Datakompression Övningsuppgifter TSBK04 Datakompression Övningsuppgifter Innehåll 1 Informationsteoretiska begrepp........................ 1 2 Källkodning................................... 4 Copyright c 2004 Bildkodningsgruppen, Linköpings

Läs mer

Övning 1 Sannolikhetsteorins grunder

Övning 1 Sannolikhetsteorins grunder Övning 1 Sannolikhetsteorins grunder Två händelser A och B är disjunkta om {A B} =, det vill säga att snittet inte innehåller några element. Om vi har en mängd händelser A 1, A 2, A 3,..., A n, vilka är

Läs mer

Stokastiska vektorer och multivariat normalfördelning

Stokastiska vektorer och multivariat normalfördelning Stokastiska vektorer och multivariat normalfördelning Johan Thim johanthim@liuse 3 november 08 Repetition Definition Låt X och Y vara stokastiska variabler med EX µ X, V X σx, EY µ Y samt V Y σy Kovariansen

Läs mer

Kurslitteratur. Kompression av ljud och bild. Föreläsningar, preliminärt program. Laborationer. Khalid Sayood, Introduction to Data Compression

Kurslitteratur. Kompression av ljud och bild. Föreläsningar, preliminärt program. Laborationer. Khalid Sayood, Introduction to Data Compression TSBK35 fö 1 p.3 TSBK35 fö 1 p.4 Kurslitteratur Kompression av ljud och bild Harald Nautsch harna@isy.liu.se http://www.icg.isy.liu.se/courses/tsbk35/ ISY Bildkodning, Linköpings universitet Khalid Sayood,

Läs mer

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12 LINKÖPINGS UNIVERSITET MAI Johan Thim Tentamen i matematisk statistik (9MA21/9MA31, STN2) 212-8-2 kl 8-12 Hjälpmedel är: miniräknare med tömda minnen och formelbladet bifogat. Varje uppgift är värd 6 poäng.

Läs mer

FLAC (Free Lossless Audio Coding)

FLAC (Free Lossless Audio Coding) Datakompression fö 9 p.1 FLAC (Free Lossless Audio Coding) Distorsionsfri kodning av ljud Ljudsignalen delas in i block (typiskt några tusen sampel). Koda summa/skillnad av de två stereokanalerna om det

Läs mer

Exempel. Kontinuerliga stokastiska variabler. Integraler i stället för summor. Integraler i stället för summor

Exempel. Kontinuerliga stokastiska variabler. Integraler i stället för summor. Integraler i stället för summor Kontinuerliga stokastiska variabler Exempel En stokastisk variabel är kontinuerlig om den kan anta vilka värden som helst i ett intervall, men sannolikheten för varje enskilt utfall är noll: P(X = x) =.

Läs mer

DIGITAL KOMMUNIKATION

DIGITAL KOMMUNIKATION EN KOR SAMMANFANING AV EORIN INOM DIGIAL KOMMUNIKAION Linjär kod En binär linjär kod kännetecknas av att summan av två kodord också är ett kodord. Ett specialfall är summan av ett kodord med sig själv

Läs mer

TMS136. Föreläsning 4

TMS136. Föreläsning 4 TMS136 Föreläsning 4 Kontinuerliga stokastiska variabler Kontinuerliga stokastiska variabler är stokastiska variabler som tar värden i intervall av den reella axeln Det kan handla om längder, temperaturer,

Läs mer

Grundläggande matematisk statistik

Grundläggande matematisk statistik Grundläggande matematisk statistik Kontinuerliga fördelningar Uwe Menzel, 8 www.matstat.de Begrepp fördelning Hur beter sig en variabel slumpmässigt? En slumpvariabel (s.v.) har en viss fördelning, d.v.s.

Läs mer

Stokastiska processer med diskret tid

Stokastiska processer med diskret tid Stokastiska processer med diskret tid Vi tänker oss en följd av stokastiska variabler X 1, X 2, X 3,.... Talen 1, 2, 3,... räknar upp tidpunkter som förflutit från startpunkten 1. De stokastiska variablerna

Läs mer

Föreläsning 7. Felrättande koder

Föreläsning 7. Felrättande koder Föreläsning 7 Felrättande koder Antag att vi vill skicka ett meddelande som består av bokstäver a,b,c,d. Vi kan koda a,b,c,d. Antag att det finns en viss sannolikhet att en bit i ett meddelande som skickas

Läs mer

Väntevärde och varians

Väntevärde och varians TNG6 F5 19-4-216 Väntevärde och varians Exempel 5.1. En grupp teknologer vid ITN slår sig ihop för att starta ett företag som utvecklar datorspel. Man vet att det är 8% chans för ett felfritt spel som

Läs mer

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 6 Väntevärden Korrelation och kovarians Stora talens lag. Jörgen Säve-Söderbergh

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 6 Väntevärden Korrelation och kovarians Stora talens lag. Jörgen Säve-Söderbergh SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 6 Väntevärden Korrelation och kovarians Stora talens lag Jörgen Säve-Söderbergh Väntevärde för en funktion av en stokastisk variabel Om

Läs mer

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012 Föreläsning 1 Repetition av sannolikhetsteori Patrik Zetterberg 6 december 2012 1 / 28 Viktiga statistiska begrepp För att kunna förstå mer avancerade koncept under kursens gång är det viktigt att vi förstår

Läs mer

SF1901: Sannolikhetslära och statistik

SF1901: Sannolikhetslära och statistik SF1901: Sannolikhetslära och statistik Föreläsning 5. Kovarians, korrelation, väntevärde och varians för summor av s.v.:er, normalfördelning (del 1) Jan Grandell & Timo Koski 15.09.2008 Jan Grandell &

Läs mer

SF1901: Sannolikhetslära och statistik. Flera stokastiska variabler.

SF1901: Sannolikhetslära och statistik. Flera stokastiska variabler. SF1901: Sannolikhetslära och statistik Föreläsning 5. Flera stokastiska variabler. Jan Grandell & Timo Koski 31.01.2012 Jan Grandell & Timo Koski () Matematisk statistik 31.01.2012 1 / 30 Flerdimensionella

Läs mer

Spektrala Transformer

Spektrala Transformer Spektrala Transformer Tidsdiskreta signaler, kvantisering & sampling Tidsdiskreta signaler Tidskontinuerlig signal Ex: x(t) = sin(ωt) t är ett reellt tal ω har enheten rad/s Tidsdiskret signal Ex: x(n)

Läs mer

Psykoakustik. Ljudtrycksnivå. Hörselns omfång. Hörnivå(loudness) Människans hörsel är ganska väl studerad och det finns bra modeller för den.

Psykoakustik. Ljudtrycksnivå. Hörselns omfång. Hörnivå(loudness) Människans hörsel är ganska väl studerad och det finns bra modeller för den. Psykoakustik Ljudtrycksnivå Människans hörsel är ganska väl studerad och det finns bra modeller för den. Detta kan utnyttjas vid ljudkodning för att placera distorsionen (kvantiseringsbruset) så att det

Läs mer

Signaler och system, IT3

Signaler och system, IT3 Signaler och system, IT3 Vad är signalbehandling? 1 Detta dokument utgör introduktionsföreläsningen för kursen Signaler och system för IT3 period 2. Kursen utvecklades år 2002 av Mathias Johansson. 1 Vad

Läs mer

SF1901 Sannolikhetsteori och statistik I

SF1901 Sannolikhetsteori och statistik I SF1901 Sannolikhetsteori och statistik I Jimmy Olsson Föreläsning 10 27 november 2017 1 / 28 Idag Mer om punktskattningar Minsta-kvadrat-metoden (Kap. 11.6) Intervallskattning (Kap. 12.2) Tillämpning på

Läs mer

SF1901: Sannolikhetslära och statistik

SF1901: Sannolikhetslära och statistik SF9: Sannolikhetslära och statistik Föreläsning 3. Stokastiska variabler, diskreta och kontinuerliga Jan Grandell & Timo Koski 8.9.28 Jan Grandell & Timo Koski () Matematisk statistik 8.9.28 / 45 Stokastiska

Läs mer

Datakompression. Harald Nautsch ISY Bildkodning, Linköpings universitet.

Datakompression. Harald Nautsch ISY Bildkodning, Linköpings universitet. Datakompression fö 1 p.1 Datakompression Harald Nautsch harna@isy.liu.se http://www.icg.isy.liu.se/courses/tsbk04/ ISY Bildkodning, Linköpings universitet Datakompression fö 1 p.2 Kursinnehåll Källmodellering:

Läs mer

Kursinnehåll. Datakompression. Föreläsningar, preliminärt program. Examination

Kursinnehåll. Datakompression. Föreläsningar, preliminärt program. Examination Datakompression fö 1 p.3 Datakompression fö 1 p.4 Kursinnehåll Datakompression Harald Nautsch harna@isy.liu.se http://www.icg.isy.liu.se/courses/tsbk04/ ISY Bildkodning, Linköpings universitet Källmodellering:

Läs mer

Stokastiska Processer och ARIMA. Patrik Zetterberg. 19 december 2012

Stokastiska Processer och ARIMA. Patrik Zetterberg. 19 december 2012 Föreläsning 7 Stokastiska Processer och ARIMA Patrik Zetterberg 19 december 2012 1 / 22 Stokastiska processer Stokastiska processer är ett samlingsnamn för Sannolikhetsmodeller för olika tidsförlopp. Stokastisk=slumpmässig

Läs mer

Föreläsning 7: Punktskattningar

Föreläsning 7: Punktskattningar Föreläsning 7: Punktskattningar Matematisk statistik Chalmers University of Technology September 21, 2015 Tvådimensionella fördelningar Definition En två dimensionell slumpvariabel (X, Y ) tillordnar två

Läs mer

Föresläsningsanteckningar Sanno II

Föresläsningsanteckningar Sanno II Föresläsningsanteckningar 1 Gammafunktionen I flera av våra vanliga sannolikhetsfördelningar ingår den s.k. gamma-funktionen. Γ(p) = 0 x p 1 e x dx vilken är definierad för alla reella p > 0. Vi ska här

Läs mer

SF1901: Sannolikhetslära och statistik

SF1901: Sannolikhetslära och statistik SF1901: Sannolikhetslära och statistik Föreläsning 6. Normalfördelning, Centrala gränsvärdessatsen, Approximationer Jan Grandell & Timo Koski 06.02.2012 Jan Grandell & Timo Koski () Matematisk statistik

Läs mer

MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I

MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I G. Gripenberg Aalto-universitetet 28 januari 2014 G. Gripenberg (Aalto-universitetet) MS-A0509 Grundkurs i sannolikhetskalkyl

Läs mer

MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I

MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I G. Gripenberg Sannolikheter Slumpvariabler Centrala gränsvärdessatsen Aalto-universitetet 8 januari 04 3 Tvådimensionella slumpvariabler

Läs mer

Ordbokskodning. Enkel variant av kodning med variabelt antal insymboler och fixlängds kodord. (Jfr tunstallkodning)

Ordbokskodning. Enkel variant av kodning med variabelt antal insymboler och fixlängds kodord. (Jfr tunstallkodning) Datakompression fö 6 p.1 Ordbokskodning Enkel variant av kodning med variabelt antal insymboler och fixlängds kodord. (Jfr tunstallkodning) Man skapar en ordbok som innehåller 2 b olika sekvenser av symboler

Läs mer

Exempel, minnesfri binär källa. Ordbokskodning. Lempel-Zivkodning. Lempel-Zivkodning, forts.

Exempel, minnesfri binär källa. Ordbokskodning. Lempel-Zivkodning. Lempel-Zivkodning, forts. Datakompression fö 6 p.3 Datakompression fö 6 p.4 Ordbokskodning Exempel, minnesfri binär källa Enkel variant av kodning med variabelt antal insymboler och fixlängds kodord. (Jfr tunstallkodning) Man skapar

Läs mer

Föreläsning 7: Punktskattningar

Föreläsning 7: Punktskattningar Föreläsning 7: Punktskattningar Matematisk statistik Chalmers University of Technology April 27, 2015 Tvådimensionella fördelningar Definition En två dimensionell slumpvariabel (X, Y ) tillordnar två numeriska

Läs mer

Enklare matematiska uppgifter

Enklare matematiska uppgifter Elementa Årgång 49, 966 Årgång 49, 966 Första häftet 2555. Visa att 4 n + n + 8 ej kan vara primtal för något heltal n 0. 2556. Man vill göra en behållare utan lock, som rymmer m 3, i form av en rätvinklig

Läs mer

x f (x) dx 1/8. Kan likhet gälla i sistnämnda relation. (Torgny Lindvall.) f är en kontinuerlig funktion på 1 x sådan att lim a

x f (x) dx 1/8. Kan likhet gälla i sistnämnda relation. (Torgny Lindvall.) f är en kontinuerlig funktion på 1 x sådan att lim a Elementa Årgång 50, 967 Årgång 50, 967 Första häftet 2603. Låt ξ, ξ 2,..., ξ n vara stokastiska variabler med väntevärden E[ξ i ], i =, 2,..., n. Visa att E[max(ξ, ξ 2,..., ξ n )] max(e[ξ ], E[ξ 2 ],...,

Läs mer

Demonstration av laboration 2, SF1901

Demonstration av laboration 2, SF1901 KTH 29 November 2017 Laboration 2 Målet med dagens föreläsning är att repetera några viktiga begrepp från kursen och illustrera dem med hjälp av MATLAB. Laboration 2 har följande delar Fördelningsfunktion

Läs mer

Föreläsning 7: Stokastiska vektorer

Föreläsning 7: Stokastiska vektorer Föreläsning 7: Stokastiska vektorer Johan Thim johanthim@liuse oktober 8 Repetition Definition Låt X och Y vara stokastiska variabler med EX = µ X, V X = σx, EY = µ Y samt V Y = σy Kovariansen CX, Y definieras

Läs mer

Kodning av ansiktstextur med oberoende komponenter

Kodning av ansiktstextur med oberoende komponenter Kodning av ansiktstextur med oberoende komponenter Jörgen Ahlberg Report no. LiTH-ISY-R-2297 ISSN 1400-3902 Avdelning, Institution Division, department Datum Date Image Coding Group 2000-10-02 Department

Läs mer

Föreläsning 12: Repetition

Föreläsning 12: Repetition Föreläsning 12: Repetition Marina Axelson-Fisk 25 maj, 2016 GRUNDLÄGGANDE SANNOLIKHETSTEORI Grundläggande sannolikhetsteori Utfall = resultatet av ett försök Utfallsrum S = mängden av alla utfall Händelse

Läs mer

Monte Carlo-metoder. Bild från Monte Carlo

Monte Carlo-metoder. Bild från Monte Carlo Monte Carlo-metoder 0 Målen för föreläsningen På datorn Bild från Monte Carlo http://en.wikipedia.org/wiki/file:real_monte_carlo_casino.jpg 1 Begrepp En stokastisk metod ger olika resultat vid upprepning

Läs mer

Tentamen i Beräkningsvetenskap I och KF, 5.0 hp,

Tentamen i Beräkningsvetenskap I och KF, 5.0 hp, Uppsala universitet Institutionen för informationsteknologi Avdelningen för beräkningsvetenskap Tentamen i Beräkningsvetenskap I och KF, 5.0 hp, 017-0-14 Skrivtid: 14 00 17 00 (OBS! Tre timmars skrivtid!)

Läs mer

SF1911: Statistik för bioteknik

SF1911: Statistik för bioteknik SF1911: Statistik för bioteknik Föreläsning 6. TK 14.11.2016 TK Matematisk statistik 14.11.2016 1 / 38 Lärandemål Stokastiska modeller för kontinuerliga datatyper Fördelningsfunktion (cdf) Sannolikhetstäthetsfunktion

Läs mer

Föreläsning 6, Matematisk statistik Π + E

Föreläsning 6, Matematisk statistik Π + E Repetition Kovarians Stora talens lag Gauss Föreläsning 6, Matematisk statistik Π + E Sören Vang Andersen 2 december 2014 Sören Vang Andersen - sva@maths.lth.se FMS012 F6 1/20 Repetition Kovarians Stora

Läs mer

Hur måttsätta osäkerheter?

Hur måttsätta osäkerheter? Geotekniska osäkerheter och deras hantering Hur måttsätta osäkerheter? Lars Olsson Geostatistik AB 11-04-07 Hur måttsätta osäkerheter _LO 1 Sannolikheter Vi måste kunna sätta mått på osäkerheterna för

Läs mer

Finns det över huvud taget anledning att förvänta sig något speciellt? Finns det en generell fördelning som beskriver en mätning?

Finns det över huvud taget anledning att förvänta sig något speciellt? Finns det en generell fördelning som beskriver en mätning? När vi nu lärt oss olika sätt att karaktärisera en fördelning av mätvärden, kan vi börja fundera över vad vi förväntar oss t ex för fördelningen av mätdata när vi mätte längden av en parkeringsficka. Finns

Läs mer

Föreläsning 8 för TNIU23 Integraler och statistik

Föreläsning 8 för TNIU23 Integraler och statistik Föreläsning 8 för TNIU Integraler och statistik Krzysztof Marciniak ITN, Campus Norrköping, krzma@itn.liu.se www.itn.liu.se/ krzma ver. - 9--6 Inledning - lite om statistik Statistik är en gren av tillämpad

Läs mer

Flerdimensionella signaler och system

Flerdimensionella signaler och system Luleå tekniska universitet Avd för signalbehandling Magnus Sandell (reviderad av Frank Sjöberg) Flerdimensionell signalbehandling SMS033 Laboration 1 Flerdimensionella signaler och system Syfte: Den här

Läs mer

Tentamen MVE301 Sannolikhet, statistik och risk

Tentamen MVE301 Sannolikhet, statistik och risk Tentamen MVE30 Sannolikhet, statistik och risk 207-06-0 kl. 8:30-3:30 Examinator: Johan Jonasson, Matematiska vetenskaper, Chalmers Telefonvakt: Ivar Simonsson, telefon: 03-7725348 Hjälpmedel: Valfri miniräknare.

Läs mer

Matematisk statistik 9 hp Föreläsning 6: Linjärkombinationer

Matematisk statistik 9 hp Föreläsning 6: Linjärkombinationer Matematisk statistik 9 hp Föreläsning 6: Linjärkombinationer Anna Lindgren 27+28 september 2016 Anna Lindgren anna@maths.lth.se FMS012/MASB03 F6: linjärkombinationer 1/21 sum/max/min V.v./var Summa av

Läs mer

Stokastiska signaler. Mediesignaler

Stokastiska signaler. Mediesignaler Stokastiska signaler Mediesignaler Stokastiska variabler En slumpvariabel är en funktion eller en regel som tilldelar ett nummer till varje resultatet av ett experiment Symbol som representerar resultatet

Läs mer

Föreläsning 1: Bild- och ljudkodning

Föreläsning 1: Bild- och ljudkodning Föreläsning 1: Bild- och ljudkodning 1. Kursöversikt 2. Introduktion till bild- och ljudkodning - syfte - historik - antal bitar per bildpunkter/sampel 3. Två principiella klasser : distorsionsfri och

Läs mer

Människans hörsel är ganska väl studerad och det finns bra modeller för den.

Människans hörsel är ganska väl studerad och det finns bra modeller för den. Psykoakustik Människans hörsel är ganska väl studerad och det finns bra modeller för den. Detta kan utnyttjas vid ljudkodning för att placera distorsionen (kvantiseringsbruset) så att det ska märkas så

Läs mer

FACIT: Tentamen L9MA30, LGMA30

FACIT: Tentamen L9MA30, LGMA30 Göteborgs Universitetet GU Lärarprogrammet 06 FACIT: Matematik för lärare, åk 7-9, Sannolikhetslära och statistik, Matematik för gymnasielärare, Sannolikhetslära och statistik 07-0-04 kl..0-.0 Examinator

Läs mer

Ulrik Söderström 20 Jan Signaler & Signalanalys

Ulrik Söderström 20 Jan Signaler & Signalanalys Ulrik Söderström ulrik.soderstrom@tfe.umu.se 20 Jan 2009 Signaler & Signalanalys Sinusspänning Sinus och cosinus samma form men fasförskjutna Fasförskjutning tidsfördröjning Sinus och cosinus är väldigt

Läs mer

TAMS79: Föreläsning 4 Flerdimensionella stokastiska variabler

TAMS79: Föreläsning 4 Flerdimensionella stokastiska variabler TAMS79: Föreläsning 4 Flerdimensionella stokastiska variabler Johan Thim (johan.thim@liu.se) 1 november 18 Vi fokuserar på två-dimensionella variabler. Det är steget från en dimension till två som är det

Läs mer

Ulrik Söderström 19 Jan Signalanalys

Ulrik Söderström 19 Jan Signalanalys Ulrik Söderström ulrik.soderstrom@tfe.umu.se 9 Jan 200 Signaler & Signalanalys l Sinusspänning Sinus och cosinus samma form men fasförskjutna Fasförskjutning tidsfördröjning Sinus och cosinus är väldigt

Läs mer

Föreläsning 3. Kapitel 4, sid Sannolikhetsfördelningar

Föreläsning 3. Kapitel 4, sid Sannolikhetsfördelningar Föreläsning 3 Kapitel 4, sid 79-124 Sannolikhetsfördelningar 2 Agenda Slumpvariabel Sannolikhetsfördelning 3 Slumpvariabel (Stokastisk variabel) En variabel som beror av slumpen Ex: Tärningskast, längden

Läs mer

Tentamen i Beräkningsvetenskap II, 5.0 hp,

Tentamen i Beräkningsvetenskap II, 5.0 hp, Uppsala universitet Institutionen för informationsteknologi Beräkningsvetenskap Stefan Engblom, tel. 471 27 54, Per Lötstedt, tel. 471 29 72 Tentamen i Beräkningsvetenskap II, 5.0 hp, 2016-03-16 Skrivtid:

Läs mer

Föreläsning 5, Matematisk statistik 7.5hp för E Linjärkombinationer

Föreläsning 5, Matematisk statistik 7.5hp för E Linjärkombinationer Föreläsning 5, Matematisk statistik 7.5hp för E Linjärkombinationer Stas Volkov Stanislav Volkov s.volkov@maths.lth.se FMSF20 F5: linjärkombinationer 1/20 sum/max/min V.v./var Summa av två oberoende, Z

Läs mer

Matematisk statistik 9hp Föreläsning 7: Normalfördelning

Matematisk statistik 9hp Föreläsning 7: Normalfördelning Matematisk statistik 9hp Föreläsning 7: Normalfördelning Anna Lindgren 29+3 september 216 Anna Lindgren anna@maths.lth.se FMS12/MASB3 F7: normalfördelning 1/18 Kovarians, C(X, Y) Repetition Normalfördelning

Läs mer

1. (Dugga 1.1) (a) Bestäm v (3v 2u) om v = . (1p) and u =

1. (Dugga 1.1) (a) Bestäm v (3v 2u) om v = . (1p) and u = Kursen bedöms med betyg,, 5 eller underkänd, där 5 är högsta betyg. För godkänt betyg krävs minst poäng från uppgifterna -7. Var och en av dessa sju uppgifter kan ge maximalt poäng. För var och en av uppgifterna

Läs mer

Lösningsförslag till Problem i kapitel 7 i Mobil Radiokommunikation

Lösningsförslag till Problem i kapitel 7 i Mobil Radiokommunikation Lösningsförslag till Problem i kapitel 7 i Mobil adiokommunikation 7. 7. Två lognormalt fördelade stokastiska variabler X och Y med log-standardavvikelserna σ logx och σ logy. Att den stokastiska variabeln

Läs mer

Spektrala Transformer

Spektrala Transformer Spektrala Transformer Tidsdiskreta signaler, kvantisering & sampling Tidsdiskreta signaler Tidskontinuerlig signal Ex: x(t) = sin(ωt) t är ett reellt tal ω har enheten rad/s Tidsdiskret signal Ex: x(n)

Läs mer

Tentamen MVE301 Sannolikhet, statistik och risk

Tentamen MVE301 Sannolikhet, statistik och risk Tentamen MVE301 Sannolikhet, statistik och risk 2017-06-01 kl. 8:30-13:30 Examinator: Johan Jonasson, Matematiska vetenskaper, Chalmers Telefonvakt: Ivar Simonsson, telefon: 031-7725325 Hjälpmedel: Valfri

Läs mer

PROGRAMFÖRKLARING I. Statistik för modellval och prediktion. Ett exempel: vågriktning och våghöjd

PROGRAMFÖRKLARING I. Statistik för modellval och prediktion. Ett exempel: vågriktning och våghöjd Statistik för modellval och prediktion att beskriva, förklara och förutsäga Georg Lindgren PROGRAMFÖRKLARING I Matematisk statistik, Lunds universitet stik för modellval och prediktion p.1/4 Statistik

Läs mer

Finansiell Statistik (GN, 7,5 hp,, VT 2009) Föreläsning 2. Diskreta Sannolikhetsfördelningar. (LLL Kap 6) Stokastisk Variabel

Finansiell Statistik (GN, 7,5 hp,, VT 2009) Föreläsning 2. Diskreta Sannolikhetsfördelningar. (LLL Kap 6) Stokastisk Variabel Finansiell Statistik (GN, 7,5 hp,, VT 009) Föreläsning Diskreta (LLL Kap 6) Department of Statistics (Gebrenegus Ghilagaber, PhD, Associate Professor) Financial Statistics (Basic-level course, 7,5 ECTS,

Läs mer

Kompression av ljud och bild

Kompression av ljud och bild Kompression av ljud och bild Harald Nautsch harna@isy.liu.se ISY Informationskodning, Linköpings universitet http://www.icg.isy.liu.se/courses/tsbk35/ Kurslitteratur Rekommenderad bok: Khalid Sayood, Introduction

Läs mer

SF1901: SANNOLIKHETSTEORI OCH MER ON VÄNTEVÄRDE OCH VARIANS. KOVARIANS OCH KORRELATION. STORA TALENS LAG. STATISTIK.

SF1901: SANNOLIKHETSTEORI OCH MER ON VÄNTEVÄRDE OCH VARIANS. KOVARIANS OCH KORRELATION. STORA TALENS LAG. STATISTIK. SF1901: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 6 MER ON VÄNTEVÄRDE OCH VARIANS. KOVARIANS OCH KORRELATION. STORA TALENS LAG. Tatjana Pavlenko 12 september 2017 PLAN FÖR DAGENS FÖRELÄSNING Repetition

Läs mer

Vektorkvantisering för kodning och brusreducering

Vektorkvantisering för kodning och brusreducering Vektorkvantisering för kodning och brusreducering Examensarbete utfört i Bildkodning vid Tekniska Högskolan i Linköping av Per Cronvall Reg nr: LiTH-ISY-EX-3541-2004 Linköping 2004 Vektorkvantisering

Läs mer

Matematisk statistik för B, K, N, BME och Kemister

Matematisk statistik för B, K, N, BME och Kemister Matematisk statistik för B, K, N, BME och Kemister Föreläsning 3 Johan Lindström 4 september 7 Johan Lindström - johanl@maths.lth.se FMSF7/MASB F3 /3 fördelningsplot log- Johan Lindström - johanl@maths.lth.se

Läs mer

4 Diskret stokastisk variabel

4 Diskret stokastisk variabel 4 Diskret stokastisk variabel En stokastisk variabel är en variabel vars värde bestäms av utfallet av ett slumpmässigt försök. En stokastisk variabel betecknas ofta med X, Y eller Z (i läroboken används

Läs mer

Grundläggande matematisk statistik

Grundläggande matematisk statistik Grundläggande matematisk statistik Väntevärde, varians, standardavvikelse, kvantiler Uwe Menzel, 28 uwe.menzel@slu.se; uwe.menzel@matstat.de www.matstat.de Väntevärdet X : diskret eller kontinuerlig slumpvariable

Läs mer

Stat. teori gk, ht 2006, JW F7 STOKASTISKA VARIABLER (NCT 5.7) Ordlista till NCT

Stat. teori gk, ht 2006, JW F7 STOKASTISKA VARIABLER (NCT 5.7) Ordlista till NCT Stat. teori gk, ht 2006, JW F7 STOKASTISKA VARIABLER (NCT 5.7) Ordlista till NCT Jointly distributed Joint probability function Marginal probability function Conditional probability function Independence

Läs mer

TAMS79: Föreläsning 10 Markovkedjor

TAMS79: Föreläsning 10 Markovkedjor TAMS79: Föreläsning 0 Markovkedjor Johan Thim december 08 0. Markovkedjor Vi ska nu betrakta en speciell tidsdiskret diskret stokastisk process, nämligen Markovkedjan. Vi börjar med en definition Definition.

Läs mer

Innehåll. Föreläsning 11. Organisation av Trie. Trie Ytterligare en variant av träd. Vi har tidigare sett: Informell specifikation

Innehåll. Föreläsning 11. Organisation av Trie. Trie Ytterligare en variant av träd. Vi har tidigare sett: Informell specifikation Innehåll Föreläsning 11 Trie Sökträd Trie och Sökträd 356 357 Trie Ytterligare en variant av träd. Vi har tidigare sett: Oordnat träd där barnen till en nod bildar en mängd Ordnat träd där barnen till

Läs mer

SF1901 Sannolikhetsteori och statistik I

SF1901 Sannolikhetsteori och statistik I SF1901 Sannolikhetsteori och statistik I Jimmy Olsson Föreläsning 7 15 november 2017 1 / 28 Lite om kontrollskrivning och laborationer Kontrollskrivningen omfattar Kap. 1 5 i boken, alltså Föreläsning

Läs mer

Föreläsning 7: Punktskattningar

Föreläsning 7: Punktskattningar Föreläsning 7: Punktskattningar Matematisk statistik David Bolin Chalmers University of Technology April 7, 2014 Projektuppgift Projektet går ut på att genomföra ett statistiskt försök och analysera resultaten.

Läs mer