Datakompression. Harald Nautsch ISY Bildkodning, Linköpings universitet.
|
|
- Karin Martinsson
- för 5 år sedan
- Visningar:
Transkript
1 Datakompression fö 1 p.1 Datakompression Harald Nautsch harna@isy.liu.se ISY Bildkodning, Linköpings universitet
2 Datakompression fö 1 p.2 Kursinnehåll Källmodellering: Stokastiska variabler och processer som modeller för källor. Källkodningsteori: Definition av en kod. Kodklasser. Praktiska komprimeringsmetoder: Huffmankodning, tunstallkodning, aritmetisk kodning, systematiska koder, Lempel-Ziv-kodning, Burrows-Wheeler-kodning. pack, compress, zip, gzip, bzip, GIF, PNG, faxkodning, lossless JPEG, JPEG-LS, m.fl. Informationsteori: Definitioner av information och entropi. Entropin ger en teoretisk gräns för hur mycket vi kan komprimera signalen från en stokastisk källa utan att få någon distorsion.
3 Datakompression fö 1 p.3 Föreläsningar, preliminärt program 1. Inledning. Källor. Stokastiska källmodeller. Källkodning. 2. Källkodning. Informationsteori 3. Informationsteori. Optimala koder. Huffmankodning. 4. Skurlängdskodning. Systematiska koder. Tunstallkodning. 5. Aritmetisk kodning. 6. Lempel-Ziv-kodning. 7. Burrows-Wheelers blocktransform. 8. Adaptiv aritmetisk kodning. ppm. Binära aritmetiska kodare. 9. Diverse. Sammanfattning.
4 Datakompression fö 1 p.4 Examination Liten projektlab. Implementation av ett par av metoderna som gås igenom i kursen. Testa på riktiga data (text, exekverbara filer, m.m.). Entropiskattningar. Görs i grupper om 1-2 personer. Redovisas med en liten rapport. Information inom kort på kurssidan. Labtiderna i schemat resurstider, dvs assistent finns tillgänglig. Skriftlig tentamen. Inga hjälpmedel tillåtna, förutom miniräknare.
5 Datakompression fö 1 p.5 Källor En källa är något som producerar en en sekvens av symboler. Symbolerna är element i ett diskret alfabet A = {a 1,a 2,...,a L } av storlek L. För det mesta kommer vi att behandla ändliga alfabet, men även oändliga alfabet är tillåtna. I många fall har man bara tillgång till själva symbolsekvensen och får därför modellera källan från den. De källmodeller vi kommer att koncentrera oss på är stokastiska modeller, där vi antar att symbolerna produceras från stokastiska variabler eller stokastiska processer.
6 Datakompression fö 1 p.6 Stokastiska variabler Utfallsrummet Ω är mängden av möjliga utfall av ett slumpexperiment, Ω={ω 1,ω 2,...,ω n } Varje delmängd av Ω kallas för en händelse. Elementen ω i kallas för elementarhändelser. Vi har ett mått P (sannolikhet) på elementarhändelserna. En stokastisk variabel X är en avbildning från utfallsrummet till alfabetet A X :Ω A Vi skriver {X = x} för händelsen {ω : X(w) =x}, menp (X = x) istället för det mer otympliga P ({X = x}).
7 Datakompression fö 1 p.7 Stokastiska variabler, forts. Sannolikhetsfunktionen p X p X (x) =P (X = x), x A Vidare gäller att p X (x) 0 för alla x och x A p X (x) =1 För en reellvärd funktion f(x) av en stokastisk variabel X så är medelvärdet (väntevärdet) det reella talet E{f(X)} = x A f(x) p X (x)
8 Datakompression fö 1 p.8 Stokastiska variabler, forts. VikanävenhaX =(Y,Z) där Y och Z är stokastiska variabler med alfabet A Y = {y 1,...,y M } resp. A Z = {z 1,...,z N }. X tar då värden i A X = {(y 1,z 1 ), (y 1,z 2 ),...,(y M,z N )}. Vi skriver vanligtvis p YZ (y, z) istället för p X ((y, z)). Vi kan naturligtvis generalisera detta till X =(X 1,X 2,...,X K ). De stokastiska variablerna Y och Z kallas oberoende om p YZ (y, z) =p Y (y) p Z (z), y, z Den betingade sannolikhetsfunktionen p X Y definieras som då p Y (y) > 0. p X Y (x y) = p XY (x, y) p Y (y)
9 Datakompression fö 1 p.9 Stokastiska källor En källa modelleras som en stokastisk process X n (kan också ses som en följd av stokastiska variabler)...,x 1,X 0,X 1,X 2,... För det mesta är vi bara intresserade av stationära källor, dvs att alla sannolikhetsfunktioner är oberoende av n. Exempelvis: p Xn X n+1 = p Xn+k X n+k+1 Om X n och X m är oberoende för alla n m så kallas källan minnesfri, annars säger vi att källan har minne.
10 Datakompression fö 1 p.10 Markovkällor En markovkälla av ordning k är en minneskälla med begränsat minne k steg tillbaka i sekvensen p(x n x n 1 x n 2...)=p(x n x n 1...x n k ) Om alfabetet är A = {a 1,a 2,...,a L }, kan markovkällan beskrivas som en tillståndsmodell med L k tillstånd (x n 1...x n k ) där vi går från tillstånd (x n 1...x n k ) till tillstånd (x n...x n k+1 ) med sannolikheten p(x n x n 1...x n k ). Dessa sannolikheter kallas övergångssannolikheter Sekvensen av tillstånd är en stokastisk process S n =(X n 1...X n k ) med ett alfabet {s 1,s 2,...,s L k} av storlek L k.
11 Datakompression fö 1 p.11 Markovkällor, forts. Markovkällan kan beskrivas med hjälp av sitt starttillstånd och sin övergångsmatris P. Denna kvadratiska matris har i rad r och kolumn k övergångssannolikheten från tillstånd s r till s k. Om det är möjligt att gå, med positiv sannolikhet, från varje tillstånd till varje annat tillstånd i ett ändligt antal steg så kallas markovkällan irreducibel. Om vi i tidpunkten n står i tillstånd s i med sannolikheterna p n i,såkanvi beräkna sannolikheterna för tidpunkt n +1som [p n+1 1 p n p n+1 L k ]=[p n 1 p n 2... p n L k ] P En fördelning över tillstånden sådan att fördelningen vid tidpunkt n +1är den samma som vid tidpunkt n kallas för en stationär fördelning. Om markovkällan är irreducibel och ickeperiodisk, så är den stationära fördelningen unik och varje startfördelning kommer att gå mot den stationära fördelningen när tiden går mot oändligheten.
12 Datakompression fö 1 p.12 Stationär fördelning Vi betecknar de stationära sannolikheterna med w i och definierar radvektorn w =(w 1,w 2,...,w L k) Om den stationära fördelningen existerar kan den fås som lösningen till ekvationssystemet w = w P eller w (P I) = 0 Detta ekvationssystem är underbestämt (om w är en lösning är även k w en lösning). För att kunna lösa det ersätter vi någon ekvation med L k j=1 w j =1(w j är ju sannolikheter och måste därför summera till 1). (Föredrar man ekvationssystem med kolumnvektorer, så är det bara att transponera hela uttrycket och lösa w t = P t w t istället.)
13 Datakompression fö 1 p.13 Stokastisk modellering Givet en lång symbolsekvens från en källa, hur gör man en stokastisk modell för den? Relativa frekvenser: För att till exempel få fram sannolikheten för en enstaka symbol, så räknar man antalet förekomster av symbolen och delar med det totala antalet symboler i sekvensen. På samma sätt kan detta göras för parsannolikheter, trippelsannolikheter, betingade sannolikheter et c. Dessa metoder ger tvåpassalgoritmer, där man först måste gå igenom sekvensen en gång för att skatta sannolikheter och sen en gång till när man kodar sekvensen. Senare i kursen kommer vi att ta upp adaptiva metoder, där man inte behöver gå igenom sekvensen två gånger.
14 Datakompression fö 1 p.14 Bibeln som markovkälla Sannolikheter skattade ur 1917 års bibel. Exempelsekvenser skapade av olika markovmodeller: Markov, ordning 1: Ban n pr tusopå bensoch jakaränguräkerärudera. sochör son deng, aranoch o brsade ftyggörmed. ochartiljupppt odenuskvigdekadens, t deskarör vå hoch s ber föve, en boma vtärtit ha, Markov, ordning 2: Med går, tashet. Fares, var som jung När må lagar och vinrödet De dig för mott bröder dardin Jest, prett konom forslöver: 2 för icklara säkt. 5 Akblom i Jort at Markov, ordning 3: Mina arbort Likas»rätt milja derna, 60. Då när mina vand böner kommitt de ifrån nu Heles skapade: på Herren. Han införlåter. På David beskänning, ty 1 Mosebok (Lev Markov, ordning 4: Jag sågen pust att hjärtan för mig, jag lämna icke vid namn av havet, godelaktning. Till se mig, vagnens och mark ut bliva månade skola och sitt talats ting,
15 Datakompression fö 1 p.15 Källkodning Källkodning innebär att vi avbildar sekvenser av symboler ur en källas alfabet på binära sekvenser (kallade kodord). Mängden av alla kodord kalls för en kod. Man kan förstås tänka sig att ha icke-binära koder också, men i praktiken används bara binära koder.
16 Datakompression fö 1 p.16 Källkodning, forts Beroende på om vi avbildar ett fixt eller varierande antal symboler till varje kodord och om varje kodord har ett fixt eller varierande antal bitar, kan vi dela in koderna i fyra grupper: Fixt antal symboler, fixt antal bitar Exempel: ASCII, ISO Fixt antal symboler, varierande antal bitar Exempel: Huffmankodning, aritmetisk kodning Varierande antal symboler, fixt antal bitar Exempel: Tunstallkodning, Lempel-Ziv Varierande antal symboler, varierande antal bitar Exempel: Lempel-Ziv
17 Datakompression fö 1 p.17 Några exempel Antag att A = {a, b, c} fix fix fix variabel a 00 0 b c variabel fix variabel variabel aa aba abb abc ac b c
18 Datakompression fö 1 p.18 Egenskaper hos koder Om man från en sekvens av kodord kan återskapa den ursprungliga källsekvensen kallas koden för unikt avkodbar. Om man kan känna igen kodorden direkt vid avkodning, kallas koden momentant avkodbar (instantaneous). Om inget kodord är prefix till något annat kodord kallas koden för en prefixkod (i viss litteratur kallas de för prefixfria koder). Dessa koder är trädkoder, dvs kodorden är löv i ett binärt träd. Alla prefixkoder är momentant avkodbara och alla momentant avkodbara koder är prefixkoder.
19 Datakompression fö 1 p.19 Exempel Exempel, A = {a, b, c, d} Symbol Kod 1 Kod 2 Kod 3 Kod 4 a b c d Kod 1 Ej unikt avkodbar Kod 2 Ej unikt avkodbar Kod 3 Unikt avkodbar, momentant avkodbar Kod 4 Unikt avkodbar, ej momentant avkodbar
20 Datakompression fö 1 p.20 Är en given kod unikt avkodbar eller ej? Gör en lista av alla kodord. Undersök alla par av element i listan för att se om något element är prefix till ett annat element. I sådana fall lägg till suffixet till listan, om det inte redan finns där. Repetera tills en av två saker händer: 1. Man hittar ett suffix som är ett kodord. 2. Man hittar inga nya suffix att lägga till listan. I fall 1 är koden inte unikt avkodbar, i fall 2 är koden unikt avkodbar.
Kursinnehåll. Datakompression. Föreläsningar, preliminärt program. Examination
Datakompression fö 1 p.3 Datakompression fö 1 p.4 Kursinnehåll Datakompression Harald Nautsch harna@isy.liu.se http://www.icg.isy.liu.se/courses/tsbk04/ ISY Bildkodning, Linköpings universitet Källmodellering:
Läs merKurslitteratur. Kompression av ljud och bild. Föreläsningar, preliminärt program. Laborationer. Khalid Sayood, Introduction to Data Compression
TSBK35 fö 1 p.3 TSBK35 fö 1 p.4 Kurslitteratur Kompression av ljud och bild Harald Nautsch harna@isy.liu.se http://www.icg.isy.liu.se/courses/tsbk35/ ISY Bildkodning, Linköpings universitet Khalid Sayood,
Läs merKällkodning. Egenskaper hos koder. Några exempel
Källkodning Källkodning innebär att vi avbildar sekvenser av symboler ur en källas alfabet på binära sekvenser (kallade kodord). Mängden av alla kodord kalls för en kod. (Man kan förstås tänka sig att
Läs merFLAC (Free Lossless Audio Coding)
Datakompression fö 9 p.1 FLAC (Free Lossless Audio Coding) Distorsionsfri kodning av ljud Ljudsignalen delas in i block (typiskt några tusen sampel). Koda summa/skillnad av de två stereokanalerna om det
Läs merKrafts olikhet. En momentant avkodbar kod (prefixkod) med kodordslängderna l 1,...,l N existerar om och endast om. 2 l i. 1 i=1
Datakompression fö 2 p.1 Krafts olikhet En momentant avkodbar kod (prefixkod) med kodordslängderna l 1,...,l N existerar om och endast om N 2 l i 1 Bevis: Antag att vi har en trädkod. Låt l max =max{l
Läs merKompression av ljud och bild
Kompression av ljud och bild Harald Nautsch harna@isy.liu.se ISY Informationskodning, Linköpings universitet http://www.icg.isy.liu.se/courses/tsbk35/ Kurslitteratur Rekommenderad bok: Khalid Sayood, Introduction
Läs merKurslitteratur. Kompression av ljud och bild. Föreläsningar, preliminärt program. Laborationer
TSBK35 källkodning p.3/89 TSBK35 källkodning p.4/89 Kurslitteratur Kompression av ljud och bild Harald Nautsch harna@isy.liu.se http://www.icg.isy.liu.se/courses/tsbk35/ ISY Informationskodning, Linköpings
Läs merTSBK04 Datakompression. Övningsuppgifter
TSBK04 Datakompression Övningsuppgifter Innehåll 1 Informationsteoretiska begrepp........................ 1 2 Källkodning................................... 4 Copyright c 2004 Bildkodningsgruppen, Linköpings
Läs merTSBK04 Datakompression Övningsuppgifter
TSBK04 Datakompression Övningsuppgifter Innehåll 1 Informationsteoretiska begrepp........................ 1 2 Källkodning................................... 4 Copyright c 2004 Bildkodningsgruppen, Linköpings
Läs merSkurlängdskodning. aaaabbbbbbbccbbbbaaaa. Man beskriver alltså sekvensen med ett annat alfabet än det ursprungliga.
Datakompression fö 4 p1 Skurlängdskodning Ibland har man källor som producerar långa delsekvenser av samma symbol Det kan då vara praktiskt att istället för att beskriva sekvensen som en följd av enstaka
Läs merAdaptiv aritmetisk kodning
Datakompression fö 8 p.1 Adaptiv aritmetisk kodning Aritmetisk kodning är väldigt enkel att göra adaptiv, eftersom vi bara behöver göra en adaptiv sannolikhetsmodell, medan själva kodaren är fix. Till
Läs merShannon-Fano-Elias-kodning
Datakompression fö 5 p.1 Shannon-Fano-Elias-kodning Antag att vi har en minnesfri källa X i som tar värden i {1, 2,...,L}. Antag att sannolikheterna för alla symboler är strikt positiva: p(i) > 0, i. Fördelningsfunktionen
Läs merAritmetisk kodning. F (0) = 0 Exempel: A = {1, 2, 3} k=1. Källkodning fö 5 p.1/12
Aritmetisk kodning Vi identifierar varje sekvens av källsymboler med ett tal i intervallet [0, 1). Vi gör det med hjälp av fördelningsfunktionen (cumulative distribution function) F. För enkelhets skull
Läs merOptimala koder. Övre gräns för optimala koder. Gränser. Övre gräns för optimala koder, forts.
Datakompression fö 3 p.3 Datakompression fö 3 p.4 Optimala koder Övre gräns för optimala koder En prefixkod kallas optimal om det inte existerar någon annan kod (för samma alfabet och sannolikhetsfördelning)
Läs merOptimala koder. Det existerar förstås flera koder som har samma kodordsmedellängd. Enklaste fallet är att bara byta 0:or mot 1:or.
Datakompression fö 3 p.1 Optimala koder En prefixkod kallas optimal om det inte existerar någon annan kod (för samma alfabet och sannolikhetsfördelning) som har lägre kodordsmedellängd. Det existerar förstås
Läs merBurrows-Wheelers transform
Datakompression fö 7 p.1 Burrows-Wheelers transform Transformen själv ger ingen kompression, men gör det lättare att koda signalen med en enkel kodare. Antag att vi vill koda en sekvens av längd n. Skapa
Läs merOrdbokskodning. Enkel variant av kodning med variabelt antal insymboler och fixlängds kodord. (Jfr tunstallkodning)
Datakompression fö 6 p.1 Ordbokskodning Enkel variant av kodning med variabelt antal insymboler och fixlängds kodord. (Jfr tunstallkodning) Man skapar en ordbok som innehåller 2 b olika sekvenser av symboler
Läs merExempel, minnesfri binär källa. Ordbokskodning. Lempel-Zivkodning. Lempel-Zivkodning, forts.
Datakompression fö 6 p.3 Datakompression fö 6 p.4 Ordbokskodning Exempel, minnesfri binär källa Enkel variant av kodning med variabelt antal insymboler och fixlängds kodord. (Jfr tunstallkodning) Man skapar
Läs merMarkovkedjor. Patrik Zetterberg. 8 januari 2013
Markovkedjor Patrik Zetterberg 8 januari 2013 1 / 15 Markovkedjor En markovkedja är en stokastisk process där både processen och tiden antas diskreta. Variabeln som undersöks kan både vara numerisk (diskreta)
Läs merFöreläsning 1: Bild- och ljudkodning
Föreläsning 1: Bild- och ljudkodning 1. Kursöversikt 2. Introduktion till bild- och ljudkodning - syfte - historik - antal bitar per bildpunkter/sampel 3. Två principiella klasser : distorsionsfri och
Läs merMarkovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 1 Markovprocesser Johan Westerborn Markovprocesser (1) Föreläsning 1 Föreläsningsplan 1 Kursinformation 2 Stokastiska processer 3 Betingade
Läs merMarkovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 1 Markovprocesser 25 Mars 2015 Johan Westerborn Markovprocesser (1) Föreläsning 1 Föreläsningsplan 1 Kursinformation 2 Stokastiska processer
Läs merInformationsteori. Repetition Kanalkapaciteten C. Repetition Källkodhastigheten R 2. Repetition Kanalkodhastigheten R 1. Huffmans algoritm: D-när kod
Informationsteori Repetition Kanalkapaciteten C Källkodare Kanalkodare X Kanal Mats Cedervall Mottagare vkodare Kanalavkodare Y Kanalkodningssatsen C =supi(x; Y ) p(x) Informationsteori, fl#7 1 Informationsteori,
Läs merSF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016
SF1901: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 4 KONTINUERLIGA STOKASTISKA VARIABLER Tatjana Pavlenko 7 september 2016 PLAN FÖR DAGENS FÖRELÄSNING Repetition av diskreta stokastiska variabler. Väntevärde
Läs merLinjär prediktion. Prediktiv kodning. Linjär prediktion. Prediktiv kodare och avkodare
Prediktiv kodning Linjär prediktion Närliggande sampel i en signal är oftast starkt korrelerade med varandra, det kan därför vara en bra ide att försöka utnyttja denna korrelation (minnet) innan kvantiseringen
Läs merEn generell prediktiv kodare utnyttjar signalens utseende N steg tillbaka i tiden för kodningen, dvs vi kodar efter den betingade fördelningen
Prediktiv kodning Närliggande sampel i en signal är oftast starkt korrelerade med varandra, det kan därför vara en bra ide att försöka utnyttja denna korrelation (minnet) innan kvantiseringen för att få
Läs merF3 Datarepresentation teckenkodning och datakompression EDAA05 Datorer i system! Roger Henriksson!
Teckenkodning historik F3 Datarepresentation teckenkodning och datakompression EDAA05 Roger Henriksson Baudotkod 5-bitars kod för fjärrskrivare (teletype tty). Baudot 1874, Murray 1901 2 EBCDIC ASCII Extended
Läs merF3 Datarepresentation teckenkodning och datakompression
Teckenkodning historik F3 Datarepresentation teckenkodning och datakompression Baudotkod 5-bitars kod för fjärrskrivare (teletype tty). EDAA05 Roger Henriksson Jonas Wisbrant Baudot 1874, Murray 1901 2
Läs merTentamen i matematisk statistik, TAMS15/TEN (4h)
LINKÖPINGS UNIVERSITET Kurskod: TAMS1 Matematiska institutionen Provkod: TEN1 Johan Thim Datum: 2018-12-42 Institution: MAI Tentamen i matematisk statistik, TAMS1/TEN1 2018-12-42 (4h Hjälpmedel är: miniräknare
Läs merMarkovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 2 Markovprocesser 30 Mars 2015 Johan Westerborn Markovprocesser (1) Föreläsning 2 Föreläsningsplan 1 Förra Föreläsningen 2 Absorption
Läs merMarkovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 2 Markovprocesser 4 April 2016 Johan Westerborn Markovprocesser (1) Föreläsning 2 Föreläsningsplan 1 Förra Föreläsningen 2 Absorption
Läs merSF1901: Sannolikhetslära och statistik
SF9: Sannolikhetslära och statistik Föreläsning 3. Stokastiska variabler, diskreta och kontinuerliga Jan Grandell & Timo Koski 8.9.28 Jan Grandell & Timo Koski () Matematisk statistik 8.9.28 / 45 Stokastiska
Läs merSF1901 Sannolikhetsteori och statistik I
SF1901 Sannolikhetsteori och statistik I Jimmy Olsson Föreläsning 4 7 november 2017 1 / 29 Idag Förra gången Viktiga kontinuerliga fördelningar (Kap. 3.6) Fördelningsfunktion (Kap. 3.7) Funktioner av stokastiska
Läs merTSBK35 Kompression av ljud och bild
TSBK35 Kompression av ljud och bild Övningshäfte 0 februari 013 Innehåll I Problem 1 1 Informationsteori................................ 1 Källkodning................................... 3 3 Kvantisering...................................
Läs merMatematisk statistik för D, I, Π och Fysiker
Matematisk statistik för D, I, Π och Fysiker Föreläsning 9 Johan Lindström 16 oktober 2018 Johan Lindström - johanl@maths.lth.se FMSF45/MASB03 F9 1/26 Johan Lindström - johanl@maths.lth.se FMSF45/MASB03
Läs merFöreläsning 9, FMSF45 Markovkedjor
Föreläsning 9, FMSF45 Markovkedjor Stas Volkov 2017-10-10 Stanislav Volkov s.volkov@maths.lth.se FMSF45 F9: Markovkedjor 1/1 Stokastisk process (rep) En stokastisk process {X(t), t T} är en följd av stokastiska
Läs mer** a) Vilka värden ska vara istället för * och **? (1 p) b) Ange för de tre tillstånden vilket som svarar mot 0,1,2 i figuren.
Avd. Matematisk statistik TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 19 AUGUSTI 2016 KL 08.00 13.00. Examinator: Jimmy Olsson tel. 790 72 01. Tillåtna hjälpmedel: Formel- och tabellsamling i Matematisk
Läs merTENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 17 AUGUSTI 2018 KL
Avd. Matematisk statistik TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 17 AUGUSTI 2018 KL 8.00 13.00. Examinator: Björn-Olof Skytt tel. 790 86 49 Kursansvarig: Björn-Olof Skytt tel. 790 86 49 Tillåtna
Läs merÖvning 1 Sannolikhetsteorins grunder
Övning 1 Sannolikhetsteorins grunder Två händelser A och B är disjunkta om {A B} =, det vill säga att snittet inte innehåller några element. Om vi har en mängd händelser A 1, A 2, A 3,..., A n, vilka är
Läs merStokastiska processer
Stokastiska processer Fredrik Olsson, fredrik.olsson@iml.lth.se Avdelningen för produktionsekonomi Lunds tekniska högskola, Lunds universitet Dessa förläsningsanteckningar kommer att behandla diskreta
Läs merSF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 3 Diskreta stokastiska variabler. Jörgen Säve-Söderbergh
SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 3 Diskreta stokastiska variabler Jörgen Säve-Söderbergh Stokastisk variabel Singla en slant två gånger. Ω = {Kr Kr, Kr Kl, Kl Kr, Kl Kl}
Läs merTAMS79: Föreläsning 10 Markovkedjor
TAMS79: Föreläsning 0 Markovkedjor Johan Thim december 08 0. Markovkedjor Vi ska nu betrakta en speciell tidsdiskret diskret stokastisk process, nämligen Markovkedjan. Vi börjar med en definition Definition.
Läs merSatsen om total sannolikhet och Bayes sats
Satsen om total sannolikhet och Bayes sats Satsen om total sannolikhet Ibland är det svårt att direkt räkna ut en sannolikhet pga att händelsen är komplicerad/komplex. Då kan man ofta använda satsen om
Läs merMarkovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 3 Markovprocesser 16 April 2015 Johan Westerborn Markovprocesser (1) Föreläsning 3 Föreläsningsplan 1 Förra Föreläsningen 2 Markovprocesser
Läs merMarkovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 3 Markovprocesser 13 April 2016 Johan Westerborn Markovprocesser (1) Föreläsning 3 Föreläsningsplan 1 Förra Föreläsningen 2 Markovprocesser
Läs merMoment 5.5 Övningsuppgifter I 5.60a. 5.60b, 5.60.c, 61
Moment 5.5 Övningsuppgifter I 5.0a. 5.0b, 5.0.c, 1 Linjära ekvationssystem Vi har redan tidigare i kursen stött på linjära ekvationssystem. Nu är stunden kommen till en mera systematisk genomgång. Kvadratiska
Läs merFöreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012
Föreläsning 1 Repetition av sannolikhetsteori Patrik Zetterberg 6 december 2012 1 / 28 Viktiga statistiska begrepp För att kunna förstå mer avancerade koncept under kursens gång är det viktigt att vi förstår
Läs merMS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I
MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I G. Gripenberg Aalto-universitetet 28 januari 2014 G. Gripenberg (Aalto-universitetet) MS-A0509 Grundkurs i sannolikhetskalkyl
Läs merMS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I
MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I G. Gripenberg Sannolikheter Slumpvariabler Centrala gränsvärdessatsen Aalto-universitetet 8 januari 04 3 Tvådimensionella slumpvariabler
Läs merSF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 1 Mängdlära Grundläggande sannolikhetsteori Kombinatorik Deskriptiv statistik
SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 1 Mängdlära Grundläggande sannolikhetsteori Kombinatorik Deskriptiv statistik Jörgen Säve-Söderbergh Information om kursen Kom ihåg att
Läs merGrafer och grannmatriser
Föreläsning 2, Linjär algebra IT VT2008 Som avslutning på kursen ska vi knyta samman linjär algebra med grafteori och sannolikhetsteori från första kursen. Resultatet blir så kallade slumpvandringar på
Läs merExempel. Vi observerar vädret och klassificerar det i tre typer under en följd av dagar. vackert (V) mulet (M) regn (R)
Exempel Vi observerar vädret och klassificerar det i tre typer under en följd av dagar. vackert (V mulet (M regn (R Exempel Vackert idag vackert imorgon sannolikheten 0.6 Vackert idag mulet imorgon sannolikheten
Läs merP(X nk 1 = j k 1,..., X n0 = j 0 ) = j 1, X n0 = j 0 ) P(X n0 = j 0 ) = etc... P(X n0 = j 0 ) ... P(X n 1
Kaitel 1 Mer Markovkedjor Med att secificera en Markovkedja menar vi att man bestämmer övergångsmatrisen P. Detta säger ju allt om dynamiken för rocessen. Om vi dessutom vet hur kedjan startar, dvs startfördelningen
Läs merKodning med distorsion
Kodning med distorsion Vi har en signal x n, n = 1... N som ska kodas. Alfabetet är en delmängd av de reella talen A R. Alfabetet kan vara kontinuerligt. Om vi inte har kravet att den avkodade signalen
Läs merSådana avbildningar kallar vi bijektioner mellan A och B (eller från A till B).
BIJEKTION, INJEKTION, SURJEKTION Allmän terminologi. I samband med variabelbyte vid beräkning av integraler har vi en avbildning mellan två mängder A och B, dvs en funktion f : A B. Vi har oftast krav
Läs merTentamen Metoder för ekonomisk analys
Tentamen Metoder för ekonomisk analys 014-08-7 Instruktioner: Denna tentamen består av två delar. Del 1 skall lösas utan miniräknare. När uppgifterna på del löses får miniräknare användas. Miniräknaren
Läs merSF1901 Sannolikhetsteori och statistik I
SF1901 Sannolikhetsteori och statistik I Jimmy Olsson Föreläsning 3 4 november 2016 1 / 28 Idag Förra gången Stokastiska variabler (Kap. 3.2) Diskret stokastisk variabel (Kap. 3.3 3.4) Kontinuerlig stokastisk
Läs merFöreläsninsanteckningar till föreläsning 3: Entropi
Föreläsninsanteckningar till föreläsning 3: Entropi Johan Håstad, transkriberat av Pehr Söderman 2006-01-20 1 Entropi Entropi är, inom kryptografin, ett mått på informationsinnehållet i en slumpvariabel.
Läs merSF1901 Sannolikhetsteori och statistik I
SF1901 Sannolikhetsteori och statistik I Jimmy Olsson Föreläsning 6 13 november 2017 1 / 29 Idag Förra gången Mer om väntevärden och varianser (Kap. 5.2 5.3) Beroendemått (Kap. 5.4) Summor, linjärkombinationer
Läs mer4 Diskret stokastisk variabel
4 Diskret stokastisk variabel En stokastisk variabel är en variabel vars värde bestäms av utfallet av ett slumpmässigt försök. En stokastisk variabel betecknas ofta med X, Y eller Z (i läroboken används
Läs merSF1901: Sannolikhetslära och statistik
SF9: Sannolikhetslära och statistik Föreläsning 3. Stokastiska variabler, diskreta och kontinuerliga Jan Grandell & Timo Koski 25..26 Jan Grandell & Timo Koski Matematisk statistik 25..26 / 44 Stokastiska
Läs merFöreläsning 5, FMSF45 Summor och väntevärden
Föreläsning 5, FMSF45 Summor och väntevärden Stas Volkov 2017-09-19 Stanislav Volkov s.volkov@maths.lth.se FMSFF45 F5: väntevärden 1/18 2D stokastisk variabel Tvådimensionella stokastisk variabel (X, Y)
Läs merMatematisk statistik 9hp Föreläsning 5: Summor och väntevärden
Matematisk statistik 9hp Föreläsning 5: Summor och väntevärden Anna Lindgren 20+21 september 2016 Anna Lindgren anna@maths.lth.se FMS012/MASB03 F5: väntevärden 1/18 2D stokastisk variabel Tvådim. stokastisk
Läs merMoment 6.1, 6.2 Viktiga exempel Övningsuppgifter T6.1-T6.6
Moment 6., 6. Viktiga exempel 6.-6. Övningsuppgifter T6.-T6.6 Matriser Definition. En matris är ett schema med m rader och n kolonner eller kolumner, som vi kallar dem i datalogin innehållande m n element.
Läs merLinjär algebra F1 Ekvationssystem och matriser
Information Ekvationer Ekvationssystem Matriser Linjär algebra F1 Ekvationssystem och matriser Pelle 2016-01-18 Information Ekvationer Ekvationssystem Matriser kursfakta hemsida frågelåda Fakta om Linjär
Läs merFöreläsning 12: Repetition
Föreläsning 12: Repetition Marina Axelson-Fisk 25 maj, 2016 GRUNDLÄGGANDE SANNOLIKHETSTEORI Grundläggande sannolikhetsteori Utfall = resultatet av ett försök Utfallsrum S = mängden av alla utfall Händelse
Läs merDetta ger oss att kanalkapaciteten för den ursprungliga kanalen är C = q 1 C 1 + q 2 C C =1 h ( ) 0.30.
Lösning på problem a) Kanalen är symmetrisk och vi gör nedanstående uppdelning av den. Vi får två starkt symmetriska kanaler vilkas kanalkapacitet ges av C och C 2. Kanalerna väljes med sannolikheterna
Läs merStokastiska processer och simulering I 24 augusti
STOCKHOLMS UNIVERSITET LÖSNINGAR MATEMATISKA INSTITUTIONEN Stokastiska processer och simulering I Avd Matematisk statistik 24 augusti 2016 Lösningar Stokastiska processer och simulering I 24 augusti 2016
Läs merStatistiska metoder för säkerhetsanalys
F6: Betingade fördelningar Exempel: Tillförlitlighet Styrkan hos en lina (wire) kan modelleras enligt en stokastisk variabel Y. En tänkbar modell för styrkan är Weibullfördelning. Den last som linan utsätts
Läs merP =
Avd. Matematisk statistik TENTAMEN I SF297 (f d 5B157) TILLFÖRLITLIGHETSTEORI LÖRDAGEN DEN 2 OKTOBER 21 KL 1. 18.. Examinator: Gunnar Englund, tel. 79716, e-postadress: gunnare@math.kth.se Tillåtna hjälpmedel:
Läs merÖvning 6 - Tillämpad datalogi 2012
/home/lindahlm/activity-phd/teaching/12dd1320/exercise6/exercise6.py October 2, 20121 0 # coding : latin Övning 6 - Tillämpad datalogi 2012 Sammanfattning Idag gick vi igenom komprimering, kryptering och
Läs merSF1922/SF1923: SANNOLIKHETSTEORI OCH DISKRETA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 23 mars, 2018
SF1922/SF1923: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 3 DISKRETA STOKASTISKA VARIABLER Tatjana Pavlenko 23 mars, 2018 PLAN FÖR DAGENSFÖRELÄSNING Repetition av betingade sannolikheter, användbara satser
Läs merSlumpvariabler och sannolikhetsfördelningar
och sannolikhetsfördelningar Föreläsning 4 Sannolikhet och Statistik 5 hp Fredrik Jonsson April 2010 Översikt 1. Verklighetsanknutna exempel. Definition relativt utfallsrum. 2. Sannolikhetsfördelningar
Läs merMoment Viktiga exempel Övningsuppgifter
Moment Viktiga exempel Övningsuppgifter Inga Inga Inga Linjära ekvationssystem Vi har redan tidigare i kursen stött på linjära ekvationssystem. Nu är stunden kommen till en mera systematisk genomgång.
Läs merSF1901: SANNOLIKHETSTEORI OCH FLERDIMENSIONELLA STOKASTISKA STATISTIK VARIABLER. Tatjana Pavlenko. 8 september 2017
SF1901: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 5 FLERDIMENSIONELLA STOKASTISKA VARIABLER Tatjana Pavlenko 8 september 2017 PLAN FÖR DAGENS FÖRELÄSNING Repetition av de viktiga begreppen diskret/kontinuerlig
Läs merOm Markov Chain Monte Carlo
Om Markov Chain Monte Carlo Gunnar Englund Matematisk statistik KTH Ht 2001 1 Inledning Markov Chain Monte Carlo MCMC är en modern teknik att simulera komplicerade fördelningar som har fått stora tillämpningar
Läs merTentamen'i'TMA321'Matematisk'Statistik,'Chalmers'Tekniska'Högskola.''
Tentamen'i'TMA321'Matematisk'Statistik,'Chalmers'Tekniska'Högskola.'' Hjälpmedel:'Valfri'räknare,'egenhändigt'handskriven'formelsamling'(4''A4Esidor'på'2'blad)' och'till'skrivningen'medhörande'tabeller.''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''
Läs merIdag: Reguljära språk Beskrivs av Reguljära uttryck DFA Grammatik
Idag: Reguljära språk Beskrivs av Reguljära uttryck DFA Grammatik Först några definitioner: Alfabet = en ändlig mängd av tecken. Ex. {0, 1}, {a,b}, {a, b,..., ö} Betecknas ofta med symbolen Σ Sträng =
Läs merTMS136. Föreläsning 2
TMS136 Föreläsning 2 Sannolikheter För en händelse E skriver vi sannolikheten att E inträffar som P(E) För en händelse E skriver vi sannolikheten att E inte inträffar som P(E ) Exempel Låt E vara händelsen
Läs merFöreläsning 2, FMSF45 Slumpvariabel
Föreläsning 2, FMSF45 Slumpvariabel Stas Volkov 2017-09-05 Stanislav Volkov s.volkov@maths.lth.se FMSF45 F2: Slumpvariabel 1/23 Begrepp Samband Grundläggande begrepp och beteckningar Utfall resultatet
Läs merProv i matematik Civilingenjörsprogrammen EL, IT, K, X, ES, F, Q, W, Enstaka kurs LINJÄR ALGEBRA
UPPSALA UNIVERSITET Matematiska institutionen Volodymyr Mazorchuk Ryszard Rubinsztein Prov i matematik Civilingenjörsprogrammen EL, IT, K, X, ES, F, Q, W, Enstaka kurs LINJÄR ALGEBRA 007 08 16 Skrivtid:
Läs merLINKÖPINGS UNIVERSITET EXAM TAMS 79 / TEN 1
LINKÖPINGS UNIVERSITET Matematiska institutionen EXAM TAMS 79 / TEN 1 augusti 14, klockan 8.00-12.00 Examinator: Jörg-Uwe Löbus Tel: 28-1474) Tillåtna hjälpmedel är en räknare, formelsamling i matematisk
Läs merTENTAMEN I SF1906 (f d 5B1506) MATEMATISK STATISTIK GRUNDKURS,
Avd. Matematisk statistik TENTAMEN I SF1906 (f d 5B1506) MATEMATISK STATISTIK GRUNDKURS, TORSDAGEN DEN 7 JUNI 2012 KL 14.00 19.00 Examinator:Gunnar Englund, 073 3213745 Tillåtna hjälpmedel: Formel- och
Läs mer1. Ekvationer 1.1. Ekvationer och lösningar. En linjär ekvation i n variabler x 1,..., x n är en ekvation på formen. 2x y + z = 3 x + 2y = 0
1. Ekvationer 1.1. Ekvationer och lösningar. En linjär ekvation i n variabler x 1,..., x n är en ekvation på formen a 1 x 1 + a 2 x 2 + a n x n = b, med givna tal a 1,..., a n och b. Ett linjärt ekvationssystem
Läs merFöreläsning 5, Matematisk statistik Π + E
Repetition Summor max/min Väntevärde Varians Föreläsning 5, Matematisk statistik Π + E Sören Vang Andersen 25 november 2014 Sören Vang Andersen - sva@maths.lth.se FMS012 F5 1/16 Repetition Summor max/min
Läs merIntroduktion till statistik för statsvetare
Stockholms universitet November 2011 Data på annat sätt - I Stolpdiagram Data på annat sätt - II Histogram För kvalitativa data som nominal- och ordinaldata infördes stapeldiagram. För kvantitativa data
Läs merMatematisk statistik 9hp Föreläsning 2: Slumpvariabel
Matematisk statistik 9hp Föreläsning 2: Slumpvariabel Anna Lindgren 6+7 september 2016 Anna Lindgren anna@maths.lth.se FMS012/MASB03 F2: Slumpvariabel 1/23 Begrepp Samband Grundläggande begrepp Utfall
Läs merUppgift 1. f(x) = 2x om 0 x 1
Avd. Matematisk statistik TENTAMEN I Matematisk statistik SF1907, SF1908 OCH SF1913 TORSDAGEN DEN 30 MAJ 2013 KL 14.00 19.00. Examinator: Gunnar Englund, 073 321 3745 Tillåtna hjälpmedel: Formel- och tabellsamling
Läs merResultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).
STOKASTISKA VARIABLER Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.). Definition 1. En reellvärd funktion definierad på ett utfallsrum Ω kallas en (endimensionell)
Läs mer1.1 Diskret (Sannolikhets-)fördelning
Föreläsning III. Diskret (Sannolikhets-)fördelning Med diskret menas i matematik, att något antar ett ändligt antal värden eller uppräkneligt oändligt med värden e.vis {, 2, 3,...}. Med fördelning menas
Läs merTENTAMEN I SF2937 (f d 5B1537) TILLFÖRLITLIGHETSTEORI TORSDAGEN DEN 14 JANUARI 2010 KL
Avd. Matematisk statistik TENTAMEN I SF2937 (f d 5B1537) TILLFÖRLITLIGHETSTEORI TORSDAGEN DEN 14 JANUARI 2010 KL 08.00 13.00. Examinator: Gunnar Englund, tel. 7907416, e-postadress: gunnare@math.kth.se
Läs mer15 september, Föreläsning 5. Tillämpad linjär algebra
5 september, 5 Föreläsning 5 Tillämpad linjär algebra Innehåll Matriser Algebraiska operationer med matriser Definition och beräkning av inversen av en matris Förra gången: Linjära ekvationer och dess
Läs merF7 forts. Kap 6. Statistikens grunder, 15p dagtid. Stokastiska variabler. Stokastiska variabler. Lite repetition + lite utveckling av HT 2012.
F7 forts. Kap 6 Statistikens grunder, 15p dagtid HT 01 Lite repetition + lite utveckling av Stokastisk variabel Diskreta och kontinuerliga sv Frekvensfunktion (diskr.), Täthetsfunktion (kont.) Fördelningsfunktion
Läs merreella tal x i, x + y = 2 2x + z = 3. Här har vi tre okända x, y och z, och vi ger dessa okända den naturliga
. Lösningsmängden till homogena ekvationssystem I denna första föreläsning börjar vi med att repetera det grunnläggande begreppet inom linjär algebran. Linjär algebra är studiet av lösningsmängden till
Läs merMatematisk statistik 9 hp Föreläsning 4: Flerdim
Matematisk statistik 9 hp Föreläsning 4: Flerdim Johan Lindström 3+4 september 26 Johan Lindström - johanl@maths.lth.se FMS2 F4: Flerdim /5 Transformer Inversmetoden Transformation av stokastiska variabler
Läs merTentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12
LINKÖPINGS UNIVERSITET MAI Johan Thim Tentamen i matematisk statistik (9MA21/9MA31, STN2) 212-8-2 kl 8-12 Hjälpmedel är: miniräknare med tömda minnen och formelbladet bifogat. Varje uppgift är värd 6 poäng.
Läs merKonvergens och Kontinuitet
Kapitel 7 Konvergens och Kontinuitet Gränsvärdesbegreppet är väldigt centralt inom matematik. Som du förhoppningsvis kommer ihåg från matematisk analys så definieras tex derivatan av en funktion f : R
Läs merLaboration 4: Stora talens lag, Centrala gränsvärdessatsen och enkla punktskattningar
LUNDS TEKNISKA HÖGSKOLA MATEMATIKCENTRUM MATEMATISK STATISTIK DATORLABORATION 4 MATEMATISK STATISTIK, FÖR I/PI, FMS 121/2, HT-3 Laboration 4: Stora talens lag, Centrala gränsvärdessatsen och enkla punktskattningar
Läs merTENTAMEN I SF1904 MARKOVPROCESSER TISDAGEN DEN 29 MAJ 2018 KL
Avd. Matematisk statistik TENTAMEN I SF904 MARKOVPROCESSER TISDAGEN DEN 29 MAJ 208 KL 4.00 9.00. Examinator: Björn-Olof Skytt tel. 790 86 49 Kursansvarig: Björn-Olof Skytt tel. 790 86 49 Tillåtna hjälpmedel:
Läs mer