Går det att i realtid skicka strömmande video upplänk genom 4G-nätet för nyhetsrapportering i ett högupplöst TV-format? ROGER SANDHOLM och NIKLAS LIND Examensarbete Stockholm, Sverige 2010
Går det att i realtid skicka strömmande video upplänk genom 4G-nätet för nyhetsrapportering i ett högupplöst TV-format? ROGER SANDHOLM och NIKLAS LIND Examensarbete i medieteknik om 15 högskolepoäng vid Högskoleingenjörsprogrammet för medieteknik Kungliga Tekniska Högskolan år 2010 Handledare på CSC var Mats Erixon Examinator var Daniel Pargman TRITA-CSC-E 2010:126 ISRN-KTH/CSC/E--10/126--SE ISSN-1653-5715 Kungliga tekniska högskolan Skolan för datavetenskap och kommunikation KTH CSC 100 44 Stockholm URL: www.kth.se/csc
Sammanfattning Syftet med uppsatsen är att utreda om fjärde generationens mobilnät, (4G), går att bruka som transmissionslänk mellan ett reportageteam och en TV- station. För att svara på frågeställningen så har arbetet bestått i att ta reda på hur denna transmission sker idag, vilka kravs som ställs, samt utreda dess för- och nackdelar. Vidare så redogörs för hur kodning av videomaterial går till samt hur det sker i förhållande till mobila nät, hög upplösning och låg fördröjning. Uppsatsen består i en del som förklarar 4G- nät och tekniken som det bygger på, LTE (Long Term Evolution) samt en kort historik för de mobila nät som existerat i Sverige. Tillsammans med personal från SVT har det skett diskussioner kring vilka krav som skulle ställas på 4G- näten och hur nyhetsvärdet av en rapporterad nyhet står sig gentemot kvaliteten på den överförda videon.
Abstract Is it possible for television broadcasters to use 4G- networks as a video transmission carrier for news gathering in a high resolution format? The purpose of the essay is to examine the fourth- generation of mobile networks, (4G). If it can operate as transmission link between a Outside broadcast team and a Television station. The focus of the essay is to find out how the transmission works today, what are the requirements, as well as investigate its advantages and disadvantages. Furthermore, explaining how coding of video works and what to account in relation to mobile networks, high resolutions and low latency. The essay consists of a part explaining the 4G network and the technology upon which it is based on, LTE (Long Term Evolution). Also a history of the mobile network that has existed and exists in Sweden. Together with staff from SVT (Swedish Televison), there has been discussion of what the requirements would be on the 4G networks and the newsworthy of the reported news stands up against the quality of the transmitted video.
Innehållsförteckning 1 Inledning...4 2 Problem...5 2.1 Frågeställning...5 2.2 Problemformulering...5 2.2.1 Mindre underfrågor...5 2.3 Begränsningar...5 2.3.1 Telias 4G- nät...5 2.3.2 3G...5 2.3.3 Produkt...6 2.3.4 Nyhetsvärde...6 2.4 Syfte...6 3 Bakgrund...7 3.1 Dagens länkar och transmission...7 3.1.1 Satellitkommunikation...7 3.1.1.1 Satellitanvändning...7 3.1.1.2 Typ av satellit...8 3.1.1.3 Satellitteknik...8 3.1.2 Mobila nät...9 3.1.2.1 Bakgrund... 10 3.1.2.2 GSM... 10 3.1.2.3 GPRS... 11 3.1.2.4 EDGE... 11 3.1.2.5 3G... 13 3.1.2.6 UMTS... 14 3.1.2.7 HSPA... 14 3.1.3 LTE... 15-1 -
3.1.3.1 Krav på LTE... 15 3.1.3.2 Modulering... 16 3.1.3.3 OFDM... 16 3.1.3.4 SC- FDMA... 18 3.1.3.5 FDD & TDD... 19 3.1.3.6 Multipla antenner... 20 3.2 Kodare & videoöverföring på Internet... 21 3.2.1 Videokompression och kodning... 21 3.2.1.1 Kodek... 22 3.2.1.2 Typ av videomaterial... 22 3.2.1.3 Bildformat och bilduppritning... 23 3.2.1.4 Bitar... 23 3.2.1.5 Bitdjup och färgsampling... 24 3.2.1.6 Bithastighet... 24 3.2.1.7 Skalbarhet... 25 3.2.2 Transport av strömmande media... 26 3.2.2.1 Transmission över Internet och protokoll för det... 27 3.2.2.2 Utsändning... 28 3.2.2.3 Hastighetskontroll... 28 3.2.2.4 Quality of service och Quality of experience... 29 3.2.3 Problem som följd av dålig transmission och kompression... 29 3.2.3.1 Fördröjning och buffring i signalkedjan för video och nätverk.. 30 3.2.4 Tillgängliga kodek... 31 3.2.4.1 MPEG- 4 AVC / H.264... 31 3.2.4.2 Fördelar med MPEG... 32 4 Metod... 33 4.1 Förstudie... 33 4.2 Intervjuer... 33 4.3 Tekniskt försök... 34-2 -
5 Kravspecifikation på nätet... 35 5.1 Nätkravanalys... 35 5.2 Sändning, täckning och nätkonfiguration... 35 5.2.1 Hastighet... 35 5.2.2 Fördröjning... 36 5.2.3 Tillgänglighet... 37 5.3 Utrustnings specifikation och signalkedja... 37 6 Resultat... 39 6.1 Försöket i Telias 4G- nät... 39 6.1.1 Material & kodning:... 39 6.1.2 Slutsats... 39 7 Analys... 41 7.1 Identifiera flaskhalsar... 41 8 Slutsatser... 42 8.1 Förslag på fortsatt arbete:... 43 9 Litteraturförteckning & referenser... 44 10 Bilagor... 48 10.1 Bilaga 1: Data från försöket i Telias 4G- nät... 48 10.1.1 Bakgrund... 48 10.1.2 Tekniska förutsättningar... 48 10.2 Bilaga 2: Intervjuanteckningar från möte med Joel Rohlin på SVT 2009-12- 04 50 10.3 Bilaga 3: Intervjuanteckningar från möte med Aurelian Bria på Ericsson 2010-02- 18... 56-3 -
1 Inledning När det inte finns tillgång till en fast uppkoppling för att göra ett direktsänt inslag i en nyhetssändning så finns det idag få alternativ. Ett direktsänt inslag används med avsikt att skildra nyheten från den plats där någonting skett och på så sätt öka nyhetsvärdet. En reporter, en kameraoperatör och eventuellt en tekniker skickas ut i fält för att göra en kort presentation av nyheten. Eftersom du snabbt måste vara på plats så är tiden vanligtvis kort mellan det att nyheten presenteras för redaktionen och sändningsstart. Detta medför att reportagen är svåra att planera i förtid. Idag används ofta satellitlänkar vid denna typ av rapportering - de är tyvärr både dyra att använda och tekniken är skrymmande. Går det att skapa mer kostnadseffektiva lösningar som lever upp till de krav som ställs av TV- bolag, genom att komplettera dagens transmissionslänkar med nya tekniska lösningar? Nästa generations mobilnät, 4G, kommer att erbjuda betydligt högre datahastigheter än tidigare och fördröjningen i nätet kommer att bli markant mindre än tidigare. Det medför att prestandan höjs jämfört med de trådlösa nät som finns tillgängliga i dagsläget. Faktorer som prestanda, fördröjning och hastigheter är av stor vikt när du ska sända video direkt över en trådlös uppkoppling. Parallellt så sker en förändring inom TV- bolagen, då de går mot mer filbaserade arbetsflöden. 4G- näten kommer till skillnad från de tidigare mobila näten att vara helt IP- baserade. Så möjligheterna för att distribuera media växer och formerna tenderar att i allt större utsträckning konvergera. Kommer 4G- näten skapa förutsättningar för att förända och eventuellt ge möjlighet för nya användningsområden? Redan idag har Telia ett 4G- nät i Stockholm och andra operatörer är på god väg att färdigställa fler nät runt om i världen. Det är en teknik som är här för att stanna och den kommer inom en snar framtid existera i form av kommersiella nät på många håll. - 4 -
2 Problem 2.1 Frågeställning Går det att i realtid skicka strömmande video upplänk genom 4G-nätet för nyhetsrapportering i ett högupplöst TV-format? 2.2 Problemformulering Vi vill undersöka om 4G- näten kan fungera som ett komplement till dagens ofta dyra lösningar för att tillfälligt överföra högupplöst video till en TV- station. 2.2.1 Mindre underfrågor Kommer tekniken att ändra sättet som nyheter produceras och distribueras? Hur står sig de traditionella transmissionsteknikerna rent ekonomiskt jämfört med att skicka video i 4G- nätet? Kan man minska personal och mängden teknik som används för att skapa ett direktsänt inslag? Kommer 4G- nätet garantera tillräcklig prestanda i de situationer som idag normalt förekommer vid direktsändningar av video? 2.3 Begränsningar 2.3.1 Telias 4G-nät Arbetet kommer att begränsas till att se på Telias 4G- nät i Stockholm. Detta eftersom det tillsammans med Telias 4G- nät i Oslo är det enda kommersiella 4G- nät som står klart under tiden för undersökningen (mars 2010). 2.3.2 3G 3G- näten kommer att nämnas men kommer inte att utredas i fråga om potential för att verka som transmissionsteknik. Anledningen är att exempelvis SVT redan använder 3G- nätet för detta ändamål idag - dock i begränsad utsträckning. SVT anser inte att den tekniken lever upp till de krav som ställs på materialets kvalitet [4]. - 5 -
2.3.3 Produkt Syftet är heller inte att arbetet ska utmynna i en färdig produkt utan enbart att utreda möjligheterna och förutsättningar för att använda 4G- nätet för videotransmission. 2.3.4 Nyhetsvärde Vi kommer inte att utreda om 4G som transmission sätt och användning påverkar nyhetsvärdet negativt eller positivt. Men nyhetsvärdet har varit en viktig faktor i problemformuleringen och om huruvida 4G är användningsbart. 2.4 Syfte Genom att besvara frågeställningen samt dess underfrågor, utreda om det är aktuellt att använda 4G- nätet för denna typ av ändamål. Det finns önskemål från TV- bolag att hitta nya och fler metoder att skicka video på [4]. Men för att det ska vara aktuellt att använda kommersiella mobila nät i professionella sammanhang så måste de leva upp till TV- bolagens krav. Syftet är att utreda om 4G- nätet lever upp till kraven. - 6 -
3 Bakgrund Som bakgrund för att kunna besvara vår frågeställning så presenteras här de tekniker och tillvägagångssätt som idag används vid transmission. Det innefattar satellitkommunikation, mobilkommunikation och slutligen kodning av bildsignaler. Det ges även en kortare bakgrund om och teknisk beskrivning av de tekniker som lett fram till vad mobilkommunikation är idag. Det för att ge en förståelse för 4G teknikens nya möjligheter. 3.1 Dagens länkar och transmission 3.1.1 Satellitkommunikation För att sända ett program eller inslag direkt från en avlägsen plats så används ofta satellittransmission. Den här delen presenterar information om hur satellitkommunikation fungerar för att ge en teknisk grund för slutsatser och de krav som ställs på 4G tekniken. 3.1.1.1 Satellitanvändning En av anledningarna för att använda satelliter som distributionskälla är spridningsmöjligheten. Sändningen kan tas emot av flera som har en parabolantenn om de finns inom satellitens täckningsområde. Förutom distribution till hushåll använder sig programproducenter och TV- stationer sig av satellitkommunikation för direktsändningar från platser långt bort där det saknas en fast förbindelse. SES Sirius upplåter i Sverige 36MHz för temporärt användande på en av deras satelliter enligt Joel Rohlin. Det går att hyra en fast bandbredd på 4,5MHz och 9MHz på den transpondern. För att hyra bandbredd på en satellit ringer man upp operatören som delar ut bandbredden. Sveriges Television använder sig av två satellitutrustningar. De har ett fordon utrustat med satellitupplänk och styrsystem från företaget M2sat. Deras lösning använder en MPEG- 4/MPEG- 2 kodare från EDBox och utrustningen används med bandbredden 4.5MHz för att distribuera signalen till satelliten [32]. För nyhetsproduktion används en MPEG- 4 ström på ca 4.5Mbit/s i standardtvupplösning (SD). Bandbredden 9MHz används vid större produktioner för att kunna leverera högupplöst material och en garanterad - 7 -
uppkoppling. Det mesta material för 9MHz sändningar levereras av en större produktionsbuss. Att använda 4.5MHz kostar idag ca 12.50kr per minut, Joel Rohlin på SVT förklarar att det kan bli ganska kostsamt under en hel dag. Om de har möjlighet använder de hellre en fast uppkoppling men det måste planeras innan. Fördelen är att du snabbt kan vara på plats med utrustningen. Att starta upp och ställa in allt tar ca 15 minuter uttalar sig Anders Hoog från SVT Karlstad för www.m2sat.com [34]. Att rikta in satelliten sköts centralt från SVTs kontor i Karlstad via en GPRS anslutning. En central del i satellitkommunikationen är möjligheten till dubbelkommunikation som erbjuds genom satellituppkopplingen. 3.1.1.2 Typ av satellit Telekommunikationssatelliter som används i broadcastsammanhang är av typen geostationära och rör sig med samma vinkelhastighet som jorden vilket innebär att den konstant täcker en del yta. Andra satelliter eller rymdfarkoster använder sig av en polär bana för att täcka in hela planetens yta och roterar då runt jorden 14 gånger per dag. Huvuduppgiften för en satellit går ut på att reflektera elektroniska signaler. Den kan användas för att sprida en signal till många, överföra från en punkt till en annan eller så fungerar den även för tvåvägskommunikation [21]. 3.1.1.3 Satellitteknik En upplänk eller transmission via en satellit består av en bassignal till exempel en videokälla innehållande data som passerar genom en processor och en uppkonverterare, BUC (Block upconverter) för att sedan förstärkas. Slutligen förs signalen vidare genom en parabolantenn som är riktad mot satelliten. Signalen skickas inom en bestämd frekvensbredd för att tas emot av den transponder som är inställd för just den frekvensbredden. Transpondern konverterar och förstärker signalen, som vid mottagningen är svag och skickar tillbaka signalen till jorden men i ett annat frekvensband för att inte störa upplänken. En satellit består av flertalet transpondrar som jobbar på olika frekvenser med olika bandbredd och signalstyrka. För att sprida satellit- TV till hushåll används C- bandet vars frekvenser ligger mellan 3.7 4.2GHz och Ku- - 8 -
bandet som använder 11.7 12.7GHz. Vilken frekvens som används beror på valet av satellitoperatör och i vilken del av världen du bor. Det som skiljer de två banden åt förutom frekvens är tillåten signalstyrka för olika frekvenser. Signalstyrkan för de olika transpondrarna varierar mellan 20-120Watt. Resultatet av högre signalstyrka visar sig i mottagningsförmågan. Med högre frekvens och styrka blir signalen mer fokuserad vilket gör att det går bra med en mindre parabol. Storleken på parabolen bygger på att man vill samla hela bredden av infallande signal och rikta den mot parabolens mottagare, LNBn en Low- noise Block Converter. LNBn är den del kombinerat med parabolen som tar emot och förstärker signalen. En signal med högre frekvens kan också överföra mer information per tidsenhet [37]. Högre frekvenser påverkas dock i större utsträckning av störningar i atmosfären. Signalen sänds ut med antingen linjär (horisontal, vertikal) eller cirkulär (höger, vänster) polarisation. Signalens önskade utsändningskaraktäristik påvekas med valet av polarisation [32]. Polarisation används för att få plats med fler signaler på samma bandbredd. 3.1.2 Mobila nät De senaste åren har det skett en dramatisk ökning av datatrafik i de mobila näten (se Diagram 1 nedan) och det förutspås att denna ökning stadigt kommer att hålla i sig [11]. I Sverige har den markanta ökningen skett i och med lanseringen av mobila bredband [28]. Tjänsterna blir allt mer bandbreddskrävande och det ställer stora krav på operatörerna. Även globalt finns dessa tendenser och själva röstsamtalen utgör en allt mindre del i de mobila näten, istället sker en stor ökning av datatrafik [11]. - 9 -
Diagram 1. Bilden visar statistik från PTS på antal abonnemang i Sverige enbart för mobil paketdata. Antalet på y- axeln anges i tusental [9]. 3.1.2.1 Bakgrund I Sverige samexisterar flera generationer av mobilnät. Förutsättningen för att det fungera är att de till grunden är mycket lika. Nästkommande generation har kommit som en teknisk utveckling av de tidigare. Stora förändringar har ändå skett framförallt genom bättre förutsättningar för att skicka och ta emot data. För att kunna visa på skillnader och likheter mellan de olika generationer av mobilnät i Sverige så kommer en redogörelse för dessa. Då nätens prestanda till stor del står i relation till teknikerna som används så kommer även 4G- nätens tekniker och metoder att tas upp. 3.1.2.2 GSM Den första generationen mobilnät i Sverige var NMT eller nordisk mobiltelefoni som byggde helt och hållet på analog teknik. Nästa generation var GSM som står för Groupe Spécial Mobile och fick en engelsk översättning som Global System for Mobile Communications [22]. GSM var i sitt ursprung bara tänkt för röstsamtal. Nätet bestod av ett kretskopplat nät där varje samtal hade en kanal med given bandbredd. Det gick att skicka data i nätet redan då, men prestandan är låg. Det fanns större likheter mellan GSM och ett vanligt fast telefonnät än med ett datanät. Den stora skillnaden mellan GSM och den tredje generationen (3G) var - 10 -
att data fick en egen plats i nätet i det senare och att datatrafik och röstsamtal kunde köras parallellt. Även hastigheterna för att skicka och ta emot data ökade. 3.1.2.3 GPRS Implementerandet av GPRS i GSM- näten var egentligen det första steget mot bättre datahastigheter och sätt att hantera data. Övergången kallas 2.5G och tekniken bygger istället på att använda tidsluckor i de kretskopplade näten för att skicka paketdata i - alltså ett första steg mot LTE som ju är helt paketbaserat [23]. Med GPRS så fanns möjlighet till datahastigheter på upp till 40Kbit/s nerlänk och upp till 14Kbit/s upplänk i GSM- näten. 3.1.2.4 EDGE Nästa utveckling kom att kallas 2.75G, eller EDGE [23]. Till skillnad från GPRS så används en mer effektiv modulationsteknik (förklaring av modulation, se Illustration 1 och Illustration 2 nedan), vilket resulterar i att EDGE kan hantera upp till fyra gånger så mycket data. I GPRS användes Gaussian Minimum Shift Keying (GMSK) som modulationsteknik, denna är dock begränsad till 1 bit per modulationssymbol. Detta kan jämföras med EDGE som använder 8PSK modulationsteknik som där moduleringen sker med 3 bitar per symbol. Vilket resulterar i datahastigheter på upp till 384Kbit/s nerlänk och upp till 118Kbit/s uppströms. - 11 -
Illustration 1. Bilden visar ett tvärsnitt av en signal vid en given tidpunkt. Beroende på vilken teknik som signalen moduleras med, så kommer den att kunna bära med sig olika stor mängd data. Detta begränsas dock av mediets förutsättningar och påverkan av yttre störningar. En signal med hög modulation är alltid mer känslig för störningar. Det finns två metoder som används idag för att modulera en signal, fas- och amplitudmodulering. I GMSK och 8PSK används enbart fasmodulering. Men vid QAM- modulering så kombineras fas- och amplitudmodulering [2]. - 12 -
Illustration 2. Bilden visar de olika modulationstekniker som används i de olika generationerna av mobila nät [1]. 3.1.2.5 3G I slutet av 1998 så skapades 3GPP, 3rd Generation Partnership Project för att ta fram globala riktlinjer för en tredje generations mobilnät [1]. I projektet ingår en mängd olika organisationer och företag som tillsammans verkar de för en standardisering av en tredje generation. Projektet baseras på den utveckling som gjorts från GSM. IMT- 2000 eller International Mobile Telecommunications 2000 är framtagen av International Telecommunication Union (ITU) [24]. IMT- 2000 rymmer flera olika grupper av 3G- standarder och där ingår 3GPP som en av - 13 -
dessa. Long Term Evolution - LTE är den teknik som Telias 4G- nät bygger på kommer även den som en utveckling från 3GPP. 3.1.2.6 UMTS Universal Mobile Telecommunications System är ett av den tredje generationens mobilsystem och de allra flesta av dessa system bygger på WCDMA - Wideband Code Division Multiple Access. UMTS är standarden och WCDMA är tekniken som används [38]. I och med 3G så har nu datatrafik fått en egen plats i de mobila näten. Hanteringen av data blev också mycket effektivare. Genom att ge alla datapaket en identitet så minskade risken för förlorad data i nätet radikalt [25]. Det öppnade för en bättre kontroll av vilken data som försvann och då kunde den snabbt skickas på nytt. Staffan Larsson som är systemingenjör för LTE på Ericsson beskriver WCDMA- tekniken. WCDMA kan också liknas vid ett cocktailparty där man skriker i mun på varandra i samma frekvensspektrum och man känner igen varandra på rösten. [6] 3.1.2.7 HSPA På senaste tiden har det skett en förbättring av flera 3G- nät i Sverige. Hastigheterna har ökat avsevärt. Anledningen är inte ett rent teknikskifte utan en ny och förbättrad mjukvara. HSPA High Speed Packet Access som i dagligt tal kallas 3.5G eller Turbo 3G bygger på att basstationen håller koll på hur pass bra kontakt den har med användarenheterna och om förutsättningarna är gynnsamma så växlar den till en moduleringsteknik som kan hantera mer data [26]. Signalen kan då moduleras med 16QAM som modulerar med 4 bitar per symbol [1]. (se bild ovan). I HSPA finns en mer effektiv metod för att hantera förlorade datapaket. HSPA är ett samlingsnamn för två standarder av 3GPP. Den ena är HSDPA High Speed Downlink Packet Access, som rör kommunikation från basstationen till användarenheterna. Där hastigheter på upp till 14Mbit/s nerlänk är möjliga. Den andra är HSUPA High Speed Uplink Packet Access, som beskriver hur kommunikationen sker från användarenheter upp till basstationen. I HSUPA är det möjlig att nå 5.7Mbit/s upplänk [1]. - 14 -
3.1.3 LTE Long Term Evolution är precis som det låter ett resultat av den evolution inom mobila nät, alltså snarare en utveckling än ett tekniskt generationsskifte vilket däremot begreppet 4G försöker påvisa. I vissa sammanhang kallas LTE för 3.9G för att markera att det inte rör sig om ett rent generationsskifte. Inom 3GPP så har de låtit utveckla de befintliga teknikerna och lyckats standardisera LTE som en av 4G- teknikerna, andra tekniker för 4G är exempelvis WiMAX - IEEE 802.16e- 2005 [27]. 4G är således ett samlingsnamn för flera tekniker där LTE eller 3GPP release 8 utgör en av dessa. 3.1.3.1 Krav på LTE Exempel på krav som ställdes på LTE av 3GPP [11] Ökad topphastighet på minst 100 Mbit/s nerlänk och 50 Mbit/s upplänk. Få ner fördröjningen i det mobila nätet till under 10ms Förbättrad möjlighet att använda sig av fler frekvensområden och även små frekvensutrymmen som tidigare varit svåra att utnyttja. Skalbar bandbredd på bärvågorna Fokus på en IP- baserad miljö snarare än en radiobaserad. Tidigare generationer mobilnät har varit radionät men LTE är egentligen ett datanät Ge möjlighet att både bruka TDD och FDD, två olika tekniker för att hantera data som skickas respektive tas emot. Slutligen göra steget för implementerande av LTE- tekniken i existerande nät så litet som möjligt, både ekonomiskt och rent praktiskt. Så med en topphastighet på 100 Mbit/s nerlänk och 50 Mbit/s upplänk så har det alltså tagits ett rejält kliv från 3G- tekniken som i dagsläget kan erbjuda upp till 14 Mbit/s nerlänk och 5.7Mbit/s upplänk [1]. Två saker är nu viktiga att nämna, dels så är båda teknikerna fortfarande under utveckling och med största sannolikhet kommer de att visa på ännu högre topphastigheter, men å andra sidan så är dessa siffror uppmätta under de mest gynnsamma förhållanden och således inte de hastigheter som de flesta abonnenter kommer att få uppleva i de kommersiella näten. - 15 -
Arbetet med att öka prestandan i nätet bygger mycket på att öka dess flexibilitet. Globalt så skiljer sig de olika mobila systemen åt i fråga om tillverkare och tekniker. För att LTE ska kunna implementeras ovanpå ett redan existerande nät, så behövs det en struktur som är anpassningsbar efter hur kraven och behoven ser ut på olika platser. Det blir allt svårare att hitta utrymmen i frekvensspektumet som är outnyttjade. I Sverige har frekvensutrymmen vid 900MHz och 1800MHz brukats av GSM [28]. I vissa länder har andra frekvensutrymmen används. LTE har löst detta genom att systemet kan arbeta i flera frekvensutrymmen och att det även går att använda betydligt mindre bandbredd i frekvensspektrumet än vad som tidigare var möjligt. Telia använder frekvensutrymmet 2.6GHz för LTE i dagsläget[29][28] 3.1.3.2 Modulering I frekvensutrymmet som används för LTE så är olika utrymmen allokerade för olika ändamål. Data skickas på bärvågor inom dessa frekvensutrymmen. En stor skillnad mot tidigare mobilnät är att LTE inte är ett kretskopplat nät utan är helt byggt på att all information skickas som IP- paket [11]. För att kunna skicka data på en bärvåg så behöver den moduleras. För detta ändamål finns flera olika metoder som lämpar sig mer eller mindre bra beroende på situation och ändamål. Målet är att skapa så effektiva modulationsmetoder som möjligt för att kunna skicka och ta emot maximalt med data. Genom att göra en jämförelse med WCDMA så förklaras vad som gör att LTE- tekniken är mer effektiv. 3.1.3.3 OFDM I LTE så har bärvågorna en bandbredd på mellan 1.4 20MHz (se Illustration 3 nedan), bärvågorna är i sin tur uppdelade i underbärvågor. Dessa underbärvågor är alltid 15kHz breda så därför kommer antalet underbärvågor att variera beroende på bärvågens storlek. I WCDMA så är bärvågen alltid 20MHz och dess underbärvågor har en bredd på 5MHz (se Illustration 4 nedan). Det ger i LTEs fall möjlighet till en större flexibilitet i frekvensutrymmet. - 16 -
Illustration 3. Bilden illustrerar Orthogonal Frequency Division Multiplexing OFDM av en bärvåg. En modulationsteknik som är mycket vanligt förekommande i olika trådlösa nät. I LTE så används denna teknik för signaler från basstation ner till användarenheten[11]. Illustration 4. Illustration av en bärvåg och underbärvågor i WCDMA [1]. Underbärvågen har förutom sin bredd i frekvensdomänen även en längd i tidsdomänen på 0.5ms, tillsammans bildar de ett resurselement (från engelskans resource element). Elementen består av modulerade bitar, där antalet bitar - 17 -
beror på vilken modulationsteknik som använts. LTE kan använda QPSK-, 16QAM- och 64QAM- modulering. 3.1.3.4 SC-FDMA Each user is allocated a number of so- called resource blocks in the time frequency grid. The more resource blocks a user receives and the higher the modulation used in the resource elements, the higher the bit- rate. [11] För upplänken används en annan metod Single Carrier Frequency Division Multiple Access - SC- FDMA. Den används för att skicka data från användaren till basstationen. SC- FDMA och OFDM är väldigt lika men SC- FDMA har fördelen att den behöver betydligt mindre ström för transmission upplänk för effektförstärkning. I basstationerna är inte tillgången till ström ett problem men användarenheterna drivs ofta på batterier och därför är SC- FDMA en betydligt lämpligare metod för detta ändamål [30]. Den stora skillnaden är att OFDM låter flera individuellt modulerade symboler skickas parallellt i frekvensdomänen vid en given tid. I SC- FDMA sker en matematisk konvertering så att symbolerna upptar större utrymme i frekvensdomänen men istället ligger uppdelade i tidsdomänen. - 18 -
Illustration 5. Här ges ett exempel på skillnaden mellan OFDM och SC- FDMA. I detta fall illustreras det med fyra underbärvågor á 15 khz och med QPSK som modulering av symbolerna. På y- axeln representeras effektförbrukningen[10]. 3.1.3.5 FDD & TDD I LTE finns stöd för två olika tekniker för hur data skickas på bärvågorna, FDD och TDD. Det finns angivet i 3GPPs standarder vilka frekvensutrymmen som är avsedda för vilken typ av duplexering [11]. FDD Frequency Division Duplexing, är det absolut vanligaste sättet i mobila system att hantera hur data skickas. FDD bygger på parade frekvensband, dvs. två band där det ena bara används för upplänk och det andra enbart för nerlänk. Så data skickas parallellt på varsin bärvåg. TDD Time Division Duplexing, upp- och nerlänk skiljs här åt i tidsdomänen och allt sker då på samma frekvensband. Den stora fördelen med denna teknik är att det lätt går att ställa förhållandet mellan hur mycket utrymme (tid) som ska användas för upp- respektive nerlänk. I regel så är kapaciteten större ner till användaren eftersom det är i den riktningen som den största andelen data skickas. - 19 -
3.1.3.6 Multipla antenner Ett enkelt sätt att skapa goda förutsättningar för hög datahastighet i mobila nät är att ha en stark signal. The best amplifier is an antenna utryckte Bria Aurelian det i intervjun [5]. Han påpekar sedan att bara man använder sig av en extern antenn till en användarenhet så blir signalkvaliteten avsevärt bättre. LTE har stöd för en flerantennslösning kallad MIMO (Multiple Input Multiple Output). Fördelen med multipla sändare(från basstationen) och mottagare (i användarenheten) är att flera strömmar med data kan sändas ut parallellt [10]. Mottagarna i sin tur kommer att ta emot blandad data från alla sändarna, så nästa steg är att filtrera och sortera signalerna. Först därefter kommer mottagen data att kunna avkodas till dess ursprungsströmmar och skickas vidare i nätet. Med flera strömmar så ökar datamängden som kan sändas och genom att jämföra och sortera denna i mottagaren så minskar även risken för att förlora data på vägen. MIMO används bara i riktningen från basstationen ner till användarenheten, d.v.s. ihop med OFDM som moduleringsteknik. MIMO lämpar i dagsläget sig inte för att användas i upplänken eftersom SC- FDMA enbart använder sig av en ström [31]. - 20 -
3.2 Kodare & videoöverföring på Internet Vid sändning av videomaterial så har de flesta medium har en begränsad bandbredd tillgänglig. Genom att koda och komprimera så blir storleken på ljud och bild mindre. Att koda en signal kan göras på flera sätt och med olika bra slutresultat. I detta arbete kommer fokus att ligga på MPEG- 4 som eftersom det är en av få kodek som idag innehar de egenskaper som krävs för sändning i ett trådlöst nätverk. Texten tar upp grundförutsättningar som krävs och hur en kodek kan eller inte kan tillgodose detta. Rapporten undersöker inte om det finns andra kodek. Inte heller undersöks några speciella instiksprogram för kodek. Den här delen tar upp grundförutsättningarna vid kompression av videomaterial med fokus på transmission på Internet. Rapporten tar också upp egenskaper som är bra vid direkt strömning av videomaterial och jämför detta specifikt med MPEG- 4s egenskaper. Fördelen med MPEG- 4 är att den är standardiserad och till en grund funktionellt känd. 3.2.1 Videokompression och kodning För att kunna skicka den stora mängd data som krävs för en högupplöst videoström så är det inte tillräckligt att bara göra datapaket av videosignalen. Detta eftersom det inte finns obegränsat med bandbredd för att skicka eller ta emot materialet, förutsatt att transmissionen inte sker på ett lokalt nätverk. Signalen måste därför komprimeras eller kodas effektivt för att spara på bandbredden. Målet är att koda signalen så att bara paketen blir mindre men kvalitén densamma. Det går också att göra något mindre genom att bara koda signalen mer effektivt också, så all komprimering är inte förstörande i bildväg. Komprimering delas upp i förstörande och icke- förstörande komprimering. Komprimering är en balansgång mellan bra kvalité, snabb kodning, avkodning, fördröjning och bandbredd. Det måste anpassas för mediet eller ändamålets olika krav på prestanda. Vid strömmning av video är det viktigt att välja en kodek som är anpassad för att användas i nätverk och framförallt i trådlösa - 21 -
nätverk. Den ska även fungera för direktsänd video. Kodek bör ha egenskaper som hög kompressionseffektivitet och anpassningsbarhet (adaptivity) [12]. 3.2.1.1 Kodek Vad är och vad gör kompression med en videofil eller videoström? En kodek består i huvudsak av två delar, en beskrivning av hur signalen komprimeras (encode) och den andra beskriver hur signalen packas upp eller de- komprimeras (de encode). För att i slutet kunna öppna upp filen måste du ha tillgång till båda delarna av en kodek. En kodek är i sin tur uppbyggd av olika kompressionsalgoritmer för att beräkna fram och effektivisera kodningen till slutmålet. Komprimeringen gör olika saker beroende på typ av material och består av komplexa algoritmer för beräkning av detta [2]. När en standard för kodning tas fram definerar standarliseringsorganen endast hur bitströmmen ser ut [2]. Sen är det upp till tillverkare av kodek att skapa smarta algoritmer som paketerar bitar på ett sätt som lever upp till standarden. Ibland kan det vara så att komprimeringsdelen är licensierad av det tillverkande företaget samtidigt som de- komprimeringsdelen är tillgängligt för alla. Det gör att signalen kan de- komprimeras av många men komprimeringsalgoritmen inte är känd i samma utsträckning [2]. En kodek kan vara implementerad som en mjukvara eller genom att signalen matas genom en hårdvara som kodar signalen. 3.2.1.2 Typ av videomaterial Att direktsända något innebär att signalen från kameran måste komprimeras i realtid. Om komprimeringen istället utgår ifrån en statisk videofil går det att använda lösningar som buffrar dvs. fördröjer signalen. Fördröjningen innebär att partier som är svårare att komprimera får ta lite längre tid utan att det märks på mottagarsidan, samt att det då går att förutse vilken typ av material som kommer sen och effektivt komprimera det i förväg. Vid direktsänd video från en kamera är det av stor vikt att hålla nere fördröjningar vilket innebär att komprimeringen måste vara snabb och ha hög kompressionseffektivitet under kort tid. Att en kodek har hög kompressionseffektivitet innebär att det komprimerar materialet på ett effektivt sätt och samtidigt som kvalitén behålls. - 22 -
Videokompression delas in i två grupper för strömning av media över Internet, skalbar och icke- skalbar videokomprimering [13]. 3.2.1.3 Bildformat och bilduppritning Bildstorleken på video som skickas har en avgörande faktor på hur mycket bandbredd som kommer behövas. Problemformuleringen ligger i att undersöka högupplöst material för framtiden. Högupplöst material definieras i den här texten som videostorlekar över 1280x720 pixlar i förhållandet 16:9, bredbild, i progressiv scanning. Bandbredden påverkas även av hur bilden ritas upp. Att rita upp en bild i progressiv scanning innebär att det är hela bilder och inte bara varannan linje som visas. Interlaced scanning ritar upp varannan linje i bilden för att minska mängden data och bandbredd, men samtidigt behålla en hög bildhastighet för att undvika flimmer i bilden. Det används främst vid analoga TV- sändningar [2]. Progressiv scanning uppfattas ofta, subjektivt, som skarpare än video som använder radsprång (interlaced scanning), även om det progressiva materialet har lägre upplösning [14]. Med radsprång går det att teoretiskt sätt uppnå en högre bildhastighet jämfört med progressiv scanning vid samma tillgängliga bandbredd. För högupplöst material i 1280x720 används främst bilduppdateringsfrekvensen 50p, vilket betyder att hela bilden uppdateras 50 gånger per sekund. 3.2.1.4 Bitar Bild- och ljudkomprimering hanterar bithastigheter i kodeken och kodar materialet på liknande vis. På samma sätt som när ljud komprimeras så förkastas överflödig och upprepande information. Vid hårdare kompression generaliseras även de högfrekventa bildelementen. Ett högfrekvent bildelement är en delbild eller ett bildblock som innehåller mycket olika/unika pixelelement. Utan att använda för mycket bitar är det svårt och bandbreddskrävande att återge mer högfrekventa bitar. För att spara på bitar eller när bitarna att tillgå tar slut generaliseras de högfrekventa elementen och då kan det uppstå tydliga artefakter i form av block i samma eller få färger [14]. Målet är att behålla en hög bildkvalité och samtidigt spara på bitar genom att effektivare paketera liknande element där ögat inte märker skillnad och generalisera de partier som innehåller - 23 -
mycket unika bitar. Bithastighet är angivet som antalet bitar per tidsenhet. Är det så att kompressorn saknar möjliga bitar att tillgå så blir bilden lidande då kompressorn behöver generalisera och slänga mer bildinformation. Hur den väljer att slänga bitar definieras algoritmen hos kodeken. 3.2.1.5 Bitdjup och färgsampling Varje bild består av flertalet pixlar och varje pixel har ett angivet bitdjup. Bitdjupet beskriver hur mycket färginformation du kan lagra i varje pixel för varje färgkanal och vad som sedan finns tillgängligt när det ska visas. Med ett lägre bitdjup blir stegen mellan färger av samma nyans färre och bilden upplevs sämre upplöst. Det syns extra tydligt vid gradienter. En pixel med bitdjupet 1 kan antingen anta svart eller vitt. Om en bild i RGB har 8 bitar per färgkanal erhålls 8x3=24bitar/pixel (det betyder att varje pixel kan anta ca 16 miljoner olika värden) [39]. En vanlig TV- apparat använder 8- bitar vilket innebär att varje färgkanal kan representeras av 256 olika värden [18]. Det brukar anges i sampelstrukturer på formen 4:4:4. Det kallas undersampling (subsampling) och innebär att varje delfärg inte får lika stort bitdjup. Vid till exempel 4:2:2 samplas bildens Luminans (gröna pixlar) fullt ut och rött och blått samplas endast till hälften. Vilket bitdjup eller krominans undersampling som används beskrivs i profilen för den kodek som väljs att använda. Hur detta sker beror på vilken profil som används. 3.2.1.6 Bithastighet Videomaterial med ett mycket högfrekvent innehåll eller rörelser kräver en högre bithastighet för att resultatet ska bli tillfredsställande. En högre bithastighet kan vara svårt att uppnå på Internet och det är svårt att behålla en konstant bithastighet över tid utan att vissa delar av videon blir synligt lidande. Material kan kodas med olika typer av profiler för inställningar av bithastighet. De är variabel-, genomsnittlig och konstant bithastighet som förkortas VBR, AVR och CBR. Med variabel bithastighet varierar den fritt utifrån videons egenskaper, inom ett satt intervall eller beroende av faktor som till exempel nätets tillgängliga maxhastighet. Med genomsnittlig bithastighet så anges ett värde som kodeken strävar efter att hålla sig till. Med en konstant bithastighet tillämpar - 24 -
komprimeringen en konstant bithastighet inom de gränser som angivits. CBR använder samma hastighet på komplexa bilddelar som den gör för de enkla vilket innebär att komprimeringen blir olika hård beroende på materialets komplexitet. Enligt Adobe kan en video med CBR spelas upp mer pålitligt och är mindre processorkrävande under uppspelning. De möjliga variationerna i VBR är istället fördelaktigt vid transmission då komprimeringsgraden kan anpassas efter bildinnehållet eller mediets genomsläppsmöjligheter [41]. 3.2.1.7 Skalbarhet För att strömma video ger MPEG- 4 möjlighet att använda Scalable Video Coding (SVC), skalbar komprimering i flera lager i tiden (temporalt) och rummet (spatialt). SNR, FGS Fine Granularity Scalability, bit- stream switching och temporal skalbarhet är exempel på skalbar kompression som innebär att den råa bitströmmen delas upp i flera underströmmar. Spatial skalbarhet innebär att kodaren kan komprimera signalen och variera kvalitén på en enstaka bilders nivå. Det spatiala skalbarheten ingår även i SVC. Om en icke skalbar kompression används genereras bara en komprimerad bitström [13]. Att kompressionen sker temporalt innebär att bara skillnaderna och förändringar mellan delbilder kodas för att undvika redundant information [2]. I en helbild/i- bild är allt definierat men i en delbild/p,b- bild, är bara skillnaderna från den närmast intilliggande I- bilden i gruppen/gop:en (Group of Pictures) beskrivet. Genom att använda temporal- skalning så prioriteras I- bilder och de B- och P- bilder mellan är de som vid skalning först prioriteras bort först. Det blir en skalning av bildhastigheten om delbilder plockats bort eller försvunnit. Bilder som försvinner tidigt i en GOP har mycket större påverkan på slutkvalitén än de som ligger i slutet [17]. Spatial komprimering beskriver hur enstaka bilder optimeras för komprimering [2]. I MPEG- 4 används en förbättrad SNR- mekanism som heter FGS, Fine Granularity Scalability. FGS använder en annan metod, bitplan encoding, för att åstadkomma en bättre SNR skalning. FGS är mer anpassad för att möta de olika krav som finns för strömmande media [13]. Med FGS delas den råa strömmen med bitar, in i två - 25 -
bitströmmar, en bas bitström (base layer bit- stream) och en stärkande bitström (enhancement bit- stream) [13]. Baslagret definierar strömmen och har en fast bithastighet, att grundströmmen kommer fram är avgörande för att videon ska kunna visas över huvudtaget. Den stärkande bitströmmen är den del som skalas och varierar enligt tillåten bithastighet med hjälp av den inbyggda hastighetskontrollen i FGS [13]. [Se Illustration 6, en övergripande bild om systemets funktionella uppbyggnad]. Illustration 6. Överblick för hur komprimeringen styrs med hjälp av en strömkontroll som läser av variationer i nätet. Vid användning av bit- stream switching kodas flera strömmar för att tillgodose mottagare med olika bandredd. Beroende på vad mottagaren har för bandbredd väljer den att lyssna på en ström som motsvarar det. Bit- stream switching används främst vid distribution från en server vid multicastutsändning. De andra skalbara metoderna går på ett bättre sätt att tillämpa vid unicast och en mottagare, även de också fungerar för distribution till många [18]. Vid val av profiler för de olika video- och ljudkodeken beaktas vilken typ av utrustning som ska användas samt vilken typ av medietransport som används. När valen är gjorda viktas resultatet sedan mot tidigare nämnda faktorer som hög kompressionseffektivitet, liten fördröjning och skalbarhet. 3.2.2 Transport av strömmande media Internet är inte ett transparent medium. Transparens innebär ett Internet helt oberoende av bandbreddsbegränsningar, fel eller fördröjning. Så ser det inte ut idag. För att kunna skicka en videoström direkt så måste materialet som skickas anpassas för transmission. Att anpassa en videoström för transmission över Internet innebär att bilddata kodas som data- eller IP- paket. - 26 -
3.2.2.1 Transmission över Internet och protokoll för det Protokoll på Internet beskriver vilken typ av datatrafik som skickas, hur den kommer fram och på vilket sätt den ska tolkas. Det finns flera olika protokoll för att skicka data över Internet. Protokollen som nämns i texten är mest relevanta för att skicka videoströmmar över Internet. I de flesta fall baseras transmissionen på Internet Protokollet IP som ligger på nätverks nivån i hierarkin. På IP används sedan UDP eller TCP för att olika ändamål beroende på vad nätet stödjer. Skillnaden mellan UDP och TCP handlar i första hand om mängden extra data som skickas med varje paket och sättet att kommunicera på. TCP har till exempel inbyggda kontrollbitar för att upptäcka fel i transmissionen och skicka om paket som försvunnit. UDP har inte detta och lämpar sig därför bättre för tidskänsliga applikationer, där paket som kommer i tid prioriteras framför återsändning av tappade paket. För att skicka strömmande video över Internet så går det att kombinera UDP med protokoll som är anpassat för sändning av dataströmmar. Ett protokoll för att skicka data i realtid är RTP, Realtime transport protocol, och finns definierat i sessionslagret (se Illustration 7 nedan) UDP och TCP innehåller funktioner som multiplexing, felkontroll, belastnings kontroll (congestion control) och flödeskontroll [13]. RTP definierar endast funktioner för bitströmmar i realtid. RTP är i sin tur implementerad ovanpå TCP eller UDP. För att kunna kontrollera hastigheten på strömmen och i sin tur samtidigt styra komprimeringsgraden används RTCP (Real Time transport Control Protocol). RTCP ger återkoppling om strömmens QoS. I en RTP session skickar den mottagande sidan konfirmeringspaket genom RTCP, som beskriver hur väl strömmen når fram. RTP är ett transportprotokoll och RTCP är ett kontrollprotokoll [13]. För att på ett bra sätt anpassa strömmen är RTCP nödvändig för att kunna göra hastighetsbedömningar för transmission. - 27 -
Illustration 7. IP- protokollets hierarki även kallat OSI- modellen. 3.2.2.2 Utsändning Det finns olika sätt att strömma data. Att sända ut en ström till många mottagare kallas multicast och om en mottagare istället är ensam kallas det unicast. Vid en multicast session väljer användarna att själva ansluta sig till strömmen. Vid unicast finns det en förbestämd mottagare. Vid upplänk från en mobil enhet till en fast förbindelse ligger de stora flaskhalsarna i den trådlösa delen [44]. Därför är det den mobila enheten som begränsar och anpassar hastigheten upplänk genom komprimering som följd av begränsningar i det trådlösa nätverken. Den mobila enheten benämns då som sändande enheten och fördelar ut signalen till en mottagare. Vid transmission från en mobil enhet i unicast och i trådlösa förhållanden så är det den mobila enheten som står för att anpassa transmissionshastigheten baserat på nätets status [13]. 3.2.2.3 Hastighetskontroll Den här delen handlar som följd av adpation/anpassningsbarhet om något som kallas Rate Controller. En rate controller berättar för kompressorn att det just nu finns såhär mycket tillgänglig bandbredd. Den baserar sina värden utifrån ett kontrollprotokoll som till exempel RTCP samtidigt som hastighetsställaren Rate- controllern, enligt profiler/inställningar, använder sig av bra algoritmer för att - 28 -
på bästa sätt förutse hur nätet kommer bete sig. Funktioner för hastighetskontroll bygger på att kodeken är skalbar och kan anpassa sig under tid [13]. 3.2.2.4 Quality of service och Quality of experience Quality of Service och Quality of Experience går att översätta till ungefär Kvalité på en tjänst och Användarupplevelse. QoS beskriver hur väl en tjänst, till exempel vid transport av bitar, prioriterar sina tillgängliga resurser för att försäkra om framkomst. Det kan också vara ett mått på hur säkert en tjänst kan garantera en viss bandbredd, felmängd, och fördröjning. Ett mått för att beskriva hur väl en tjänst är känd i alla led. QoE är istället ett mått på hur en tjänst levererar en upplevelse tillräckligt väl och hur den förväntade upplevelsen i förhållande till vad som är möjligt [40]. 3.2.3 Problem som följd av dålig transmission och kompression Det finns problem eller störningar som kan uppstå med den mottagna datasignalen som är direkt kopplat till tjänstens QoS och som sedan påverkar QoE. Tre av problemen som visar sig som störningar i bildsignalen är bildjitter (Jitter), tappade packet (Packet Loss) och ommöbleringseffekter (out- of- order effect) [40]. Problemen uppstår när inte alla bitar kommer fram eller när bitarna inte kommer fram, i rätt ordning. Problemet uppstår även i kodaren när det finns för få bitar att tillgå. En sändning kan alltså drabbas av bildartefakter som följd av nätproblem eller beroende av bildkompressionsartefakter. Vid transmission av video är det viktigt att ljud och bild kommer synkront för att inte störa upplevelsen. Detta är ett problem som uppkommer när datapaket försenas eller om de kommer fram vid olika tidpunkter (Packet delay). Resultatet av paket försening kan vara att ljud och bild blir förskjutna i förhållande till varandra. En osynkron ström kan även ske på sändarsidan. I nätverk gäller det att hålla reda på paketen så att detta inte sker. Det finns stöd för just felkontrollering i nätprotokollen men trotts det så kan paket blandas ihop. Det kan visa sig som störningar i signalen men också att ljud eller bild fördröjs i förhållande till varandra. Problemet går att behjälpa till en viss del med - 29 -
signalbuffring men det resulterar i en fördröjning vilket i sin tur är ett problem under direktsändning. 3.2.3.1 Fördröjning och buffring i signalkedjan för video och nätverk Fördröjning av signaler kan infinna sig av en mängd olika orsaker. Varje del i en signalkedja har normalt några millisekunders fördröjning. Det beror på att signalen ska bearbetas eller bara färdas en sträcka. I allt från kameran, applikationer till processorer finns ett, om än litet, steg av fördröjning [45]. Summeringen av fördröjningar kan i slutändan bli stor. Signalfördröjning kan i sin tur vara mer eller mindre möjligt att påverka. Nätverksproblem som tappade paket eller fel i transmissionen kan till exempel påverka fördröjningen vid uppackning om avkodaren väljer att justera sin buffer för att kunna avkoda signalen rätt [46]. Det innebär att fördröjningar inte alltid är konstanta. Vid kompression och dekompression av video kan det vara nödvändigt att buffra upp med data för att planera och förutse kompressionen mer effektivt. Och som företaget vbrick skriver om MPEG, MPEG compression has certain unavoidable built- in delay. [46]. MPEG är en kodek som baserar delar av sin komprimeringen på föregående och efterliggande bilder. Vid en direktsändning är det omöjligt att se in i framtiden vilket gör att en buffer är nödvändigt. Kodeken Windows Media använder buffring av tre orsaker, processering av signalen, snabbstart av videon och felkorrektion [47]. De nämner att buffertiden för deras kodek avgör till stor del videons slutkvalitet vid utsändning. Men mer buffert innebär en större fördröjning vilket inte önskas i direktsänd video (se Illustration 8 nedan). Enligt Streamcrest.com är kodningseffektivitet en balansgång mellan kostnader, fördröjning och asymmetri mellan komprimering och dekomprimerings kostnader [18]. - 30 -
Illustration 8. över videosignalens fördröjning vid kompression innan utsändning. 3.2.4 Tillgängliga kodek 3.2.4.1 MPEG-4 AVC / H.264 Kodeken H.264/MPEG- 4 AVC används idag vid till exempel satellitöverföringar och är anpassad för direkt strömmande av video. MPEG- 4 är samlingsnamnet för en grupp kodeks för bild och ljud. Den kodek som används för video i MPEG- 4 standarden kallas ITU- T Rec H.264 och ISO/IEC 14496-10 eller också bara H.264/MPEG- 4 - AVC och är framtagen av JVT, Joint Video Team som är ett samarbete mellan ITU- T VCEG Video Coding Experts Group och ISO/IEC MPEG Moving Picture Experts Group [15][43][42].. H.264/AVC har fler olika profiler som beskriver antalet verktyg som används vid komprimering och de- komprimering. Profilerna är anpassade för olika typer av applikation med olika nivåer av komprimeringskomplexitet. En handhållen enhet använder troligen en profil, Baseline profile, som inte har stöd för de mer processorkrävande egenskaperna hos H.264/AVC. En stationär dator med en mjukvarukodare eller en integrerad hårdvarukodare har mer processorkraft att tillgå och kan då använda de mer avancerade verktyg för kompression med H.264/AVC [14]. I MPEG- 4 paketet används MPEG AAC för att komprimera ljudet i en ström, AAC står för Advanced Audio Codec. AAC har flera olika profiler. Grunden för - 31 -