Kompendium i videoteknik - Idé Produktion Distribution Preliminär upplaga 2008 av Dag Haugum Medverkande: Niklas Rönnberg, Greger Svanström, Markus Karlsson 1
Innehåll Videons historia och utveckling 3 Videosignalen 19 Färgreproduktion 24 Analog/Digital 32 Dramaturgi 46 Kommunikation med rörliga bilder 59 Manusarbete 66 Ljussättning 70 Videokameran 74 Ljud 91 Videoredigering 102 Bildberättande 106 Att jobba med effekter för film och video 116 2
Videons historia och utveckling Video kommer från latin och betyder jag ser. Idag är det en benämning på upptagning, överföring, lagring och återgivning av elektriska bildsignaler. Till skillnad från film som är ett kemiskt medium, så är video ett elektroniskt medium. Man omvandlar bild och ljud till elektriska signaler. Dessa signaler lagras på olika sätt för att sedan omvandlas till bild och ljud igen. Den kinematografiska filmen Kinematografisk film, eller rörlig film, handlar om att lura hjärnan. Vi projicerar en serie stillbilder med en viss frekvens som får oss att uppfatta sekvensen som rörlig. Vår oförmåga att urskilja enskilda bilder ur en sådan sekvens av likartade bilder har man känt till sedan medeltiden. I och med att den fotografiska tekniken utvecklades under 1800-talet, så började man också experimentera med tekniker för att kunna avbilda verkligheten i rörliga bilder. De mest grundläggande tekniska förutsättningarna för att man skulle lyckas var att utveckla en tillräckligt ljuskänslig film på en flexibel filmbas i form av en lång remsa. Sedan måste en mekanisk-optisk enhet tas fram för att kunna fotografera bildserier på denna remsa och slutligen en enhet för att kunna projicera densamma. Genombrottet för den rörliga filmen kom 1895 då bröderna Lumiére startade visning av kortfilmer inför publik. Man använde sig av en kombinerad filmkamera och projektor. Gensvaret blev enormt och sedan dess har utvecklingen av kinematografisk filmteknik präglat hela 1900-talet. Att visa film För att en rörlig bildfrekvens verkligen skall kännas rörlig och inte som en serie stillbilder, så krävs en minsta bildfrekvens. Denna minsta bildfrekvens är beroende av storleken på motivets förändring mellan varje enskild bild (vinkelförändring). Man brukar dock säga att gränsen för att uppfatta en bildsekvens som rörlig ligger på ca 16 Hz. Denna gräns kallas för phifenomemet (grekiska ϕ). Den standard som man har i dag över hela världen ligger på 24 Hz (bilder/sekund). En annan parameter som styr vår uppfattning av en filmprojektion är temporalt flicker. Under bytet mellan två bilder måste projektorn släckas. Detta sker med hjälp av en mekanisk slutare. Effekten blir då en mörkerpaus mellan varje bild. Vid låga frekvenser uppfattas det som flimmer eller flicker, ett slags stroboskopeffekt. Ögats kritiska gräns för att uppfatta temporalt flicker beror på betraktningsförhållanden och personlig känslighet. Man brukar ange att gränsen ligger mellan 48-75 Hz. Detta är betydligt över bildfrekvensen på 24 Hz för film. För att råda bot på detta konstrueras projektorslutaren så att varje bild visas två gånger, eller t.o.m. tre, innan byte till nästa bild sker. Genom detta förfarande erhåller vi en frekvens på 48 eller 72 Hz, vilket ju får betraktas som tillfredställande. 3
Figur 1: Principskiss över hur en projektor för kinematografisk film fungerar. Notera sektorbländaren som dubblerar bländarfrekvensen (men inte bildfrekvensen). Den elektroniska bilden Teoretiskt sett kan man betrakta kinematografisk film som ett parallellt medium. När varje enskild bild projiceras på bioduken, så skjuts ju hela bilden ut samtidigt från projektorn (alla fotoner på en gång). Om vi däremot skulle vilja visa filmen samtidigt i en annan lokal, så måste vi hitta på ett sätt att i realtid skicka över bilderna. Då fungerar inte det parallella distributionssättet. Vi måste överföra bilden seriellt (i realiteten via en koppartråd eller liknande). Detta är den avgörande praktiska skillnaden mellan kinematografisk film och video. Behovet av, eller intresset för, att kunna distribuera rörliga bilder över långa sträckor, helst samtidigt som de filmas drev utvecklingen av videotekniken. Startsträckan för videotekniken Upptakten till det som så småningom skulle bli dagens videoteknik skedde faktiskt till stora delar parallellt med den kinematografiska filmen. Dock dröjde det längre innan den praktiska tillämpningen spred sig. Det finns ett antal milstolpar som kännetecknar utvecklingen av dagens videoteknik. Om man ska ta det hela från början, så kan man säga att det första fröet såddes i och med upptäckten av 4
grundämnet selen år 1817. Naturligtvis hade man då ingen aning om vilken betydelse selen skulle ha för framtida elektronisk bildöverföring. Den franske fysikern Edmond Becquerel upptäckte att när man sänkte ner två metallplattor i en elektrolyt, så uppstod en elektrisk laddning mellan plattorna när dessa belystes. Trots att Becquerel i och med detta hade upptäckt den elektrokemiska effekten under inverkan av ljus, så hade han inga förslag på hur man praktiskt kunde dra nytta av denna upptäckt. Nästa viktiga steg i utvecklingen kom när Alexander Bain år 1842 skissade fram funktionen för en telefaxapparat baserad på Becquerels upptäckt. Idén gick ut på att elektriskt laddade metallbokstäver skulle skannas av en pendel. Den elektriska strömmen som uppstod i pendeln skulle via en telegraflina överföras till en liknande pendel, synkroniserad med den första. Bokstäverna skulle sedan reproduceras på ett kemiskt papper som placerades under den andra pendeln. Hans resonemang belyste flera grundläggande kriterier för elektrisk överföring av bilder. För det första att bryta ner bildinformationen i små bitar som kan skickas seriellt som en elektrisk ström till en mottagare. Dessutom vikten av synkronisering mellan sändare och mottagare. 1847 patenterade F. Bakwell en kemisk telegraf byggd på Alexander Bains resonemang. Istället för pendel använde han istället synkroniserade roterande trummor. 1873 upptäckte den brittiske telegrafisten Louia May grunderna till det som vi idag utnyttjar i fotoelektriska ledare, nämligen det att selen ändrade sin elektriska ledningsförmåga när det exponerades för ljus. Ledningsförmågan varierade beroende på hur stor mängd ljus som träffade metallen. Den slutliga länken mellan telegrafi och television gjordes av fransmannen M. Senlaq. 1878 föreslog han att selen kunde överföra dokument. Han menade att ändringen i den elektriska strömmen som uppstod i selen när denna skannade ett dokument kunde kontrollera en penna på magnetisk väg i mottagardelen vid en elektrisk överföring. Den elektromekaniska TV:n Sex år senare uppfann den tyske universitetsstudenten Paul Nipkow det som kan betecknas som den första föregångaren till dagens video. Den kallas för Nipkows skiva och den består i princip av två identiska skivor, en sändare och en mottagare med ett antal små hål som är ordnade i spiralform. Dessa skivor roterar synkront. På den ena skivan, sändarskivan, projiceras en liten bild som de små hålen passerar över. På andra sidan av skivan sitter en fotocell som registrerar ljusvariationerna när hålen passerar över bilden. Eftersom hålen är ordnade spiralformigt på skivan, så sveper varje hål över en ny sträcka intill föregående svep på bilden. När skivan roterat ett varv, så har hela bilden skannats av. På mottagarskivan har man placerat en lampa. Mellan lampan och skivan har man två polarisationsfilter som styrs av fotocellen på sändarskivan. På så sätt regleras ljusstyrkan analogt med den som fotocellen registrerar. Mottagarskivan kan på så sätt projicera en bild motsvarande den som visas på sändarskivan. Principen att låta bilden ritas upp av en serie linjer är densamma som används i videoöverföring idag. 5
Figur 2: Principen för hur en elektromekanisk TV överföring fungerar enligt Nipkow. Figur 3: Ett exempel på Nipkows egna anteckningar när han utvecklade sin skiva. Bildrör Den elektromekaniska TV:n blev ingen kioskvältare av flera orsaker. Framför allt den mekaniskt roterande skivan var otymplig och apparaten förde ett ganska stort oväsen. Det var först på 1930-talet som elektroniken kom in på allvar i form av det första helt elektroniska mottagarbildröret (TV röret), kineskopet och motsvarande kamerarör. Kameraröret bygger på att man skapar en elektronisk bild inne i röret som sedan scannas av en elektronstråle. De första kommersiella kamerarören utnyttjade fotoemissionstekniken och hade beteckningen Ikonoscope. 1937 sände BBC för första gången med ett 405 linjers system med en bildfrekvens på 25 Hz. Detta skulle alltså motsvara 405 hål på Nipkows skiva med en rotationshastighet på 25 varv/sekund enligt ovan. 6
Bild 1: Kamerarör av typen Iconoscope från 1939. Vidareutveckling skedde från att använda fotoemissionsteknik till att utnyttja fotokonduktivitet i rören. Under årens lopp fick rören namn som Ohrtikon, Plumbikon, Satikon och Vidikon. Rören var dyra i tillverkning, hade begränsad livslängd, krävde kalibrering (position), ganska ljussvaga, krävde relativt stor plats och var känsliga för stötar. Detta gjorde kamerorna till dyra och relativt otympliga pjäser. Dessutom kunde de skadas av alltför kraftigt ljus (s.k. inbränning). En bieffekt av detta var de typiska eftersläpningarna som bildades när en kraftig ljuskälla passerade över bildytan. Det bildades en ljusorm som gjorde att ljuskällan blev utdragen i rörelseriktningen. Figur 4: Principen för hur ett kamerarör fungerar ( i detta fall Vidicon). När elektronstrålen sveper över den fotokänsliga ytan kommer en varierande mängd elektroner att frigöras beroende på hur mycket ljus som projiceras via kameraobjektivet. På så sätt skapas en varierande spänningspotential (V s ) som skickas vidare direkt eller indirekt till en TV mottagare. 7
Bild 2: Något modernare kamerarör (RCA 2P23 Orthicon). Vad gäller mottagare, så hade bildröret, i analogi med kameraröret, en cirkulär projiceringsyta från början. TV chassiet utformades dock så att betraktningsytan var i det närmaste fyrkantig. Successivt utvecklades bildröret mot att få ni det närmaste 90 gradiga hörn och ett bredd:höjdförhållande 4:3. Någon gång under andra halvan av 1980 talet övertogs rören av CCD tekniken. Den nya tekniken eliminerade många av de olägenheter som kamerarören hade. Interlased scanning Ett problem med äldre tiders katodstrålerör som användes för att projicera TV bilder var den begränsade efterglödningstiden hos den fosfortäckta frontytan på bildröret. Man kom snart fram till att bildfrekvensen skulle ligga på 25 bilder per sekund (Europa) eftersom det var en jämn multipel på nätfrekvensen som var 50 Hz. Man använde alltså nätfrekvensen som synkroniseringskälla. Det visade sig att från det att elektronstrålen startat uppe i det vänstra hörnet tills det att strålen 1/25 sekund senare nått fram till det nedre högra hörnet, så hade efterglöden på skärmen avtagit så mycket att det skapade ett påtagligt ojämnt ljusflöde. Bilden pulserade med 25 Hz. Dessutom ligger 25 Hz en bra bit under gränsen där det mänskliga ögat uppfattar temporalt flicker. Genom att höja frekvensen till det dubbla, minskade denna effekt påtagligt. Istället för att öka bildfrekvensen som skulle medföra ökad bandbredd, så kom man på att man i och för sig skulle öka frekvensen till det dubbla, men i varje svep bara rita ut varannan linje. Resultatet blev att man i första svepet ritade ut alla ojämna linjer, medan man i det andra svepet ritade ut resterande jämna linjer. På detta sätt kunde man fördubbla frekvensen (till en delbildsfrekvens på 50 Hz) utan att öka bandbredd. Detta förfarande kallas Interlaced Scanning. 8
Figur 5: Principen för interlaced scanning. Olika TV system Utvecklingen på TV området avbröts i Europa under andra världskriget för att sedan snabbt tas upp igen efter krigsslutet. Efter en hel del experimenterande startade de första svenska reguljära TV sändningarna 1956. Naturligtvis svart-vitt och med 625 linjers vertikal upplösning och 25 bilder/sekund. Dock hade RCA i USA redan tre år tidigare utvecklat ett färg-tv system kallat NTSC (National Television System Committee). Bild 3: Sändningsutrustning för video 1956. Det dröjde till 1966 innan Europa beslutade om ett eget färg-tv system. Det fick namnet 9
PAL (Phase Alternate Lines). Frankrike, som ofta ser sig som lite bättre, beslutade sig för sitt eget SECAM (Sequential Couleur Avec Mémoire). Dessa system fördelar sig på olika sätt runt om i världen idag. Den första reguljära färg-tv sändningen i Sverige gjordes 1970. De tre sinsemellan helt inkompatibla färg-tv systemen fördelades över världen. Detta skapade naturligtvis problem i det internationella programutbytet med det elektroniska formatet. Samtidigt skapades en marknad för konverteringsteknik mellan de olika systemen. Konvertering tar tid, kostar pengar och medför vissa kvalitetsförluster. NTSC (National Television System Cimmittee) infördes i USA 1953 och är baserad på 525 TV-linjers upplösning och 60 Hz delbildsfrekvens (eller rättare 59,94 Hz p.g.a. interferensproblem med färgbärvågen). Bandbredden är 4,2 MHz. Systemet tillämpas i Nordamerika, huvuddelen av Mellan- och Sydamerika, Japan och Australien. PAL (Phase Alternation Line) introducerades 1963 av tyska Telefunken. Systemet bygger på 625 TV-linjers upplösning och 50 Hz delbildsfrekvens. Bandbredden är 5,0 MHz. Systemet tillämpas i hela Västeuropa, utom Frankrike, huvuddelen av Afrika och arabstaterna, Kina och Indien. SECAM (Séquentiel Couleur Avec Memorie) anammades av Frankrike 1967. Det bygger på 625 TV-linjers upplösning, 50 Hz delbildsfrekvens och en bandbredd på 6,0 Mhz. Systemet används, förutom av Frankrike, av de flesta stater i det forna Östeuropa, Nordafrika och en rad stater i Mellanöstern. Utöver dessa standards, så döljer varje standard ytterligare undergrupper som främst berör skillnader i bärvågsfrekvens för bild och ljud. Tabell 1: Jämförande karakteristik mellan de tre TV-systemen i världen. Inspelningsteknik I USA där direktsända underhållningsprogram sändes från kust till kust med uppemot sex timmars tidsdifferens blev önskemålet att spela in programmen, för att sända dom vid ett senare tillfälle, alltmer angeläget. Till en början filmade man helt enkelt av en TV-skärm med en filmkamera. Denna typ av konvertering till kemisk film kallas för telefilmning och gav inte någon bra kvalitet. Man funderade på att istället spela in videosignalen på ett stålband eller tape belagd med magnetiserbar metalloxid. Redan 1888 kunde dansken Valdemar Poulsen spela in ljudsignaler på en ståltråd. Den uppfinningen ligger till grund för all elektromagnetisk inspelning idag. 10
Problemet med att spela in bild på samma sätt som ljud var att bildsignalens bandbredd är betydligt större än ljudets. Ljudsignalens frekvensområde ligger mellan 20-20 000 Hz medan videosignalens ligger mellan 20-5 000 000 Hz (MHz). Bandbredden för ljudet är ca 10 oktaver medan motsvarande bandbredd för video är 18 oktaver. (En oktav motsvarar en fördubbling av frekvensen.) Hög frekvens medför kort våglängd. Hur kort våglängd som man kan spela in på ett videoband beror av flera fysiska parametrar, bl.a. de magnetiserbara partiklarnas storlek på bandet. Genom att öka bandhastigheten, så kan man öka våglängden på bandet. För att kunna registrera de korta våglängder som gällde för video, så skulle man tvingas öka bandhastigheten till 12 meter per sekund. En timmes videomaterial skulle behöva 42 km magnettape, vilket var orealistiskt. Charles Ginsburg och Ray Dolby, som arbetade på företaget Ampex i USA, kom på att man kunde öka den så kallade skrivhastigheten med hjälp av att flera videohuvuden monterades på en roterande cylinder. Genom att låta cylindern rotera mot bandtransportriktningen, så ökade man videobandets hastighet relativt videohuvudets utan att behöva öka bandets hastighet. Detta gjorde att man kunde erhålla tillräckligt långa våglängder för att kunna spela in på magnetbandet. Den första videobandspelaren visades den 14 april 1956. Den använde sig av det sk Quadruplex-systemet. Den använde sig av 2 band och var en allmänt otymplig pjäs. Den första inspelningskonfigurationen som användes kallades Arcurate scan där bandet fick löpa utmed en roterande skiva där inspelningshuvudet placerades på skivans periferi. Bild 4: Arcurate scan. Mittbilden visar hur magnetspåren hamnade på bandet. Kurvaturens radie motsvarar inspelningsskivans. 11
Tekniken utvecklades och nästa steg var Transverse scanning där videobandet fick löpa över utsidan av en roterande skiva. För att full magnetisering skulle ske, så måste bandet böjas något i tvärriktningen. Figur 6: Principen för Transverse recording. I början hade man inte möjlighet att kopiera från ett band till ett annat. Transverse recording tekniken möjliggjorde att klippa i bandet även om det hörde till undantagen. Var man tvungen att göra det, så måste man använda sig av olja, järnfilsspån och lupp för att kunna lokalisera bildsynksignal och bildsläckfas. Inspelningshuvudet bestod alltså av en roterande skiva som lagrade bildrutorna som parallella spår så gott som vinkelrätt mot bandriktningen. En vidareutveckling av Quadruplex-systemet var Helical-systemet. Det innebar att man lutade videohuvudet i förhållande till videobandet. På så sätt lades de till bildrutorna hörande spåren diagonalt på banden och man var därigenom inte lika beroende av videobandets bredd för att lagra tillräcklig information iför varje bildruta. Figur 7: Principen för Helical recording. 12
Bild 5: Video huvud (Upper drum) på en VHS bandspelare som utnyttjar Helical scanning. Figur 8: Trackingkonfiguration för Betacam som utnyttjar Helicaltekniken för inspelning på band. Y Track och C Track är luminans resp. krominanssignaler. Formatstrid I början av 70-talet fanns ett antal ½ bandformat för skol- och institutionsbruk. Alla dessa var s.k. spolband med öppna bandspolar. Videoformatet var svartvitt. 1972 presenterade Philips ett bandformat för den vanlige konsumenten. Dom kallade det för VCR (Video Cassette Recorder) och var alltså ett kassettbundet system. Kassetterna hade 1/2 bredd på videobanden och en bandhastighet på 14,29 m/s och en maximal speltid på 60 minuter. Önskemålet från köparna om att kunna spela in långfilmer växte och man tvingades att tillverka ett system som klarade detta. En ny modell lanserades där bandhastigheten sänkts till 6,56 m/s med bl.a. sämre ljudåtergivning som följd. Dessutom var det inte kompatibelt med det förra systemet. 13
1978 lanserades Sonys Betamax system och JVC m.fl. VHS system. 1979 ersatte Philips sina två tidigare VCR system med Video-2000. Det system som sedermera vann striden om konsumentmarknaden är det väl ingen som missat. I slutet av 70-talet kom 1 formatet som ett nytt professionellt bandformat med öppna spolar. Systemet återfanns i två varianter 1 B och 1 C och var ett utpräglat studioformat p.g.a. sin storlek. Det förekom även portabla 1 maskiner då man önskade videoinspelning med högre kvalitet. Alternativet var film eller U-Matic. Sony som förlorade med sitt Betamax system på konsumentmarknaden kontrade i den semiprofessionella branschen med sitt U-Matic system. Detta utvecklades sedermera till U- Matic Hi Band (även benämnt BVU, Broadcast Video U-Matic) och U-Matic Hi Band SP. Bild 6: Entums videobandspelare från slutet av 80-talet. Camcorder 1982 introducerade Sony sin nya camcorderteknik på den professionella marknaden (dvs. bandspelaren inbyggd i kameran) med Betacam och sedermera den vässade versionen Betacam SP. Dessa system revolutionerade inspelningstekniken. En yttreligare fördel var att man utnyttjade komponentsignal vilket innebar att man separerade luminansen och de tre grundfärgerna. 14
Bild 7: Modern camcorder (DVCAM). Parallellt med detta utvecklades på amatörsidan VHS systemet till VHS-C (ett kompaktsystem) och S-VHS. S-VHS utnyttjar en S-videosignal som skiljer sig från den gängse kompositsignalen på så sätt att färg och ljus (krominans och luminans) hålls separerade. På så sätt erhålls en renare signal och därmed bättre bild. På motsvarande sätt kontrade Sony med sitt kompakta Video 8 och sedermera Hi-8. Figur 9: Illustration hur den tekniska utvecklingen bidragit till mindre och billigare lagringsformat, samtidigt som kvalitén förbättrats. Både på amatör och på proffssidan har man försökt att lansera konkurrerande system. Panasonics M2 var ett exempel på sådant system för att försöka att bryta Sonys i det närmaste monopoliserade ställning på proffsmarknaden. I början av 90-talet började digitala system att dyka upp, främst på proffsmarknaden. Det första kompletta systemet var Sonys Digital Betacam eller Digibeta som det kallas. 15
Under de sista åren på 90-talet har den digitala revolutionen tagit fart på allvar. Idag finns system som DV, DVCAM, DVCPRO, DVCPRO-50, Digital-S, Betacam SX, IMX, Digital Betacam. På sista tiden har system som baseras på annat än band som inspelningsmedium. Exempel på detta är Sonys XDCAM som använder sig av ett diskbaserat inspelningssystem byggt på blålaserteknik samt Panasonics P2 som utnyttjar fastminne som lagringsmedium. Ett exempel på komplexiteten i utvecklingen av olika videosystem kan illustreras av vad SVT införskaffat under åren för att hålla igång produktionen. Se tabellen nedan. Utöver dessa fanns ytterligare konkurrerande system. Startår Format Modellexempel Bandbredd Teknik 1959 2-tum, LB Ampex, VR-1000 Spole, 50 mm Analog, sv/v 1966 2-tum, HB Ampex, VR-2000 Spole, 50 mm Analog, komposit 1966 1-tum Philips, EL3402 Spole, 25 mm Analog, sv/v 1966 1-tum, A Ampex, VR7000 Spole 25 mm Analog, komposit 1969 1-tum Bell & Howell, 2920 Spole 25 mm Analog, komposit 1972 ¼-tum Akai, VT-300 Kassett, 6 mm Analog, sv/v 1974 VCR Philips, N-1500C Kassett, 12 mm Analog, komposit 1976 U-matic, LB Sony, VO-2850 Kassett, 19 mm Analog, komposit 1977 ½-tum National, NV-3085 Spole, 12 mm Analog, sv/v 1978 1-tum, B Bosch, BCN51 Spole 25 mm Analog, komposit 1980 1-tum, C Ampex, VPR3 Spole, 25 mm Analog, komposit 1980 U-matic HB Sony, BVU-800 Kassett, 19 mm Analog, komposit 1981 VHS Panasonic, NV-7000 Kassett, 12 mm Analog, komposit 1982 Betamax Sony, SL-T50 ME Kassett, 12 mm Analog, komposit 1982 Video-2000 Philips, VR-2020 Kassett, 12 mm Analog, komposit 1983 1-tum, B/LP Bosch, BCN51LP Spole, 25 mm Analog, komposit 1984 Betacam Sony, BVW-40 Kassett, 12 mm Analog, komponent 1986 Video-8 Sony, EV-A300 EC Kassett, 8 mm Analog, komposit 1988 S-VHS Panasonic, NV-FS100 Kassett, 12 mm Analog, komposit 1989 Betacam SP Sony, BVW-75 Kassett, 12 mm Analog, komponent 1990 D2 Sony, DVR18 Kassett, 19 mm Digital, komposit 1991 D3 Panasonic, AJ-D350 Kassett, 12 mm Digital, komposit 1991 Hi-8 Sony, EVO-9850P Kassett, 8 mm Analog, komposit 1992 1-tum, B-HDTV Bosch, BCH-1000 Spole, 25 mm Analog, komponent 1993 Digital Betacam Sony, DVW-500 Kassett, 12 mm Digital, komponent 1996 DV Sony, DCR-VX-1000 Kassett, 6 mm Digital, komponent 1997 DVCAM Sony, DSR-80 Kassett, 6 mm Digital, komponent 1997 DVCPRO Panasonic, AJ-D750 Kassett, 6 mm Digital, komponent 1997 Betacam SX Sony, DNW-A100 Kassett, 12 mm Digital, komponent 1999 DVCPRO-50 Panasonic, AJ, D950 Kassett, 6 mm Digital, komponent 2002 IMX Sony, Kassett, 12 mm Digital, komponent 2003 XDCAM Sony, DVD skiva Digital, komponent 2004 P2 Panasonic, Fastminne Digital, komponent Tabell 2: Videoformat på SVT under drygt 40 år HDTV - högupplösnings-tv Redan i början av 70-talet började de stora hemelektroniktillverkarna att titta på TV-system som skulle kunna ge ännu bättre bild än vad NTSC, PAL och SECAM kunde erbjuda. Mikroelektronikens utveckling gick så snabbt, så att detta inte skulle vara några tekniska problem. Speciellt var förbättringslängtan stor i de länder som hade det förhållandevis gamla 16
NTSC systemet. I Japan, som mer eller mindre påtvingats NTSC systemet, började företag som Sony, Matsushita och NHK att utveckla ett nytt TV-system med bättre bild- och ljudkvalitet - HDTV (High Definition TV). 1986 föreslog japanerna att deras, vid det här laget långt utvecklade system, skulle bli världsstandard för det nya HDTV-systemet. Det skulle ha 1125 TV-linjer och 60 Hz delbildsfrekvens. Naturligtvis kunde inte europeerna med Frankrike i spetsen gå med på detta, utan föreslog ett eget system med 1250 linjer och 50 Hz. Därmed var formatkriget i full gång igen. Entusiasmen inför det analoga HDTV-systemet var mycket stort. Vidfilmsbild i 16:9 format med sex gånger tätare bildraster än en vanlig TV-bild. Den knivskarpa och detaljrika bilden tillsammans med mycket hög ljudkvalitet var förförisk och man började hårdlansera tekniken. Verkligheten kom dock ikapp. En TV-mottagare byggd på katodstråleprincipen skulle väga uppemot 70 kg och priset, även vid serieproduktion, skulle hamna på 35 000:-. Den analoga HDTV-signalen krävde enorm bandbredd, i storleksordningen 30 Mhz. Alltså sex gånger mer än de existerande TV-systemen. Parallellt utvecklades digitaltekniken samtidigt som marknadsundersökningar visade att konsumenterna hellre ville ha ett större programutbud än bättre bild- och ljudkvalitet. Dessutom kan man lättare anpassa digitaltekniken till befintliga mottagare. HDTV innebär att allt från inspelning, bearbetning, sändningssystem mottagare och bandspelare måste bytas ut. Europa och Japan hade fram till i början av 1990-talet satsat enorma summor pengar i det analoga HDTV-systemet. I Europa ville man satsa på ett satellitbaserat analogt system under beteckningen HD-MAC. Dåvarande svenska, norska och danska televerket i samarbete med SVT presenterade 1992 ett digitalt HDTV koncept, HD-DIVINE, som skulle kunna sändas i det befintliga telenätet. Resultatet blev att Europa lade ner HD-MAC projektet. Men istället för att satsa på HD-DIVINE, så fokuserade man istället på en digital broadcaststandard (DBV). USA var redan tidigt inne på att utveckla den digitala HDTV tekniken och har, tillsammans med flera länder runt om i världen (utom Europa) ryckt åt sig initiativet vad gäller den digitala HDTV utvecklingen. Det blev också amerikanska lösningar som drivit den digitala HDTV utvecklingen framåt sedan den senare delen av 90-talet. Det som man normalt menar när man pratar om HDTV är en upplösning på 1920x1080 pixlar (1080i) (att jämföra med SDTV (Standard Definition TV) på 720x 576 pixlar) och 25 bilder per sekund interlaced scanning eller 1280x720 pixlar progressive (720P). Det finns ytterligare ett antal varianter på detta som alla går under benämningen HDTV. En annat HD format är 2K (2048x1526) som används vid arbete med digitala effekter, men har även blivit ett format för s.k. E-bio. Generellt eftersträvar man att gå ifrån interlacetekniken i HD sammanhang. TV-skärmens format När en gång TV skulle introduceras, så sneglade man av naturliga skäl på filmindustrin. Stumfilmens format fixerades till proportionerna 1,33:1 där 1 alltid representerar bildhöjden. Detta förhållande anammades av TV-världen, men man uttryckte samma bildförhållande med siffrorna 4:3 istället. Till en början fanns en samstämmighet mellan filmens och TV bildformat, men i och med TV:s snabba expansion så kände sig filmbranschen sig alltmer hotad. I början av 1950 talet bestämde sig filmbolagen att satsa på filmformat som var svåra 17
och ibland omöjliga att visa i TV. Format som CinemaScope, Todd-AO och icke-anamorfisk vidfilm togs fram till priset av höga kostnader för bl.a. biografägare. Så småningom började filmbranschen ändå att inse att deras filmer förr eller senare skulle hamna i TV-rutan. Olika åtgärder vidtogs för att på bästa sätt göra rättvisa åt de filmer som hade ett annat bildformat än 4:3. Det finns fortfarande en uppsjö av åsikter och tekniker om hur man bäst tar tillvara olika filmformat i TV-rutan. Genom lanserande av vidfilms-tv formatet 16:9 har man underlättat betydligt för visning av film på TV. 16:9 har ingenting med HDTV att göra annat än just förhållandet mellan bildens höjd och bredd. Bild 8: CinemaScope i jämförelse med TV formatet 4:3. 18
Videosignalen I optiska sammanhang talar man om att en hel bild som vi upplever den är en parallell process. D.v.s. att alla delar av bilden projiceras samtidigt över hela den aktuella bildytan. Detta gäller också vår subjektiva upplevelse av en videobild. Verkligheten är dock en annan. Videosignalen är linjär, vilket innebär att bilden måste ritas upp bit för bit. Vi talar om att bilden scannas. På en datorskärm scannas bilden linjevis (s.k. linjesvep) från övre vänstra hörnet till den nedre högra för att en bild ska uppstå (s.k. bildsvep). Denna process upprepas ett antal gånger per sekund (t.ex. 70 Hz). Antalet linjer (linjeupplösning) kan normalt ställas via datorns mjukvara. Denna scanning kallas för progressiv. Figur 10:Progressiv scanning. När det gäller det videosystem som vi använder idag, så använder vi i PAL systemet en bildfrekvens på 25 bilder per sekund. Istället för att scanna linje för linje, så låter vi istället elektronstrålen scanna varannan linje för att i nästa bildsvep scanna resterande linjer. Med detta förfaringssätt krävs två hela bildsvep för att skapa en komplett bild. Med en bildfrekvens på 25 bilder/sek skapas 50 delbilder/sek. Detta kallas för interlaced scanning och är ett arv från tidiga CRT med begränsad efterglödningstid. Fördelen med interlaced scanning är att man kan öka bildfrekvensen utan att öka bandbredd. Aktiva linjer I PAL systemet använder vi oss av 625 horisontella linjer. Dock använder vi oss inte av alla dessa linjer för att rita upp TV bilden. Istället är bildupplösningen 576 linjers vertikal upplösning. Även horisontellt utnyttjas inte hela bandbredden för att rita upp en bild. Den del av signalen som vi använder för att rita upp en bild kallas aktiva linjer, medan de osynliga signalerna kallas vertikalsläck respektive horisontalsläck. Dessa osynliga signaler används för att föra över tilläggsinformation till TV:n. T.ex. synkroniseringspulser och text-tv. 19
Rörelse och flicker Vår uppfattning av hur mjukt som vi upplever en rörlig film styrs av främst två parametrar. Det ena styr den lägsta bildfrekvens där vi upplever rörelser som mjuka utan ryckighet. Denna lägsta gräns styrs bl.a. av rörelsens storlek, avstånd till bildskärm m.m. De bildfrekvenser som vi använder oss av i videosammanhang ligger normalt över denna gräns. Figur 11: Interlaced scanning. Den andra parametern är flicker. Denna kan dessutom uppdelas i temporalt- och spatialt flicker. En typ av flicker är stroboskopeffekt (temporal), d.v.s. en hastigt oscillerande variation i ljusflöde. Förekomsten av ett kraftigt flicker p.g.a. dålig efterglödtid på tidiga CRT gjorde, som vi tidigare nämnt, att man valde interlaced scanning för att på så sätt öka bildfrekvensen. Spatialt flicker uppkommer då tunna horisontella linjer eller skarpa övergångar projiceras via interlaced scanning. Om exempelvis en tunn linje på motivet hamnar mellan två intilliggande linjesvep på videon, kan samma linje på motivet registreras av de båda intilliggande linjesvepen. Eftersom de intilliggande tillhör olika bildsvep, så kommer linjen att oscillera mellan de två linjesvepen. Konvertering mellan interlaced- och progressive scanning. När en interlaced videosekvens skall konverteras till progressivt format, vilket förekommer så fort materialet skall användas i datorsammanhang, kan fenomen uppstå i konturer på rörliga föremål. Eftersom en bild registreras i endast vartannat linjesvep i ett bildsvep, så kommer linjerna i nästa bildsvep att vara tidsmässigt förskjutna 1/50 sek. Detta innebär att varannan 20
linje är förskjutna 1/50 sek i förhållande till intilliggande. När man konverterar till progressivt, så kommer två interlaced bildsvep att ritas upp samtidigt. Detta innebär att tidsförskjutningen mellan två linjer ritas upp samtidigt. Föremål som förflyttat sig i bild kommer att ha olika lägen i de olika bildsvepen vilket resulterat i att dessa föremål kommer att få taggiga konturer. Fig 12: Konvertering mellan interlaced och progressiv ger taggiga kanter på rörliga objekt. Motivet delförstorat i mitten. Genom s.k. deinterlace kommer man tillrätta med problemet. Man plockar helt sonika bort varannan linje och antingen dubblerar de övriga, eller så interpolerar man fram de nya ersättningslinjerna. I båda fallen går information förlorad. Odd eller even I interlace sammanhang pratar man om odd or even, d.v.s. ojämna eller jämna linjer. En hel bild ritas upp av två bildsvep. Ibland är det viktigt att veta om den hela bilden börjar med ett bildsvep som ritar upp de ojämna linjerna eller tvärt om. Detta gäller om man skall skapa animationer som utnyttjar deinterlaced scanning. I de flesta fall får man testa. Gör man fel, så märker man det tydligt på att alla rörelser rycker fram och tillbaka med en frekvens av 50Hz. Det är inte njutbart. Kell faktorn Man pratar om en bilds upplösning och då pratar man ofta i videosammanhang om antalet TV linjer. D.v.s. att den vertikala upplösningen i en bild är lika med antalet linjer. Tyvärr är den reella upplösningen lägre. Hur mycket lägre beror på den enskilda bildens utseende (motivets uppbyggnad). Man har genom olika empiriska tester kommit fram till att den absoluta upplösningen i en progressivt skannad bild ligger på i genomsnitt ca 70 % av antalet linjer. Detta värde kallas för Kell faktorn. 21
Vi tänker oss extremfallet att vi har en videobild som innehåller ett horisontellt raster med omväxlande vita och svarta linjer med samma intervall som TV linjerna. Om linjesvepet skulle överensstämma exakt med respektive svart och vit linje, så skulle varannan TV linje återges svart och varannan vit enligt figuren nedan. Figur 13: Resultat när de horisontella rasterlinjerna sammanfaller med TV linjerna. Om TV linjerna skulle vara förskjutna, så att övergången mellan de svarta och vita linjerna i rastret skulle hamna mitt på en TV linje, så skulle TV linjen registrera medelvärdet, d.v.s. grått. 22
Figur 14: Resultatet när de horisontella rasterlinjerna hamnar mellan TV linjerna. Naturligtvis består inte en TV bild av något raster, men dock ett antal olika konturer. Skärpan i dessa konturer påverkas alltså på samma sätt som beskrivits ovan av hur de hamnar i förhållande till linjesvepet. Eftersom bilderna ser olika ut, så kan man inte ange något absolut värde på Kell faktorn. Det angivna värdet på Kell faktorn gäller för progressivt skannade bilder samt för interlaced, så länge som det handlar om stillbilder. När man för in en rörelsekomponent i interlace fallet, så kommer Kell faktorn att sjunka ytterligare till så lågt som 50 %. Detta beror på att varje delbild skannas med halva antalet linjer. Eftersom motivet hinner att flytta sig en bit innan nästa delbild skannas, så kommer upplösningen i de rörliga delarna av bilden att försämras ytterligare. Vad drar vi för slutsatser av detta? I diskussionen kring framtida HDTV system, så pratar man främst om två standarder, nämligen 1920x1080 pixlar interlaced eller 1280x720 pixlar progressiv. Vid första påseendet kan man förledas att tro att 1920x1080i är överlägset i upplösning. Tar man hänsyn till Kell faktorn, så är skillnaden inte lika stor. Professionella videokameror marknadsförs ofta med en upplösning som vida överstiger den videostandard som dessa används till. Om man tar hänsyn till Kell faktorn, så förstår man argumentet att satsa på kameror med högre upplösning fastän priset är betydligt saftigare. 23
Färgreproduktion 1931 kom man överens om en definition om samtliga verkliga och teoretiska färgers inbördes förhållande representerat i det s.k. CIE diagrammet (CIE - Commision Internationale de l Eclairage). Figur 15: CIE diagrammet. Diagrammet representerar alla de färger som teoretiskt förekommer i naturen och används som grund för hur utrustning byggs för att återge de färger som man önskar. Videokamerans uppgift är att fånga och registrera ljus och färg som finns i naturen. Samtidigt ska detta ske på ett sådant sätt att vi människor uppfattar de återgivna färgerna naturliga. Videotekniken bygger på tre grundfärger, rött, grönt och blått, som via additiv färgblandning skall återge så många färger och färgnyanser som möjligt. Som grund för framtagning av färg- TV systemen ställdes bl.a. följande krav: - Alla färger i naturen bör kunna reproduceras av färgmottagare. - Mottagarens primärfärger ska helst vara spektralfärger, så att också mättade färger kan reproduceras. - Det ska vara enkelt att styra primärstrålens intensitet i mottagaren. - Ämnet som ska reproducera dess strålar måste finnas. - Priset på dessa ämnen måste vara rimligt. Ämnets verkningsgrad måste vara hög, och så lika som möjligt för alla ämnena. Man kom så småningom fram till följande villkor för primärfärgernas koordinater och våglängd: Röd X=0,67 Y=0,33 (610nm) Grön X=0,21 Y=0,71 (535nm) Blå X=0,14 Y=0,08 (470nm) 24
Figur 16: CIE diagram där videosystemets primärfärger visas i relation till andra parametrar. När videokameran fångar in ljus, delas detta upp i RGB komponenter. Principen för hur detta går till skiljer sig från kameror med en eller tre sensorer (CCD chip). I detta fall utgår vi från professoinella kameror med tre sensorer. En för varje grundfärg. Figur 17: Färgseparation hos de tre primärfärgerna i en videokamera. I kameran registreras de tre grundfärgerna separat. Ljusbidraget från varje färg omvandlas till en spänning som är proportionell mot intensiteten. Olika primärfärger med samma energiinnehåll får samma värde på spänningen. Om en vit yta filmas, så blir alltså spänningen för varje primärfärg lika. Maximalt reflekterat ljus vid respektive primärfärg ligger alltså vid våglängderna 470nm (blått) 535nm (grönt) och 610nm (rött). 25
Figur 18: Diagrammet visar vid vilka våglängder som spektralfärgerna separeras i en videokamera. Men det mänskliga ögats känslighet motsvarar inte videokamerans. I själva verket är det så att ögat inte uppfattar primärfärgerna som kameran registrerar med lika inbördes intensitet. I diagrammet nedan finns en kurva som visar ögats spektrala känslighetskurva. I det fall där alla färger har samma energiinnehåll, så uppfattar ögat färgernas intensitet (luminans) olika. Ögat uppfattar olika färger olika intensivt. Det behövs mer energi för ögat att uppleva blått lika starkt som t.ex. gröngult. (Man kan ju utifrån detta fråga sig vilka argument som ligger till grund för att man använder blått ljus på utryckningsfordon ) Figur 19: Ögats spektrala känslighetskurva i förhållande till videokamerans. 26
I diagrammet ser vi att ögat uppfattar intensiteten i de primärfärger som kameran registrerar som olika. Förhållandet är för blått ( 470nm) 0,17, för grönt (535nm) 0,92 och för rött (610nm) 0,47 av maximal känslighet. Utifrån detta förhållande kan vi enkelt räkna fram hur stor andel av den totala luminansen som varje primärfärg bidrar med. Denna uttrycks i den s.k. luminansnormen: U Y = 0,3. U R + 0,59. U G + 0,11. U B. Med luminansnormen kan man kompensera skillnaderna mellan hur videokameran uppfattar olika färgers ljushet med det mänskliga ögats. Vad man gör är att man ökar spänningen i TV mottagaren runt det gröna spektralområdet jämfört med andra färger. Luminansnormen används för att räkna fram luminanssignalsammansättningen i en videosignal. På så sätt använder sig också av normen när man ska kalibrera t.ex. kameror mot varandra med hjälp av en s.k. färgbalk. Figur 20: Enkel färgbalk för kalibrering av videosignalens utstyrning (styrka). I själva verket är det luminansen, illustrerat i den högra bilden, som man mäter. De olika primärfärgernas bidrag till färgbalken framgår av nedanstående figur. 27
Figur 21: Om vi antar att den maximala spänningen från respektive chips är 1 volt, så kan vi med hjälp av luminansnormen räkna ut spänningen för alla färgerna i färgbalken. Exempelvis blir luminansspänningen för vitt: U Y = 0,3. 1V + 0,59. 1V + 0,11. 1V = 1V. Luminansspänningen för t.ex. cyan blir enligt figuren: U Y = 0,3. 0V + 0,59. 1V + 0,11. 1V = 0,7V. För svart blir U Y = 0,3. 0V + 0,59. 0V + 0,11. 0V = 0V. Luminansspänningarna för färgbalken kan man rita upp i ett katodstrålerör (oscilloskop) vilket används i studiosammanhang för att kontrollera och kalibrera luminanssignalens bidrag till videosignalen. 28
Bild 9:Linjemönstret till höger visar på luminansnivåerna för de olika färgerna i en färgbalk. Till vänster syns motsvarande bild, men där även färgdifferenssignalen har adderats. När man gick över från svart-vit till färg-tv, så fanns det ett kompatibilitetskrav. Man skulle kunna återge en färg-tv bild i de gamla svart-vita mottagarna och på motsvarande sätt kunna återge en TV bild från en svart-vit kamera som en svart-vit bild i en färg-tv mottagare. Genom att separera luminansen (bildens gråskala eller ljushet) från krominansen (färgsignalen) kunde man uppfylla kompatibilitetskraven. Krominansen är ju i sin tur uppbyggd av tre grundfärger eller primärfärger, blått, grönt och rött. Signalkonvertering Värdet på luminansen, som betecknas Y, är summan av de tre grundfärgerna i proportioner som motsvarar ögats ljuskänslighet för de olika färgerna, alltså enligt luminansnormen. Värdena på krominansbidraget utgörs av färgdifferenssignalerna R-Y och B-Y. Den kompletta videosignalen utgörs alltså av de tre komponenterna Y, R-Y och B-Y. Den gröna komponenten överförs inte utan kan räknas fram. Vid utsändning sätts dessa signaler samman till en signal (kompositsignal). I TV mottagaren återskapas sedan RGB signalen på nytt. 29
Figur 22:Principen hur man adderar luminans och färgdifferenssignalerna för att erhålla en oscilloskopbild enligt figur ovan. Den signal som består av de tre komponenterna Y, R-Y och R-B kallas komponentsignal. Denna signal används i alla professionella sammanhang och ger det bästa bildresultatet. Rent praktiskt överförs signalen i tre separata ledare, två för krominans och en för luminans. I hemmavideosystem och vid TV utsändningar används en annan signal som kallas komposit. I denna kompositsignalen slås luminans och krominans samman till en enda signal som ryms i en enda ledare. Det finns också ett mellanläge mellan komponent och kompositsignal. Där har man endast slagit samman fördifferenssignalerna, men behållit luminansen separerad. Denna signal går under benämningen S-video och använder följaktligen två ledare. Färgsignalen Färgbärvågens amplitud är ett mått på färgens mättnad, medan fasläget styr färgtonenen. Referensamplitud och referensfas anges av den s.k. bursten eller färgsynken. Den består av en 10 periodig signal som sänds i linjesläcket innan varje ny linje. Denna princip används i samtliga TV-system. Det äldsta färgsystemet NTSC är dock känsligt för yttre störningar som kan påverka färgbursten. En yttre störning kan relativt lätt ändra fasvinkeln med påföljd att färgtonen ändras. ( Det kan vara orsaken till att vissa menar att NTSC egentligen står för Never The Same Color). PAL, som utvecklades av tyska Grundig, tog fasta på det amerikanska färgsystemets tillkortakommanden och införde en teknik där man i linjetakt alternerande byter tecken för fasläget. En fasvridande störning förvränger färgtonen på en linje i en riktning och på nästföljande linje i motsatt håll. I färgmottagaren kombineras färginformationen från två efterföljande linjer på så sätt att fasfelen tar ut varandra. Rätt färgton visas, men en något lägre mättnad kan bli resultatet, men det är ögat inte lika känsligt för. 30
Bild 10:Representation av färgfas för en färgbalk i NTSC till vänster och PAL till höger. PAL-bilden visar två fasvända svep där signalen är fasvänd 90. 31
Analog/digital Även om vi idag övergår till digital teknik när vi ska insamla, bearbeta och spara videomaterial, så är dock vår omvärld analog. Det innebär att vi i videokameran och TV monitorn måste omvandla analoga signaler till digitala och tvärt om. I videokameran registreras det infallande ljuset. Detta ljus omvandlas till digitala signaler. Detta sker med hjälp av sampling, d.v.s. ett slags provtagning på den analoga signalen med en viss frekvens. Figur 23: Blockdiagram över AD omvandling (analogt till digitalt) När det gäller den monitor som bilden skall visas i, så är förhållandet det motsatta. Här sker en omvandling från digital till analog signal. I bildröret, eller katodstråleröret (CRT Cathod Ray Tube ), avlänkas en elektronstråle så att den träffar den främre delen. Figur 24: CRT bildrör Numera visas elektroniska bilder alltmer på digitala skärmar som t.ex. LCD och plasmaskärmar som har lättare att hantera digitala signaler direkt 32
Digital video Bandbredd och lagringskapacitet är alltid begränsad. Det är också den främsta orsaken till att vi har flera olika filformat, alla med sina speciella egenskaper och avsedda för olika tillämpningar. I vilka sammanhang används de? 1. Multimedia för persondator distribuerad via Internet 2. Multimedia för persondator lagrad på CD-ROM 3. Digital distribuerad video, populärt kallat TV 4. DVD 5. Multimedia för persondator distribuerad via lokalt nätverk 6. Multimedia för persondator lagrad på hårddisk 7. Digital video för SD-produktion (Standard definition) 8. Digital video för HD-produktion (High Definition) 9. Digital filmproduktion Alla presentationstekniker har olika behov, bandbredd, lagring samt bildkvalitet. Vi behöver veta hur vårt material ska visas för att kunna välja det lämpligaste filformatet. Figur 25: Tillgänglig/nödvändig bandbredd för olika typer av mediedistribution. 33
Figur 26: Nödvändig bandbredd förolika typer av videoproduktion. Olika filformat för olika faser i produktionen Vi behöver välja filformat för: 1. Insamling (inspelning) (Inspelning, animering och grafik) 2. Bearbetning (Redigering, compositing, special effects, chromakey etc) 3. Slutprodukt (Anpassning till mediabärare och uppspelningsutrustning, kodning, komprimering etc) Insamling Vid insamling är det oftast inte filformat som väljs utan inspelningsutrustning och därmed kvalitetsnivå. 1. DV, DV-CAM, DVC-Pro 5 ggr kompression, halv färgbandbredd jämfört med fullkvalitetsvideo 2. BetaCam SP analogt system, broadcastkvalitet 3. Betacam SX, DVCPRO 50, XDCAM, P2 MPEG-2 baserat produktionssystem med hög broadcastkvalitet 4. Digital Betacam högsta broadcastkvalitet, 2ggr kompression 5. High Definition video oftast 1920x1080i eller 1280x720p 6. 24p Universalformat progressiv video som kan konverteras till PAL, NTSC och film. 7. Film mycket hög upplösning men dyrt Bearbetning Digitala videoband lagrar inte datafiler utan en videoström. För att kunna bearbeta materialet i en datormiljö överförs videoströmmen till ett filsystem. Enkelt beskrivet, man kopplar videobandspelaren till datorn och spelar in materialet. Det optimala kan tyckas att låta filen ha samma kvalitetsnivå som originalet. Därmed slipper man omkomprimering av materialet. Men om produktionens slutresultat ska vara av låg kvalitet kan man redan här använda ett filformat med kompression. Å andra sidan kan det i vissa fall löna sig att bearbeta materialet i en högre kvalitet än det inspelade. Detta gäller bearbetningar som innehåller avancerade bearbetningar med många bildlager. När dessa bildlager skall föras ner på en videoström, måste materialet renderas. Använder man sig av lägre komprimeringsgrad i detta steg, så blir förluster och fel mindre. Ofta bestämmer utrustningen filformatet men graden av kompression kan för det mesta varieras. När filerna är lagrade kan materialet bearbetas med redigering, färgkorrigering etc. Produktionen kan även innehålla grafik från t ex animationsprogram. Materialet bör överensstämma med videofilernas kvalitet. När bearbetningen är klar konverteras materialet för att passa den slutliga mediebäraren (DVD, CD- multimedia etc.). I praktiken innebär det komprimering eller helt enkelt överföring till videotape. 34
Filstorlek vs. upplösning och färgdjup Filernas storlek bestäms av fyra parametrar 1. Antal pixlar 2. Color mode, RGB eller YUV 3. Färgdjup 4. Kompression De tre första parametrarna påverkar bildens upplösning medan kompressionen är en kvalitetsfaktor. Square pixels eller non square pixels En TV bild har ett bredd/höjdförhållande 4:3. Digital PAL video består av 720x576 pixlar. (Det riktiga förhållandet bör vara 768x576 pixlar.) För att teckna ut hela bilden måste pixlarna dras ut lite i horisontalled. En vanlig videoruta innehåller 414.720 pixlar. Figur 27: Samma bild med upplösning i square pixels (till vänster) och non square pixels (till höger) Praktiskt är det viktigt att hålla reda på antalet pixlar och dess utseende när man importerar olika typer av grafik i videon. Colour mode Colour mode kan vara RGB eller YUV. En videoström/fil är oftast en YUV där Y är bildens ljushet (en svartvit bild helt enkelt) och U och V är färgkomponenter. Färgkomponenterna i video är oftast lägre samplade och har därmed en sämre upplösning. Metoden grundar sig på egenskaper i ögats perception där tester visat att det är ljusinformationen som är viktigast för skärpan i en bild. 35
Y = luminanskomponent 0.30R + 0.59G + 0.11B RGB U = färgkomponent 0.493(B-Y) V = färgkomponent 0.877(R-Y) Fig 28: YUV är en anpassning till ögats egenskaper, färg är inte så viktigt för skärpan. YUV 4:2:2 sparar 33% bandbredd. Luminansdelen samplas 13,5 miljoner gånger per sekund (13,5MHz) medan samplingsfrekvensen för färgdelen varierar, beroende på vilken kvalitet som vi vill jobba med. Man utnyttjar att ögat är mindre känsligt för variationer i färginformation (chroma) än variationer i ljushet (luminans). I den digitala värden ser man begrepp som 4:4:4, 4:2:2, 4:2:0 och 4:1:1. Dessa sifferkombinationer är olika standards och anger hur ofta färginformationen samplas i förhållande till luminansen. 4:4:4 anger att luminans och chroma samplas lika ofta eller att luminans och chroma registreras lika mycket i varje pixel. 4:2:2 anger att luminans registreras i varje pixel medan chroma registreras i varannan. Samplingsfrekvensen för chroman har halverats i förhållande till luminansen. Denna standard betraktas som fullt acceptabel för de flesta professionella sammanhang. Ett snäpp lägre är 4:2:0 som innebär att luminansen registreras i varje pixel medan chroman endast registreras i varannan pixel och på varannan rad. 4:1:1 innebär att luminansen registreras i varje pixel medan chroman registreras i var fjärde pixel, men på varje rad. I de två senare samplingsförhållanderna registreras alltså chroman med fyra gånger lägre frekvens än luminansen. Broadcaststandard har samplingsförhållandet YUV 4:2:2, dvs färgkomponenterna har Y- signalens halva sampling. Det innebär att en videoruta har 2/3 filstorlek jämfört med en motsvarande RGB-ruta med 4:4:4, där ju varje färg har samma vikt. YUV 4:4:4 bearbetning med HQ YUV 4:2:2 fullkvalitetsvideo YUV 4:2:0 PAL DV / DVCAM YUV 4:1:1 DVCPRO RGB 4:4:4 datorgrafik RGB 4:4:4:4 datorgrafik med alfakanal 36