Videosignalen Analog/digital Även om vi idag övergår till digital teknik när vi ska insamla, bearbeta och spara videomaterial, så är dock vår omvärld analog. Det innebär att vi i videokameran och TV monitorn måste omvandla analoga signaler till digitala och tvärt om. I videokameran registreras det infallande ljuset. Detta ljus omvandlas till digitala signaler. Detta sker med hjälp av sampling, d.v.s. ett slags provtagning på den analoga signalen med en viss frekvens. Blockdiagram över AD omvandling (analogt till digitalt) När det gäller den monitor som bilden skall visas i, så är förhållandet det motsatta. Här sker en omvandling från digital till analog signal. I bildröret, eller katodstråleröret (CRT Cathod Ray Tube ), avlänkas en elektronstråle så att den träffar den främre delen. CRT bildrör 1
I optiska sammanhang talar man om att en hel bild som vi upplever den är en parallell process. D.v.s. att alla delar av bilden projiceras samtidigt över hela den aktuella bildytan. Detta gäller också vår subjektiva upplevelse av en videobild. Verkligheten är dock en annan. Videosignalen är linjär, vilket innebär att bilden måste ritas upp bit för bit. Vi talar om att bilden scannas. På en datorskärm scannas bilden linjevis (s.k. linjesvep) från övre vänstra hörnet till den nedre högra för att en bild ska uppstå (s.k. bildsvep). Denna process upprepas ett antal gånger per sekund (t.ex. 70 Hz). Antalet linjer (linjeupplösning) kan normalt ställas via datorns mjukvara. Denna scanning kallas för progressiv. Progressiv scanning När det gäller det videosystem som vi använder idag, så använder vi i PAL systemet en bildfrekvens på 25 bilder per sekund. Istället för att scanna linje för linje, så låter vi istället elektronstrålen scanna varannan linje för att i nästa bildsvep scanna resterande linjer. Med detta förfaringssätt krävs två hela bildsvep för att skapa en komplett bild. Med en bildfrekvens på 25 bilder/sek skapas 50 delbilder/sek. Detta kallas för interlaced scanning och är ett arv från tidiga CRT med begränsad efterglödningstid. Fördelen med interlaced scanning är att man kan öka bildfrekvensen utan att öka bandbredd. 2
Interlaced scanning Rörelse och flicker Vår uppfattning av hur mjukt som vi upplever en rörlig film styrs av främst två parametrar. Det ena styr den lägsta bildfrekvens där vi upplever rörelser som mjuka utan ryckighet. Denna lägsta gräns styrs bl.a. av rörelsens storlek, avstånd till bildskärm m.m. De bildfrekvenser som vi använder oss av i videosammanhang ligger normalt över denna gräns. Den andra parametern är flicker. Denna kan dessutom uppdelas i temporalt- och spatialt flicker. En typ av flicker är stroboskopeffekt (temporal), d.v.s. en hastigt oscillerande variation i ljusflöde. Förekomsten av ett kraftigt flicker p.g.a. dålig efterglödtid på tidiga CRT gjorde att man valde interlaced scanning för att på så sätt öka bildfrekvensen. Känsligheten för flicker beror av ljusintensitet och andra betraktningsförhållanden och kan dessutom skilja sig från person till person. Generellt ligger gränsen för flicker något högre än för gränsen för förnimmelsen av ryckighet, ungefär 48 75 Hz. Spatialt flicker uppkommer då tunna horisontella linjer eller skarpa övergångar projiceras via interlaced scanning. Om exempelvis en tunn linje på motivet hamnar mellan två intilliggande linjesvep på videon, kan samma linje på motivet registreras av de båda intilliggande linjesvepen. Eftersom de intilliggande tillhör olika bildsvep, så kommer linjen att oscillera mellan de två linjesvepen. 3
Konvertering mellan interlaced- och progressive scanning. När en interlaced videosekvens skall konverteras till progressivt format, vilket förekommer så fort materialet skall användas i datorsammanhang, kan fenomen uppstå i konturer på rörliga föremål. Eftersom en bild registreras i endast vartannat linjesvep i ett bildsvep, så kommer linjerna i nästa bildsvep att vara tidsmässigt förskjutna 1/50 sek. Detta innebär att varannan linje är förskjutna 1/50 sek i förhållande till intilliggande. När man konverterar till progressivt, så kommer två interlaced bildsvep att ritas upp samtidigt. Detta innebär att tidsförskjutningen mellan två linjer ritas upp samtidigt. Föremål som förflyttat sig i bild kommer att ha olika lägen i de olika bildsvepen vilket resulterat i att dessa föremål kommer att få taggiga konturer. Genom s.k. deinterlace kommer man tillrätta med problemet. Man plockar helt sonika bort varannan linje och antingen dubblerar de övriga, eller så interpolerar man fram de nya ersättningslinjerna. I båda fallen går information förlorad. Odd eller even I interlace sammanhang pratar man om odd or even, d.v.s. ojämna eller jämna linjer. En hel bild ritas upp av två bildsvep. Ibland är det viktigt att veta om den hela bilden börjar med ett bildsvep som ritar upp de ojämna linjerna eller tvärt om. Detta gäller om man skall skapa animationer som utnyttjar deinterlaced scanning. I de flesta fall får man testa. Gör man fel, så märker man det tydligt på att bilden rycker fram och tillbaka. Det är inte njutbart. Färgreproduktion 1931 kom man överens om en definition om samtliga verkliga och teoretiska färgers inbördes förhållande representerat i det s.k. CIE diagrammet (CIE - Commision Internationale de l Eclairage). CIE diagrammet 4
Diagrammet används än idag och ligger till grund för hur utrustning byggs för att återge de färger som man önskar. Videokamerans uppgift är att fånga och registrera ljus och färg som finns i naturen. Samtidigt ska detta ske på ett sådant sätt att vi människor uppfattar de återgivna färgerna naturliga. Videotekniken bygger på tre grundfärger, rött, grönt och blått, som via additiv färgblandning skall återge så många färger och färgnyanser som möjligt. Som grund för framtagning av färg- TV systemen ställdes bl.a. följande krav: Alla färger i naturen bör kunna reproduceras av färgmottagare. Mottagarens primärfärger ska helst vara spektralfärger, så att också mättade färger kan reproduceras. Det ska vara enkelt att styra primärstrålens intensitet i mottagaren. Ämnet som ska reproducera dess strålar måste finnas. Priset på dessa ämnen måste vara rimligt. Ämnets verkningsgrad måste vara hög, och så lika som möjligt för alla ämnena. Man kom så småningom fram till följande villkor för primärfärgernas koordinater och våglängd: Röd x=0,67 y=0,33 (610nm) Grön x=0,21 y=0,71 (535nm) Blå x=0,14 y=0,08 (470nm) CIE diagram där videosystemets primärfärger visas i relation till andra parametrar. Färgseparationen i videokameran fördelar sig som diagrammet nedan visar. 5
Färgseparation hos de tre primärfärgerna i en videokamera. Diagrammet visar vid vilka våglängder som spektralfärgerna separeras i en videokamera. Maximalt reflekterat ljus vid respektive primärfärg ligger vid våglängderna 470nm (blått) 535nm (grönt) och 610nm (rött). I kameran omvandlas ljuset till spänning. Olika primärfärger med samma energiinnehåll får samma värde på spänningen. Om en vit yta filmas, så blir alltså spänningen för varje primärfärg lika. Problemet är att ögat inte uppfattar primärfärgerna som kameran registrerar med lika inbördes intensitet. I diagrammet nedan finns en kurva som visar ögats spektrala känslighetskurva. I det fall där alla färger har samma energiinnehåll, så uppfattar ögat färgernas intensitet (luminans) olika. Ögat uppfattar olika färger olika intensivt. Det behövs mer energi för ögat att uppleva blått lika starkt som t.ex. gröngult. (Man kan ju utifrån detta fråga sig vilka argument som ligger till grund för att man använder blått ljus på utryckningsfordon ) 6
Ögats spektrala känslighetskurva i förhållande till videokamerans. I diagrammet ser vi att ögat uppfattar intensiteten i de primärfärger som kameran registrerar som olika. Förhållandet är för blått ( 470nm) 0,17, för grönt (535nm) 0,92 och för rött (610nm) 0,47 av maximal känslighet. På matematisk väg kan man enkelt räkna fram hur stor andel av den totala luminansen som varje primärfärg bidrar med. Denna uttrycks i den s.k. luminansnormen: U Y = 0,3. U R + 0,59. U G + 0,11. U B. Med luminansnormen kan man kompensera skillnaderna mellan hur videokameran uppfattar olika färgers ljushet med det mänskliga ögats. Vad man gör är att man ökar spänningen i TV mottagaren runt det gröna spektralområdet jämfört med andra färger. Luminansnormen används för att räkna fram luminanssignalsammansättningen i en videosignal. På så sätt använder sig också av normen när man ska kalibrera t.ex. kameror mot varandra med hjälp av en s.k. färgbalk. Enkel färgbalk för kalibrering av videosignalens utstyrning (styrka). I själva verket är det luminansen, illustrerat i den högra bilden, som man mäter. 7
De olika primärfärgernas bidrag till färgbalken framgår av nedanstående figur. Om vi antar att den maximala spänningen från respektive chips är 1 volt, så kan vi med hjälp av luminansnormen räkna ut spänningen för alla färgerna i färgbalken. Exempelvis blir luminansspänningen för vitt: U Y = 0,3. 1V + 0,59. 1V + 0,11. 1V = 1V. Luminansspänningen för t.ex.cyan blir enligt figuren: U Y = 0,3. 0V + 0,59. 1V + 0,11. 1V = 0,7V. För svart blir U Y = 0,3. 0V + 0,59. 0V + 0,11. 0V = 0V. Luminansspänningarna för färgbalken kan man rita upp i ett katodstrålerör (oscilloskop) vilket används i studiosammanhang för att kontrollera och kalibrera luminanssignalens bidrag till videosignalen. 8