Adaptiva Filter. Johan Haarala Signaler och System

Relevanta dokument
DIGITALA FILTER DIGITALA FILTER. Tillämpad Fysik Och Elektronik 1

Digital signalbehandling fk Adaptiv filtrering

--x T Kx. Ka = f. K( a a i. = f f i. r i. = a a i. Ke i. a i 1. p i. Ka i. p i Kai α i

DIGITALA FILTER. Tillämpad Fysik Och Elektronik 1. Frekvensfunktioner FREKVENSSVAR FÖR ETT TIDSDISKRET SYSTEM. x(n)= Asin(Ωn)

TIDSDISKRETA SYSTEM SYSTEMEGENSKAPER. Minne Kausalitet Tidsinvarians. Linjäritet Inverterbarhet Stabilitet. System. Tillämpad Fysik och Elektronik 1

FÖRELÄSNING 13: Analoga o p. 1 Digitala filter. Kausalitet. Stabilitet. Ex) på användning av analoga p. 2 filter = tidskontinuerliga filter

Flerdimensionella signaler och system

Optimal Signalbehandling Datorövning 1 och 2

Implementering av digitala filter

Block 5: Ickelineära. ekvationer? Läroboken. Löpsedel: Icke-lineära. ekvationer. Vad visade laborationen? Vad visade laborationen?

Tentamen i Beräkningsvetenskap I och KF, 5.0 hp,

Spektrala Transformer

Sammanfattning av föreläsning 11. Modellbygge & Simulering, TSRT62. Föreläsning 12. Simulering. Föreläsning 12. Numeriska metoder och Simulering

Resttentamen i Signaler och System Måndagen den 11.januari 2010, kl 14-19

Regression med Genetiska Algoritmer

Numeriska metoder för ODE: Teori

Kurs DN1215, Laboration 3 (Del 1): Randvärdesproblem för ordinära differentialekvationer

Teorifrågor. 6. Beräkna konditionstalet för en diagonalmatris med diagonalelementen 2/k, k = 1,2,...,20.

Signalanalys med snabb Fouriertransform

Exempelsamling Grundläggande systemmodeller. Klas Nordberg Computer Vision Laboratory Department of Electrical Engineering Linköping University

Ordinära differentialekvationer,

Laboration i Fourieranalys, TMA132 Signalanalys med snabb Fouriertransform

Lösningsanvisningar till de icke obligatoriska workoutuppgifterna

Ickelinjära ekvationer

Ordinära differentialekvationer,

Fel- och störningsanalys

Faltningsreverb i realtidsimplementering

signalprediktering I VITT GAUSSISKT BRUS MED HJÄLP AV E'rT ADAPT IVT SIGNAL ANPASSAT FILTER

Kan vi beskriva ett system utan någon fysikalisk kännedom om systemet?

Grundläggande matematisk statistik

Numerisk Analys, MMG410. Lecture 10. 1/17

Teknisk Beräkningsvetenskap I Tema 3: Styvhetsmodellering av mjuk mark med icke-linjära ekvationer

Institutionen för Matematiska Vetenskaper TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1/TM1, TMA

Icke-linjära ekvationer

Enlagersnät Flerlagersnät Generalisering. Artificiella Neuronnät

Digital Signalbehandling i Audio/Video

Digital signalbehandling Digitalt Ljud

Exempelsamling Grundläggande systemmodeller. Klas Nordberg Computer Vision Laboratory Department of Electrical Engineering Linköping University

5B1817 Tillämpad ickelinjär optimering. Metoder för problem utan bivillkor, forts.

Fouriermetoder MVE295 - bonusuppgifter

Welcome to Adaptive Signal Processing! 1. Lectures and exercises 2. Contents - References in the 4:th edition 4. Course literature 3

Tentamen i Signaler och kommunikation, ETT080

Tentamen i Beräkningsvetenskap I/KF, 5.0 hp,

Konvergens för iterativa metoder

CHALMERS Finit Elementmetod M3 Institutionen för tillämpad mekanik. Teorifrågor

Artificiella Neuronnät

Fel- och störningsanalys

LUNDS TEKNISKA HÖGSKOLA Institutionen för Elektro- och Informationsteknik

Reglerteori, TSRT09. Föreläsning 4: Kalmanfiltret & det slutna systemet. Torkel Glad. Reglerteknik, ISY, Linköpings Universitet

EKG-klassificering. Andreas Bergkvist, Michael Sörnell,

Föreläsning 1: Signaler, matriser och processer. Leif Sörnmo 28 augusti 2009

BILDBEHANDLINGSMETOD INNEFATTANDE BRUSREDUCERING I BILD MED LOKALT ADAPTIV FILTERKÄRNA

TSRT09 Reglerteori. Sammanfattning av Föreläsning 3. Sammanfattning av Föreläsning 3, forts. Sammanfattning av Föreläsning 3, forts.

Institutionen för Matematik TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1, TMA DAG: Fredag 16 januari 2009 TID:

Föreläsning 8, Introduktion till tidsdiskret reglering, Z-transfomer, Överföringsfunktioner

DIGITAL KOMMUNIKATION

Approximation av funktioner

Sammanfattning (Nummedelen)

Symboler och abstrakta system

Analys av egen tidsserie

Tentamen i ESS 010 Signaler och System E3 V-sektionen, 16 augusti 2005, kl

Lab 4: Digital transmission Redigerad av Niclas Wadströmer. Mål. Uppstart. Genomförande. TSEI67 Telekommunikation

RÄKNEEXEMPEL FÖRELÄSNINGAR Signaler&System del 2

MATEMATIK GU. LLMA60 MATEMATIK FÖR LÄRARE, GYMNASIET Analys, ht Block 5, översikt

BEGREPP HITTILLS FÖRELÄSNING 2 SAMMANSATTA UTTRYCK - SCHEME DATORSPRÅK

TSRT62 Modellbygge & Simulering

Inledning. Kapitel Bakgrund. 1.2 Syfte

1. Vi har givet två impulssvar enligt nedan (pilen under sekvenserna indikerar den position där n=0) h 1 (n) = [ ]

7 MÖNSTERDETEKTERING

TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1/TM1, TMA

Föreläsning 11, Dimensionering av tidsdiskreta regulatorer

Akademin för utbildning, kultur och kommunikation MMA132 Numeriska Metoder Avdelningen för tillämpad matematik Datum: 2 juni 2014

TAIU07 Matematiska beräkningar med Matlab

Tillämpning av komplext kommunikationssystem i MATLAB

Specialisering Beräkning och simulering Computation and Simulation

Icke-linjära ekvationer

Stokastiska processer med diskret tid

Digitala filter. FIR Finit Impulse Response. Digitala filter. Digitala filter. Digitala filter

Lösningsanvisningar till de icke obligatoriska workoutuppgifterna

Interpolation Modellfunktioner som satisfierar givna punkter

Reglerteori. Föreläsning 4. Torkel Glad

8.3 Variabeltransformationer Frånkoppling. Betrakta ett 2x2-system, som beskrivs med modellen (8.3.1)

Systemidentifiering för läkemedelsutveckling modeller, skattning och analys.

LABORATION cos (3x 2 ) dx I =

Laboration i Fourieranalys för F2, TM2, Kf2 2011/12 Signalanalys med snabb Fouriertransform (FFT)

Labb 3: Ekvationslösning med Matlab (v2)

LABORATION 2. Trapetsregeln, MATLAB-funktioner, ekvationer, numerisk derivering

Tentamen i TMA 982 Linjära System och Transformer VV-salar, 27 aug 2013, kl

Tentamen del 1 SF1511, , kl , Numeriska metoder och grundläggande programmering

Signaler några grundbegrepp

Biologi: en utmaning för Numerisk Analys

Sammanfattninga av kursens block inför tentan

Föreläsning 9, Bestämning av tidsdiksreta överföringsfunktioner

Lösningsförslag Tentamen i Beräkningsvetenskap I, 5.0 hp,

Musikeffekter med signalprocessor

Stokastiska Processer och ARIMA. Patrik Zetterberg. 19 december 2012

Exempel ode45 parametrar Miniprojekt 1 Rapport. Problemlösning. Anastasia Kruchinina. Uppsala Universitet. Januari 2016

Bildbehandling i frekvensdomänen

MVE051/MSG Föreläsning 14

Analys/syntes-kodning

Transkript:

Adaptiva Filter Johan Haarala 2002-12-11 Signaler och System

Abstract Målet med den här rapporten är att ge en introduktion samt översikt till adaptiva filter. I den beskrivs några av de algoritmer som kan användas och deras egenskaper. Vilka fördelar och nackdelar som kommer med de olika algoritmerna tas upp samt hur man mäter prestanda på algoritmer generellt och problemet med att välja rätt algoritm. Beskrivning av några applikationer och användningsområden för adaptiva filter tas också upp - 1 -

Inledning En kategori av signalbehandling är adaptiv signalbehandling, den är relativt ny och hela tiden ökar användandet av det i applikationer. Adaptiv signalbehandling uppstod genom att man ville kontrollera tidsvarianta system och har ökat beräkningskapaciteten hos digital teknologi. Den största skillnaden mellan signalbehandling och adaptiv sådan är att i adaptiv behandlar man tidsvarierande digitala system. När adaptiva filter används på ickestationära signaler så krävs det mindre information om signalerna än om man skulle behandla dem med ett vanligt digitalt filter. Adaptiva filter kan ändra på sig själva via sina insignaler. De används t.ex. i applikationer som kräver förändring i systemet beroende på signalförhållanden. Adaptiva filter behöver två olika indata, en insignal x(n) och en referenssignal d(n). Ett adaptivt filter har alltså förmågan att förändra sig genom att ändra på filterkoefficienterna. Nya koefficienter skickas från en koefficientgenerator vilken egentligen är en adaptiv algoritm som modifierar koefficienterna i förhållande till en insignal. Det adaptiva digitala filtret är vanligtvis en typ av FIR-filter (Finite Impulse Response) men kan också vara ett IIRfilter (Infinite Impulse Response). Adaptiva filter används i en rad applikationer och exempel på dessa är brusreducering, källseparering, signalprediktion och systemidentifiering. - 2 -

Metod För att skriva den här sammanfattningen av adaptiva filter och deras användningsområde har jag studerat litteratur i området signalbehandling och adaptiv sådan, speciellt då med inriktning mot adaptiva filter. Har även studerat ett liknande projekt med mer praktisk tillämpning och använt mig av slutsatser från det. Arbetet kan ses som en introduktion till adaptiva filter och går inte så djupt in på problemen matematiskt utan är mer en översikt om egenskaper och funktioner hos adaptiva filter. - 3 -

Adaptiva filter Signaler som skapas i de flesta applikationer kommer att vara ickestationära och med icke adaptiva metoder skulle man behöva dela upp dessa ickestationära signaler i mindre stationära delar, d.v.s. man approximerar ett kortare tidsintervall av den ickestationära processen som att vara stationär. Denna metod blir dock inte särskilt effektiv, t.ex. för snabbt varierande processer så måste tidsintervallet, för vilken processen antas vara stationär vara så kort att estimeringen blir dålig på grund av att man vill ha så hög upplösning. Dessutom skulle metoden inte fungera så bra om steglängden ändras under analysintervallet. Det viktigaste är troligen att denna lösning inför en felaktig modell på de data man har erhållit, d.v.s. att de skulle vara stationära bitvis. Därför är det bättre att försöka använda sig av något som är ickestationärt från början. Om w(n) är impulssvaret för ett FIR Wienerfilter som ger det skattade värdet d 1 (n) av minsta kvadratlösningen av en önskad process d(n), d p 1 ( n) = w( k) x( n k) k = 0 och om x(n) och d(n) är wide-sense stationary (WSS) processer, d.v.s. processerna har medelvärde noll, och e(n) = d(n) d 1 (n) så kan man finna koefficienterna som minimerar kvadratfelet med hjälp av Wiener-Hopf ekvationerna. R x w = r dx Men om d(n) och x(n) är ickestationära så kommer filterkoefficienterna som minimerar E{ e(n) 2 } att bero på n, d.v.s. filtret kommer att vara tidskiftsvariant. På många sätt är det svårare att göra ett tidskiftsvariant filter än att göra ett tidskiftsinvariant Wienerfilter, eftersom för varje värde på n måste man hitta de optimala filterkoefficienterna w n (k). Problemet kan göras enklare genom att låta w n minimera minsta kvadratfelet vid varje tidpunkt n och istället titta på formeln för att uppdatera koefficienterna på formen: w n+1 = w n + w n Där w n är uppdateringen som appliceras på filterkoefficienterna w n vid tiden n för att få en ny uppsättning koefficienter w n+1 vid tiden n+1 (se bild nedan). - 4 -

d(n) x(n) w n (z) d 1 (n) + e(n) Adaptiv Algoritm Den viktigaste delen med adaptiva filter är algoritmen för hur uppdateringen w n ska utformas. Sekvensen av uppdateringar ska minska minsta kvadratfelet. Oavsett vilken algoritm som används så ska det adaptiva filtret ha följande egenskaper: I en stationär miljö ska ett adaptivt filter producera en sekvens av uppdateringar w n så att w n konvergerar mot lösningen av Wiener-Hopf ekvationerna. Man behöver inte känna till signalens statistik för att räkna fram w n. Estimeringen av auto- och korskorrelation ska vara inbyggda i det adaptiva filtret. För ickestationära signaler ska filtret kunna adaptera till förändringarna och följa lösningarna i tiden. En viktig del i implementering av adaptiva filter är att felsignalen e(n) är tillgänglig för den adaptiva algoritmen. Det är genom e(n) som filtret kan mäta hur det fungerar samt bestämma hur koefficienterna ska ändras. Utan e(n) skulle inte filtret kunna adaptera fram nya koefficienter. I vissa applikationer är det lätt att få fram d(n) vilket gör det enkelt att få fram e(n). Ett adaptivt filter är självskapande som använder sig av en rekursiv algoritm för att designa sig själv. Algoritmen startar från en gissning som baseras på information som finns om systemet. Sedan förfinas gissningen successivt i iterationer och förhoppningsvis konvergerar en optimal lösning fram. Adaptiva filtertekniker används i många olika applikationer exempel på sådana är eko- och brusreducering och utjämning. Dessa applikationer innebär behandling av signaler som genereras av system vars karakteristik inte är känd på förhand. Det är på grund av detta som adaptiva filter kan ge en ökad prestanda om man jämför med de icke-adaptiva filtren. - 5 -

Ett adaptivt filters prestanda mäts bland annat på dessa kriterier: Konvergenshastighet: Definierat som antalet iterationer som krävs för att algoritmen ska konvergera till en optimal lösning under stationära förhållanden. Antalet beräkningar: En viktig parameter i praktisk synpunkt som anger antalet operationer för en fullständig iteration. Påverkar i sin tur kostnaden att bygga det adaptiva filtret beroende på hur mycket datorkraft som behövs. Numerisk robusthet: Implementeringen av en adaptiv filteralgoritm på en dator medför kvantiseringsfel, vilka kan orsaka numerisk instabilitet. En adaptiv filtreringsalgoritm är numeriskt robust om den digitala implementationen är stabil. Ett annat bra mått på prestanda är hur många beräkningar som krävs för att det adaptiva filtret ska uppnå en optimal lösning i stabil miljö. Detta mått kombinerar konvergenshastigheten och antalet beräkningar genom att ta produkten av dem. - 6 -

Exempel på adaptiva filteralgoritmer Följande är några av de vanligaste adaptiva algoritmerna som används i adaptiv signalbehandling. Least Mean Square (LMS) Normaliserad LMS (NLMS) Recursive Least Square (RLS) Adaptiva FIR-filter FIR-filter används t.ex. i adaptiva system som utjämnare i digitala kommunikationssystem och bruskontrollerande system. Anledningen till att FIR är så populärt är att stabiliteten är lätt att kontrollera genom att se till att koefficienterna är begränsade. Dessutom finns det enkla och effektiva algoritmer för att beräkna koefficienterna samt att algoritmerna är lätta att förstå i termer av konvergens och stabilitet. Det finns en mängd olika anledningar att använda adaptiva filter. För det första i det fall då processen som skall filtreras är icke-stationär. I det fallet så är inte filtrets koefficienter tidsinvarianta, vilket medför att det existerar en optimal lösning av filtrets koefficienter för varje sampeltillfälle. Även för stationära processer så finns det fördelar med att använda sig av adaptiva filter. Om filtret innehåller ett stort antal koefficienter så kan det t.ex. vara svårt att lösa Wiener-Hopf ekvationer i realtid. Wiener-Hopf ekvation: p 1 x w = R w( l) rx ( k l) = r = 0 l Dessutom kan autokorrelationsmatrisen, R x vara dåligt konditionerad vilket medför att Wiener-Hopf ekvationerna blir känsliga för numeriska fel. Wiener-Hopf ekvationerna kräver också att autokorrelationen r x och korskorrelationen r dx är kända. De två finns sällan till hands och även om det går att approximera dem så resulterar beräkningarna i långa fördröjningar. dx ( k) - 7 -

Steepest descent algoritmen Om man vill skapa ett adaptivt FIR-filter kan man ta fram vektorn w n vid tiden n som minimerar den kvadratiska funktionen: ξ(n) = E { e(n) 2 } Man kan minimera funktionen genom att sätta derivatan av ξ(n) till 0 och söka efter minimum. Ett annat sätt är att använda steepest descent -metoden som är en iterativ metod. Man låter då w n vara en estimering av vektorn som minimerar ξ(n) vid tiden n. Vid tiden n+1 bildar man ett nytt estimat genom att addera en uppdatering till w n som för w n närmare en lösning. Uppdateringen innebär att man tar ett steg µ i riktning mot lägsta punkten i den kvadratiska funktionen. Riktningen mot den lägsta punkten i den kvadratiska funktionen ges av den negativa gradient vektorn, som man får från den partiella derivatan av ξ(n) med avseende på koefficienterna w(k) gånger -1. Uppdateringsekvationen för w n är w n+1 = w n - µ ξ(n) Steglängden µ påverkar hastigheten som koefficient vektorn rör sig mot den lägsta punkten på den kvadratiska ytan. För att koefficient vektorn ska röra sig i rätt riktning måste µ vara positivt. Med små värden på µ kommer rörelsen mot den lägsta punkten på den kvadratiska ytan gå mycket långsamt, medan ett större värde på µ kommer att öka hastigheten. Gradientvektorn beskrivs av ξ(n) = - E{e(n)x*(n)} Med en steglängd µ blir steepest decsent algoritmen w n+1 = w n + µ E{e(n)x*(n)} - 8 -

Least Mean Square (LMS) Det finns alltså en metod som kallas steepest descent som kan användas för att konstruera adaptiva filter men nackdelen med denna är att man måste känna till E{e(n)x*(n)}, vilket normalt sett är okänt. Genom att använda sig av steepest descent -metoden och en estimering av E{e(n)x*(n)} så fås LMS algoritmen. w n+1 = w n + µe(n)x*(n) Enkelheten hos LMS kommer ifrån att uppdateringen av den k:te koefficienten w n+1 (k) = w n (k) + µe(n)x*(n-k) endast kräver en multiplikation och en addition, värdet av µe(n) behövs bara räknas ut en gång och kan användas för alla koefficienter. Ett adaptivt LMS filter som har p+1 koefficienter behöver således bara p+1 multiplikationer och p+1 additioner för att beräkna de nya filterkoefficienterna. Ytterligare en addition behövs för att beräkna felet e(n) = d(n) y(n) och en multiplikation för produkten µe(n). För utsignalen krävs p+1 multiplikationer och p additioner så den totala beräkningen blir 2p+3 multiplikationer och 2p+2 additioner. LMS algoritmen konvergerar beroende på om steglängden µ ligger inom vissa värden och med en större steglängd konvergerar LMS fortare men allt för stor steglängd kan orsaka divergens 3. Nackdelen med LMS är att den konvergerar långsamt speciellt om insignalen är färgat brus. - 9 -

Normaliserad LMS (NLMS) Ett av problemen med att designa och konstruera ett adaptivt LMS-filter är att välja vilken steglängd µ man ska använda sig av. Om man har stationära processer kan man använda sig av en tidsvarierande steglängd på formen, µ(n) = β / x(n) 2 där β är en normaliserad steglängd som uppfyller 0< β < 2. Ersätter man µ i LMS med µ(n) så får man den normaliserade LMS algoritmen som ges av: w n+1 = w n + β e(n) x*(n) / x(n) 2 Jämfört med LMS algoritmen så kräver den normaliserade LMS algoritmen flera beräkningar för att få fram normaliseringstermen x(n) 2. Men genom att beräkna denna rekursivt kan man minska de extra beräkningarna till bara två kvadratiska operationer, en addition och en subtraktion. x(n+1) 2 = x(n) 2 + x(n+1) 2 - x(n-p) 2 Normaliseringen innebär endast att variera steglängden, inte riktningen på gradientvektorn. Om x(n) är stor får LMS algoritmen problem med gradient brusförstärkning. Genom att använda en variabel steglängd försvinner detta problem. Istället kan man få problem med att x(n) blir för litet. Man kan då modifiera NLMS till: där ε är ett litet positivt tal. w n+1 = w n + β x*(n) / (ε + x(n) 2 ) e(n) Förutom NLMS algoritmen så finns ett antal andra modifieringar av LMS algoritmen, där varje modifikation är ett försök att förbättra en eller flera egenskaper hos LMS algoritmen. Ibland medför även dessa förbättringar några nackdelar på andra aspekter av algoritmen. Ett sätt att förbättra algoritmen är att använda variabel steglängd. - 10 -

Rekursiva filter (RLS) Precis som med linjära tidsinvarianta filter så har rekursiva (IIR) adaptiva filter en fördel jämfört med ickerekursiva filter genom att ge bättre prestanda för en given grad (antal filterkoefficienter). Men med ett adaptivt rekursivt filter finns problemet med instabilitet som kan påverka konvergenstiden hos filtret. Trots dessa problem så finns det många applikationer som kräver rekursiva adaptiva filter. RLS (Recursive Least Squares) algoritmen kräver p 2 operationer vilket kan jämföras med LMS som kräver p operationer, mer exakt behöver RLS 3(p+1) 2 +3(p+1) multiplikationer och ungefär lika många additioner. Det som åstadkoms med den ökade komplexiteten hos beräkningarna jämfört med LMS är ökad prestanda. Generellt konvergerar RLS snabbare än LMS. RLS skiljer sig från de algoritmer som bygger på LMS i att man inte använder gradienten för att minimera mean-square error. I stället försöker man minimera least-square error eftersom denna inte kräver statistisk information om signalen utan kan beräknas direkt från x(n) och d(n). Filterkoefficienterna som minimerar least-square-felet kommer att vara optimala för de aktuella data i signalerna, medan koefficienter som minimerar mean-sqare-felet är optimala beroende på den statistiska informationen i signalen. Detta innebär att olika realisationer av x(n) och d(n) kan komma att se olika ut då man använder RLS, även om den statistiska informationen är den samma i de olika realisationerna. - 11 -

Exempel på användningsområden för adaptiva filter Systemidentifiering Ofta måste man skaffa sig en matematisk modell av ett okänt system. För att identifiera ett sådant system finns det två olika sätt att gå till väga. Det ena är att man använder sig av lagar från mekanik, fysik, ekonomi, biologi beroende på tillämpning. Då får man ett system av differentialekvationer. Den andra metoden är att använda sig av systemidentifiering, vilket innebär att konstruera en modell och estimera värden på de parametrar man har i modellen med hjälp av testdata. Adaptiva filter kan alltså användas till systemidentifiering. En signal x(n) matas in i både det okända systemet och filtret och utsignalerna från båda subtraheras till en felsignal e(n). Målet är att adaptera filterkoefficienterna så att felsignalen blir så nära noll som möjligt. När det adaptiva systemet slutligen konvergerar mot den sökta modellen så kan sedan det okända systemet identifieras med hjälp av det adaptiva filtrets koefficienter. Det resulterande FIR-filtret representerar det tidigare okända systemet. För att nå en bra modell av alla intressanta frekvenser så måste de frekvenserna finnas i insignalen, vanligen används vitt brus som insignal x(n). Man kan t.ex. använda den beräkningseffektiva LMS algoritmen som adapteringsalgoritm. Okänt System + d(n) x(n) Filter d 1 (n) - e(n) LMS - 12 -

Brusreducering En av de vanligaste tillämpningarna av adaptiva filter är brusreducering. Ett exempel kan vara en person som pratar i mobiltelefon i bilen. Då rösten störs av bruset från bilens motor. LMSalgoritmen uppdaterar filterkoefficienterna så att felsignalen, mellan insignalen (Röst + Motorbrus) och det filtrerade bruset, blir så litet som möjligt, vilket förhoppningsvis resulterar i den riktiga röstsignalen. Referensbruset kan vara en mikrofon som placerats nära motorn och insignalen mäts upp ifrån en mikrofon nära användarens mun så både tal och motorbrus fås med. En viktig detalj med att använda adaptiva filter vid brusreducering är att bruset inte får vara för likt den önskade signalen. Röst + Motorbrus Referensbrus Filter - Röst LMS - 13 -

Slutsatser Generellt så är adaptiva filter system som varierar med tiden på grund av att karakteristiken hos insignalerna varierar. Skillnaden mellan klassisk och adaptiv signalbehandling är att i adaptiv så förändras själva systemet med tiden. Idealt så skulle man vilja ha ett adaptivt filter som kräver få beräkningar och är numeriskt robust. Det ska konvergera snabbt och enkelt kunna implementeras på en dator. Men som i många tekniska problem kan inte dessa krav uppfyllas samtidigt utan man får välja vad som är viktigast i situationen i fråga. Många olika tekniker kan användas för att behandla ickestationära signaler med adaptiva filter. Dessa kan sedan användas i flera olika tillämpningar så som t.ex. systemidentifiering, signal modellering och brusreducering. En effektiv och enkel teknik är LMS algoritmen vilken inte behöver känna till några ensamblemedelvärden, nackdelen med den är att den konvergerar långsamt. Den normaliserade LMS algoritmen gör valet av steglängd enklare vilket medför att filterkoefficienterna konvergerar. Om man använder variabel steglängd i LMS så är det bra att börja med en stor steglängd när koefficienterna är långt ifrån sina optimala värden och en kortare steglängd när de börjar närma sig sina optimala värden. Rekursiva adaptiva filter är mycket mer komplexa än adaptiva FIR filter och eftersom de är rekursiva så kan de bli instabila på grund av detta är inte adaptiva rekursiva filter använda i lika många applikationer som de adaptiva FIR-filtrena. En nackdel med RLS jämfört med LMS-baserade algoritmer är att den är beräkningsintensiv. RLS-algortimen konvergerar snabbare än LMS algoritmer dock kan den vara sämre på att följa en signal vid stora förändringar i signalen. - 14 -

Referenser 1. Monson H. Hayes, Statistical Digital Signal Processing And Modelling, John Wiley & Sons. 2. Bernard Widrow, Samuel D. Stearns, Adaptive Signal Processing, Prentice Hall. 3. Adaptive Filters http://www.owlnet.rice.edu/~elec301/projects00/site/. 4. David Crawford, Adaptive Filters, 1996. - 15 -