9.3. Egenvärdesproblem Problem som innehåller en parameter men endast kan lösas för speciella värden av denna parameter kallas egenvärdesproblem. Vi skall här nöja oss med ett exempel på ett dylikt problem. Betrakta ekvationen 2 u x + 2 u 2 y + λu = 2 innanför en kvadrat med hörnen (, ), (3, ), (3, 3) och (, 3). Funktionen u antas försvinna på kvadratens sidor; ekvationen representerar då ett svängande membran. För att lösa ekvationen med differensmetoden skall vi föreställa oss att man täcker kvadraten med ett nät med kvadratiska maskor. Vetenskapliga beräkningar III, Tom Sundius 28 1
För enkelhetens skull skall vi endast använda maskstorlekarna h = 1 och h = 3/4. I det första fallet behövs då endast ett funktionsvärde innanför kvadraten, eftersom u(1, 1) = u(1, 2) = u(2, 1) = u(2, 2) = U på grund av symmetrin. I det senare fallet finns det av symmetriskäl tre olika funktionsvärden, eftersom u(3/4, 3/4) = u(3/4, 9/4) = u(9/4, 3/4) = u(9/4, 9/4) = U; u(3/4, 3/2) = u(3/2, 3/4) = u(9/4, 3/2) = u(3/2, 9/4) = V ; u(3/2, 3/2) = W. Om vi tillämpar fempunktsformeln för Laplace operatorn 2 u(x, y) = [u(x + h, y) + u(x, y + h) + u(x h, y) + u(x, y h) 4u(x, y)]/h 2, så får vi i det första fallet (h = 1) U + U + + 4U + λu =, som har lösningen λ = 2, samt i det senare fallet (h = 3/4) ekvationssystemet där µ = h 2 λ = 9λ/16. 8 < : 2V 4U +µu = 2U +W 4V +µv = 4V 4W +µw =, Vetenskapliga beräkningar III, Tom Sundius 28 2
Villkoret för en icke-trivial lösning av detta ekvationssystem är, att koefficientmatrisens determinant försvinner: 4 µ 2 2 4 µ 1 4 4 µ =. Om determinanten utvecklas, får man sekulärekvationen µ 3 12µ 2 + 4µ 32 =, vars minsta rot är µ = 4 8 1.1716, varav följer λ = 2.83. Å andra sidan vet vi, att felet då man använder fempunktsformeln är proportionellt mot h 2, varför elimination av ɛ ur ekvationssystemet λ + ɛ = 2 λ + 9 16 ɛ = 2.83 ger λ = (16 2.83 18)/7 2.19 (Richardsons extrapolationsmetod). Vetenskapliga beräkningar III, Tom Sundius 28 3
Den exakta lösningen är som ger u = sin(mπx/3) sin(nπy/3), λ = (m2 + n 2 )π 2. 9 Härav följer, att det lägsta egenvärdet fås för m = n = 1: λ 1,1 = 2π2 9 = 2.193. Felet är bara.15%. Man kan också beräkna högre egenvärden numeriskt, men då behövs det ett finare nät. Vetenskapliga beräkningar III, Tom Sundius 28 4
9.4. Finita elementmetoden I differensmetoden diskretiseras kontinuerliga funktioner genom att man väljer en ändlig mängd punkter (nät eller gitter) och ersätter derivatorna med differenser. Ett annat sätt att behandla problemet är att välja en ändlig mängd funktioner och approximera differentialekvationens exakta lösning med en linjär kombination av dessa funktioner. Sådana funktioner kallas basfunktioner, och de kan t.ex. vara polynom av lågt gradtal. Vanligen indelas det undersökta området i ännu mindre delar eller element. I varje element approximeras lösningen med en skild basfunktion, som har värdet noll i de övriga elementen. Koefficienterna för basfunktionerna, t.ex. a i, b i, c i, d i och f i för basfunktionen φ i (x, y) = a i x 2 + b i y 2 + c i xy + d i x + e i y + f i, väljs så, att basfunktionerna kontinuerligt övergår i varandra vid elementens gränsytor. De punkter på gränsytorna, där funktionsvärdena överensstämmer, kallas nodpunkter. Ofta brukar man därtill kräva, att basfunktionernas derivator (eller t.o.m. högre derivator) överensstämmer i nodpunkterna (jfr spline funktionerna). Ju flere nodpunkter det finns i ett element, desto noggrannare polynom kan man använda som basfunktioner, och desto bättre kan man täcka det studerade området med element. Denna metod kallas därför också för finita elementmetoden (FEM = Finite Element Method). Vetenskapliga beräkningar III, Tom Sundius 28 5
För att bättre förstå metoden, skall vi för enkelhetens skull tillämpa den på en endimensionell Poisson ekvation. Om laddningsfördelningen är ρ(x), så kan ekvationen för den elektrostatiska potentialen uttryckas φ (x) = 4πρ(x). Randvillkoren antas vara φ() = φ(1) =. Lösningarna till en sådan ekvation kan alltid uttryckas som en linjär kombination av sinsemellan ortogonala basfunktioner u i (x), där i = 1, 2,..., : X φ(x) = a i u i (x) i Basfunktionerna antas här uppfylla ortogonalitetsvillkoret Z 1 u i (x)u j (x)dx = δ ij, där δ ij betecknar Kroneckers delta, och u i () = u i (1) =. Ett exempel på lämpliga basfunktioner är u j (x) = 2 sin jπx. För att beräkna värdet av funktionen φ(x) bestämmer vi alla koefficienterna a i genom substitution i differentialekvationen och användning av basfunktionernas ortogonalitetsvillkor. Om systemets gränsyta inte har en regelbunden form kan detta vara ganska besvärligt. Vetenskapliga beräkningar III, Tom Sundius 28 6
Finita elementmetoden har konstruerats så att den skall ge en god approximation till lösningen också då randvillkoren är komplicerade, eller då lösningsfunktionen P varierar mycket. Också i detta fall uttrycks n approximationen som en linjär kombination φ n (x) = i=1 a iu i (x), men basfunktionernas antal är nu ändligt, och var och en av dem är definierad i ett litet område kring noden x i. Om vi använder denna approximation, så får vi en restterm ɛ n (x) = φ n (x) + 4πρ(x), som skulle försvinna, om φ n(x) vore den exakta lösningen. Vi försöker nu konstruera en sådan metod, att ɛ n (x) är litet över hela området, medan beräkningen av koefficienterna a i pågår. Valet av u i (x) och metoden att optimera ɛ n (x) bestämmer lösningsnoggrannheten för ett visst värde av n. En metod att utföra denna optimering är att använda en vägd integral g i = R 1 ɛ n(x)w i (x)dx som sätts till vid beräkningen av a i. Viktsfunktionerna w i (x) väljs här på ett lämpligt sätt. För den endimensionella Poisson ekvationen kan den vägda integralen uttryckas g i = Z 1 2 4 n X j=1 a j u j (x) + 4πρ(x) 3 5 wi (x) =, vilket är ekvivalent med det linjära ekvationssystemet Aa = b, där A ij = Z 1 u i (x)w j(x)dx, och b i = 4π Z 1 ρ(x)w i (x)dx. Vetenskapliga beräkningar III, Tom Sundius 28 7
I praktiken behöver man alltså endast lösa ett tridiagonalt eller bandformat ekvationssystem, vilket går snabbt. Det gäller att förenkla problemet utan göra avkall på noggrannheten. Valet av viktsfunkterna w i (x) är därför kritiskt. Ofta brukar man sätta w i (x) = u i (x) (Galerkins metod). Vi skall nu studera lösningen i lite mer detalj. Vi delar in intervallet [, 1] i n + 1 lika stora delintervall (x =, x n+1 = 1) och sätter u i (x) = 8 >< >: (x x i 1 )/h, om x [x i 1, x i ] (x i+1 x)/h, om x [x i, x i+1 ] i annat fall Intervallängden är alltså h = x i x i 1 = 1/(n + 1). Observera, att randvillkoren uppfylls om u i (x) väljs på detta sätt. För enkelhetens skull väljer vi laddningsfördelningen ρ(x) = π 4 sin πx. Vetenskapliga beräkningar III, Tom Sundius 28 8
De vägda integralerna är då lätta att beräkna, och vi får A ij = Z 1 8 > < u i (x)u j (x)dx = >: 2/h, om i = j 1/h, om i = j ± 1 i annat fall (obs : partiell integration!) b i = 4π Z 1 ρ(x)u i (x)dx = π h (x i 1 + x i+1 2x i ) cos πx i + 1 h (2 sin πx i sin πx i 1 sin πx i+1 ) Denna metod är ganska lätt att programmera. I stället för Galerkins metod, kan man också använda Ritz variationsprincip 1, som går ut på minimering av en funktional (en funktion, ofta systemets totala energi, som beror av en annan funktion). Funktionalen av t.ex. Poissons endimensionella ekvation φ (x) = 4πρ(x) med randvillkoren φ() = φ(1) =, har formen Z 1 n o 1 E[φ(x)] = 2 φ 2 (x) 4πρ(x)φ(x) dx. 1 efter Walter Ritz (1878-199), schweizisk teoretisk fysiker Vetenskapliga beräkningar III, Tom Sundius 28 9
Om vi tillämpar variationsprincipen δe[φ(x)] =, och antar att variationerna vid intervallgränserna δφ(x) försvinner, så får vi Lagranges ekvationer och därur den ursprungliga differentialekvationen. Detta är Ritz variationsprincip. Den exakta lösningen φ(x) till differentialekvationen ger minimivärdet av funktionalen E[φ(x)]. Ju mindre värdet av E[φ(x)] är, desto bättre är den approximativa lösningen. Ritz metod tillämpas alltså så, att man först konstruerar en funktional för en given differentialekvation, och därpå approximerar lösningen bit för bit i varje element och använder variationsprincipen för att bilda det linjära ekvationssystemet varur koefficienterna beräknas. Vi kan tillämpa Ritz metod på Poissons ekvation, och börjar P då med att uttrycka lösningen som en linjär n kombination av linjärt oberoende basfunktioner φ n (x) = i=1 a iu i (x). Därpå minimeras funktionalen i avseende på koefficienterna a i : E[φ n (x)] a i =, i = 1, 2,..., n, vilket leder till ett linjärt ekvationssystem Aa = b, varur koefficienterna löses. Som man lätt kan visa, leder i detta fall Ritz metod till samma ekvationssystem som Galerkins metod. Vetenskapliga beräkningar III, Tom Sundius 28 1
Kapitel 1. Fourier analys Joseph Fourier (1768 183) har blivit speciellt känd för sitt verk Théorie analytique de la chaleur som utkom år 1822. Det innehåller en teori för värmeledningen, där han löser den partiella differentialekvationen med hjälp av trigonometriska serier. Han visade, att en godtycklig funktion kan utvecklas i en trigonometrisk serie, eller Fouriers serie som den senare blev kallad efter honom. Fourier metoder används nuförtiden för att lösa många slags problem inom elektricitetsläran, optiken, akustiken och termodynamiken. Vetenskapliga beräkningar III, Tom Sundius 28 11
1.1. Fourier serier Enligt Fouriers teorem kan en periodisk funktion f(x) (t.ex. med perioden 2π) approximeras av f(x) = a 2 + X k=1 (a k cos kx + b k sin kx). På grund av de trigonometriska funktionernas ortogonalitet: Z 2π cos kx cos mxdx = 8 >< >: k m π k = m 2π k = m = Z 2π sin kx cos mxdx = Vetenskapliga beräkningar III, Tom Sundius 28 12
Z 2π så kan koefficienterna i serien uttryckas sin kx sin mxdx = 8 >< >: k m π k = m k = m = a k = 1 π Z 2π f(x) cos kxdx, b k = 1 π Z 2π f(x) sin kxdx. På grund av ortogonaliteten, kommer Fourier approximationen att vara ekvivalent med minsta kvadratmetoden. Detta gäller för varje serieutveckling av en funktion i ortogonala funktioner, vilket inses på följande sätt. Antag, att f(x) nx i= c i g i (x), där funktionerna g i (x), i = 1, 2,..., n uppfyller ortogonalitetsvillkoret Z w(x)g i (x)g j (x) = δ ij. Vetenskapliga beräkningar III, Tom Sundius 28 13
Då gäller S = = Z b Z a w(x)[f(x) nx i= w(x)f 2 (x)dx 2 c i g i (x)] 2 dx nx Z c i w(x)f(x)g i (x)dx + nx nx c i c j Z w(x)g i g j dx = Z w(x)f 2 (x)dx 2 i= nx c i a i + nx c 2 i i= j= = Z w(x)f 2 (x)dx i= nx a 2 i + nx i= (a i c i ) 2 i= i= som är ett minimum, endast om c i = a i (Fourier-koefficienterna) gäller för alla i, vsb. Vetenskapliga beräkningar III, Tom Sundius 28 14
Man kan också visa, att Bessels olikhet Z b a w(x)f 2 (x)dx nx i= a 2 i, w(x) gäller för Fourier koefficienterna a i = Z b a w(x)f(x)g i (x)dx, om g i (x) är ortonormerade funktioner. Istället för den trigonometriska serien, är det ofta fördelaktigt att använda den komplexa framställningen av Fourier serien, som man finner på följande sätt. Av Eulers ekvation e ix = cos x + i sin x följer Av dessa identiteter följer (för heltaliga k) att sin x = eix e ix, cos x = eix + e ix. 2i 2 f(x) = X k= c k e (2πi/L)kx, Vetenskapliga beräkningar III, Tom Sundius 28 15
där om perioden är L. c k = 1 L Z L f(x)e (2πi/L)kx dx, I detta fall kan man lätt bevisa ortogonalitetsvillkoret genom direkt integration: Z L e (2πi/L)kx e (2πi/L)mx dx = ( m + k L m + k = Genom att jämföra de två olika representationerna för Fourier serien, finner vi c k = 8 >< >: a k ib k 2 a k + ib k a 2 2 k > k < k = Vetenskapliga beräkningar III, Tom Sundius 28 16
En märklig egenskap som delas av sinus och cosinus funktionen är att bägge är ortogonala både över ett kontinuerligt intervall och en mängd av diskreta punkter på lika stort avstånd från varandra, som täcker perioden. Detta är mycket viktigt på grund av att man vanligen endast känner funktionens värden i ekvidistanta punkter. Man kan därför exakt beräkna koefficienterna i diskreta sampelpunkter, istället för att beräkna dem approximativt över ett kontinuerligt intervall genom numerisk integration. Om vi t.ex. känner funktionsvärdena i de 2N sampelpunkterna: så gäller att de 2N funktionerna x k = Lk, k =, 1,..., 2N 1, 2N 1, cos 2π L x, cos 2π L 2x,..., cos 2π L (N 1)x, cos 2π L Nx sin 2π L x, sin 2π L 2x,..., sin 2π L (N 1)x utgör en ortogonal funktionsmängd. Vetenskapliga beräkningar III, Tom Sundius 28 17
Detta innebär, att för k och m N gäller 2N 1 X l= 2N 1 X l= 2N 1 X l= cos cos sin 2π L k Ll 2π cos 2N L m Ll 2N 2π L k Ll 2π sin 2N L m Ll 2N 2π L k Ll 2π sin 2N L m Ll 2N = 8 >< >: = = 8 >< >: k m N 2N k = m, N k = m =, N k m (bevis i R.W. Hamming: Numerical methods for Scientists and Engineers). N k = m, N k = m =, N Vetenskapliga beräkningar III, Tom Sundius 28 18
Hur skiljer sig den diskreta från den kontinuerliga Fourier utvecklingen? Antag, att den kontinuerliga serien är f(x) = a 2 + X k=1 (a k cos 2π L kx + b k sin 2π L kx), och att x l = Ll/(2N). Om den diskreta seriens koefficienter betecknas A k, B k och f(x l ) multipliceras med cos(2π/l)kx l och summeras, så får vi 2N 1 X l= f(x l ) cos 2π L kx l = NA k = N(a k + a 2N k + a 2N+k +...), varav följer att den koefficient som vi vill beräkna är A k = a k + X m=1 (a 2Nm k + a 2Nm+k ), som anger den ändliga Fourier seriens koefficienter uttryckta med den kontinuerliga Fourier seriens koefficienter. Vetenskapliga beräkningar III, Tom Sundius 28 19
På motsvarande sätt kan man visa, att B k = b k + X m=1 ( b 2Nm k + b 2Nm+k ), och att nolltegradstermen är A = a + 2 X m=1 a 2Nm. De olika frekvenser som ingår i den ursprungliga kontinuerliga signalen kommer därför att adderas vid samplingen (aliaseffekt, aliasing på engelska). Sambandet mellan den ändliga och den kontinuerliga Fourier seriens koefficienter visar tydligt aliaseffekten. Om frekvenserna representeras av punkter på en linje från till, så kan aliaseringen beskrivas genom att spegla linjen fram och tillbaka på sig själv. Den första frekvensen där en sådan invikning sker kallas vikningsfrekvensen, eller Nyquist frekvensen 2 och har värdet k = N. 2 efter Harry Nyquist (1889-1976), en svenskfödd amerikansk ingenjör Vetenskapliga beräkningar III, Tom Sundius 28 2
Som synes av bilden ovan kommer alla punkter på kurvan ovanför samma ställe på frekvensaxeln att uppträda som samma frekvens på grund av samplingen, så att frekvenserna inte på nytt kan separeras. Funktioner som svänger snabbare än Nyquist frekvensen avbildas alltså som funktioner med frekvensen speglad i Nyquist frekvensen. Man kan undersöka detta genom att experimentera med Matlab. Konstruera en vektor t med 11 punkter mellan och 2 π och rita cos(t): >> t = :2*pi/1:2*pi; >> plot(t,cos(t)) Rita sedan cos(nt), där n = 2, 3,.... För n = 1 får man en rät linje, pga av att den snabba cosinussvängningen hinner svänga en hel period och återvända till 1! Vetenskapliga beräkningar III, Tom Sundius 28 21