1 Axel Ruhe NADA 10 mars 2005 2D1250 Tillämpade numeriska metoder II Läsanvisningar och repetitionsfrågor: Dessa frågor är till hjälp vid inläsning av Linjär Algebra momenten i kursen. Hänvisningar till böcker är till (D x.y) till Demmels bok, Applied Numerical Linear Algebra, och (R x.y) till mina föreläsningsanteckningar. Frågorna är numrerade i en följd. A D 1.5 Flyttalsaritmetik. Fråga 1. Fråga 2. Fråga 3. Vad menas med maskinepsilon vid IEEE flyttalsaritmetik? Vad är overflow treshold? När används onormaliserade tal? Fråga 4. Hur kan man bestämma felet vid beräkningen s2 =a + b? Får man fram s med begränsad relativ störning? Fråga 5. Kan man begränsa felet vid beräkning av s3 =a+b+c? Visa hur man får återföra felet vid beräkning av fl(s3) på data a, b och c! D 1.7 Vektor- och matrisnormer. Fråga 6. Fråga 7. Ange villkoren på en vektornorm x! Ange villkoren på en matrisnorm A! Ax Fråga 8. Visa att för godtycklig vektornorm x så ger uttrycket A = max x 0 x en matrisnorm? Fråga 9. Fråga 10. Definiera p-normen x p för en vektor! Om p<1 så är inte x p en vektornorm längre. Varför? Fråga 11. Hur räknar man fram matrisnormerna A p för p =1, 2,? Fråga 12. Fråga 13. Ange Frobeniusnormen för en matris! Visa att Qx 2 = x 2 om matrisen Q har ortogonala kolonner! Fråga 14. Matrisen X är rektangulär m n. Visa att matrisen A = X T X är symmetrisk och positivt semidefinit. Under vilka villkor är den positivt definit? D 2.2 Linjära ekvationssystem. Fråga 15. Visa att konditionstalet för en matris med avseende på inversion är κ(a) = A A 1! Fråga 16. Visa att κ 2 (Q) =1för en ortogonal matris! Fråga 17. Anta att vi stör högerledet b i det linjära ekvationssystemet Ax = b till b + δb. Ge då en begränsning på störningen δx av lösningen!
2 Fråga 18. Anta att vi stör matrisen A i det linjära ekvationssystemet Ax = b till A + δa. Ge då en begränsning på störningen δx av lösningen! Fråga 19. Ange den minsta störning δa som gör matrisen A + δa singulär! Fråga 20. Visa att det relativa konditionstalet för en matris är κ CR (A) = A 1 A! När är detta konditionstal avsevärt mindre än det vanliga κ(a)? Fråga 21. Visa att vi kan faktorisera A = LU, där L är undertriangulär med ettor i diagonalen och U är övertriangulär med diagonalelement skilda från noll, om A och alla dess ledande delmatriser är regulära, dvs har nollskilda determinanter! Fråga 22. Visa att det räcker med radpermutation P för att PA = LU skall existera för varje kvadratisk icke singulär matris. Fråga 23. Beskriv Gausselimination, utan pivotering, a) som en följd av operationer på raderna i matrisen. b) i Matlab kod. c) som multiplikation med en serie elementära eliminationsmatriser. Fråga 24. Ange hur mycket räknearbete som krävs för a) att faktorisera matrisen PA = LU med Gausselimination b) att lösa ett system Ax = b för ett högerled b när faktorerna P, L och U redan är uträknade. c) att beräkna inversen B = A 1 med hjälp av faktorerna. d) att göra en matris- vektormultiplikation x = Bb. e) att multiplicera två matriser C = AB. Fråga 25. Visa att om vi använder flyttalsaritmetik för att beräkna en LU faktorisering med Gausselimination, så får vi fram en exakt LU faktorisering LU = A + E, där elementen i störningen E kan begränsas av E nɛ( L U )! Här står ɛ för maskinens relativa noggrannhet och absolutbeloppen tas elementvis. Fråga 26. Visa att vid partiell radpivotering är l jk 1! Fråga 27. Visa att vid partiell radpivotering är max u jk 2 n 1 max a jk! Fråga 28. Visa att Gausselimination kan utföras på en symmetrisk positivt definit matris utan pivotering och att dess faktorisering då kan skrivas A = LDL T! D 2.7.4 R 2 Glesa matriser, direkta metoder. Fråga 29. Beskriv hur en graf G =(V,E) definierar en matris A och hur en matris A ger en graf G(A). Fråga 30. När får man påfyllnad vid Gausselimination av en gles matris? Beskriv det i både matris- och graftermer! Fråga 31. Vad menas med pivotering för gleshet? Fråga 32. Visa att omnumrering av en graf svarar mot en permutationstransformation av matrisen. Vilken? Fråga 33. Kee)! Fråga 34. Fråga 35. Beskriv bandviddsreduktionsalgoritmen RCM (Reversed Cuthill Mc Vad är idén bakom dissektionsalgoritmen? Beskriv Minimum Degree algoritmen, symmmd!
3 D 3.1-2 R 3.1 Linjära minsta kvadratproblem. Fråga 36. Formulera det minsta kvadratproblem man får när man vill anpassa en summa av exponentialfunktioner Σ p k=1 α k exp( λ k t) till en serie mätdata (t i,y i ),i=1,...,n. Vilka är parametrarna? När har man ett linjärt minsta kvadratproblem, och vad är i det fallet dess matris A och högerled b? Fråga 37. Formulera normalekvationerna för ett linjärt minsta kvadratproblem! När har de en lösning? Fråga 38. Fråga 39. När kan de användas för att lösa problemet numeriskt? Beskriv QR faktorisering med Gram Schmidt! Fråga 40. Hur gör man QR faktorisering med Householdertransformationer H = I 2uu T? När är detta att föredra jämfört med Gram Schmidt? D 3.2.3 R 3.2 Fråga 41. Fråga 42. Fråga 43. Fråga 44. Fråga 45. Fråga 46. Singulär värdesuppdelning. Formulera SVD satsen! Vad menas med full radrang? Vad menas med full kolonnrang? Vad är en rangdefekt matris? Vad är rangen hos en icke singulär matris? Vad är en projektor? Vad är en ortogonal projektor? Fråga 47. Visa hur man får fram projektorer för de fyra rummen, bildrummen R(A) och R(A T ) och nollrummen N(A) och N(A T ), ur den singulära värdesuppdelningen! Fråga 48. Hur kan man räkna fram lösningen x till minsta kvadratproblemet min x Ax b 2 med SVD? När är det att föredra framför QR faktorisering och normalekvationer? Fråga 49. Hur kan man hitta A (k), närmaste matris av rang k till matrisen A med SVD? D 4.1-2 D 5.1-2 R 4.1 Egenvärdesproblem. Fråga 50. Visa hur man använder egenvärden och egenvektorer att ge lösningar till det linjära systemet av ordinära differentialekvationer När är lösningen stabil? dx dt = Ax, x(0) = x 0 Fråga 51. Vad menas med att två matriser är similära? Fråga 52. Visa att två similära matriser har samma egenvärden! Hur är det med deras egenvektorer? Fråga 53. Fråga 54. När är en matris diagonaliserbar? Formulera Schurs sats! Fråga 55. Visa att en reell symmetrisk (komplex Hermitesk) matris har reella egenvärden och ortogonala (unitära) egenvektorer! Fråga 56. Hur kan man räkna fram egenvärden och egenvektorer om man känner Schurs normalform av en matris? Fråga 57. Vad är Rayleighkvoten ρ(a, x) för en matris A och vektor x?
4 Fråga 58. Visa att om x är en egenvektor till A, så är Rayleighkvoten motsvarande egenvärde! Fråga 59. Visa att om x inte är en egenvektor, så minimeras residualen r = Ax σx i norm för σ = ρ(a, x)! Fråga 60. Formulera Courant Fischers minimax sats! Fråga 61. Visa att om både A och E är symmetriska, så begränsas störningen av egenvärdena så att λ k (A) λ k (A + E) E 2! Fråga 62. Visa att om A är symmetrisk och E är symmetrisk positivt semidefinit, så så λ k (A) λ k (A + E)! D 4.4 R 4.1 Transformationsalgoritmer för egenvärden. Fråga 63. Hur bestämmer man vektorn u i en Householder transformation H = I 2uu T som transformerar matrisen A till A (2) = HAH med alla element utom de två första i första kolonnen noll? Fråga 64. Varför nollställer man inte alla element utom det första? Fråga 65. Hur många aritmetiska operationer behövs för att multiplicera en full matris A med en Householder matris H = I 2uu T? Fråga 66. Varför startar man inte direkt med QR algoritmen, utan startar med Householder? Fråga 67. Vad menas med en oreducerad Hessenbergmatris? Fråga 68. Anta att matrisen A är en oreducerad Hessenbergmatris. Visa att om skiftet τ k = λ j ett egenvärde till A, och man beräknar nästa iteration A k τ k I = Q k R k, A k+1 = R k Q k + τ k I så blir sista raden i den transformerade matrisen A k+1 noll, utom sista elementet som blir λ j. Fråga 69. Fråga 70. Vad menas med deflation i QR metoden? Vad är Newtonskift resp Wilkinsonskift i QR metoden? Fråga 71. Vad är idén bakom Divide and Conquer algoritmen för tridiagonala egenvärden? D 6.6 R 4.2 Fråga 72. Fråga 73. Fråga 74. Krylovalgoritmer för egenvärden. Beskriv potensmetoden för egenvärden! Vad är en Krylovföljd? Krylovrum? Arnoldis algoritm har den grundläggande rekursionen AQ k = Q k H k,k + R vad är där Q k, H k,k och residualen R? Fråga 75. Visa att om θ är ett egenvärde och s en egenvektor till H k,k,såger y = Q k s en approximativ egenvektor till A. Vad är dess residual r = Ay yθ? Fråga 76. Beskriv Lanczos algoritm för en symmetrisk matris A! D 6.6.2-6 R 5 Iterativa algoritmer för linjära ekvationssystem. Fråga 77. Vad är en iterativ algoritm för ekvationssystem? Vad menas med en stationär iteration?
5 Fråga 78. Hur kan man använda Arnoldis algoritm att bestämma lösningen till ett ekvationssystem Ax = b? Fråga 79. Hur kan Lanczos algoritm användas att lösa ett ekvationssystem med symmetrisk matris A? Fråga 80. Fråga 81. Fråga 82. Fråga 83. Vad går c-g algoritmen ut på? Vilka vektorer är konjugerade? Vilka faktorer bestämmer c-g algoritmens konvergens? Vad är prekonditionering av ett linjärt ekvationssystem? Hur går inkomplett faktorisering till? Lycka till!