Institutionen för neurovetenskap enheten för logopedi Att lyssna på musik med cochleaimplantat Anna-Stina Thorssell Ahlm Hörselnedsättningar: Kognition, Kommunikation, Intervention 7.5 hp, VT 2016
Sammanfattning I denna litteraturstudie har jag valt att undersöka hur barn med cochleaimplantat (CI) uppfattar musik. Det är uppenbart att ett CI har stora begränsningar när det gäller att förmedla låga ljudfrekvenser. Dessa ljudfrekvenser har dock visat sig vara viktiga för att vi ska kunna bedöma tonhöjd (pitch), melodier, harmonier och klangfärg (timbre) vilka alla är viktiga beståndsdelar i musik. Det är därför inte konstigt att många CI-användare inte får någon skönhetsupplevelse när de lyssnar på musik. Hur kan man då förbättra musikupplevelsen för personer med CI? Ett sätt är att förbättra CI-tekniken så att man får bättre återgivning av låga ljudfrekvenser och högre spektral upplösning. Ett annat sätt är att förenkla musiken så den blir lättare för hörselsystemet att bearbeta och ett tredje sätt är att genom träningsprogram lära hjärnan att tolka ljudintrycken med större precision. Troligen behövs en kombination av dessa åtgärder för ett optimalt resultat. Det skulle också vara intressant att ta reda på om ett CI som bättre kan återge musik också kan underlätta för CI-användaren att uppfatta den emotionella tonen i mänskliga röster. Introduktion och syfte När jag började arbeta på Hörselkliniken hörde jag någon säga att barn med cochleaimplantat (CI) hade svårare än andra barn att sjunga och uppfatta melodier. Det väckte mitt intresse att ta reda på om det påståendet stämmer och vilka mekanismer som i så fall ligger bakom detta förhållande. För att kunna belysa den frågeställningen har jag satt mig in i hur hörselsystemet och det centrala nervsystemet processar musikaliska stimuli samt på vilket sätt ett CI skiljer sig från det naturliga hörselsystemet. Metod För att förstå hur det centrala nervsystemet processar musik har jag läst Fagius J. (2015) Hemisfärernas musik och Levitin D. (2006) This is your brain on music. För att förstå hur hörselsystemet fungerar har jag studerat Mather G. (2009) Foundations of sensation and perception, samt anteckningar från Sébastien Santurettes föreläsning: Sound processing in the auditory system, den 10 februari 2016. Efter den inledande kartläggningen av ämnesområdet har jag gjort en sökning på Medline med sökorden: Cochlear implant and Music. Ur den stora mängd artiklar som jag då fick fram har jag valt ut 6 artiklar som belyser olika aspekter av mitt ämnesområde.
Resultat Hörselsystemet När ljudvågor träffar trumhinnan börjar denna att vibrera och rörelsen fortplantas sedan via de tre hörselbenen och det ovala fönstret till snäckan (cochlean). Inne i den vätskefyllda snäckan ligger basilarmembranet inrullat. Det innehåller hårceller som är specialiserade att reagera på vissa ljudfrekvenser. Basilarmembranet som är smalare och styvare i basen och bredare och mjukare längst inne i snäckan har en tonotopisk organisation. I den yttre delen av membranet finns hårceller som reagerar på ljudvågor med hög frekvens och längst inne i snäckan finns celler som reagerar på låga ljudfrekvenser. Hårcellerna inne i cochlean kan omvandla mekanisk energi till nervimpulser (transduktion) som via ganglieceller skickar nervimpulserna vidare genom hörselnerven (Kranialnerv 8) till Cochleakärnorna i hjärnstammen. Därifrån processas nervimpulserna vidare tills de når primära hörselkortex (Brodmann 41) i de övre temporallobsvindlingana. Den tonotopiska organisationen av ljudintrycken består från basilarmembranet ända till primära hörselkortex. Enligt Fagius (2015) kan det unga friska örat uppfatta frekvenser från 20-20 000 Hz. Han skriver också att vårt talfrekvensområde omfattar ungefär 100-5000 Hz samt att vi är särskilt receptiva för frekvenserna 1000 4000 Hz där de starkt betydelsebärande konsonanterna befinner sig. Musiken omfattar ungefär frekvenserna 16 10 000 Hz med en dominans för 50-4000 Hz. I Levitin (2006) sid 23, finns en bild som beskriver vilka frekvenser som motsvarar tangenterna på ett piano. Med hjälp av den bilden kan jag konstatera att den mänskliga sångrösten omfattar ungefär intervallet 70 Hz (den lägsta tonen för en låg basröst) 1500 Hz (den högsta tonen för en koloratursopran). De flesta sånger och visor vi sjunger för varandra befinner sig i frekvensområdet 100-350 Hz om sången framförs av en man, och i intervallet 200 700 Hz om sången framförs av en kvinna eller ett barn. Det är därför nödvändigt med god återgivning av frekvenser under 1000 Hz om vi ska kunna uppfatta melodin (dvs. variationen i frekvenser) i en vanlig sång. Cochleaimplantat Ett cochleaimplantat (CI) innebär att man ersätter basilarmembranet, med ett antal elektroder som tar emot ljudvågor från en mikrofon, vilka sedan skickas vidare till hörselnerven. Ett naturligt basilarmembran innehåller ca 20-25 000 hårceller som alla är specialiserade på att
reagera på vissa frekvenser. Den naturliga hörseln kan därför med fin precision skilja mellan olika ljudfrekvenser. Ett CI har ett begränsat antal elektroder. De äldsta CI-modellerna hade endast 4 elektroder medan de moderna implantaten har 18-22 elektroder. I ett CI måste varje elektrod ansvara för ett bredare frekvensområde än hårcellerna i basilarmembranet, vilket leder till sämre precision i den spektrala upplösningen av ljudet. Ett basilarmembran är 30-35 mm långt medan ett CI ofta inte är mer än 20 mm långt. Det betyder att ett CI inte når ända in i spetsen av snäckan där de låga ljudfrekvenserna registreras. Den elektrod som ska återge de låga ljudfrekvenserna i ett CI måste därför täcka ett brett spektrum av frekvenser, vilket innebär att ett CI inte kan återge de låga ljudfrekvenserna lika väl som det naturliga basilarmembranet. Santurette (2016) påpekar att perceptionen av låga ljudfrekvenser är beroende av hög spektral upplösning medan de höga ljudfrekvenserna kodas som hela kluster (envelopes). Vid talperception använder vi oss i hög utsträckning av att koda envelopes och ett CI är därför i första hand programmerat för detta och har inte den spektrala upplösning som krävs för att koda låga frekvenser. I en studie av Singh, Kong och Zeng (2009) undersöktes 11 CI-användares förmåga att identifiera några kända melodier i tre register: Lågt register (104-262 Hz), mellanregister (207-523 Hz) och högt register (414-1046 Hz). Deltagarna som hade en medelålder på 56 år hade i medeltal använt sina CI i 3 år. Antalet elektroder i deras CI varierade från 12 till 20. Författarna fann att igenkänningen av melodier var bäst i det höga registret särskilt när försökspersonerna fick höra rena toner utan komplex harmonik. Däremot såg man ingen korrelation mellan igenkänning av melodier och antalet elektroder. Hur kan man förbättra musikupplevelsen för CI-användare Det finns flera vägar att gå för att lösa detta. Ett sätt är att en CI-användare får träna på att analysera ljud. Ett annat sätt är att förenkla musiken så den blir mindre komplex och lättare att uppfatta och en tredje möjlighet är att förbättra CI:s kapacitet. Alla dessa sätt har prövats. I en studie av Nardo et al (2015) ville man undersöka om man genom ett datoriserat träningsprogram, som gick ut på att höra om två toner var lika, kunde förbättra förmågan att bedöma tonhöjd (pitch) och känna igen melodier hos barn med CI. I studien ingick 10 barn med CI i åldrarna 5-12 år och lika många barn med normal hörsel som var matchade enligt ålder, kön och socioekonomiska faktorer. Efter 6 månaders träning förbättrade alla barn med
CI sina resultat såväl på tonhöjdsbestämning som på melodiigenkänning, men ingen av dem presterade lika högt som det matchade barnet med normal hörsel. I en studie av Kohlberg, Mancuso och Lalwani (2015) undersökte man om man genom att förenkla musiken kunde göra den mer njutbar för CI-användare. I studien ingick 9 vuxna CIanvändare och 16 vuxna med normal hörsel som fick höra musiken i en CI-simulator. Alla fick lyssna till ett stycke countrymusik både i ursprunglig form och i modifierad form (med färre instrument) och bedöma musiken på tre parametrar: 1. Var ljudet behagligt obehagligt att lyssna på 2. Lät ljudet som musik eller inte som musik och 3. Lät ljudet naturligt eller onaturligt. Såväl CI-användarna som personerna med normal hörsel som lyssnade via en CIsimulator bedömde att den modifierade formen av musiken var mest njutbar att lyssna på. I en studie av Munjal et al (2015) ville man undersöka om musikupplevelsen kunde förbättras om man använde en s.k. fantomelektrod som förstärkte återgivningen av låga frekvenser i snäckans innersta del. I studien ingick 11 vuxna med CI. Deltagarna testades med Multiple Stimulus with Hidden Reference and Anchor (MUSHRA), ett testbatteri där deltagarna ska avgöra om de hör någon skillnad när de först får lyssna på ett musikstycke och sedan på en modifierad version där man tagit bort de lägsta basfrekvenserna. CI-användarna testades två gånger, en gång med sitt vanliga CI och en gång med ett CI med fantomelektrod. De presterade bättre på CI-MUSHRA med fantomelektroden. De preliminära resultaten av denna studie tyder på att på att man kan förbättra musik-upplevelsen hos CI-användare med en bättre återgivning av basfrekvenser. Det centrala nervsystemets tolkning av musik Ända sedan Brocas och Wernickes arbeten i slutet av 1800-talet har vi känt till att hjärnbarken i den vänstra hemisfären spelar en dominerande roll för perceptionen av talat språk. Ett flertal studier med dikotisk lyssning, PET och fmri och dock visat att det finns aspekter av talperceptionen som har en högersidig dominans. Dit hör att uppfatta emotionell ton (timbre) i en röst. Musik består av flera komponenter (rytm, tonhöjd, melodi osv) och olika aspekter av musik processas på skilda sätt i det centrala nervsystemet. Fagius (2015) redogör i kapitel 10, för ett antal studier som lett fram till att man numera betraktar höger hemisfär som dominant för perceptionen av tonhöjd (pitch), harmonier (ackord), melodiminne och klangfärg (timbre).
Perceptionen av rytm har däremot visat sig ha en vänstersidig dominans. Tilläggas bör att naiva musiklyssnare har mer högersidig aktivitet än professionella musiker hos vilka man också ser aktivitet i vänster hemisfär. Montreal Battery for Evaluation av Amusia (MBEA) är ett testbatteri som mäter fem faktorer av musiktolkningen: 1. Scale, 2. Contour, 3. Interval, 4. Rhytm, 5. Meter och 6. Melody Memory. I en studie av Cooper, Tobey och Loizou (2008) undersöktes 12 CI-användare och 30 normalhörande vuxna med MBEA. CI-användarna hade en medelålder på 50 år och de normalhörande vuxna som alla var studenter på University of Texas i Dallas fick lyssna på musiken i en CI-simulator. Studien visade att såväl CI-användarna som de normalhörande som lyssnat på musiken i en CI-simulator presterade högre på tempobaserade test (Rhytm och Meter) än på tonhöjdsbaserade test (Scale, Contour och Interval). CI-användarnas resultat på de tonhöjdsbaserade testen låg nära en slumpmässig nivå (dvs. det resultat man får om man bara gissar sig fram). De presterade något högre på Melody Memory troligen på grund av att de där kunde ta hjälp av rytmen när de skulle identifiera sången. Musik och emotioner Inom den moderna neuropsykologin finns det numera en consensus om att höger hemisfär spelar en dominerande roll för bearbetningen av emotionella stimuli. Orbitala frontalkortex på höger sida räknas som det limbiska systemets associationskortex. Att musik kan väcka emotioner är också välkänt och det verkar ligga en viss sanning bakom sångstrofen: Säg det i toner och inte i ord när vi ska uttrycka våra känslor för varandra. Frågan är dock om musikens förmåga att väcka känslor har något att göra med hur olika aspekter av ljud processas i hjärnbarken. Shirvani et al (2015) undersökte om de genom s.k. bimodal fitting kunde påverka hur barn med hörselnedsättning kunde uppfatta den emotionella tonen i musik. I studien som är gjord i Iran ingick 25 barn med svår till grav hörselnedsättning som använde ett CI (i Iran får man endast ett CI) och 20 barn med svår hörselnedsättning som hade bimodal fitting (CI på ena sidan och en hörapparat med spektral upplösning av lågfrekventa ljud på andra sidan) samt 30 barn med normal hörsel. Alla barn fick höra ett antal korta melodier och skulle därefter avgöra om det var en glad eller ledsen melodi genom att peka på ett ansikte som visade respektive emotion. Glada melodier gick i dur och hade ett snabbare tempo än de ledsna melodierna som gick i moll och hade långsammare tempo. De barn som hade bimodal
fitting presterade signifikant högre resultat på detta test än de som enbart hade ett CI. De barn som hade en normal hörsel presterade dock signifikant högre än båda grupperna med hörselnedsättning. Dessa resultat tyder på att bättre spektral återgivning av lågfrekventa basljud har samband med såväl bättre uppfattning av tonhöjd och melodier som av den emotionella tonen i musiken. Diskussion Det är stor skillnad på musikupplevelsen hos en person som är född med hörselnedsättning och fått CI i späd ålder och en person som haft en fungerande hörsel och fått CI i vuxen ålder. Den som tidigare har hört musik med den naturliga hörseln och kan minnas hur den lät, upplever ofta att den inte låter lika bra som förut med CI. Den som aldrig hört musik har ingenting att jämföra med och kan därför inte avgöra om det låter bra. Många barn med CI lyssnar på musik och verkar uppskatta det, finns det då något skäl att förändra deras musikupplevelse? Kan en förbättrad musikperception leda till några andra sidovinster? Det verkar finnas ett samband mellan hur det centrala nervsystemet processar vissa musikaliska stimuli (tonhöjd, melodi och harmonier) och timbre (den emotionella tonen) i den mänskliga rösten. Alla dessa funktioner visar en dominans för höger hemisfär. Flera föräldrar till barn med CI har upplevt att deras barn har svårt att tolka den emotionella tonen i rösten och att förstå det underliggande emotionella budskapet när man talar till dem. Det vore därför intressant att undersöka om ett CI som bättre återger de låga ljudfrekvenserna och har en högre spektral upplösning, inte bara kan förändra ett barns musikupplevelse utan även förbättra förståelsen av den emotionella tonen i talat språk? Referenser Cooper WB, Tobey E, Loizou PC. (2008). Music perception by cochlear implant and normal hearing listeners measured by the Montreal battery for evaluation of amusia. Ear Hear. 2008; sid 618-626. Fagius, J. (2015). Hemisfärernas musik. Om musikhanteringen i hjärnan. Göteborg: Bo Ejeby Förlag.
Kohlberg GD, Mancuso DM, & Lalwani AK. (2015). Music engineering as a novel strategy for enhancing music enjoyment in the cochlear implant recipient. Behavioural neurology. 2015:829680. Levitin D. (2006). This is your brain on music. Understanding a human obsession. London. Atlantic Books. Mather, G. (2009). The physics and biology of audition. Perception of sound. Foundations of sensation and perception. Hove and New York. Psychology Press Ltd. Munjal T, Roy AT, Carver C, Jiradejvong P, & Limb CJ. (2015) Use of the phantom electrode strategy to improve bass frequency perception for music listening in cochlear implant users. Cochlear implants international, 16:sup 3, sid 121-128 Nardo W, Schinaia L, Anzivino R, Corso E, Ciacciarelli A and Paludetti G. (2015) Musical training software for children with cochlear implants. Acta Otorhinolaryngol. Ital. 2015 Oct; 35(4): 249-257. Santurette S (2016). Sound processing in the auditory system. Anteckningar från föreläsning den 10 februari 2016 i kursen Hörselnedsättning: Kognition, kommunikation och intervention. Shirvani S, Jafari Z, Zarandi MM, Jalaie S, Mohagheghi H, & Tale MR. (2015) Emotional perception of Music in children with bimodal fitting and unilateral cochlear implant. Annals of otology, rhinology & laryngology 1-8. 2015. Singh S, Kong YY, Zeng FG. (2009). Cochlear implant melody recognition as a function of melody frequency range, harmonicity, and number of electrodes. Ear Hear. 2009;30:160-168.