MVE420: Nya teknologier, global risk och mänsklighetens framtid. MVE420: datorintelligens och medvetande. 8 maj 2015

Relevanta dokument
MVE420: Nya teknologier, global risk och mänsklighetens framtid. Artificiell intelligens och medvetande. 3 maj 2016

MVE420: Nya teknologier, global risk och mänsklighetens framtid. Artificiell intelligens och medvetande. 2 maj 2017

KVALIABASERADE INVÄNDNINGAR MOT MATERIALISM

Linköpings universitet


COMPUTABILITY BERÄKNINGSBARHET. Källa: Goldschlager, Lister: Computer Science A Modern Introduction 2. upplaga 1988, Prentice Hall

Workplan Food. Spring term 2016 Year 7. Name:

Hur fattar samhället beslut när forskarna är oeniga?

Recension. Here Be Dragons: Science, Technology and the Future of Humanity Olle Häggström Oxford University Press 2016, 278 s. ISBN

Självkörande bilar. Alvin Karlsson TE14A 9/3-2015

samhälle Susanna Öhman

Kanban är inte din process. (låt mig berätta varför) #DevLin Mars 2012

HUME HANDOUT 1. Han erbjuder två argument för denna tes. Vi kan kalla dem "motivationsargumentet" respektive "representationsargumentet.

INSTITUTIONEN FÖR FILOSOFI, LINGVISTIK OCH VETENSKAPSTEORI ETIK VT-15 DJURETIK OCH MORALISK STATUS

Hur leder vi transformationer?

CHANGE WITH THE BRAIN IN MIND. Frukostseminarium 11 oktober 2018

2. Kulturrelativism. KR har flera problematiska konsekvenser:

Recension. Superintelligens: Vägar, faror, strategier Nick Bostrom Översättning: Jim Jakobsson Fri Tanke, 2017, 516 s.

Fokus Yrkesutbildning VO

Flervariabel Analys för Civilingenjörsutbildning i datateknik

Kvalitetsarbete I Landstinget i Kalmar län. 24 oktober 2007 Eva Arvidsson

Isometries of the plane

Provlektion Just Stuff B Textbook Just Stuff B Workbook

LÖNEN ETT EFFEKTIVT SÄTT FÖR ÖNSKAD PRESTATION - ENDA FÖRUTSÄTTNINGEN FÖR KONKURRENSKRAFT I EN GLOBAL VÄRLD!

FTEA21:3 Spr akfilosofi F orel asning III Martin J onsson

Fokus Yrkesutbildning VO

MNXA09 vt14. Kursen och dess delmoment. Kursen överträffade mina förväntningar. Antal respondenter: 14. Antal svar. Svarsfrekvens: 64,29 %

Wittgenstein for dummies Eller hur vi gör det obegripliga begripligt. Västerås 15 februari 2017

EN KINESISK ROBOT. En C-uppsats om artificiell intelligens, med utgångspunkt i Det kinesiska rummet ett argument av John R. Searle

Aktivitetsrättvisa en utopisk eller realistisk vision för jämlik rehabilitering av etniska minoriteter med psykiska funktionshinder?

BOENDEFORMENS BETYDELSE FÖR ASYLSÖKANDES INTEGRATION Lina Sandström

Make a speech. How to make the perfect speech. söndag 6 oktober 13

Idiomatiskska uttryck 2

Moralfilosofi. Föreläsning 11

Service och bemötande. Torbjörn Johansson, GAF Pär Magnusson, Öjestrand GC

Översikt. Tre typer av moraliska teorier: (1) Konsekvensialistiska (2) Deontologiska (3) Dygdetik

Vässa kraven och förbättra samarbetet med hjälp av Behaviour Driven Development Anna Fallqvist Eriksson

Kvalitativ design. Jenny Ericson Medicine doktor och barnsjuksköterska Centrum för klinisk forskning Dalarna

Resultat av den utökade första planeringsövningen inför RRC september 2005

Kvalitativ design. Jenny Ericson Doktorand och barnsjuksköterska Uppsala universitet Centrum för klinisk forskning Dalarna

Artificiell intelligens, eller Kommer din dator att bli klokare än dig? (eller kanske är den redan det?)

Objektivism. Föreläsning Objektivismen är (i likhet med naturalismen) en kognitivistisk teori

Chapter 1 : Who do you think you are?

onsdag den 21 november 2012 PRONOMEN

Om maskiner kunde tala

FÖRBERED UNDERLAG FÖR BEDÖMNING SÅ HÄR

FTEA21:3 Spr akfilosofi F orel asning I Martin J onsson

Det Fysiska, det Mentala och det Medvetna 2

English. Things to remember

Ökat personligt engagemang En studie om coachande förhållningssätt

Linköpings universitet

Artificiell intelligens, eller Kommer din dator att bli klokare än dig? (eller kanske är den redan det?)

729G11 Artificiell Intelligens Marcus Johansson Marjo581. Fuzzy logic. Marcus Johansson Marjo581

Uppsatserna skall ha ett försättsblad med Ca 2500 ord inklusive noter och referenser följande information: (ca 4-5 sidor) Titel på uppsatsen

FTEA12:4 Vetenskapsteori. Realism och anti-realism

tidskrift för politisk filosofi nr årgång 9

Supplemental Instruction (SI) - An effective tool to increase student success in your course

BOX SOLFALL. Anna Lamberg. 8 januari 7 februari

Designmönster för sociala användningssituationer

Kropp-medvetandeproblemet i samtida filosofi Pär Sundström

Kants etik. Föreläsning Immanuel Kant ( ) är en av mest betydelsefulla moderna filosoferna

Föreläsningar. Gruppövning, grupp A: Måndag 26/ sal 318 Gruppövning, grupp B: Måndag 26/ sal 318

Formell logik Föreläsning 1. Robin Stenwall

Slide 1. Slide 2. Slide 3. Kunskapsteori. Propositionell kunskap. Vilka problem skall kunskapsteorin lösa?

Drivkrafter bakom spel och spelberoende flykt, spänning och förhoppningar

Join the Quest 3. Fortsätt glänsa i engelska. Be a Star Reader!

Subjektivism & emotivism

Högre kognitiva funktioner

Jag fastnad för en mening i Daniel Van der Veldens essä We no longer have. any desire for design that is driven by need (Van der Velden, 2006) Vad

INTERNET R.I.P. Pelle Snickars, KB. torsdag 7 mars 13

Språkliga uttrycks mening

Moralfilosofi. Föreläsning 6

#minlandsbygd. Landsbygden lever på Instagram. Kul bild! I keep chickens too. They re brilliant.

F Secure Booster är ett verktyg för att snabba upp och städa upp i din pc eller

Moralisk oenighet bara på ytan?

Formell logik Föreläsning 1. Robin Stenwall

Föreläsning 4 IS1300 Inbyggda system

Exportmentorserbjudandet!

5. Egoism. andras skull.

Bakgrund. Bakgrund. Bakgrund. Håkan Jonsson Institutionen för systemteknik Luleå tekniska universitet Luleå, Sverige

Förtroende ANNA BRATTSTRÖM

Mathematical Cryptology (6hp)

employee engagement concept (Eec) - a respectful work life designed around people -

Moralfilosofi. Föreläsning 4

KAPITEL12 LEDARSKAP. Jacobsen & Thorsvik

Gränser och gränssnitt mellan människa och maskin

Lars Levi Læstadius s depiction of indigenous Sami religion in Fragmenter i lappska mythologien. Olle Sundström

Datavetenskap. Beteendevetenskap MDI. Design

Svenska()(Bruksanvisning(för(handdukstork()(1400(x(250(mm(

Matematikens grundvalar och programmering av datorer

ETT MARKÄGAREDRIVEN PROJEKT. Katrine Möller Sörensen, projektledare

FTEA21:3 Spr akfilosofi F orel asning III Martin J onsson

ATT MÄTA FRAMGÅNG I MATEMATIKPROJEKT MARTIN GRANDER MALMÖ HÖGSKOLA

1. En oreglerad marknad involverar frihet. 2. Frihet är ett fundamentalt värde. 3. Därav att en fri marknad är moraliskt nödvändigt 1

Motivation och drivkrafter

Kapitel 1. Men varför är BDT falsk om vi förstår desire i fenomenologisk mening?

Bridging the gap - state-of-the-art testing research, Explanea, and why you should care

Writing with context. Att skriva med sammanhang

Consumer attitudes regarding durability and labelling

Transkript:

MVE420: Nya teknologier, global risk och mänsklighetens framtid http://www.math.chalmers.se/math/grundutb/cth/mve420/1415/ Föreläsning om Datorintelligens och medvetande 8 maj 2015

Kan en dator ha ett medvetande? En möjlig reaktion vid första anblick är att frågan är oviktig, ty vad som betyder något för oss är vad maskinerna gör, inte vad de (eventuellt) upplever. Givet vad maskinerna gör blir ett Terminator- eller WALL-E-scenario varken bättre eller sämre för oss om de har medvetande.

På det finns (minst) två svar till försvar för idén att frågan om datormedvetande är viktig: 1. Om maskiner har medvetande är det ett argument för att vi kan ha moraliska förpliktelser gentemot dem. 2. Om vi skall kunna sätta något hopp till mind uploading att vi skall kunna ladda över våra medvetanden till datorer så krävs det att datorer kan vara medvetna.

Begreppet medvetande är mycket besvärligt. Hur skall vi definiera det? Många (mer eller mindre oprecisa) förslag finns, och filosofer talar t.ex. om att ha subjektiva upplevelser, och att X har medvetande om och endast om frågan Hur känns det att vara X? har något annat svar än Det känns inte alls. Spontant tycker vi att Hur känns det att vara Ingemar Stenmark? är en vettig fråga, medan vi tycker att Hur känns det att vara en stenbumling? är en knäpp fråga. Detta kan tolkas som att vi tillskriver Ingemar Stenmark medvetande, medan vi inte tillskriver stenbumlingar medvetande.

Filosofen David Chalmers har infört beteckningen the Hard Problem på frågan om varför vi har medvetande. Frågan är notoriskt svår, liksom en rad närbesläktade frågor: Vad är medvetandets plats i ett materiellt universum, och hur kan ett materiellt universum ge upphov till medvetande? Neurovetenskapen har haft vissa framgångar med att zooma in på specifika processer i hjärnan som verkar korrelera med medvetna upplevelser, men frågan är om vi överhuvudtaget närmat oss ett svar på hur och varför just dessa processer ger upphov till medvetande.

David Chalmers vs zombie-chalmers

En zombie är en person som fysikaliskt sett, ned till minsta atom eller elementarpartikel, är som en vanlig människa, men som saknar medvetande. I termer av zombier kan the Hard Problem formuleras som Varför är vi inte zombier?.

Andra filosofer, i synnerhet Daniel Dennett, har ifrågasatt zombie-begreppet, och hävdat inte bara att zombier är fysiskt omöjliga, utan att själva idén är inkoherent och ett missförstånd. Att tänka sig ett universum befolkat av zombier istället för av oss är, menar han, lika knäppt som följande tankeexperiment: Låt oss föreställa oss ett universum som fysikaliskt sett är exakt likt vårt, ned till varje atom och varje elementarpartikel, inklusive alla lokala tryckförändringar och vibrationer, men där det inte finns ljud.

Det finns många teorier om medvetandets natur, men en som vunnit stor popularitet de senaste decennierna är den som benämns computational theory of mind (CTOM). Den kan ses som en variant av funktionalism ( it ain t the meat, it s the motion ), och går ut på att medvetandet uppstår som en manifestation av ett visst slags beräkning eller informationsbehandling oberoende av vad för slags hårdvara som används (t.ex. en biologisk hjärna, eller en laptop).

Ett skäl att acceptera CTOM är följande. Vår allmänna tendens att tillskriva våra medmänniskor medvetanden verkar grunda sig i deras beteenden, snarare än att vara kopplad till den exakta hårdvaran. Jag känner mig säker på att VV har ett medvetande, och om han lyfte på sitt skallben och det visade sig (till allas vår förvåning!) att han därunder inte har det geleaktiga organ som kallas hjärna, utan IC-kretsar och elektronik, så skulle jag likväl inte ändra mig om att han är medveten. Därmed förefaller det konsekvent att tro på CTOM.

David Chalmers behandling av uppladdning i sitt kapitel i Intelligene Unbound bygger på CTOM. Men det finns även skarpa kritiker av CTOM. Massimo Pigliucci skriver i sitt kapitel i samma bok att Chalmers and other supporters of mind uploading [proceed] as if we had a decent theory of consciousness, and by that I mean a decent neurobiological theory.

Pigliuccis logik är följande. All consciousness we know of happens in brains. Brains are neurobiological objects. Hence we need a neurobiological theory of consciousness. Varför skulle just det vara korrekt generalitetsnivå? Här några alternativ: All consciousness we know of happens in brains. Brains are material objects. Hence panpsychism. All consciousness we know of happens in brains. Brains are computational devices. Hence CTOM. All consciousness I know of for sure happens in my own brain. Hence solipsism. Pigliucci motiverar inte sitt val.

Det mest kända motargumentet mot CTOM är ett tankeexperiment av John Searle benämnt det kinesiska rummet.

Searles argument är ett exempel på den teknik som kallas reductio ad absurdum, och som vi i matematiken känner som motsägelsebevis. Om vi vill argumentera för ett påstaende A kan vi göra på följande vis. Antag att A inte är sann, dvs antag A. Härled en konsekvens B av A. Påvisa att B är omöjlig. Eftersom B är omöjligt måste antagandet A vara falskt. Eftersom A är falsk måste A vara sann. Searle tillämpar detta med A = CTOM-teorin stämmer inte, A = CTOM, B = det kinesiska rummet begriper kinesiska.

Det kinesiska rummet. Antag att CTOM är sann. Eftersom det finns människor som talar och förstår kinesiska finns det då också datorprogram som talar och förstår kinesiska. Detta program kan om vi så vill, istället för på dator, implementeras med hjälp av ett rum där John Searle själv sitter och manipulerar kinesiska symboler med hjälp av papper och penna (motsvarande datorminnet) och en utförlig instruktionskatalog (motsvararande själva programmet). Men stackars John Searle i rummet skulle ju fortfarande inte begripa ett ord kinesiska i motsats till vad CTOM hävdar. Alltså är CTOM fel.

Searles presenterade sitt argument i uppsatsen Minds, brains and programs i tidskriften Behavioral and Brain Sciences 1980. Den återfinns också i en fantastisk antologi från 1981:

Hofstadters och Dennetts svar till Searle: Vi accepterar att Searle i tankeexperimentet inte begriper kinesiska, men systemet som helhet (bestående av rummet, Searle själv, regelboken, alla papper, etc) gör det. Searles replik: Meh, låt oss istället tänka oss att jag memorerat hela instruktionskatalogen och gör alla beräkningar i huvudet. Jag kommer fortfarande inte att begripa kinesiska, och detsamma gäller systemet som helhet, för den här gången är jag lika med systemet. Hofstadters och Dennetts replik: Meh, under dessa omständigheter kommer du visst att begripa kinesiska.

Vi gör nu ett hopp i handlingen fram till hösten 2014 och John Searles ursinniga sågning i New York Review of Books av Nick Bostroms bok Superintelligence.

Bostrom hävdar i sin bok att det är troligt att vi så småningom skapar en maskin med superintelligens, att detta mycket väl kan komma att ske i det mycket snabba förlopp av självförbättring som kallas intelligensexplosion, och att den händelsen kan bli extremt farlig för mänskligheten om vi inte är mycket noggranna med att i förväg se till att maskinen har värderingar i linje med våra. Han exemplifierar detta med det så kallade Paperclip Armageddon-scenariet, där en maskin som programmerats att maximera framtida gemproduktion blir den första att uppnå tröskeln till intelligensexplosion.

Searle, i sin recension 2014: The prospect of superintelligent computers rising up and killing us, all by themselves, is not a real danger. [...] It is easy to imagine robots being programmed by a conscious mind to kill every recognizable human in sight. But the idea of superintelligent computers intentionally setting out on their own to destroy us, based on their own beliefs and desires and other motivations, is unrealistic because the machinery has no beliefs, desires and motivations. [...] Why is it so important that the system be capable of consciousness? Why isn t appropriate behavior enough? Of course for many purposes it is enough. If the computer can fly airplanes, drive cars, and win at chess, who cares if it is totally nonconscious? But if we worried about a maliciously motivated superintelligence destroying us, then it is important that the malicious motivation should be real. Without consciousness, there is no possibility of its being real.

I sin motivering av dessa påståenden lutar sig Searle mot sitt kinesiska rummet-argument och dess slutsats att CTOM är fel. Men det kinesiska rummet handlar om maskinernas (brist på) inre uppelvelser, inte vad de faktiskt gör. Och det är det senare som är farligt i Paperclip Armageddon-scenariot. Och se vad Searle själv har medgivit här är Dennett (1982): Searle has admitted (in conversation on several occasions) that in his view a computer program, physically realized on a silicon chip (or for that matter a beer-can contraption suitably sped up and hooked up) could in principle duplicate not merely simulate the control powers of the human brain.

Men då så. Låt oss ta ett sådant program, och se hur det börjar bete sig som en människa, vilket inbegriper formerandet av nya insikter, önskningar, drivkrafter etc. Med Searles synsätt kommer maskinen inte att ha några verkliga insikter, önskningar, drivkrafter etc. Däremot kommer den att ha vissa informations- och beräkningsstrukturer som får den att bete sig som om den hade verkliga insikter, önskningar, drivkrafter etc. Låt oss kalla dessa strukturer z-insikter, z-önskningar, z-drivkrafter etc.

Alltså: om maskiner inte kan ha medvetande, så kan de inte ha insikter, önskningar, drivkrafter etc, utan bara z-insikter, z-önskningar, z-drivkrafter, etc. När Paperclip Armageddon drar igång, så kanske Searle kommer att stå där och ropa till oss: Lugn, lugn, lugn allesammans! Det kan verka som om maskinen har bildat en önskan om att förgöra oss så att vi inte skall kunna stoppa den från att omvandla hela solsystemet till en jättelik hög med gem. Men en maskin kan inte ha någon verklig önskan: det vi ser är bara frukten av maskinens z-önskan om att förgöra oss.