MVE420: Nya teknologier, global risk och mänsklighetens framtid. Artificiell intelligens och medvetande. 2 maj 2017

Relevanta dokument
MVE420: Nya teknologier, global risk och mänsklighetens framtid. MVE420: datorintelligens och medvetande. 8 maj 2015

MVE420: Nya teknologier, global risk och mänsklighetens framtid. Artificiell intelligens och medvetande. 3 maj 2016

INSTITUTIONEN FÖR FILOSOFI, LINGVISTIK OCH VETENSKAPSTEORI ETIK VT-15 DJURETIK OCH MORALISK STATUS

samhälle Susanna Öhman

KVALIABASERADE INVÄNDNINGAR MOT MATERIALISM

LÖNEN ETT EFFEKTIVT SÄTT FÖR ÖNSKAD PRESTATION - ENDA FÖRUTSÄTTNINGEN FÖR KONKURRENSKRAFT I EN GLOBAL VÄRLD!


BOENDEFORMENS BETYDELSE FÖR ASYLSÖKANDES INTEGRATION Lina Sandström

Provlektion Just Stuff B Textbook Just Stuff B Workbook

Workplan Food. Spring term 2016 Year 7. Name:

Make a speech. How to make the perfect speech. söndag 6 oktober 13

Recension. Here Be Dragons: Science, Technology and the Future of Humanity Olle Häggström Oxford University Press 2016, 278 s. ISBN

Linköpings universitet

Hur leder vi transformationer?

Wittgenstein for dummies Eller hur vi gör det obegripliga begripligt. Västerås 15 februari 2017

Volvo Group Trucks Operations Gunnar Brunius, Fabrikschef Volvo Lastvagnar - Göteborg

Hur fattar samhället beslut när forskarna är oeniga?

Kvalitetsarbete I Landstinget i Kalmar län. 24 oktober 2007 Eva Arvidsson

Artificiell intelligens, eller Kommer din dator att bli klokare än dig? (eller kanske är den redan det?)

Aktivitetsrättvisa en utopisk eller realistisk vision för jämlik rehabilitering av etniska minoriteter med psykiska funktionshinder?

Användning av Erasmus+ deltagarrapporter för uppföljning

CHANGE WITH THE BRAIN IN MIND. Frukostseminarium 11 oktober 2018

#minlandsbygd. Landsbygden lever på Instagram. Kul bild! I keep chickens too. They re brilliant.

Recension. Superintelligens: Vägar, faror, strategier Nick Bostrom Översättning: Jim Jakobsson Fri Tanke, 2017, 516 s.

Självkörande bilar. Alvin Karlsson TE14A 9/3-2015

Vässa kraven och förbättra samarbetet med hjälp av Behaviour Driven Development Anna Fallqvist Eriksson

Del 2 Processkonsultation Edgar Schein

English. Things to remember

Join the Quest 3. Fortsätt glänsa i engelska. Be a Star Reader!

Om oss DET PERFEKTA KOMPLEMENTET THE PERFECT COMPLETION 04 EN BINZ ÄR PRECIS SÅ BRA SOM DU FÖRVÄNTAR DIG A BINZ IS JUST AS GOOD AS YOU THINK 05

Support Manual HoistLocatel Electronic Locks

FÖRBERED UNDERLAG FÖR BEDÖMNING SÅ HÄR

Fokus Yrkesutbildning VO

COMPUTABILITY BERÄKNINGSBARHET. Källa: Goldschlager, Lister: Computer Science A Modern Introduction 2. upplaga 1988, Prentice Hall

2. Kulturrelativism. KR har flera problematiska konsekvenser:

onsdag den 21 november 2012 PRONOMEN

Information technology Open Document Format for Office Applications (OpenDocument) v1.0 (ISO/IEC 26300:2006, IDT) SWEDISH STANDARDS INSTITUTE

Artificiell intelligens, eller Kommer din dator att bli klokare än dig? (eller kanske är den redan det?)

Manifesto for a feminist definition of SRHR

Service och bemötande. Torbjörn Johansson, GAF Pär Magnusson, Öjestrand GC

KAPITEL12 LEDARSKAP. Jacobsen & Thorsvik

Writing with context. Att skriva med sammanhang

The cornerstone of Swedish disability policy is the principle that everyone is of equal value and has equal rights.

Travel General. General - Essentials. General - Conversation. Asking for help. Asking if a person speaks English

Äntligen!! Konfirmand 2015/2016

PRESENTATION. Anders Wasserman, 34 år. Fästmö och en son. Arbetat i Hammarby IF FF i sju säsonger i U11 - U19. UEFA Youth Elite Diploma

Workshop: Aktivt Hopp! Hur kan vi möta klimatkrisen utan att bli galna?

Fokus Yrkesutbildning VO

The tradition of hanging plush dice (also known as fuzzy dice or raggardice) in the rear mirror started in the USA in the '50s.

Kanban är inte din process. (låt mig berätta varför) #DevLin Mars 2012

Förtroende ANNA BRATTSTRÖM

Health café. Self help groups. Learning café. Focus on support to people with chronic diseases and their families

BOX SOLFALL. Anna Lamberg. 8 januari 7 februari

Isometries of the plane

Designmönster för sociala användningssituationer

Svenska()(Bruksanvisning(för(handdukstork()(1400(x(250(mm(

Flervariabel Analys för Civilingenjörsutbildning i datateknik

Webbregistrering pa kurs och termin

Evaluation Ny Nordisk Mat II Appendix 1. Questionnaire evaluation Ny Nordisk Mat II

To Lauren Beukes Tune: Top of the World Written by Marianna Leikomaa

Folkbibliotek & digitalisering

Varför tror folk på konstiga saker?

Att stödja starka elever genom kreativ matte.

employee engagement concept (Eec) - a respectful work life designed around people -

Consumer attitudes regarding durability and labelling

Översikt. Tre typer av moraliska teorier: (1) Konsekvensialistiska (2) Deontologiska (3) Dygdetik

HUME HANDOUT 1. Han erbjuder två argument för denna tes. Vi kan kalla dem "motivationsargumentet" respektive "representationsargumentet.

The Academic Career Path - choices and chances ULRIKKE VOSS

Mis/trusting Open Access JUTTA

Mina målsättningar för 2015

Preschool Kindergarten

Immigration Bank. Bank - General. Bank - Opening a bank account. Can I withdraw money in [country] without paying fees?

Chapter 1 : Who do you think you are?

Webbreg öppen: 26/ /

IFRS 16 moms respektive fastighetsskatt för leasetagaren

Kvalitativ design. Jenny Ericson Medicine doktor och barnsjuksköterska Centrum för klinisk forskning Dalarna

State Examinations Commission

Moralisk oenighet bara på ytan?

Kommunikation för dataloger

Utvärdering SFI, ht -13

Mathematical Cryptology (6hp)

Datavetenskap. Beteendevetenskap MDI. Design

EN KINESISK ROBOT. En C-uppsats om artificiell intelligens, med utgångspunkt i Det kinesiska rummet ett argument av John R. Searle

Andy Griffiths Age: 57 Family: Wife Jill, 1 kid Pets: Cats With 1 million SEK he would: Donate to charity and buy ice cream

CARRY YOU HOME. I've been knocked down, I've been lost With the ground shaking under my feet I gave it all to someone, who'd said fire, run

Libers språklåda i engelska Grab n go lessons

Solowheel. Namn: Jesper Edqvist. Klass: TE14A. Datum:

Datorer och intelligens

Lars Levi Læstadius s depiction of indigenous Sami religion in Fragmenter i lappska mythologien. Olle Sundström

Trender. Trender - 5 K. Konvergens Konvergens Kollaboration Kontroll Kollaps Kreativitet

The Quest for Maternal Survival in Rwanda

Beijer Electronics AB 2000, MA00336A,

Från extern till intern på tre dagar Erfarenheter från externa lärares pedagogiska kompetensutveckling

Drivkrafter bakom spel och spelberoende flykt, spänning och förhoppningar

Exportmentorserbjudandet!

Insamlingsforumbilden. Den nya givaren

Kvalitativ design. Jenny Ericson Doktorand och barnsjuksköterska Uppsala universitet Centrum för klinisk forskning Dalarna

ATT MÄTA FRAMGÅNG I MATEMATIKPROJEKT MARTIN GRANDER MALMÖ HÖGSKOLA

Transkript:

MVE420: Nya teknologier, global risk och mänsklighetens framtid http://www.math.chalmers.se/math/grundutb/cth/mve420/1617/ Föreläsning om Artificiell intelligens och medvetande 2 maj 2017

Kan en dator ha ett medvetande? En möjlig reaktion vid första anblick är att frågan är oviktig, ty vad som betyder något för oss är vad maskinerna gör, inte vad de (eventuellt) upplever. Givet vad maskinerna gör blir ett Terminator- eller WALL-E-scenario varken bättre eller sämre för oss om de har medvetande.

På det finns (minst) två svar till försvar för idén att frågan om datormedvetande är viktig: 1. Om maskiner har medvetande är det ett argument för att vi kan ha moraliska förpliktelser gentemot dem. 2. Om vi skall kunna sätta något hopp till mind uploading att vi skall kunna ladda över våra medvetanden till datorer så krävs det att datorer kan vara medvetna.

Begreppet medvetande är mycket besvärligt. Hur skall vi definiera det? Många (mer eller mindre oprecisa) förslag finns, och filosofer talar t.ex. om att ha subjektiva upplevelser, och att X har medvetande om och endast om frågan Hur känns det att vara X? har något annat svar än Det känns inte alls.

Begreppet medvetande är mycket besvärligt. Hur skall vi definiera det? Många (mer eller mindre oprecisa) förslag finns, och filosofer talar t.ex. om att ha subjektiva upplevelser, och att X har medvetande om och endast om frågan Hur känns det att vara X? har något annat svar än Det känns inte alls. Spontant tycker vi att Hur känns det att vara Alicia Vikander? är en vettig fråga, medan vi tycker att Hur känns det att vara en stol? är en knäpp fråga. Detta kan tolkas som att vi tillskriver Alicia Vikander medvetande, medan vi inte tillskriver stolar medvetande.

Filosofen David Chalmers har infört beteckningen the Hard Problem på frågan om varför vi har medvetande. Frågan är notoriskt svår, liksom en rad närbesläktade frågor: Vad är medvetandets plats i ett materiellt universum, och hur kan ett materiellt universum ge upphov till medvetande? Neurovetenskapen har haft vissa framgångar med att zooma in på specifika processer i hjärnan som verkar korrelera med medvetna upplevelser, men frågan är om vi överhuvudtaget närmat oss ett svar på hur och varför just dessa processer ger upphov till medvetande.

David Chalmers vs zombie-chalmers

En zombie är en person som fysikaliskt sett, ned till minsta atom eller elementarpartikel, är som en vanlig människa, men som saknar medvetande. I termer av zombier kan the Hard Problem formuleras som Varför är vi inte zombier?.

En bra introduktion till filosofins medvetandeproblem är den djuplodande intervjun med David Chalmers på Sam Harris podcast Waking Up. https://www.samharris.org/podcast/item/the-light-of-the-mind

Andra filosofer, i synnerhet Daniel Dennett, har ifrågasatt zombie-begreppet, och hävdat inte bara att zombier är fysiskt omöjliga, utan att själva idén är inkoherent och ett missförstånd. Att tänka sig ett universum befolkat av zombier istället för av oss är, menar han, lika knäppt som följande tankeexperiment: Låt oss föreställa oss ett universum som fysikaliskt sett är exakt likt vårt, ned till varje atom och varje elementarpartikel, inklusive alla lokala tryckförändringar och vibrationer, men där det inte finns ljud.

Det finns många teorier om medvetandets natur, men en som vunnit stor popularitet de senaste decennierna är den som benämns computational theory of mind (CTOM). Den kan ses som en variant av funktionalism ( it ain t the meat, it s the motion ), och går ut på att medvetandet uppstår som en manifestation av ett visst slags beräkning eller informationsbehandling oberoende av vad för slags hårdvara som används (t.ex. en biologisk hjärna, eller en laptop).

Ett skäl att acceptera CTOM är följande. Vår allmänna tendens att tillskriva våra medmänniskor medvetanden verkar grunda sig i deras beteenden, snarare än att vara kopplad till den exakta hårdvaran. Jag känner mig säker på att VV har ett medvetande, och om han lyfte på sitt skallben och det visade sig (till allas vår förvåning!) att han därunder inte har det geleaktiga organ som kallas hjärna, utan IC-kretsar och elektronik, så skulle jag likväl inte ändra mig om att han är medveten. Därmed förefaller det konsekvent att tro på CTOM.

David Chalmers behandling av uppladdning i sitt kapitel i Intelligene Unbound bygger på CTOM. Men det finns även skarpa kritiker av CTOM. Massimo Pigliucci skriver i sitt kapitel i samma bok att Chalmers and other supporters of mind uploading [proceed] as if we had a decent theory of consciousness, and by that I mean a decent neurobiological theory.

Pigliuccis logik är följande. All consciousness we know of happens in brains. Brains are neurobiological objects. Hence we need a neurobiological theory of consciousness. Varför skulle just det vara korrekt generalitetsnivå? Här några alternativ: All consciousness we know of happens in brains. Brains are material objects. Hence panpsychism. All consciousness we know of happens in brains. Brains are computational devices. Hence CTOM. All consciousness I know of for sure happens in my own brain. Hence solipsism. Pigliucci motiverar inte sitt val.

Det mest kända motargumentet mot CTOM är ett tankeexperiment av John Searle benämnt det kinesiska rummet.

Inom parentes: I USA har på sistone förekommit förslag om att vi alla borde sluta att citera Searles vetenskapliga arbeten med anledning av den senaste sextrakasseriskandalen i Berkeley.

Searles argument är ett exempel på den teknik som kallas reductio ad absurdum, och som vi i matematiken känner som motsägelsebevis. Om vi vill argumentera för ett påstående A kan vi göra på följande vis. Antag att A inte är sann, dvs antag A. Härled en konsekvens B av A. Påvisa att B är omöjlig. Eftersom B är omöjligt måste antagandet A vara falskt. Eftersom A är falsk måste A vara sann. Searle tillämpar detta med A = CTOM-teorin stämmer inte, A = CTOM, B = det kinesiska rummet begriper kinesiska.

Det kinesiska rummet. Antag att CTOM är sann. Eftersom det finns människor som talar och förstår kinesiska finns det då också datorprogram som talar och förstår kinesiska. Detta program kan om vi så vill, istället för på dator, implementeras med hjälp av ett rum där John Searle själv sitter och manipulerar kinesiska symboler med hjälp av papper och penna (motsvarande datorminnet) och en utförlig instruktionskatalog (motsvararande själva programmet). Men stackars John Searle i rummet skulle ju fortfarande inte begripa ett ord kinesiska i motsats till vad CTOM hävdar. Alltså är CTOM fel.

Searles presenterade sitt argument i uppsatsen Minds, brains and programs i tidskriften Behavioral and Brain Sciences 1980. Den återfinns också i en fantastisk antologi från 1981:

Hofstadters och Dennetts svar till Searle: Vi accepterar att Searle i tankeexperimentet inte begriper kinesiska, men systemet som helhet (bestående av rummet, Searle själv, regelboken, alla papper, etc) gör det. Searles replik: Meh, låt oss istället tänka oss att jag memorerat hela instruktionskatalogen och gör alla beräkningar i huvudet. Jag kommer fortfarande inte att begripa kinesiska, och detsamma gäller systemet som helhet, för den här gången är jag lika med systemet. Hofstadters och Dennetts replik: Meh, under dessa omständigheter kommer du visst att begripa kinesiska.

Vi gör nu ett hopp i handlingen fram till hösten 2014 och John Searles ursinniga sågning i New York Review of Books av Nick Bostroms bok Superintelligence.

Bostrom hävdar i sin bok att det är troligt att vi så småningom skapar en maskin med superintelligens, att detta mycket väl kan komma att ske i det mycket snabba förlopp av självförbättring som kallas intelligensexplosion, och att den händelsen kan bli extremt farlig för mänskligheten om vi inte är mycket noggranna med att i förväg se till att maskinen har värderingar i linje med våra. Han exemplifierar detta med det så kallade Paperclip Armageddon-scenariet, där en maskin som programmerats att maximera framtida gemproduktion blir den första att uppnå tröskeln till intelligensexplosion.

Searle, i sin recension 2014: The prospect of superintelligent computers rising up and killing us, all by themselves, is not a real danger. [...] It is easy to imagine robots being programmed by a conscious mind to kill every recognizable human in sight. But the idea of superintelligent computers intentionally setting out on their own to destroy us, based on their own beliefs and desires and other motivations, is unrealistic because the machinery has no beliefs, desires and motivations. [...] Why is it so important that the system be capable of consciousness? Why isn t appropriate behavior enough? Of course for many purposes it is enough. If the computer can fly airplanes, drive cars, and win at chess, who cares if it is totally nonconscious? But if we worried about a maliciously motivated superintelligence destroying us, then it is important that the malicious motivation should be real. Without consciousness, there is no possibility of its being real.

I sin motivering av dessa påståenden lutar sig Searle mot sitt kinesiska rummet-argument och dess slutsats att CTOM är fel. Men det kinesiska rummet handlar om maskinernas (brist på) inre uppelvelser, inte vad de faktiskt gör. Och det är det senare som är farligt i Paperclip Armageddon-scenariot. Och se vad Searle själv har medgivit här är Dennett (1982): Searle has admitted (in conversation on several occasions) that in his view a computer program, physically realized on a silicon chip [...] could in principle duplicate not merely simulate the control powers of the human brain.

Men då så. Låt oss ta ett sådant program, och se hur det börjar bete sig som en människa, vilket inbegriper formerandet av nya insikter, önskningar, drivkrafter etc. Med Searles synsätt kommer maskinen inte att ha några verkliga insikter, önskningar, drivkrafter etc. Däremot kommer den att ha vissa informations- och beräkningsstrukturer som får den att bete sig som om den hade verkliga insikter, önskningar, drivkrafter etc. Låt oss kalla dessa strukturer z-insikter, z-önskningar, z-drivkrafter etc.

Alltså: om maskiner inte kan ha medvetande, så kan de inte ha insikter, önskningar, drivkrafter etc, utan bara z-insikter, z-önskningar, z-drivkrafter, etc. När Paperclip Armageddon drar igång, så kanske Searle kommer att stå där och ropa till oss: Lugn, lugn, lugn allesammans! Det kan verka som om maskinen har bildat en önskan om att förgöra oss så att vi inte skall kunna stoppa den från att omvandla hela solsystemet till en jättelik hög med gem. Men en maskin kan inte ha någon verklig önskan: det vi ser är bara frukten av maskinens z-önskan om att förgöra oss.

Michel Chorost uttrycker besläktade tvivel i tidskriften Slate, 18 april 2016: Until an A.I. has feelings, it s going to be unable to want to do anything at all, let alone act counter to humanity s interests and fight off human resistance. Wanting is essential to any kind of independent action. And the minute an A.I. wants anything, it will live in a universe with rewards and punishments including punishments from us for behaving badly. In order to survive in a world dominated by humans, a nascent A.I. will have to develop a humanlike moral sense that certain things are right and others are wrong. By the time it s in a position to imagine tiling the Earth with solar panels, it ll know that it would be morally wrong to do so. [...] Without wanting, theres no impetus to do anything.

Chorost verkar inte ens märka att han argumenterar för att dagens AI inte kan göra något alls tvärtemot det uppenbara faktum att vi faktiskt ser AI göra saker: köra bil, besegra världsmästaren i go, etc. För en utmärkt nedplockning av Chorosts argumentation rekommenderar jag Ariel Conns essä When AI journalism goes bad på Future of Life Institutes hemsida, 26 april 2016: http://futureoflife.org/2016/04/26/ai-journalism-goes-bad/