Fördjupningsarbete i Artificiell intelligens, HKGBB0 - Turingtestet



Relevanta dokument
Bakgrund. Bakgrund. Bakgrund. Håkan Jonsson Institutionen för systemteknik Luleå tekniska universitet Luleå, Sverige

Kristian Almgren Artificiell Intelligens Linköpings Universitet Talstyrning

Moralisk oenighet bara på ytan?

V.A.T lärstilstest och studieteknik

Edward de Bono: Sex tänkande hattar

Hemtenta Vad är egentligen demokrati?

Positiv Ridning Systemet Negativ eller positiv? Av Henrik Johansen

Naturalism. Föreläsning Naturalismen (tolkad som en rent värdesemantisk teori) är en form av kognitivism

"Content is king" - Vacker Webbdesign & Effektiv Sökmotorsoptimering för företag

MATEMATIKENS SPRÅK. Avsnitt 1

Vältalaren PROVLEKTION: BLI EN BÄTTRE LYSSNARE

Får jag använda Wikipedia?

Datormetaforen. Från människa till dator Från dator till människa o.s.v.

Livet är enkelt att leva

De 10 mest basala avslutsteknikerna. Direkt avslutet: - Ska vi köra på det här då? Ja. - Om du gillar den, varför inte slå till? Ja, varför inte?

Anvisningar till rapporter i psykologi på B-nivå

Realism och anti-realism och andra problem

Tentamen: Programutveckling ht 2015

Elevernas uppfattningar om alltmer digitaliserad undervisning

POLITIK och DEBATT svenska + SO

Skriv! Hur du enkelt skriver din uppsats

Någon fortsätter att skjuta. Tom tänker sig in i framtiden. Början Mitten Slut

Svensk grammatik Ordklasser!

Din RelationsBlueprint - Källan till smärta eller framgång i din intima relation

1. En oreglerad marknad involverar frihet. 2. Frihet är ett fundamentalt värde. 3. Därav att en fri marknad är moraliskt nödvändigt 1

Alan Turing Har du någonsin undrat vem det var som uppfann datorn? Har du någonsin undrat vem det var som gav England oddsen på att vinna det andra

Konflikter och konfliktlösning

Moralfilosofi. Föreläsning 4

Johanna, Yohanna. -lärarhandledning Tage Granit 2004

Teknikhistoria: Den första programmeraren

Bestäm vilket av, eller vilken kombination av övertygande tillvägagångssätt (känsla, logik, förtroende) som du avser att använda i din presentation.

Programmering på papper. Datorer, programmering och instruktioner

Teoretiska skäl att tro på Gud

Föreläsning 5. Deduktion

BESTÄLLARSKOLAN #4: VAD KOSTAR DET ATT GÖRA FILM?

Business research methods, Bryman & Bell 2007

Om att bli mer lik Gud och sig själv.

inte följa någon enkel eller fiffig princip, vad man nu skulle mena med det. All right, men

Handboken, för familjehem och alla andra som möter människor i

Hållbar argumentation

Kombinationer och banor i agilityträningen

Störningar i ureacykeln och organiska acidurier För barn och ungdomar

ENKEL Programmering 3

Tränarskap och ledarskap

Vad handlar boken om? Mål ur Lgr 11. Bort från dig Lärarmaterial. Författare: Tomas Dömstedt

Skrivprocessen. Skrivprocessen och retoriken. Skrivprocessen Retoriken Förklaringar

Övningshäfte 2: Induktion och rekursion

Ha rätt sorts belöning. Åtta tips för bästa sätt hur du tränar din hund. Grunden till all träning:

Feriepraktik Karlskoga Degerfors folkhälsoförvaltningen. Barnkonventionen/mänskliga rättigheter

5. Vad jag kan / What I can do. CHECKLISTA Nivå B2 Level B2. 1. Jag kan i detalj förstå vad man säger till mig på normalt samtalsspråk.

Utvärdering av föräldrakurs hösten 2013

Framsida På framsidan finns:

PRÖVNINGSANVISNINGAR

Vi erövr ar verkligheten bit för bit genom att vi får ett språk för våra erfarenheter. Ett barns språkutveckling är ett fascinerande skådespel, en

Vargens rätt i samhället

ADHD VAD OCH VARFÖR? EN FÖRELÄSNING AV OCH MED NICKLAS LARSSON 1

Rapport för Andrew Jones

Kritiskt tänkande HTXF04:3 FTEB05. Rekonstruktion av argument

Mental träning. I teorin och i praktiken

En nybörjarkurs i kritiskt tänkande

Kays måndagstips Nr 24 Den 26 nov. 2012

The National Institute of Child Health and Human Development (NICHD) Protocol: Intervjuguide

Tror du på vampyrer? Lärarmaterial

Verktyg för Achievers

GYMNASIEARBETET - ATT SKRIVA VETENSKAPLIGT

tidskrift för politisk filosofi nr årgång 19

Samtal med Hussein en lärare berättar:

Guds egenskaper och natur

Tro på dig själv Lärarmaterial

Subjektivism & emotivism

Planeringsspelets mysterier, del 1

Introduktion till argumentationsanalys

Lev som du lär. Om jag till exempel tycker att det är viktigt att ta hand om naturen, så är varje litet steg i den riktningen måluppfyllelse:

Motiverande Samtal MI

Kritiskt tänkande HTXF04:3 FTEB05. Utvärdering av argument

Hälsa och kränkningar

ARTIFICIELL INTELLIGENS

Introduktion till logik

10 tips för ökad försäljning

Övningar. till Välj rätt mänskliga rättigheter i offentlig verksamhet

Tankens kraft. Inre säkerhetsbeteenden

du har rationella skäl att tro.

Missförstånd KAPITEL 1

Lärarhandledning FÖRBEREDELSE & STRUKTUR

Jag en individuell idrottare. 3. Träningsgruppen ett team

Vägledning till Hör ihop - magnetspel


UTBILDNINGEN. Svenska Ishockeyförbundet Elitkurs Hur viktig är coachens kroppsspråk och verbala förmåga för lagets framgång?

Skolbesöksmanual. Sammanställd av Djurens Rätts ungdomsgrupp i Helsingborg

Artificiell intelligens, eller Kommer din dator att bli klokare än dig? (eller kanske är den redan det?)

LEKTIONSTIPS. Lektionstips 2:4. Skribenten vill antingen uttrycka en åsikt för att få andra att reagera, eller

Fuzzy Logic. När oskarpa definitioner blir kristallklara. Åsa Svensson. Linköpings Universitet. Linköping

Liten introduktion till akademiskt arbete

Använd mindre plast för havens och hälsans skull

Checklista. Hur du enkelt skriver din uppsats

Talsystem Teori. Vad är talsystem? Av Johan Johansson

Övning 1: Vad är självkänsla?

Bättre Självförtroende NU!

SAPU Stockholms Akademi för Psykoterapiutbildning

Kapitel 5. Scanlon bemöter delvis invändningen genom att hävda att kontraktualistiskt resonerande är holistiskt.

Transkript:

Fördjupningsarbete i Artificiell intelligens, HKGBB0 - Turingtestet Björn Bergström Bjobe839@student.liu.se Linköpings Universitet

Innehållsförteckning Björn Bergström 1 Inledning 3 2 Turingtestet 4 2.1 Hur skulle en dator som klarar turingtestet vara konstruerad? 5 2.2 Chatterbotprogram 6 2.2.1 Jabberwacky 7 3 Kritik mot turingtestet 8 3.1 Den teologiska invändningen 8 3.2 huvudet i sanden invändningen 8 3.3 Den matematiska invändningen 8 3.4 Invändningen från medvetandet 8 3.5 Invändningar från bristande förmågor 9 3.6 Lady Lovelace invändning 9 3.7 Invändningar från kontinuiteten i nervsystemet 9 3.8 Argumentet om informaliteten i vårat beteende 10 3.9 Invändningen från extrasensorisk perception 10 4 Ytterligare argument mot Turingtestet. 10 4.1 Schimpans argumentet 10 4.2 Sinnesorganens invändning 11 4.3 Simulationsinvändningen 11 4.4 Svarta lådan argumentet 12 5 Källförteckning 14

1 Inledning Det finns troligtvis ingen person som är mera förknippad med artificiell intelligens än Alan Turing. Turing föddes i London 1912 och utbildade sig i till matematiker, och senare studier inbegrep även logik, och dess tillämpningar. Under andra världskriget arbetade Turing med kryptering och att knäcka tyska koder på Bletchley Park i England. En av hans mest kända bedrifter var deltagandet i skapandet av colossus, den dator som användes för att knäcka den tyska krypteringsmaskinen enigma. Ytterligare en av Turings skapelser var den s.k. turingmaskinen, som kommer beskrivas mera ingående längre fram i texten, denna maskin var den första teoretiska modell som liknade våra datorer, på det sätt att den arbetade med program innehållande input, output och processandet av information. Fokus på denna text är dock på en annan teoretisk skapelse av Turing, nämligen turingtestet. Denna intressanta frågeställning är någon som varit central i stora delar av forskningen rörande Artificiell intelligens. Denna går ut på att skapa en möjlighet att avgöra huruvida en maskin skulle kunna skapas med förmågan att kunna tänka. Detta är naturligtvis en hypotetisk fråga, då vi inte har system idag som ens vara i närheten att vara tänkande. Dock kvarstår frågeställningen, om huruvida det faktiskt är möjligt, och i så fall hur kan vi undersöka detta. Det finns till och med en tävling på Internet, med priset $100.000 till den första som kan skapa en maskin som klarar att passera turingtestet. Detta kallas Loebnerpriset, efter sin upphovsman Hugh Loebner, och även om inget system ännu har klarat testet, delas mindre prissummer ut varje år till det bästa bidraget inom A.I. då det gäller att skapa ett människolikt system. (http://www.loebner.net/prizef/loebner-prize.html) Alan Turing, Bild från: http://aima.cs.berkeley.edu/cover.html 3

2 Turingtestet Syftet med det så kallade turingtestet kan sammanfattas med att det är ett test som ämnar avgöra huruvida en maskin (dator) är kapabel att tänka. Turing presenterade sina idéer i en artikel Computing machinery and intelligence i tidningen Mind 1950 (Copeland, 2001). Detta koncept är egentligen ett tankeexperiment, då Turing mycket väl visste att ingen av de datorer som existerade då han formulerade testet ens skulle kunna vara i närheten av att klara det. Frågan är inte heller om nutidens datorer (en formulering som håller än idag) klarar av att framstå som en människa, utan om det i framtiden vore möjligt att skapa en sådan maskin. Själva testet skulle kunna ses som ett spel med tre deltagare. För att underlätta förståelsen börjar Turing med att använda en man och en kvinna som deltagare. Som sagt, spelet har alltså tre deltagare, spelare A, som är en man, spelare B, som här är kvinna och utfrågaren C. Utfrågaren befinner sig i ursprungsscenariot i ett rum bredvid de andra två, där han (eller hon) inte kan se deltagare A och B, och känner bara till dom som X och Y. Målet för spelet är för C att försöka avgöra vilken av X och Y som är mannen och vilken som är kvinnan. För att uppnå detta ska C ställa ett antal frågor till de olika spelarna, som måste besvara de frågor som denne ställer. Spelarna får ljuga för utfrågaren, så om denne frågar A huruvida denne är en man, får han (i detta fall) ljuga och säga att han i själva verket är kvinnan. För att inte utfrågaren ska kunna utnyttja rösternas egenskaper för att identifiera spelarna ska svaren skrivas med maskin på en lapp, skickas via teleprinter eller så kan svaren levereras till utfrågaren med hjälp av en fjärde person (Turing, 1950). Turingtestet, bild från: http://www.cs.usfca.edu/www.alanturing.net/turing_archive/pages/reference%20articles/theturingtes t.html 4

Frågan som Turing sedan ställer är, Vad kommer att hända när en maskin antar rollen av spelare A i detta spel? (Turing, 1950) (författarens översättning). Kommer nu utfrågare C att svara fel eller rätt lika ofta som han/hon gjorde när A spelades av en man. Turing nämner också att vi, i framtiden, mycket väl kan ha skapat maskiner som ser precis ut som människor, med artificiell hud som ser ut och känns precis som riktig hud. Det är dock inte detta som är huvudsaken, utan det är våra mentala, intellektuella egenskaper, inte de fysiska, som vi vill kunna replikera och han ansåg att detta test skulle fungera för att skilja dessa två åt (Turing, 1950). De maskiner som ska testas i Turingtestet kräver dock lite mera snäv definition, en variant hade varit att tillåta alla skapelser som ingenjörer skulle kunna åstadkomma, detta har dock nackdelen att det innefattar kloning, något som faller utanför ramarna för testet i fråga. Turing begränsar deltagande maskiner till digital computers, eller datorer. De system som Turing beskriver i sin artikel rör sig om symbolhanterande datorer, där information lagras och behandlas som symboler i ett system. Denna teori kallas inom A.I. forskning för symbol system hypothesis (symbolsystemshypotesen). 2.1 Hur skulle en dator som klarar turingtestet vara konstruerad? I sin artikel 1950 förutspår Turing att vi inom femtio år (d.v.s. omkring år 2000) kommer att ha möjligheten att programmera datorer så att dom kommer att kunna imitera människor såpass bra att utfrågaren kommer att gissa fel i trettio procent av fallen efter fem minuters konversation (Turing, 1950). Några av de första system som framträdde i A.I. forskningen var baserade på just symbolsystemshypotesen. Här råder konceptet att intelligens baseras på ett system av symboler och enligt detta skulle en dator vara fullt möjlig att tänka, och således klara av turingtestet (Copeland, 2001). Enligt denna teori skulle ett universellt symbolhanterande system med tillräckligt mycket minne kunna vara extremt anpassningsbart. Skulle man till exempel utrusta en robot med detta system skulle den kunna anpassa sig och föra sig mycket bra i sin omvärld. Steget till att detta system skulle vara intelligent är dock relativt långt, och det mest kända argumentet mot detta, och turingtestet, är det s.k. chinese room argumentet. Intressant nog hade redan Turing en ide för hur ett sådant system, som teoretiskt sett skulle kunna klara av turingtestet, och då antas kunna tänka, skulle kunna se ut. Detta kallas för en turingmaskin, denna är ett tankeexperiment som består av två delar. Först ett läshuvud med ett antal regler inbyggda, och en oändligt lång bandremsa som är indelade i rutor. Läshuvudet rör sig längst bandet och läser varje ruta och utför handlingen som, för vilken, symbolen har för regel definierad. Sedan rör sig läshuvudet till nästa ruta i endera riktningen och fortsätter sitt arbete. Maskinen kan dessutom komma tillbaka till en redan besökt ruta och skriva om symbolen om så önskas, och kan således använda bandet till att lagra information. Konceptet bakom denna maskin är mycket enkelt, det reagerar enbart på ett visst sätt på en viss symbol, men när flera symboler på bandet kombineras kan den utföra komplexa handlingar (Bandyopadhyay, 2000). Även om turingmaskinen, rent teoretiskt, skulle kunna utföra alla typer av beräknande funktioner har den svagheter, som även Turing uppmärksammade. Till exempel kan inte Turingmaskinen, eller någon annan symbolhanterande maskin heller, avgöra rent generellt, om ett givet program kommer returnera ett svar på ett givet input eller om det kommer att köra i oändlighet (Russel & Norwig, 2003). 5

Turingmaskin, bild från: http://physics.kenyon.edu/coolphys/thrmcmp/newcomp.htm Numera brukar man istället prata om parallella distribuerade system som försöker efterlikna hur den mänskliga hjärnan är konstruerade med sina miljarder neuroner. Dessa neurala nätverk har fungerar inte med bestämda symboler för vad som ska representeras utan arbetar istället, som vår hjärna, med mängder av noder (neuroner), som, trots att de är enkla en och en, tillsammans kan utföra komplicerade handlingar. 2.2 Chatterbotprogram De program som hittills varit de dominerande bidragen i Loebners tävling har varit av typen chatterbot. En chatterbot är ett program som försöker imitera en deltagare i en konversation, antingen med text, vilket är det absolut vanligaste, men även chatterbots med röstinput existerar. Dessa chatterbots är inga nya företeelser, den allra tidigaste var ELIZA som skapades redan 1966. ELIZA och dennes efterföljare baserades på ett relativt enkelt koncept, de bearbetar vad användaren har skrivit, t.ex. jag är väldigt stressad över min A.I. fördjupningsuppgift och letar efter nyckelord, i detta fall skulle det kunna vara orden jag är, som leder in programmet på ett antal möjliga svarsalternativ. Ordet jag är visar att meningen är något som berör användaren (nej, egentligen gör det inte det, men det är så dessa system fungerar, och därför blir det fel då och då). Min byts ut mot din för att skapa bättre grammatik, sedan omvandlar programmet mitt påstående till en fråga, t.ex. jag är byts ut mot varför är du sedan läggs resten av frasen på, och avslutas med ett frågetecken. Svaret skulle då bli, varför är du stressad över din A.I. fördjupningsuppgift?. Detta kan upprepas ganska många gånger, och i ett antal olika variationer, innan användaren börjar märka att programmet egentligen bara upprepar vad denne sagt. Senare program fungerar på samma bas, dock mera förfinade, och de kan spara vissa detaljer, som namn osv. för att ytterligare lura användaren. Ytterligare knep som dessa, senare, system använder för att ge sken av att vara intelligenta är bl.a. att aldrig komma med definitiva påstående, på så vis kan det aldrig säga emot sig självt. Konceptet med ELIZA, går också ut på att de flesta människor gillar att tala om sig själva, och låter sig luras att programmet faktiskt tänker (Mauldin, 1994). 6

2.2.1 Jabberwacky Det finns dock betydligt mera intressanta varianter på chatterbots, en av dessa är jabberwacky (http://www.jabberwacky.com/), detta systems olika karaktärer har vunnit Loebner priset 2005 och 2006. Tekniskt sett har dock inget system vunnit Loebnerpriset ännu, men den tävling som anges är den något begränsade varianten, inte den som erbjuder $100000 i prispengar. Att vinna första pris skulle innebära att domaren inte efter fem minuters konversation inte är kapabel att avgöra vad som är maskin och vad som är människa. Till skillnad från hur tidigare chatterbots fungerar, är jabberwacky uppbyggd på ett helt annat sätt. Detta system kan faktiskt, till skillnad från tidigare varianter, lära sig saker. Huvudprincipen bakom jabberwacky är inte att programmerarna har matat in explicit kunskap och ett regelsystem för hur meningar ska matchas, utan istället lagrar systemet alla chattsessioner som den deltagit i. Det är alltså användaren, dvs, vi som chattar med systemet, som matar in datan i systemet, denna sätt sedan ihop med olika mönster matchningstekniker för att skapa en trovärdig dialog. Det intressanta med denna princip är att systemet automatiskt chattar som en människa skulle göra, eftersom det är så det lärt sig att göra! Ytterligare en intressant aspekt på detta är också att jabberwacky kan lära sig flera språk, allt beroende på vem som chattar med systemet. Det pågår alltså en kontinuerlig inlärning, för att anpassa dialog efter användaren. Systemet, på dess hemsida (http://www.jabberwacky.com/), har även funktionen som tillåter användaren att rätta jabberwacky om denne uttalar en mening fel, eller använder felaktiga böjningsformer och så vidare. En annan positiv aspekt med denna metod är att systemet kan läras saker som normalt kan vara mycket svårt (eller i alla fall tidskrävande) att explicit programmera in, till exempel kan man lära denna ordlekar, skämt och nya ord. Detta gör att systemet otroligt flexibelt, då även moderna uttryck och Internetslang kan användas. Det räcker ju med att någon användare, någon gång tidigare använt ett uttryck för att systemet ska kunna ta det till sig. Mot betalning kan man även skapa en egen, personlig, bot som man själv lär upp från grunden och ger vokabulär etc. På detta vis kan alltså systemet bli precis så smart som användaren medger, genom att korrigera och infoga en bred vokabulär, och eftersom detta ligger på Internet är det en stor variation användare, något som ger flexibilitet i systemet. En möjlig baksida med denna princip, skulle kunna anses vara att systemet inte egentligen kan någonting. Det finns inga funktioner som andra typer av expertsystem utrustats med, det kan inte räkna, eller fungera som uppslagsverk eller liknande. Denna kritik är dock något obefogad, eftersom hela syftet med jabberwacky är att lära det att chatta med folk, inte att besitta några direkta kunskaper, utan det är till för underhållning och för att skapa ett system som kan passera turingtestet. Ett problem med denna typ av inlärning är just principen att det är användaren (användarna) som talar om för systemet vad som är rätt och fel, och om en användare ger felaktig input, eller respons, kommer också systemet att lära sig fel. Ett annat problem som nämns i en wikipedia artikel, som jag själv inte uppmärksammat, är att systemet kan vara väldigt oförskämt, detta som ett resultat av att många användare har lärt systemet detta beteende. Personligen tycker jag det är ett mycket intressant dilemma, då det verkligen avspeglar hur vi människor lär oss ett språk. Om vi får lära oss ett torftigt språk, kommer vi ju också att tala på ett visst sätt. Detta gäller naturligtvis också för oförskämdheter, om ett barn får lära sig mycket svordomar kommer denne även att använda dessa. Helt plötsligt blir det nästan ett moraliskt dilemma, vi får inte lära våra A.I.s dåligt språk, och dåligt uppförande! Detta om något måste, anser jag, vara en sån sak som skulle kunna lura en människa att det är en annan människa denne pratar med. 7

3 Kritik mot turingtestet Redan Turing insåg att dessa radikala idéer, att vi skulle kunna skapa tänkande datorer, skulle stöta på kritik och mothugg. Han skriver själv om nio olika argument mot hans egna påståenden, som han sedan försöker att motbevisa (Turing, 1950). Dessa är: 3.1 Den teologiska invändningen Detta är ett argument, som egentligen är ganska ointressant i denna uppsats, då det baseras på den religiösa uppfattningen att någon form av Gud skulle ha givit människan sitt intellekt och medvetande. Eftersom Gud inte skapade robotar kan robotar således heller aldrig uppnå intelligens. Om man väljer att sälla sig till de som köper detta argument, kan man redan nu sluta läsa, då denna inställning motsäger, i stort sett, all forskning rörande A.I. Jag har inte för avsikt att snöa in på en djup teologisk argumentering, då detta säkerligen skulle ta mer utrymme än ämnet i sig, varpå vi raskt kastar oss över invändning nummer två. 3.2 huvudet i sanden invändningen Detta argument, som egentligen inte är mycket till argument, baseras på att själva tanken på att kunna skapa tänkande maskiner är alldeles för överväldig och skrämmande, så man kan likaväl hoppas och tro att det inte går. Även om denna tanke brukar vara lite finare maskerad, anser jag dock att Turing har en poäng, då människan, över lag betraktat, inte är så pass flexibel att ta in ny information som strider mot våra egna övertygelser. Jag tror dock att alla som läser denna uppsats är tillräckligt intresserade för ämnet att man inte undviker det av rädsla. 3.3 Den matematiska invändningen Turing hänvisar här till Gödels ofullständighets teorem, som säger att i alla tillräckligt kraftiga logiska system kan man formulera påståenden som inte kan varken bevisas eller motbevisas i systemet, om inte systemet själv är motsägelsefullt. Detta argument skulle kunna kritiseras i det här fallet, då det inte används inom den strikt matematiska världen. Ett annat argument mot denna invändning är att det mänskliga intellektet inte har dessa begränsningar, och ett system tillräckligt väl modellerat efter en människa skulle mycket väl kunna ge fel svar, och logiska motsägelser på frågor, om inte annat för att lura oss att tro att det är en människa. 3.4 Invändningen från medvetandet Här använder man vårat medvetande som argument mot möjligheten för en A.I. att klara turingtestet. Tanken är att ingen skapad, symbolhanterande maskin, kommer att kunna uppleva känslor av t.ex. glädje, eller sorg. Känslorna skulle då vara ett drag som är unikt för oss människor och omöjliga att införliva i en maskin. Dock medges att ett system skulle kunna imitera känslor, då systemet vet vilken känsla som ska vara den korrekta i en viss situation, dock skulle systemet aldrig kunna uppleva dessa känslor som vi gör. Först och främst är detta ett motargument, inte mot turingtestet, utan mot skapandet av ett artificiellt medvetande. Själva turingtestet har inte för avsikt av att avgöra huruvida spelare A eller B känner någonting, utan syftet är att lura utfrågare C att tro att maskinen är en människa. Därför angriper detta argument fel sak i sammanhanget, dock är detta, anser jag, en mycket viktig invändning till hela konceptet av skapandet av en artificiell intelligens. För att diskutera detta vidare måste man således bli mycket mera filosofisk och då glider ämnet över i 8

medvetandefilosofi och framförallt problemet med zombies. I korta drag innebär det att det är fantastiskt svårt att avgöra huruvida någon av oss egentligen känner något, eller om det finns zombies omkring oss, som utger sig för att vara människor. Dessa listiga zombies vet precis hur en människa bör reagera på vissa situationer, t.ex. gråter när dom ser en sorlig film (Heil, 2004). För allt vad jag vet kan läsaren av detta dokument mycket väl vara en zombie, helt utan känslor, och om jag skulle be denne bevisa att han/hon faktiskt är en tänkande, kännande varelse, skulle det vara mycket intressant att höra bevisföringen (helst då något mera kreativt än cogito ergo sum). 3.5 Invändningar från bristande förmågor Dessa argument beskriver Turing så som att man kan medge att det går och skapa en maskin som kan göra vissa saker, men aldrig andra. Till exempel, även om man medger att det skulle gå och göra en maskin som klarar turingtestet, kan den aldrig uppskatta jordgubbar med mjölk, och så vidare. Dessa argument är i många fall liknande de i nummer fyra, och även här krävs det mera filosofiska resonemang för att komma till ett svar. Sammanfattningsvis hävdar Turing att det finns lite stöd för många av dessa påståenden, utan oftast är de en produkt av att vi har en uppfattning om maskiner som stora, klumpiga föremål, och inte som tänkande enheter. 3.6 Lady Lovelace invändning Detta argument härstammar från en invändning som Lady Lovelace yttrade mot Charles Babbage analythical engine. Charles Babbage var en matematiker som levde i England mellan åren 1792 och 1871. Det Babbage är mest känd för är att han 1834 uppfann sin analythical engine, eller den analytiska masikinen på Svenska, en maskin som, i teorin, klarade av att utföra automatiska beräkningar. Detta var den första maskinen som hade många av de funktioner som dagens datorer har, t.ex. lagringskapacitet för data och instruktioner. Tyvärr byggdes aldrig maskinen (Bandyo-padhyay, 2000). Lady Ada Lovelace var även hon involverad i denna maskin, och ska i sina memoarer ha skrivit att analysmaskinen har ingen möjlighet att skapa någonting själv. Den kan utföra de operationer vi talar om för den att göra, men inte skapa någonting på egen hand (Turing, 1950). Detta argument är fortfarande intressant, dagens teknologi medger att vi har program, skapade av andra program. Det mest kända tror jag är det s.k. GOLEM projektet (Genetically Organized Lifelike Electro Mechanics), där robotar med artificiell intelligens skapar nya robotar (http://www.demo.cs.brandeis.edu/golem/). Detta är en fantastisk ide, men Lovelace invändning känns ända inte helt främmande. Programmet som skapar robotar är ju skapat av oss, och även om vi inte explicit talar om för roboten HUR den ska skapa en ny avkomma, är ju ändå syftet och funktionerna definierade av oss. För att försvara en A.I. mot denna invändning måste man, även här, ge sig i kast med filosofiska funderingar, och det är dessutom inte heller någon egentlig motsättning mot att systemet kan klara av Turingtestet. 3.7 Invändningar från kontinuiteten i nervsystemet I sin artikel beskriver Turing denna invändning som att det kanske aldrig kommer att vara möjligt att efterhärma nervsystemets beteende genom att använda ett system med diskreta tillstånd, då det inte överensstämmer med hur vårat nervsystem fungerar. Detta skulle kunna vara en valid poäng, dock skapar detta inte sådana problem att systemet inte skulle kunna överlista Turingtestet. Intressant nog är det ju just modellering efter vårat eget nervsystem, 9

och inte symbolbehandlande system, som är det senaste inom A.I. forskning, så detta argument känns lite föråldrat. Björn Bergström 3.8 Argumentet om informaliteten i vårat beteende Här är motståndet att det inte går att specificera ett regelsystem som täcker in samtliga möjliga situationer, och att detta skulle utgöra ett hinder för systemet att klara testet. Detta argument är nog sant om man, igen, tänker sig våran A.I. som en symbolhanterande maskin. Fördelen med att modellera i neurala nätverk är att dessa kan göras extremt flexibla till nya situationer, och vi behöver inte definiera alla upptänkliga situationer i ett gigantiskt index. Denna metod vore extremt opraktiskt och troligen långsam. Ett bättre alternativ vore då istället att utrusta systemet med en uppsättning generella regler, och låta det handla därefter, och vid behov uppdatera sina egna regler för att anpassa sig till sin omgivning. 3.9 Invändningen från extrasensorisk perception Denna invändning liknar till viss del den teoretiska invändningen i sin ovetenskapliga natur. Här är kärnan att vi inte har räknat med att det kan finnas övernaturliga fenomen så som telepati, clairvoyance, prekognition och psykokinetik. Dessa, högst omtvistade, förmågor skulle kunna leda till argumentet att en person som har telepatiska förmågor skulle kunna störa testet, då denna skulle, genom väggar, kunna avläsa vilken spelare som var människa och vilken som var maskin. Sammanfattningsvis anser Turing att om det nu är så att dessa förmågor skulle existera, och faktiskt vetenskapligt kunna bevisas, får man strama till testet en aning för att möta dessa problem. 4 Ytterligare argument mot Turingtestet. De ovanstående nio argumenten var de som Turing själv definierade i sin artikel, men det har naturligtvis kommit flera invändningar. I sin bok Artificial Intelligence: A philosophical introduction, introducerar författaren, Jack Copeland, ytterligare fyra invändningar mot Turingtestet, samt naturligtvis argument mot invändningarna. 4.1 Schimpans argumentet Enligt detta första argument är Turingtestet alldeles för konservativt. Här menar Copeland att det är få som skulle förneka att en schimpans skulle kunna tänka, men denna skulle aldrig klara av turingtestet. Det finns även andra djur t.ex. elefanter, delfiner, hundar etc. som mycket väl kan anses vara kapabla till tankeförmågor, men som inte skulle kunna bevisa det i testet, som det ursprungligen är designat. Detsamma gäller även för mänskliga spädbarn, som innan de etablerat ett språk inte heller har kapacitet att klara testet. En variant av detta argument är att den första tänkande datorn inte skulle ha de psykologiska förmågorna för att klara av testet, även om denna faktiskt skulle kunna tänka. Ett annat alternativ, som jag personligen tycker är mycket intressant, är att den första tänkande datorns typ av tänkande skulle vara så diametralt motsatt det mänskliga att denna typ av test skulle visa sig omöjliga att genomföra. Det är en vanlig tendens att anta att saker och ting som vi inte förstår, på något sett skulle komma att påminna om oss själva. Denna ego centrerade inställning leder då till att vi utgår ifrån att en tänkande maskin skulle tänka ungefär som oss, något som är långt ifrån självklart. 10

4.2 Sinnesorganens invändning Det första, schimpansargumentet, hävdar att även om någonting inte klarar turingtestet, betyder det inte att det inte tänker. Det finns naturligtvis ett motsatt förhållande, någonting klarar testet, men behöver inte vara kapabel att tänka på grund av det. Motsättning nummer två är att testet inte undersöker hur ett system använder orden i kontexten. Eftersom hela testet utgår ifrån verbal kommunikation, är det inte heller nödvändigt att kunna förstå vad orden egentligen betyder, det är fullt tillräckligt att veta vilket/vilka ord som är bäst lämpade vid en viss situation. Till exempel, om systemet får frågan vad används en kaffekopp till? skulle det vara en relativt enkel lösning att matcha frågan med en databas med syntaktiska och grammatiska regler och ett lexikon för att svara övertygande, att en kaffekopp används till att dricka kaffe ur. Då behöver systemet bara matcha ordet kaffekopp, söka igenom sina datalager, avgöra hur frågan är ställd och presentera ett lämpligt, semantiskt korrekt, svar. Skulle utfrågaren däremot hålla fram en kaffekopp och fråga vad är detta, och vad används det för? hamnar frågan i lite annat ljus. Ett tillräckligt komplicerat system skulle då naturligtvis kunna köra ett bildigenkänningsprogram och identifiera föremålet som en kaffekopp och sedan fortsätta med att matcha, som i den strikt verbala varianten. Ett ännu bättre sätt vore att utfrågaren är helt tyst, och presenterar ett föremål, och ser vilken reaktion han/hon erhåller, t.ex. visar upp kaffekoppen, och ser om svaret blir något i stil med: nej tack jag har redan druckit kaffe idag eller dylikt. Då får man en uppfattning om hur orden fungerar tillsammans med den sensoriska informationen, hur väl ett system, dator eller människa, kan förklara sin omgivning. Denna typ av argument ifrågasätter hela vitsen med att utföra ett test i stil med Turingtestet. För även om ett system kan imitera en människa, och lura en utfrågare, är det ingen övertygande demonstration på förståelse. För att koppla till psykologin skulle man kunna jämföra med människor som har antisocial personlighetsstörning (tidigare psykopat el. sociopat). Dessa individer vet vad känslor betyder, rent teoretiskt, och vilka typer av känslotillstånd som är en naturlig reaktion på vissa situationer, men de kan inte, i varierande grad, själva uppleva känslorna som efterfrågas. En person som helt saknar empati kan mycket väl ge ett korrekt, faktamässigt, svar på vilka känslor ett visst beteende väcker hos andra, men dom känner i alla fall inte av dom. Här är ytterligare en filosofisk vinkel på hela A.I. diskussionen, hur upplevelser faktiskt upplevs. 4.3 Simulationsinvändningen Kärnan i denna motsättning är att en simulering alltid kommer att vara en simulering, och inte en äkta vara. Här skulle man kunna jämföra med till exempel konstgjorda diamanter. Vi har möjligheten att skapa artificiella diamanter, men det är för den skull inte en äkta diamant. Denna analogi kan då överföras till turingtestet, där en maskin som klarar att överlista testet, fortfarande bara är en imitation eller simulering av en tänkande varelse. Denna invändning kan även appliceras på Turings första version av sitt test, där utfrågaren skulle försöka avgöra vilken av spelare A och B som var man respektive kvinna. Skulle spelare A (i detta fall en man) kunna lura utfrågaren med sina svar och denne på regelbunden basis anger spelare A till att denna är en kvinna, betyder verkligen inte att denna man ÄR en kvinna, bara att han simulerar en kvinna tillräckligt väl för att lura utfrågaren. Det förändrar inte situationernas reella status. En dator som klara Turingtestet, och lurar utfrågaren att den är en människa, är ingen garanti att datorn faktiskt tänker som en människa, bara att den utgör en bra simulering av en människa. Det finns naturligtvis argument även mot denna typ av motstånd, ett av dessa är påståendet att något som simuleras aldrig kan vara annat än en simulering av den äkta varan. Här delar författaren in påståendet i två olika sorters simuleringar, först simulering1 där det som simuleras saknar viktiga beståndsdelar eller karaktärsdrag hos det som simuleras. Till exempel, en plånbok av falskläder, är en simulering av läder, men har en annan molekylär 11

uppsättning än en äkta läderplånbok. Ett annat exempel på simulering av typ ett är simulerad död, en person som spelar död, är inte död, även om det kan se så ut. Simulering av typ två innebär att vi har ett fenomen eller föremål som exakt stämmer överens med det som ska simuleras, men det är skapat på artificiell väg. Ett exempel på detta är syntetiska proteiner, som till sin molekylära struktur är identiska med den äkta varan, dessa har dock skapats på konstgjord väg. Väljer man att göra denna åtskillnad mellan simulering1 och simulering2 kan man hävda att simulering1 inte är identisk vad den avser simulera, men simulering2 är det. Väljer man att dela upp betydelsen av simulering på detta sätt, är detta argument inte längre helt vattentätt, precis som en del andra invändningar riktar även denna sig mot något som testet aldrig utgett sig för att kunna särskilja. Huvuddraget i denna, och andra liknande typer av argumentering, anser jag dock vara väldigt central. Skulle vi konstruera ett test för att undersöka huruvida en artificiell intelligens skulle kunna skapas, är vi säkra på att vi mäter rätt saker? Detta, anser jag, inte vara av trivial betydelse, då konsekvenserna av att mäta något som inte avses att mäta omintetgör den eventuella nyttan av ett test i första läget. 4.4 Svarta lådan argumentet Detta är det sista av de fyra argument som Copeland väljer att presentera, här väljer vi att betrakta datorer som deltar i vårat turingtest som svarta lådor, vars inre vi aldrig kommer att kunna utforska. Så som turingtestet är konstruerat är bedömningen om en dator tänker baserad på dess yttre beteende. Turing själv ansåg att det inte var ett problem att göra denna bedömning, då han hävdar att vi alltid bedömer en person utifrån dennas yttre agerande. Skulle man således ifrågasätta att vi gör dessa bedömningar, menar Turing, att då tvingas vi ifrågasätta hur vi bildar oss uppfattningar om andra människor (Turing, 1950). Vill man angripa Turings argumentering lite försiktigt, skulle man kunna hävda att våran bedömning av en annan människa är beroende av otroligt mycket mera yttre intryck än bara en konversation (som Turingtestet är designat för). Copeland sammanfattar ett mera naturligt motargument till detta synsätt så som; att när vi bedömer en människa utifrån yttre stimuli, gör vi så underförstått att den vi bedömer är likartade varelser. Denna bedömning grundas således i att personen jag betraktar anses ha samma organiska struktur, ända ner till de kemiska och elektroniska processerna i hjärnan. För att understryka detta arguments betydelse exemplifierar Copeland på följande sätt: Tänk att du och en person du precis träffats ska åka tillsammans till en fest hos en gemensam bekant. Ni delar en taxi och sitter och småpratar undertiden. Plötsligt kraschar bilen i diket, du klarar dig oskadd, men när du kollar på din medpassagerare är denna illa tilltygad, men istället för blod och mänskliga delar, läcker denne olja och under såren ligger metalplattor som är stämplade made in Taiwan, skulle du fortfarande, enbart med er tidigare konversation som grund, fortsätta att hävda att denna maskin var en tänkande varelse? (Copeland, 2001). Detta är naturligtvis ett tillspetsat exempel, men principen är, anser jag, fortfarande mycket giltig. Naturligtvis skulle man inte fortfarande tro att medpassageraren var en tänkande varelse, trots att man tidigare under bilfärden inte skulle komma på tanken att ifrågasätta detta. Vad detta egentligen säger är att Turing troligtvis är fel ute då han hävdar att det räcker med enbart yttre beteende för att gör en bedömning om en människa. Detta leder vidare till slutsatsen att vi inte kan överföra detta resonemang till en dator. Detta, i sin tur, leder till att Turingtestet inte är en tillfredsställande metod för att analysera huruvida en dator är kapabel att tänka. Ytterligare ett sätt att exemplifiera detta ställningstagande är om vi tänker oss en dator med otrolig minneskapacitet. Det finns ett begränsat antal ord som kan uttryckas, detta leder till att det finns ett ändligt antal möjliga meningar som kan konstrueras av dessa ord. Naturligtvis kommer detta ändliga antal att vara fantastiskt stort, men likaväl ändligt. Då vore det inte omöjligt att skapa ett gigantiskt program i stil med datorterapeuten ELIZA. (http://www-ai.ijs.si/eliza/eliza.html) 12

Detta fungerar, i grova drag, så att om användaren skriver en fråga ser programmet hur frågan är strukturerad, och vilka ord som förekommer. Sedan matchar programmet mot en databas, vilken typ av svar som borde vara passande, givet frågans struktur. Frågar användaren t.ex. vad är klockan? kan orden vad är definiera att det är en undersökande fråga, och ordet klocka matchas mot att uppge en tidsangivelse. Detta är egentligen bara ett stort lexikon, som används på ett lite roligare sätt (Bandyo-padhyay, 2000). 13

5 Källförteckning Böcker Bandyo-Padhyay, Nanda. 2000. Computing for non-specialists, Gosport, Ashford Colour Press Ltd. Copeland, Jack. 2001. Artificial Intelligence: A philosophical introduction. Oxford, England: Blackwell Publishers Ltd. Heil, John (Red.). 2004. Philosophy of mind. a guide and anthology. Oxford: Oxford University Press. Russel, J. S., Norvig, P. 2003. Artificial Intelligence: A Modern Approach, 2.ed., New Jersey, Pearson Education Ltd. Artiklar Turing, A.M., 1950, Computing Machinery and Intelligence, Mind, 433-460. Konferensbidrag Michael L. Mauldin, L.M., 1994, Chatterbots, Tinymuds, And The Turing Test: Entering The Loebner Prize Competition, Twelfth National Conference on Artificial Intelligence (AAAI '94) August 1-4, 1994, Seattle, Washington. Hemsidor ELIZA http://www-ai.ijs.si/eliza/eliza.html Golem http://www.demo.cs.brandeis.edu/golem/ Loebner Prize http://www.loebner.net/prizef/loebner-prize.html Jabberwacky http://www.jabberwacky.com 14