Etik och AI. Ett fördjupningsarbete i kursen Artificiell intelligens. Helen Alm Kognitionsvetenskapliga programmet helal318 820830-0262



Relevanta dokument
Artificiell intelligens, eller Kommer din dator att bli klokare än dig? (eller kanske är den redan det?)

Artificiell intelligens, eller Kommer din dator att bli klokare än dig? (eller kanske är den redan det?)

DÅ ÄR DET DAGS ATT DÖ - ÄLDRE OCH DEN GODA DÖDEN. Lars Sandman. Praktisk filosof Lektor, Fil Dr

Hälsoångestmodellen. 1. Kontrollbeteenden 2. Försäkrande beteenden 3. Förebyggande beteenden 4. Undvikanden

Obemannade flygplan. Namn: Hampus Hägg. Datum: Klass: TE14B. Gruppmedlemmar: Gustav, Emilia, Henric och Didrik

samhälle Susanna Öhman

Kvalitetsarbete I Landstinget i Kalmar län. 24 oktober 2007 Eva Arvidsson

När din mamma eller pappa är psykiskt sjuk

Sammanfattning av programmet UID FutureMap

Service och bemötande. Torbjörn Johansson, GAF Pär Magnusson, Öjestrand GC

Positiv Ridning Systemet Negativ eller positiv? Av Henrik Johansen

Solowheel. Namn: Jesper Edqvist. Klass: TE14A. Datum:

Health café. Self help groups. Learning café. Focus on support to people with chronic diseases and their families

INSTITUTIONEN FÖR FILOSOFI, LINGVISTIK OCH VETENSKAPSTEORI ETIK VT-15 DJURETIK OCH MORALISK STATUS

Information technology Open Document Format for Office Applications (OpenDocument) v1.0 (ISO/IEC 26300:2006, IDT) SWEDISH STANDARDS INSTITUTE

Webbregistrering pa kurs och termin

ATT FÅ BESTÄMMA SJÄLV AUTONOMI INOM ÄLDREOMSORGEN. Lars Sandman. Praktisk filosof Lektor, Fil Dr

Utvärdering SFI, ht -13

Kelly, Kevin (2016) The Inevitable: Understanding the 12 Technological Forces The Will Shape Our Future. Viking Press.

Självkörande bilar. Alvin Karlsson TE14A 9/3-2015

Artificiell intelligens, eller Kommer din dator att bli klokare än dig? (eller kanske är den redan det?)

Teknikprogrammet Klass TE14A, Norrköping. Jacob Almrot. Självstyrda bilar. Datum:

När din mamma eller pappa är psykiskt sjuk

Var och bli den förändringen du vill se i omvärlden.

Kärlek nu och för alltid. Studiehäfte av Henrik Steen

Ätstörningar. Att vilja bli nöjd

Hur jag jobbat. funderingar. Johanna Ellström

5. Skill # 2 Inviting Prospects to Understand Your Product or Opportunity. Många posers och amatörer gör dessa fel i början när dom ska bjuda in

Make a speech. How to make the perfect speech. söndag 6 oktober 13

Träningsläge. copyright 2007, Maria Hagström, Skogsborgs Gård HB

POLITIK och DEBATT svenska + SO

EVALUATION OF ADVANCED BIOSTATISTICS COURSE, part I

Att möta den som inte orkar leva

Reflektion: Förmågor. Intelligens. Talang ??? Vad tänker DU. Vad tänker DU? Naturligt eller utvecklat?

P-piller till 14-åringar?

Hälsorobotar. Robotar som hjälper och vårdar

Case-based resoning. och dess användning inom sjukvården. Linköpings universitet Artificiell intelligens II 729G11 HT 2011

JAG SKRIVER I BLINDO PDF

onsdag den 21 november 2012 PRONOMEN

Nja, man vet inte riktigt hur lång tid det tar men om en stund är det nog din tur! Hur mår du? Vill du ha en tablett eller nåt?!

(Johanna och Erik pratar mycket bred skånska.) Johanna. Erik. Men måste vi verkligen? Johanna. Erik. Klart jag gör. Johanna

Ovanliga Tips till ett Smalare Liv av Seif Fendukly Alla rättigheter förbehålls.

Feriepraktik Karlskoga Degerfors folkhälsoförvaltningen. Barnkonventionen/mänskliga rättigheter

Insamlingsforumbilden. Den nya givaren

Vätebränsle. Namn: Rasmus Rynell. Klass: TE14A. Datum:

Webbreg öppen: 26/ /

jonas karlsson det andra målet

Mis/trusting Open Access JUTTA

Diskussionsfrågor <3mig.nu. - Om Internet, trakasserier och livet IRL

Kanban är inte din process. (låt mig berätta varför) #DevLin Mars 2012

Någonting står i vägen

Övning: Föräldrapanelen Bild 5 i PowerPoint-presentationen.

Övning: Föräldrapanelen

By: Alyssa Srkalovic

Translation of the Swedish version of the IPQ-R Pia Alsén, Eva Brink

LEVERANTÖRSLED; INKÖP OCH UPPHANDLING

BOENDEFORMENS BETYDELSE FÖR ASYLSÖKANDES INTEGRATION Lina Sandström

Huset på gränsen. Roller. Linda Hanna Petra. Dinkanish. Pan Näcken Skogsrå Troll Älva Häxa Vätte Hydra

Registerforskning Oktober 2018, Stockholm City Conference Centre. Möjligheter med Artificiell Intelligens inom registerforskningen

Hur leder vi transformationer?

INVEST IN NORDIC CLEANTECH

Mina målsättningar för 2015

Djuretik. Vetenskap, politik, strategi. moralfrågan. Indirekta vs direkta skäl

1 Börja samtalet med tjejerna idag! EnRigtigMand.dk. Äger alla rättigheter

Säkra vägar. 4-5 Trafik Vad är trafik egentligen? Ser den likadan ut under hela dygnet?

En skola på vetenskaplig grund gränsöverskridande mellan akademi, lärarutbildning och skolpraktik

Lev som du lär. Om jag till exempel tycker att det är viktigt att ta hand om naturen, så är varje litet steg i den riktningen måluppfyllelse:

Read Texterna består av enkla dialoger mellan två personer A och B. Pedagogen bör presentera texten så att uttalet finns med under bearbetningen.

Utveckla samarbete inom avdelningen. Utveckla samarbetet. mini workshop! i butikens ledningsgrupp. Grid International AB. Grid International AB

Din RelationsBlueprint - Källan till smärta eller framgång i din intima relation

DISC test Översatt till svenska

To Lauren Beukes Tune: Top of the World Written by Marianna Leikomaa

Linköpings universitet

De 10 mest basala avslutsteknikerna. Direkt avslutet: - Ska vi köra på det här då? Ja. - Om du gillar den, varför inte slå till? Ja, varför inte?

Samhällskunskap. Ett häfte om. -familjen. -skolan. -kompisar och kamratskap

5 tips för en mer harmonisk arbetsdag

1. TITTAR Jag tittar på personen som talar. 2. TÄNKER Jag tänker på vad som sägs. 3. VÄNTAR Jag väntar på min tur att tala. 4.

Sverige kan bli föregångsland inom tillämpning av AI

10 tips för ökad försäljning

Femtonde efter trefaldighet, endast ett är nödvändigt, Matteus kapitel 11:28-30

Hej snygging Hej. Skicka en bild ;) Vaddå för bild? :) Naket!! Nä känner inte dig.

"Content is king" - Vacker Webbdesign & Effektiv Sökmotorsoptimering för företag

Samtal med Hussein en lärare berättar:

Hubert såg en gammal gammal gubbe som satt vid ett av tälten gubben såg halv död ut. - Hallå du, viskar Hubert

Barn och medier. En lättläst broschyr

doing stuff that nobody

Join the Quest 3. Fortsätt glänsa i engelska. Be a Star Reader!

Värdet av det utförda ligger i utförandet. Albert Einstein

Citation Needed: får man skriva vad som helst? Mathias Klang

Ökat personligt engagemang En studie om coachande förhållningssätt

Par m 328 feet. Lång höger sväng. Korgen står placerad i en skogsglänta OB-linje på vänster sida.

Stroke longitudinell studie

I do for money sattes upp i regi av Åsa Olsson på Dramalabbet under Teater Scenario 2008.

LÖNEN ETT EFFEKTIVT SÄTT FÖR ÖNSKAD PRESTATION - ENDA FÖRUTSÄTTNINGEN FÖR KONKURRENSKRAFT I EN GLOBAL VÄRLD!

Välkommen till framtiden

Discovering!!!!! Swedish ÅÄÖ. EPISODE 6 Norrlänningar and numbers Misi.se

Moralfilosofi. Föreläsning 11

VAD SKULLE DU HA VALT PDF

Workshop: Aktivt Hopp! Hur kan vi möta klimatkrisen utan att bli galna?

Särskild utbildning för vuxna

Transkript:

Ett fördjupningsarbete i kursen Artificiell intelligens Kognitionsvetenskapliga programmet 820830-0262

INLEDNING 3 PÅGÅENDE AI-FORSKNING SOM ÄR FÖREMÅL FÖR ETISK DEBATT: 4 AI I HJÄRNAN 4 AI I BESLUTSTÖDSYSTEM FÖR LÄKARE 5 SÄKERHETSROBOTAR 5 MILITÄRA ANVÄNDNINGAR AV AI 6 ÖVRIGT 8 FRAMTIDEN 9 ROBOTAR MED KÄNSLOR - HUR SKULLE DE KÄNNA SIG? 9 APA MÄNNISKA - CYBORG 11 VAD ÄR DET SOM ÄR SÅ SPECIELLT MED ATT VARA MÄNNISKA? 11 DISKUSSION 13 KÄLLOR: 15 BILAGOR: 16 TACK 16 BILAGA B1. MAILKONTAKT MED PETER FUNK 17 BILAGA B2. SAMTAL MED PETER NORDIN. 18 BILAGA B3. SAMTAL MED LARS SANDMAN 20 2

Inledning Ny teknik har alltid skrämt och fascinerat människor. Ett sätt att hantera det nya har varit att måla upp storslagna skräckscenarion: Scenarion som sedan kan används som en utgångspunkt för diskussion. Så är det i allra högsta grad när det gäller Artificiell Intelligens. Science fictionförfattare och andra har sedan lågt tillbaka spekulerat i vad som skulle hända om människan hade kunskapen och tekniken att skapa artificiell intelligens och artificiellt liv. Frågan är om de kanske inte är så att forskare och författare i stor grad har inspirerat varandra till nya verk och nya upptäckter. I de flesta vetenskapliga böcker om AI finns i alla fall någon koppling till science fiction, även i litteraturen till denna kurs (1). Men den tekniska utvecklingen går oerhört snabbt framåt och nu är det hög tid att plocka fram den etiska debatten som någonting verkligt och viktigt. Någonting som inte längre är fiktion utan som är verklighet, här och nu. Naturligtvis bör vi även fortsätta att blicka framåt, mot morgondagen. Att utvecklingen går snabbt framåt är väldigt tydligt då man läser äldre böcker om etik och AI, t.ex. M. Yazdani och A. Narayanan från 1984 (3). Där finns ett exempel på en fasansfull framtidsbild där en stackars oskyldig man, via en stor databas, blir svartlistad bland alla biluthyrare i England p.g.a. ett misstag. Ett scenario som inte alls känns konstigt eller avlägset i dagens samhälle. Vilka forskningsprojekt inom AI:n är idag föremål för en etisk debatt? Vad diskuteras inför morgondagen? Hur sköts denna debatt och hur bör den skötas? 3

Pågående AI-forskning som är föremål för etisk debatt: AI i hjärnan Dr Sanjiv Talwar och Professor John K Chapin, vid The State University of New York (SUNY), har skapat riktiga cyborg-råttor. Det vill säga delvis levande råttor och delvis maskiner, dessa kallas för Ratbots. Forskarna har opererat in elektroder med radiomottagare i råttornas hjärnor. Detta så att de kan interagera med råtthjärnan genom att skicka elektrisk stimulans via en fjärrkontroll (5). I deras första försök hade de råttor som skulle trycka på en spak för att få vatten. De undersökte hur råttornas hjärnor agerade när de ville ha vatten och kunde till slut extrahera det i hjärnan som betydde Jag vill ha vatten och lyckades sedan koppla råttans hjärna direkt till vattenbehållaren så att den bara behövde tänka jag-vill-ha-vatten -tanken för att få vatten istället för att behöva trycka på spaken. When the rat s brain was connected directly to the water dispenser the rat no longer needed to push the lever the water now came when it just thought about having a drink. (5) Nu kan de, genom att ge råttan en känsla av att bli berörd på morrhåren/känselhåren få den att svänga åt motsatt håll och sedan ge den ett lyckorus genom att stimulera hjärnans lustcentra. De kan alltså få råttan att göra som de vill att den ska göra, den får belöning (i lustcentrat) när den gör som de ber den att göra. Alltså, för att ratboten ska svänga till vänster så ger man den känslan av att morrhåren på höger sida kommer mot någonting. Talwar och Chapin kan styra råttan nästan som en radiostyrd bil (5). Råttan väjer inte för situationer som normala råttor skulle undvika, till exempel att vara ensam och synlig på en stor, öppen yta (2). Talwar och Chapin menar att man inte kan få råttan att göra vad som helst. Till exempel kan man inte få den att göra någonting som skulle resultera i sin egen död eftersom råttan själv avväger belöningen mot hur svår uppgiften är att utföra. få den att göra någonting som får den att dö då den själv kan avväga belöningen mot hur svår uppgiften är att utföra. I samband med händelserna den 11 september 2001 kom de på en idé om att ha förse sina ratbotar meden liten kamera. Då skulle man både kunna se det ratbotarna ser och styra deras rörelser. Forskarna har också, med gott resultat, tränat några råttor till att söka efter människolukt. Dessa råttor skulle passa alldeles utmärkt i sökandet efter människor i rasmassor. (5) Men försök till att styra djur med elektroder i deras hjärnor är inte någonting nytt. Redan på 1960-talet genomfördes ett sådant experiment då Jose Delgado lyckades få en rasande, rusande tjur att vända om och lugnt gå åt det andra hållet med hjälp av en knapptryckning. (6) När ratbot-skaparen professor John Chapin får frågan om liknande saker snart kommer att kopplas till den mänskliga hjärnan svarar han: No-one has really been able to come up with any useful thing that can be done with it. It certainly isn t really able to force people to do something that they wouldn t want to do otherwise. 4

Med implantat i hjärnan kan man göra så mycket annat utöver att styra djur. Man kan till exempel använda AI i hjärnan till att styra proteser. Jag påbörjar den diskussionen här, men den smälter samman med ämnet Apa Människa - Cyborg som jag tar upp senare. Utvecklingen har kommit långt när det gäller att tolka hjärnsignaler. Tolkade sådana kan användas för att stimulera små datachip i muskler och på så sätt bland annat kunna förbättra rörligheten hos personer med ryggmärgsskador samt för att kunna skapa rörelseförmåga i proteser. Johan Wassberg (fysiolog, Göteborgs Universitet) samt Miguel Nicolelis (Duke University, North Carolina) har utfört ett experiment där de kopplade elektroder till en sydamerikansk uggleapas hjärna. Signalerna från elektroderna kopplades till ett artificiellt neuralt nätverk som tränats att förstå dessa. Utdata från det neurala nätverket kunde styra en robotarm Detta skedde i realtid och fungerade bra, robotarmen duplicerade rörelserna i apans riktiga arm. (2) AI i beslutstödsystem för läkare I en rykande färsk licentiat från Mälardalens högskola (försvarad den 21 oktober 2004) har doktorand Mikael Sollenborn utvecklat ett beslutsstödssystem där artificiell intelligens (AI) kan hjälpa läkare att välja behandling för patienter. Här kommer en kort presentation av hur systemet kan hjälpa läkare att diagnosticera sina patienter: En läkare skulle kunna få följande information: Du har inte haft en patient med liknande symptom, men 80 % av patienter med samma symtom brukar ha denguafeber. Ett blodprov kan avgöra detta. Med tre veckors medicinering (startas omedelbart i avvaktan på blodprovssvar) brukar de flesta vara friska. Kunskapen har inte matats in av en läkare, utan skapats från tidigare fall med hjälp av användarstereotyper, fallbaserat resonerande och klustring. (12) Gruppen som arbetat med AI:n i detta system leds av Peter Funk som är universitetslektor på Institutionen för Datavetenskap vid Mälardalens högskola. Jag har frågat honom hur de hanterar etikfrågor inom denna typ av forskning. Han berättade då att de har diskuterat etiken en hel del, bland annat hålls en kurs som heter Philosophy of Computer Science där han själv har en föreläsning i AI och Etik. De har också startat upp en grupp inom AI och etik. Han har följande att säga om etiken i beslutstödsystemet för läkare: Användare, i vårat fall kliniker, och patienter har oftast väldigt relevanta synpunkter. Tveksamheter från någon ur dessa grupper kan vara ingången till en intressant etisk fråga. En självklar sak är exempelvis att alla patienters integritet skall bevaras. En annan är att läkaren och patienten ska ha stor kontroll över den information som finns om dem i systemet. Även att informationen ligger lokalt i klinikens dator och inte distribueras ser vi som ett viktigt integritetsskydd och ökar användarnas acceptans. Säkerhetsrobotar Det japanska företaget Secom har tagit fram en säkerhetsrobot vid namn Robot X. Denna robot är skapad för att utföra det arbete som dagens mänskliga väktare gör. Den är ungefär en meter hög och väger 120kg. Robot X kan patrullera enligt en förprogrammerad plan eller styras från ett kontrollrum. Den har bland annat en inbyggd infraröd kamera och kan därför lätt upptäcka obehöriga personer. Den kan jaga inkräktare (även om den inte kommer upp i högre hastigheter än 10km/h), ta bilder på brottslingarna med en digitalkamera som tar kort med hög upplösning samt försöka skrämma bort folk med höga ljudsignaler och ogiftig rök. Robot X kan också prata med folk, antingen med förinspelade 5

repliker eller från en person i kontrollrummet och ta upp ljud med en mikrofon. Roboten är skapad för att hyras ut till företag som behöver bevakning till, vad Secom uppger är, halva kostnaden av var en mänsklig väktare kostar att hyra in (10). Secom har också framställt en säkerhetsrobot som väger 380kg och kan kompletteras med bland annat elchockpistol. (2) Militära användningar av AI AI är ett naturligt inslag i militära sammanhang. På www.aaai.org (11) beskriver man det på följande vis: from developing intricate flight plans to implementing complex supply systems or creating training simulation exercises, AI is a natural partner in the modern military. Detta är ingenting nytt. De första datorerna togs fram för militära ändamål; den engelska Colossus (1943) skapades endast för att knäcka tyskarnas koder och den amerikanska ENIAC (1946) konstruerades för att kunna beräkna ballistiska banor. Militära intressen (tillsammans med rymdprojektet) har drivit på utvecklingen mer än någon annan statlig eller samhällelig kraft (4). Frank Rose, författaren till Into the heart of the mind. An american quest for artificial intelligence skriver där: The computerization of society has essentially been a side effect of the computerization of war. (4) Peter Nordin (2) ger ett antal skräckexempel på vad som skulle kunna utvecklas, bland annat autonoma, pyttesmå krypskyttar som skulle kunna identifiera och skjuta ihjäl en människa på flera hundra meter utan att denne han någon som helst chans att försvara sig. Han skriver vidare: Det arbetas redan febrilt på intelligenta vapen i världen och varje demokratiskt samhälle bör ta ställning till vilka etiska regler som ska gälla i denna mycket snabba utveckling. (2) Detta är uppenbarligen ett användnings- och forskningsområde inom AI:n där mycket händer. En undersökning från U.S. Joint Forces Command med namnet Unmanned Effects: Taking the Human out of the Loop påstår följande: as early as 2025, the presence of autonomous robots, networked and integrated, on the battlefield might not be the exception, but, in fact, the norm. (11) Robotar som tar hand om/uppmuntrar sjuka och äldre I Japan har Takanori Shibata, PhD och hans forskarlag utvecklat vad de kallar artificial emotional creature. Det är olika sorters mjukdjursrobotar som interagerar fysiskt med människor och uttrycker vad människor uppfattar emotionellt beteende. Den robot de har kommit längst med är en robotsäl vid namn Paro (enligt Svenska Dagbladet kommer namnet från personal robot, uttalat av en japan (9)). Det visade sig fungera bättre med en säl-robot än en robot som till exempel ser ut som en hund eller katt då människor har mer klara uppfattningar om hur hundar och katter ska se ut och bete sig. Det är lättare att avfärda dem som bara robotar och mest bara se alla deras skavanker, än med ett djur som man inte har kontakt med i vanliga fall (7). 6

Paro används som terapirobot i avslappnande och lugnande syfte. Roboten reagerar på visuell, audiell samt taktil stimuli, den slingrar sig nöjt vid beröring och visar tecken på obehag när den ignoreras. Paro har till och med en egen sömncykel. Denna robot har bland annat testats på barn och äldre. I mars 2001 tog Shibata med sig Paro till barnavdelningen på University of Tsukuba Hospital för att där undersöka effekterna på 16 patienter som fick umgås med sälen. Experimentet visade att Paro dämpade barnens oro och rastlöshet samt förbättrade barnens kommunikation med vårdpersonalen. I det andra testet använde man Paro på ett dagcenter för 22st åldringar i fem veckor. Där fann man att patienternas stressnivåer hade sjönk betydligt efter att de umgåtts med Paro. De äldre hade även ökat sina färdigheter för social interaktion. (7, 8). Tidigare undersökningar har visat att människor som har husdjur är friskare. Husdjur sänker människors blodtryck och minskar deras spänningar genom att bara befinna sig i närheten. Tyvärr är det sällan man får ha djur med sig på ålderdomshem och det finns många äldre som skulle må bra av kontakt med husdjur men som inte skulle klara av den dagliga djurskötseln. Därför ser Shibata åldringsvården som ett enormt användningsområde för Paro (7). Dessutom har det visat sig att risken för att vårdpersonalen ska bli utbränd minskar i Paros närvaro. Shibata visade upp Paro på Robodex-utställningen i Yokohama och på Science Museum i London år 2002. I London upptäcktes Paro av en person från Guinness rekordbok där säl-roboten nu finns med som världens mest terapeutiska robot (8). På barnavdelningen vid Karolinska universitetssjukhuset i Stockholm har ett eventuellt inköp av en Paro diskuterats (B2). Man kan fråga sig varför denna söta och harmlösa säl är föremål för etisk debatt. Enligt Peter Nordin (2) har man i Japan det uttalade målet att humanoider och andra servicerobotar ska hjälpa till med att ta hand om den växande gruppen av mycket gamla människor. Han anser att det vore bättre om människorna själva kan ta hand om varandra och robotarna kan ägna sig åt sådant som att bygga bilar och andra tunga och riskfyllda arbeten. Enligt Nordin vill Bo Lennernäs, MD på Sahlgrenska (som jag försökt att kontakta utan resultat), använda humanoider (robotar liknar människor) inom vården. Detta eftersom antalet sjukvårdsintresserade inte kommer att räcka till när 40-talisterna blir gamla. Särskilt dåligt är intresset för att arbeta med strålningsbehandling mot cancer. Bo vill bemanna en strålningsavdelning med enbart robotar. Dessa ska göra allt från att ta mot patienterna och bjuda på kaffe till att sköta hela behandlingen (B2). Lars Sandman, Dr i filosofi, arbetar på Institutionen för vårdvetenskap vid Högskolan i Borås och hade för några år sen hade ett samarbete med Peter Nordin om AI och etik. Sandman har funderat mycket på hur det skulle fungera med humanioder inom vården. Det han tycker att man bör ifrågasätta i denna sorts utveckling är om man lurar människor. Dementa och barn kanske tror att det är en människa och kan på så vis bli vilseledda. Kanske blir de också vilseledda av Paro och tror att det är ett riktigt djur. Sandman berättar att många människor reagerar starkt mot att robotar ersätter det personliga mötet i vården. Men det kanske är lika bra att en robot kan finnas där till exempel om läkaren/läkarna inte har tid (B3). En annan etisk aspekt med Paro och Shibatas andra artificial emotional creature är hur man ska ta ställning till det känslomässiga beteendet. Detta behandlas nedan, under rubriken Framtiden: Robotar med känslor - hur skulle de känna sig?. Men kanske är det så att frågan inte hör framtiden till utan är högst reell redan nu 7

Övrigt Peter Nordin trycker även på andra ämnen än de har tagit upp här. På frågan Vilka etiska problem ser du i dagens AI-forskning? svar han: Mikrosegmentering av försäkringstagare, att man lätt kan plocka bort icke-lönsamma kunder på ett sätt som inte alls var tänkt från början. Bevakningskameror som känner igen ansikten, kan identifiera människor och ha koll på var folk går. E-post skickas ju som vykort så att alla kan se dem egentligen, AI-teknik kan lätt hitta (plocka ut) information och kartlägga personer. (B2) Det finns en enorm mängd forskning inom AI och att ta upp alla delar som är (eller bör vara) föremål för en debatt ur ett etiskt perspektiv skulle ta ofantligt mycket tid och plats. Här lämnar vi dagens AI för etiska frågor om sådant som ännu inte kommit riktigt lika långt men som ligger framför oss i framtiden. 8

Framtiden Det är inte lätt att hålla sig till just den punkt där dagens AI befinner sig när man har att göra med etikdiskussionerna. Etikdebatternas uppdrag måste nog ändå vara att ligga ett steg före. Det kan nästan kännas meningslöst att debattera den forskning som sker. Man kanske ändå inte har så stor möjlighet att göra någonting åt det man eventuellt finner etiskt problematiskt idag. Däremot kan man förutspå forskningsframsteg och de etiska problem som följer med dem. Vad som är science fiction idag kan vara verklighet imorgon, att ett verkligt utbyte mellan forskare och science fictionförfattare existerar var någonting jag tog upp redan i inledningen. Det finns referenser till science fiction i alla av mina tryckta källor (och i många av de andra). Sarah Kember, senior lecturer på Department of Media and Communications vid University of London (13) skriver: That there is a reciprocity of ideas a dialouge rather than a scense of determinism between science and science fiction is widely accepted and frequently demonstrated samt: That science fact and fiction share not only ideas but fantasies, hopes and fears is also commonly accepted Jag har valt att ta upp några två delområden inom AI-forskningen som spås en utveckling i otroligt snabb takt och som, om utvecklingen fortsätter i de spår den nu flyger fram i, snart kommer att påverka vårt mänskliga samhälle. Delområden som ställer frågor som skakar om våra grundläggande värderingar och tvingar oss människor att ta ställning i frågor vi inte trodde vi skulle möta. Jag har även valt att ta med en fråga om vad mänsklighet egentligen är och när vi ska dela med oss av våra rättigheter som en egen punkt. Detta eftersom den frågan dyker upp lite överallt och behövde lite eget utrymme. Robotar med känslor - hur skulle de känna sig? Både i Peter Nordins bok Humanoider (2) och under samtalet jag hade med honom (B2) togs ämnet om robotars rättigheter upp. Nordin anser att detta är en av de frågor som debatteras för lite i dagens etikdiskussioner, och att det verkligen borde diskuteras då många AI-forskare arbetar med att försöka utveckla robotar med emotionella färdigheter. Detta är även en hjärtefråga för Anne Foerst, Dr. i teologi och anlitad som rådgivare av MITs AI-laboratorium för deras robotprojekt (13) och för Lars Sandman (B3). Vad som diskuteras är bland annat när vi ska börja behandla robotarna som om de har känslor (B3, 13). Hur kan vi vara säkra på att det bara är ett inprogrammerat beteende och att roboten inte har några riktiga känslor (B3)? Kan man någonsin vara säker på det (B3)? Den här frågan tas upp redan i Stanley Kubriks 2001- A space odyssey från 1968. När besättningsmannen Bowman får frågan om superdatorn Hal har något känsloliv så svarar han: He acts like he has genuine emotions. He is progammed that way to make it easier for us to talk to him. But as to answer whether or not he has real feelings is something I don t think anyone can truthfully answer Jag frågade Peter Nordin om han tycker att det är etiskt försvarbart att ge robotar känslor, och han svarade: 9

Ger vi dem känslor eller uppkommer det? Vilja finns redan i dagens robotar (även om bara på insektsnivå). I ett mer komplext system kommer känslor att kunna uppstå. Dessa frågor har Lars jobbat mycket med. Är det bra eller inte? Är det etiskt riktigt att skapa olyckliga och förslavade robotar? Mycket talar för att känslor kommer att skapas. Lars Sandman funderar på när robotarna får emotionell status. Han undrar hur vi skulle ställa oss till robotarna om de kunde kunna uppleva lidande, skulle vi då ta hänsyn till dem? Ska vi redan nu ta lika mycket hänsyn till robotar som till djur? Tänk om framtida robotar kanske kan ha ännu större känsloliv än vad vi människor har. Han tar upp frågan om vi verkligen skulle få använda robotar med känslor som vi vill. Sådana robotar kanske kommer att behöva riktiga anställningar och andra rättigheter som nu hör endast till mänskligheten. Men i så fall kanske vi kommer tillbaka i ett samhälle ungefär som det vi startade i, med skillnaden att där även finns robotar vid vår sida. Sandman säger att det, även ur en filosofisk synvinkel, är väldigt svårt att avgöra om det går att göra robotar med känslor. Men han anser att vi måste erkänna dem som emotionella varelser så snart de verkar känna samma saker som oss, eftersom vi inte säkert kan veta om det är riktiga känslor eller inte. Isaac Asimov, skrev i sin bok I, robot (15) år 1950 tre stycken välkända robotlagar. Boken är en framtidsvision där robotarna styrs av dessa tre grundlagar: 1. A robot may not injure a human being, or, through inaction, allow a human to come to harm. 2. A robot must obey the orders given it by human beings exept where such orders would conflict with the First Law. 3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law. Dessa lagar diskuteras än idag. Om vi får in emotionella, självständiga robotar i vår vardag skulle vi kanske behöva något liknande för att skydda oss själva. Jag frågade Nordin om han tror att Asimovs tre robotlagar är implementerbara och fick svaret: Nja. Verklig intelligens är så komplex att den inte går att styra på det sättet. Det är omöjligt att bevisa att det är säkert, även om man tror att lagarna är implementerade. Här kan man ta den exploderade rymdfärjan som exempel. Även om system är mångdubbelt kontrollerade så kan ödesdigra fel smyga sig in i ett så komplext system. Det skulle kunna hända ett AI-system. Det finns många problem att lösa innan vi vet hur vi ska förhålla oss till emotionella robotar och om sådana robotar är någonting som vi behöver frukta. Att en robot blir en känslomässig varelse behöver ju inte betyda att den blir snäll och trevlig. Vad skulle ske med en hatisk robot? (B3) Nordin skriver: Vi kan också fråga oss om det genomsnittliga AI-sinnet kommer att vara lyckligt? Om vi inte är säkra på det, är det då rätt att skapa teknik som kan resultera i mängder av olyckliga sinnen? Sandman påpekar att argumentet (mot intelligenta robotar) om att robotar skulle kunna löpa amok alltid finns. Fast han tycker inte att det är något bra argument. Även människor löper amok ibland, han tar morden som nyss skedde här i Linköping som exempel på det. Men vi kommer att ha mindre kontroll på teknologin än vi har på galna människor... eller? (B3) 10

Mannen bakom Paro, T. Shibata, skriver: Mashines will not be active as long as they are tools for human beings (7) Men det är inte alla som håller med honom Apa Människa - Cyborg I boken Framtidens intelligens (14) skriver Bertil Thomas: Den biologiska utvecklingen är en mycket långsam process jämfört med den tekniska utvecklingen. Medan maskiner och robotar blir allt mer intelligenta för varje år så kommer människan att stampa på samma fläck i tusentals år framåt Men tänk om det inte blir så. Mycket pekar på att människan kommer att ta hjälp av tekniska framsteg för att driva på sin egen utveckling och pressa sina gränser mycket längre än vad vi trott är möjligt. En del forskare menar att människan, istället för att utvecklas biologiskt/evolutionärt, kommer att göra sig själv mer lik robotarna. Detta så att människan blir cyborg, delvis människa, delvis maskin (cybernetisk organism). Det är redan möjligt att få proteser som, med hjälp av neurala nät som tolkar hjärnsignaler, är rörliga. Elektronik i till exempel hjärtat är inte heller någonting som uppfattas som speciellt ovanligt för dagens människor eller att man kan ge döva hörsel med hjälp av cochlea-implantat. Listan kan göras lång. Hans Moravec skriver såhär i förordet till sin bok Mind children" (16): We are very near to the time when virtually no essential human function, physical or mental, will lack an artificial counterpart Jag ställde frågan Tror du att människor kommer att bli cyborger? till Peter Nordin och fick svaret: Ja. Det är där AI:n kommer att hamna. Forskningen ligger redan väldigt långt fram på området med deep brain implants m.m. Detta område går snabbare framåt än något annat. (B2) Jag ställde ungefär samma fråga till Lars Sandman (Vad tror du om att människans utveckling går mot att bli cyborger?) och fick svaret: Här går det rasande snabbt framåt. Jag såg någonstans i media att man implanterat elektroder i hjärnan på någon som sedan kunde styra sin dator med bara tanken. Även att man gör liknande ingrepp som hjälper Parkinsonpatienter. Jag tror att vi går mot en utveckling där bara lite skiljer oss från robotarna, där människorna är cyborger. (B3) Vad är det som är så speciellt med att vara människa? Denna fråga dyker upp lite överallt. Vad är det som gör människor så speciella. Vad är det som gör att vi anser oss ha en mängd rättigheter, rättigheter som vi inte delar med oss av, till exempel till djuren? Om det skulle finnas intelligenta robotar med känslor i vårt samhälle, skulle vi då ge dem samma rättigheter som vi människor har? Vad skulle skilja oss från dem? Anne Foerst säger: You can always point out the limits a robot has, and you can always point out humans that have the similar limits, and you accept them as persons. (13) 11

Lars Sandman är inne på samma spår när det gäller rättigheter för robotar: De (robotarna) är ju nu rationella och logiska. Det finns många människor, till exempel dementa och barn, som faller utanför där. samt (i frågan om hur emotionella robotar ska behandlas): Till och med innan robotarna upplever känslor bör man nog behandla dem som om de gjorde det. Vi människor är sådana att vi inte kan göra skarpa åtskillnader mellan olika sorters varelser. Därför borde vi behandla dem som människor. (B3) Foerst uttalar också de frågor som de andra också har rört sig runt: When would the point come where we couldn t use them as slaves anymore? When would they be protected under the constitution? When would they achieve the right to be treated as humans, with human rights? These questions throw us back to our own self-understanding. When we look at human history we realize, unfortunately, that humans are incredibly good in denying other humans rights Peter Nordin skriver: Är det rätt att definiera AI-systemets totala mål så att det alltid sätter människans intressen framför sina egna? Är det rimligt att kräva underkastelse av ett AI-system som är smartare än en själv och som har ett lika utvecklat känsloliv? Om det gällde människor skulle vi ha väldigt svårt att acceptera ett sådant förtryck. (2) Det finns, åter igen, många frågetecken men inte lika många svar. 12

Diskussion Det är så många frågor! Böckerna om AI och etik är totalt fullproppade med frågetecken. Det är obesvarade frågor som är enormt stora och ofantligt djupa. Filosofiska frågor som ställer allt till sin spets och som kräver att vi tänker igenom de mest grundläggande värderingar vi har som människor. Så många frågetecken och så få svar. Jag har tyvärr svårt att tro att jag kommer att kunna ge några sådana svar i den här diskussionen. Det finns så mycket mer jag gärna hade tagit med, men någonstans måste man sätta stopp. Frågorna i inledningen som jag tog upp i inledningen (Vilka forskningsprojekt inom AI:n är idag föremål för en etisk debatt? Vad diskuteras inför morgondagen? Hur sköts denna debatt och hur bör den skötas?) är väldigt stora och jag har gett delsvar på de två första. Hur debatten sköts är lite klurigt att säga. Det finns ingen storebror som har koll på vad alla forskare gör och som leder någon slags diskussion. Peter Nordin tycker att det borde finnas ett internationellt institut som övervakar och reglerar AI-forskningen. Men AI tillhör inte de områden som anses behöva särskild granskning (B2). Nu finns det, vad jag uppfattar som, en ganska stor diskussion om AI och etik. Det skrivs artiklar både på Internet och i tidningar, det hålls konferenser och skrivs böcker i frågan. Men räcker det? Frågorna borde kanske breddas och för att nå ut till en större del av mänskligheten. Speciellt när det är enorma frågor som rör hela vårt samhälle. Men samtidigt borde den kanske också gå uppåt mot att samla en diskussion på en högre nivå, någonting i likhet med det internationella institutet som Nordin pratar om. Men man kanske också kan fråga sig vad debatten egentligen fyller för någon funktion. Det är spännande och intressant att höra om olika sorters AI-forskning, men kan man som person göra någonting åt det man tycker är etiskt vidrigt? Nej, det är knappast troligt. Men en mening med att ha en diskussion måste vara att man kan hitta människor som tycker likadant som en själv och på så vis bli starkare mot det man vill få stopp på. Hela debatten är en balansgång. Hur långt in i framtiden ska diskussionen sträcka sig? Svävar man ut för långt i den kommande tiden har folk svårt att ta åt sig det man säger och avfärdar det som science fiction, vilket det ofta är... För vart ligger gränsen mellan science fiction och vetenskap? Innan jag började skriva detta projekt trodde jag att det fanns en skarp gräns däremellan, men oj så fel jag hade! Science fiction är en verklig del av etikdebatten. Jag trodde verkligen inte att de forskare jag har haft kontakt med eller läst böcker av, skulle ha sådana framtidsvisioner som de har! Att så mycket av dagens och morgondagens forskning handlar om att realisera just det som vi läst om i science fictionböcker är ingen slump. Faktumet att forskarna och författarna inspireras av varandra verkar vara självklart för de flesta inom AI:n. Så till de etiska frågorna i de områden som jag har tagit upp. Frågor runt teknik som finns idag eller som kanske kommer att uppstå imorgon. En del av forskningen som jag har tagit upp görs för ett gott syfte (till exempel AI i hjärnan som kan styra proteser, vårdrobotar och beslutstödsystem för robotar) där man direkt kan se vad nyttan är. Forskning som är till för att hjälpa mäniskor med svårigheter och för att underlätta för människor i deras yrkesroller. I en annan del av forskningen (till exempel militära användningar av AI) kan man genast inse vad som är etiskt tveksamt. Kanske borde dessa områden delas upp och diskuteras på olika sätt, kanske inte. Man kan tycka att exempelvis beslutstödsystemet för läkare är ett 13

totalt ofarligt system som bara gör nytta och då fråga sig varför det ska vara föremål för en etisk debatt. Men då får man dra det längre. Tänk om systemet inte är tillräckligt stabilt. Tänk om hackers kan ta sig in i systemet och få tag i sekretessbelagda uppgifter om andra människor. Tänk om läkarna förlitar sig mer och mer på ett sådant system och till slut knappast behöver någon utbildning alls för att klara av jobbet. Behöver vi inte riktiga läkare? Det kan låta pessimistiskt och trist att försöka klura ut worst case scenario hela tiden. Men någon måste se till att de svåra frågorna ställs. Det finns så mycket man ska ta ställning till: Är det acceptabelt att gå in och påverka ett djurs fria vilja, även om det kanske skulle kunna rädda livet på människor i framtiden? Är det rätt att skapa säkerhetsrobotar som kan skada människor? Hur långt ska vi låta utvecklingen av AI inom militären gå? Finns det en möjlighet att säga stopp till militära intressen? Till hur stor grad ska vi låta oss övervakas och kartläggas? Ska vi bli tvungna att skjuta undan mycket av vår egna integritet i framtiden? Detta är frågor som är oerhört aktuella idag. De andra frågorna är aktuella idag eftersom de kan vara en del av vår framtid. Dessa är frågorna om den medicinska användningen av AI (med människans eventuella utveckling mot cyborg) om robotar med känslor och om robotarnas eventuella rättigheter i vårt samhälle. Det är frågor som nästan har fått mig att slå knut på mig själv under arbetet med detta fördjupningsarbete. Frågor som är svåra att ta ställning i. Jag tror dock inte att det viktigaste är att ta ställning, utan att vara medveten om, och fundera på, frågorna. Vi måste helt enkelt göra som Professor John K Chapin och Dr Sanjiv Talwar säger att deras skapelser, ratbotarna gör; vara noggranna med att avväga riskerna mot belöningen. Detta är ännu en text om AI och etik som innehåller många frågor, men alleles för få svar. 14

Källor: 1.Artificial intelligence A modern approach Stuart Russel och Peter Norvig 2003 2.Humanoider Självlärande robotar och artificiell intelligens Peter Nordin och Johanna Wilde 2003 3.Artificial Intelligence Human effects M. Yazdani och A. Narayanan 1984 4. Den tänkande maskinen Datorerna i science fiction Svante Lovén Ur Tidskrift för litteraturvetenskap nr 3-4 1999 5.Robo Rat Graham Phillips och Paul Willis Publicerat 18 september, 2003 på www.abc.net.au Australian Broadcasting Corporation Innehållandes intervju med Professor John K Chapin, Ph.D samt Dr Sanjiv Talwar Depart of Physiology & Pharmacology SUNY Downstate School of Medicine 6. I, Ratbot Edward Willett Författare (ungdomsscience-fiction) 2002 www.edwardwillett.com 7. Seal Robot www.mel.go.jp/soshiki/robot/biorobo/shibata/shibat a.html Takanori Shibata, Ph.D. Institute of Industrial Science, The University of Tokyo samt MIT Samt Bio-Robotics Division, Robotics Department Mechanical Engineering Laboratory (MEL) 8. Seal of Approval www.japaninc.net Tim Hornyak, Kanadensisk journalist Innehållandes intervju med Takanori Shibata, Ph.D. 9. Paro - en säl-skapsrobot www.svd.se Håkan Forsberg 28/8 2003 10. Robot guard will smoke out villains John Boyd, Yokohama Augusti 04 www.newscientist.com/ 11. Military www.aaai.org/aitopics/html/military.html en underrubrik till Applications 12. Artificiell Intelligens hjälper läkare att välja rätt behandling www.mdh.se Peter Mannerfelt Publicerat 2004-10-18 13. Cyberfeminism and Artificial life Sarah Kember Senior Lecturer Department of Media and Communications Goldsmiths College University of London 2003 13. Flipper tema robotar och AI Producerat av produktionsbolaget Filt Reporter Anna Åkerlund Radioprogram SR P3 Oktober 2003 14. Framtidens intelligens En bok om AI, återkoppling och neurala nätverk Bertil Thomas Universitetslektor, Tekn Dr Institutionen för Data och Elektroteknik Chalmers Lindholmen Högskola 2003 15. I, Robot Isaac Asimov 1950 16. Mind children- The future of robot and human intelligence Hans Moravec 1988 15

Artificiell intelligens Bilagor: B1. Mailkontakt med Peter Funk Universitetslektor Institutionen för Datavetenskap Mälardalens högskola B2. Samtal med Peter Nordin PhD, Associate Professor Medical Communication Scientist AstraZeneca Tidigare: Docent i komplexa system Chalmers tekniska högskola 25/10 2004 B3. Samtal med Lars Sandman Fil. Dr. Lektor Institutionen för vårdvetenskap Högskolan i Borås 26/10 2004 Tack Till de som tålmodigt svarade på mina frågor: Peter Nordin Lars Sandman Peter Funk Roger Dackegård på produktionsbolaget Filt Svante Lovén 16

Artificiell intelligens Fördjupningsuppgift Bilaga B1. Mailkontakt med Peter Funk Urklipp från mitt mail till Peter Funk: Jag har läst lite om beslutstödssystemet för läkare och tycker att det verkar vara väldigt intressant. Hur har ni diskuterat etik och AI inom er forskning? Ser du några etiska problem med AI-användningen inom den medicinska forskningen? Om du har tid och lust att svara på dessa frågor och gärna berätta lite mer om AI och etik ur ditt perspektiv så skulle jag bli väldigt tacksam Svar från Peter Funk: Etiken och AI har vi diskuterat en hel del här, Gordana håller i en etikkurs (Philosophy of Computer Science CD5650) där jag har en föreläsning i AI och Etik. Användare, i vårat fall, kliniker, och patienter har oftast väldigt relevanta synpunkter. Tveksamheter från någon ur dessa grupper kan vara ingången till en intressant etisk fråga. En självklar sak är exempelvis att alla patienters integritet skall bevaras. En annan är att läkaren och patienten ska ha stor kontroll over den information som finns om dem i systemet. Även att informationen ligger lokalt i klinikens dator och inte distribueras ser vi som ett viktigt integritetsskydd och ökar användarnas acceptans. Information som ska vara externt synlig om klinikern kan klinikern sätta själv. Vi har även börjat starta upp en grupp inom AI och Etik, http://www.idt.mdh.se/efi/. Men det har gått lite trögt, kanske för att jag varit överbelastad men andra forskningsprojekt som har finansiering 17

Artificiell intelligens Fördjupningsuppgift Bilaga B2. Samtal med Peter Nordin. 25/10 2004 Vilka etiska problem ser du i dagens AI-forskning? Mikrosegmentering av försäkringstagare, att man lätt kan plocka bort icke-lönsamma kunder på ett sätt som inte alls var tänkt från början. Bevakningskameror som känner igen ansikten, kan identifiera människor och ha koll på var folk går. E-post skickas som vykort så att alla kan se dem egentligen. AI-teknik kan lätt plocka ut information och kartlägga personer. Hur diskuteras, övervakas och eventuellt regleras AI-forskning? I USA finns en mer övergripande debatt än här. Vad som kanske debatteras minst är rättigheter för maskiner. Det ligger längst fram i framtiden. Vad som kanske borde diskuteras mer är stabiliteten i tekniken, så att den inte ska rusa ifrån oss. Jag har arbetat med Lars Sandman som är filosof på Borås högskola och är expert på vård och etik. Det finns mycket att diskutera när det gäller AI och vård, bl.a. frågan om vårdrobotar. Men frågan är om det bra eller dåligt. I vissa situationer (t.ex. hjälp med att gå på toaletten) kanske människor hellre vill ha hjälp av en robot. Bo Lennernäs, MD på Sahlgrenska vill använda robotar inom cancervården. Antalet sjukvårdsintresserade kommer inte att räcka när 40-talisterna blir gamla, speciellt dåligt är intresset för strålningsbehandling mot cancer. Bo vill bemanna en strålningsavdelning med enbart robotar. Robotarna ska göra allt från att ta mot patienterna och bjuda på kaffe till att sköta hela behandlingen. Hur tycker du att forskning som är etiskt tveksam bör övervakas? Ett internationellt institut som övervakar och reglerar AI-forskningen. Vid medicinska experiment där människor finns med finns alltid en etikkommitté, men detta rör nog inte försöken med vårdrobotar då de inte har någon medicinsk effekt. Det finns alltid en etisk kontroll av forskare men AI tillhör inte något av de områden som anses behöva särskild granskning. Tror du att Asimovs tre robotlagar är implementerbara? Nja. Verklig intelligens är så komplex att den inte går att styra på det sättet. Det är omöjligt att bevisa att det är säkert, även om man tror att lagarna är implementerade. Här kan man ta den exploderade rymdfärjan som exempel. Även om system är mångdubbelt kontrollerade så kan ödesdigra fel smyga sig in i ett så komplext system. Det skulle kunna hända ett AI-system. Tror du att intelligens kan fungera/finnas utan en rörlig kropp? Ja! Till skillnad från Brooks det tror jag det, till 100%. Tror du att människor kommer att bli cyborger? Ja, det är där AI:n kommer att hamna. Forskningen ligger redan väldigt långt fram på området med deep brain implants m.m. Detta område går snabbare framåt än något annat. 18

Artificiell intelligens Fördjupningsuppgift I radioprogrammet Flipper i P3 sa du att du tror att det snart kommer att vara möjligt att ge robotar känslor. Är det etiskt försvarbart? Ger vi dem känslor eller uppkommer det? Vilja finns redan i dagens robotar (även om bara på insektsnivå). I ett mer komplext system kommer känslor att kunna uppstå. Dessa frågor har Lars jobbat mycket med. Är det bra eller inte? Är det etiskt riktigt att skapa olyckliga och förslavade robotar? Mycket talar för att känslor kommer att skapas. I science fiction finns exempel på datorer som samlat in så mycket information att de genererar ett självmedvetande. Vad säger du om det? Jag anser att det är möjligt att hitta en relativt enkel formel för det. En formel som i sin tur kan skapa en komplexitet. På så sätt kan säkert självmedvetenhet uppstå. 19

Artificiell intelligens Fördjupningsuppgift Bilaga B3. Samtal med Lars Sandman 26/10 2004 Utdrag ur mitt mail till Lars Sandman: Jag har haft en liten intervju med Peter Nordin som tipsade mig om att ta kontakt med dig. Jag vill gärna veta mer om hur (om!) AI-forskning övervakas ur en etisk synvinkel. Jag försöker, lite smått, gå in på frågan om det är etiskt riktigt att skapa robotar med känslor. En fråga som du tydligen har arbetat med. Jag kommer också att skriva om robotar inom vården. Det vore väldigt roligt att höra var ett etikproffs står i dessa frågor! Har du tid och lust att prata någon dag? Samtal med Lars Sandman Jag hade ett samarbete med Peter (Nordin) om AI och etik för några år sen. Då fanns inte mycket diskussion om robotar, etik och AI. Det som fanns var mest science fictionartat. Det som vi var inne på var etiska aspekter på att skapa robotar med känslor och robotar i vården. Man kan fråga sig om det är rätt att ersätta vårdpersonal med robotar, vilket man arbetar mycket med i Japan. Blir till exempel dementa människor lurade av det? Många människor reagerar starkt mot att robotar ersätter det personliga mötet i vården. Men det kanske är lika bra att en robot kan sitta där till exempel om läkaren/läkarna inte har tid. En annan intressant fråga är om man kan utveckla robotar med känslor och vad som händer då. När får robotarna en emotionell status? De är ju nu rationella och logiska, det finns många människor, till exempel dementa och barn, som faller utanför där. Om robotarna kan uppleva lidande m.m. Ska vi då ta hänsyn till dem? Ska vi redan nu ta lika mycket hänsyn till robotarna som vi tar hänsyn mor djur? Robotarna kan dock inte oroa sig för framtiden. Men framtida robotar kanske kommer att ha ännu mer känslor och sådant än vad vi människor har. Får vi använda robotar med känslor som vi vill? De kanske kommer att behöva riktig anställning m.m. En robot med känslor kan man inte bara ställa in i garderoben när den har gjort sitt arbete för dagen. Men då är vi tillbaka där vi startade, om det har känslor som oss människor. Även ur filosofisk bemärkelse är det svårt att avgöra om det går att göra robotar med känslor. Om de verkar känna samma saker som oss så måste vi nog också erkänna dem som emotionella varelser. (Det är omöjligt att säkert veta om det är riktiga känslor eller ett inprogrammerat beteende). Tidigare trodde man till exempel att små barn inte kunde känna smärta, det är lite samma sak. Till och med innan robotarna upplever känslor bör man nog behandla dem som om de gjorde det. Vi människor är sådana att vi inte kan göra skarpa åtskillnader mellan olika sorters varelser. Därför borde vi behandla dem som människor. Även utseendemässigt bör robotarna likna oss. Har vi någonting framför oss som bara ser ut som en dator så är det svårt att behandla den rätt. Människor handlar ofta enligt försiktighetsprincipen, kan vi inte vara säkra (på att roboten är helt känslolös) så är vi vänliga. Intressanta experiment har gjorts i Stockholm, på KTH, i samarbete med Utbildningsradion, där försökspersoner kommer till institutionen i tron att de är där för att testa mobiltelefoner. En robot kommer in i väntesalen och frågar försökspersonen om han/hon kan ge den kaffe, och folk gör det! Roboten pratar, är vänlig 20