Artificiell intelligens och dess konsekvenser för människan och samhället



Relevanta dokument
Liten introduktion till akademiskt arbete

En nybörjarkurs i kritiskt tänkande

Stegen och kuben vad döljer sig bakom medborgardialogen?

Slutrapport för Pacman

Hur definieras ett jämställt samhälle? (vad krävs för att nå dit? På vilket sätt har vi ett jämställt/ojämställt samhälle?)

Sammanfattning av kollegialt lärande inom Lärande och inflytande på riktigt när olikheten är normen

Artpartiskhet (speciecism)! = att fästa mindre vikt (eller ingen vikt) vid ett intresse enkom för att det finns hos en annan art än den egna!

Verktyg för Achievers

De tysta vittnena. Verklighetsbakgrunden

Djuretik. Vetenskap, politik, strategi. moralfrågan. Indirekta vs direkta skäl

Planeringsspelets mysterier, del 1

Transseans på Stockholm Spiritualistiska Förening. Den 8 februari, 2016

Samverkan kring ämnen på ett högskoleförberedande program ett exempel

6-stegsguide för hur du tänker positivt och förblir positiv.

ÄMNESPLANENS STRUKTUR. Progressionstabellen

Utvärdering av föräldrakurs hösten 2013

PEDAGOGENS KOMPETENSER

Att ge feedback. Detta är ett verktyg för dig som:

Sammanställning 3 Lärande nätverk samtal som stöd

Konsten att hitta balans i tillvaron

Barn, barndom och barns rättigheter. Ann Quennerstedt Lektor i pedagogik, Örebro universitet

Hur undervisar du om viktiga framtidsfrågor?

Artificiell intelligens, eller Kommer din dator att bli klokare än dig? (eller kanske är den redan det?)

VAD TYCKER GYMNASIEELEVER OM FILOSOFI?

Han har ett mörkt arbetsrum,

SLALOMINGÅNGAR hur svårt kan det vara?

Att vara chef Ny roll för chefer och medarbetare

SVENSKA 3.17 SVENSKA

Utvecklingsplan för inriktning Grundläggande färdigheter

Vad innebär en uppskjutandeproblematik?

Leda förändring stavas psykologi

Sinnena den mänskliga hårdvaran

Självkänsla. Här beskriver jag skillnaden på några begrepp som ofta blandas ihop.

Ur boken Självkänsla Bortom populärpsykologi och enkla sanningar

Recept för rörelse. TEXT Johan Pihlblad. Lena Kallings är medicine doktor och landets främsta expert på fysisk aktivitet på recept.

Säkerhet och trygghet för framtidens äldre workshop!

Så får du bättre. självkänsla. Experter Frågor och svar Intervjuer Steg för steg-guider Praktiska tips SIDOR

Språket, individen och samhället VT08

För en stor del av Sveriges befolkning

Krypande kaninen Karin

En genomgång av kamma-begreppet

Om tröst och att trösta 1

Varför är jag domare. Roller och förväntningar

PERSONLIGA VÄRDEN Sorteringskort VIKTIGT FÖR MIG. PERSONAL VALUES Card Sort MYCKET VIKTIGT FÖR INTE VIKTIGT FÖR MIG IMPORTANT TO ME NOT FÖRSIKTIGHET

Tema: Didaktiska undersökningar

TIPSLISTAN om trans på lajv

intervju med bo lindensjö, professor i statsvetenskap vid stockholms universitet

att koncentrera sig, att bibehålla uppmärksamheten, att minnas osv., som orsakades av att så mycket energi gick åt till att bearbeta den förändrade

Remissyttrande över betänkandet "Patientdata och läkemedel" (SOU 2007:48), slutbetänkande av Patientdatautredningen

Trygghet 9 Empati 6 Hänsyn 3 Bemötande 2 Tolerans 2 Förhållningssätt 2 Omsorg 2 Respekt 2 Kamrat 1 Ärlighet 1 Omtanke 1 Skyldighet 1 Rättighet 1

Presentera kursledarna Ge deltagarna möjlighet att presentera sig (9 min)

tidskrift för politisk filosofi nr årgång 17

Topboy SKOLMATERIAL. Men hur fan ska man orka byta liv? Amputera bort allt. Och vad ska jag göra istället? Jag är ju den jag är.

PRATA INTE med hästen!

ÖKA DIN SOCIALA KOMPETENS. På en timme

TP #1. fördjupning - vadå anställd? TP # 1: Anställa på rätt sätt

Kastades från balkong tog själv fallet till HD

PM Reflektioner på metod för samhällsekonomisk bedömning inom projektet Stadens ljud

Jobb för unga Ung i konflikt med arbetsgivaren Om den unge på arbetsmarknaden. Projekt MUF Mångfald Utveckling Framtid.

PYC. ett program för att utbilda föräldrar

Intervju med Elisabeth Gisselman

1En engagerad förälder är positivt. 1 Skriftliga omdömen. 2 En framåtsyftande planering

5 vanliga misstag som chefer gör

Härliga hörselskydden Hilma

Flaxande fjärilen Frida

Att överbrygga den digitala klyftan

8. Moralpsykologi. Några klargöranden:

SPRÅKRÖRET NR 1, Medlemsblad för SFSS Södra Finlands svenska Språklärare r.f. Ordförandens spalt

Uppgift 24A - Reflektion över boken "Vem snodde osten?"

Skönlitteraturen och elevernas skrivande borde ta större plats och ingå i ett tematiskt och ämnesintegrerat kunskapsinhämtande.

Trassliga trådspelet Troja

Elevernas Researcharbete Biologi Utdrag ur kursplanen för biologi

ÄMNESPLANENS STRUKTUR. Syfte Centralt innehåll Kunskapskrav. Mål KUNSKAPSKRAV

Dialog Respekt för privatliv och personlig integritet

SKTFs undersökningsserie om den framtida äldreomsorgen. Del 2. Kommunens ekonomi väger tyngre än de äldres behov

Självkritik. Självacceptans starkaste sambanden med att må bra. Att vara lika vänlig mot sig själv som mot någon annan som är med om svårigheter

Ovanliga Tips till ett Smalare Liv av Seif Fendukly Alla rättigheter förbehålls.

Haga/Gudö förskolors likabehandlingsplan mot diskriminering och kränkande behandling Gladan

Lilla lyckohjulet Lina

Massage i skolan - positiva och negativa effekter

Stephen Hawking och Gud. Tord Wallström

Artificiell intelligens, eller Kommer din dator att bli klokare än dig? (eller kanske är den redan det?)

Aktiva och passiva handlingsstrategier

1. Bekräftelsebehov eller självacceptans

känna till några vanliga myter och motiv i litteraturen, vilka speglar frågor som har sysselsatt människor under olika tider

Utmanande beteenden Utmanade verksamheter. Utmanande beteenden. Emma Sällberg, Joakim Cronmalm, Magnus Björne, Petra Björne

Orolig för ett barn. vad kan jag göra?

Stina Nyman

SUNE Tidningen Hästfynd nr 5, 2004

Tal vid konferensen "Can the market work for nature" på Wiks slott

socialdemokraterna.se WORKSHOP

Först till häcken... en berättelse om vad som hände innan prinsen kysste prinsessan ROLLER HÄCK-IRÈN MAMMA OLE DOLE DOFF

Konsten att leda workshops

BEDÖMNINGSSTÖD till Tummen upp! SO Historia inför betygssättningen i årskurs 6

Styrdokumentkompendium

Trygghetsplan för förskolorna i Håbo kommun

ELEVHJÄLP. Diskussion s. 2 Åsikter s. 3. Källkritik s. 11. Fördelar och nackdelar s. 4. Samarbete s. 10. Slutsatser s. 9. Konsekvenser s.

Global nedvärdering av sig själv, andra och livet.

ATT PUBLICERA I VETENSKAPLIGA TIDSKRIFTER

Yttrande över delbetänkandet En digital agenda i människans tjänst en ljusnande framtid kan bli vår (SOU 2014:13)

Transkript:

Artificiell intelligens och dess konsekvenser för människan och samhället Piotr Gabrys Litteraturstudie Kurs: Konsekvenser av IT för individ, organisation och samhälle KIC501 7,5p Institutionen för ekonomi och IT Vårterminen 2014 Högskolan Väst

Sammanfattning Artificiell intelligens är mycket användbart och används mer och mer i olika branscher. Det är frågor om när kan vi då säga att ett program visar förmåga att leverera resultat som bygger på intelligens, Vad AI är och innebär för oss människor som jag tar upp i denna studie. Det finns flera olika aspekter av AI som påverkas oss. Vårt förhållningssätt till artefakter och begrepp som hör ihop med artificiell intelligens. Det finns många tekniska frågor kring om utvecklingen av AI men också många frågor om detta är en positiv eller negativ utveckling för människan och samhället. Vilka risker och hot kan det finnas och hur realistiska är de? Inte minst finns det etiska frågor som berör de innersta frågor om existens och människovärden som många forskare är engagerade i.

Innehållsförteckning 1 Inledning/bakgrund 1.1 Problemområde 1.2 Avgränsning 1.3 Metod 2 Teoriavsnitt 2.1 Vad är AI? 2.2 Starka och svaga AI 2.3 Antropomorfism och AI 2.4 Teknologisk singularitet 2.5 Swarm technology 2.5 Risker och negativa konsekvenser eller positiva möjligheter och fördelar av AI 2.5.1 Autonomi och dess roll 2.5.2 Expertsystem 3 Analys och diskussion 3.1 Etiska frågor 3.2 Olika perspektiv på AI 4 Slutsatser 5 Förslag till vidare studier 6 Referenslista

1. Inledning/bakgrund I alla tider har människan drömt om krafter utöver de man besitter, vare sig det var fysiska, övernaturliga eller mentala. Just drömmen om kunskap och intellektuell överlägsenhet återspeglas i ett flertal sagor och myter. Flera forskare inom området artificiell intelligens (Baase 2013), vidare förkortad AI, beskriver en inte så avlägsen framtid då tillämpningar av AI kommer att göra ett permanent avtryck i vårt civilisation. Begrepp kommer att omdefinieras, nya hot och problem uppstå, en del av dagens frågor och utmaningar kommer att bli irrelevanta. För första gången i mänsklighetens historia kommer kanske människan kunna skapa något som är överlägset henne själv, inte bara starkare, snabbare, tåligare utan även intelligentare. Även om vi inte är där teknologiskt idag så innebär det inte att det inte redan orsakar konsekvenser i samhället, inte minst moraletiska. Detta vill jag belysa i denna artikel. Konsekvenserna av AI s intåg i vårt samhälle är svåra att analysera då dessa lätt ingår i andra komplexa sammanhang. Frågorna om och hur användningen av AI påverkar oss som individer, våra samhällen eller hela civilisationen behöver ställas och bearbetas. Jag kommer att ta upp några av dessa i artikeln. Artificiell intelligens är mycket användbart och används mer och mer i olika branscher. Att programmera för att åstadkomma effekt av att automatisk dra slutsatser var länge rent akademiskt. Det är först den snabba datorutvecklingen som gjorde det möjligt att vi idag använder dessa processer i bl.a. dataspel, flygtrafikkontroll, diagnossystem, finans- och rymdindustrin eller skapa musik (demonstrerat av Kjell Bäckman på HV). Frågor om hur vi och vårt samhälle påverkas av AI är inte nya. Faktiskt har de funnits långt innan själva AI fanns. Inom populärkulturen finns näst intill oändligt många verk som baseras på dessa frågor. Vi frågar oss om vi kan klara oss utan AI idag och i framtiden. Etiska frågor om vad är liv och rättigheter kan betyda för AI baserade system. Givetvis kan hoten från AI, leda till att människan förlorar kontrollen över icke mänsklig intelligens och bidrar till sin egen undergång. Framför allt kan det leda till mer jordnära frågor som berör våra jobb och människans roll.

1.1 Problemområde AI och samhället. Konsekvenser för samhället och människan. 1.2 Avgränsning Litteraturstudie. Endast vissa av samhällsaspekterna studeras, tyngden på de moraletiska, ej ekonomiska, politiska eller ekologiska. Då det råder viss oklarhet kring begreppsdefinitionerna kan det finnas svårigheter med jämförbarhet och verifiering. Då jag endast anser att AI är en simulering av den mänskliga intelligensen (eller vidare tänkt den biologiska) och som sådant den enda intelligenstypen vi känner till. 1.3 Metod Studien baseras på böcker, artiklar och avhandlingar. Dessa hittades i de databaser som biblioteket på HV förfogar över. Mitt mål är att skaffa en förståelse för problematiken och de aspekter som kan vara aktuella ur samhällsperspektiv. Därför har jag använt mig av litteraturstudier för att skriva denna artikel, men för att få en bredare förförståelse har jag även fördjupad mig i problemområdet genom att följa det som publiceras på internet, populärvetenskapliga publikationer och populärkultur som film och böcker (aktuell bok Sam Ghazi Sången ur det kinesiska rummet ). Jag har även samtalat med forskare som jobbar med applikationer av AI samt samtalat med högskoleprästen om de etiska aspekterna. Dessa samtal används inte direkt i denna studie men de har gett mig en rikare bakgrund till problemområdet.

2 Teoriavsnitt 2.1 Vad är AI? AI har inte en enda vedertagen definition (liksom intelligens). När man läser faktainformation och litteratur inom området hittar man diverse formuleringar. De flesta kretsar kring att det är data från omvärlden som bearbetas för att slutligen presentera slutsatser baserade på indata. Vissa av dessa program presterar resultat som vi normalt förknippar med intelligent beteende (Dunnuck 2002). Ett beteende som simulerar vårt mänskliga beteende. AI ses som intelligent beteende som påminner om vårt dvs vi skulle ha löst problemet på ett liknande sätt. Vi betraktar dessa program som intelligenta. När kan vi då säga att ett program visar förmåga att leverera resultat som bygger på intelligens, artificiell sådan? Det var Alan Turing som på 50-talet föreslog ett test som skulle kunna avgöra frågan. Det är ett språkligt test som bygger på konversation mellan ett AI system och en mänsklig testperson. Han kallade detta för ett imitationstest. Detta kom att misstolkas av vissa som ett test av intelligens i artificiella system. Det den testar är förmågan att imitera mänsklig intelligens. I den enklaste formen för man en konversation via en terminal med flera motparter och kan ställa vilka frågor som helst, programmet kommer att svara och ställa motfrågor. Dess mål är att övertyga sina motparter att den är en människa. Kan man inte avgöra vilken av dessa som inte är en människa kan man säga att systemet klarar testet och kan anses intelligent. Likt den mänskliga intelligensen kan yttra sig på olika sätt så finns det exempel på datorprogram som kan skapa haikudikter (hyggliga sådana), måla av en bild med penseldrag enligt konstnärliga grunder och faktiskt simulera ett mänskligt verk. Om man tänker sig en konstnärlig variant av Turingtestet så skulle dessa kunna passera denna (Dunnuck 2002). Jag blev presenterad några musikstycken (jazz) av Kjell Bäckman (som forskar i evolutionära jazzimprovisationer). Som icke jazzkunnig kunde jag inte avgöra vem som spelade melodierna. Hade jag varit bedömare i en musikalisk variant av Turingtest hade jag antagligen inte kunnat avgöra om det är en dator eller människa. I motsats till mer optimistiska framtidsvisioner om AI tillämpningar och när teknologin kommer att etablera sig i vårt samhälle, där Ray Kurzweil är en av galjonsfigurerna, har en forskare en annan inställning till frågan om AI system någonsin kan vara på riktigt intelligenta. Eller om de bara kan arbeta utifrån givna instruktioner och aldrig kan betraktas utveckla verklig förståelse eller medvetande. John Searle föreslår i sitt tankeexperiment, som kallas Det kinesiska rummet, en situation där en person som inte kan kinesiska är inlåst i ett rum med endast mycket noga instruktioner hur han ska behandla uppsättningar av tecken. Han får ta emot frågor på kinesiska och ska svara genom att sätta ihop svar utifrån de noggranna instruktioner han har. Svaren kommer att vara logiska och följa det kinesiska språkets regler och kanske skulle kunna passera ett Turingstest, men Searl menar att det betyder inte att det är intelligens vi pratar om. Han hävdar att intelligens aldrig kan komma från mekaniska operationer och att därmed kommer maskiner aldrig bli intelligenta och att det handlar bara om modeller som även om de kan imitera det de är modeller av aldrig kan bli det.

I sin artikel How to Make a Mind skriver Ray Kurzweil att de tekniska egenskaperna kommer att göra det möjligt att uppnå nya nivåer av AI. Förmågan att kopiera och sprida inlärda kunskaper, inga fysiska begränsningar, kommunicera, återkalla och ta backup på data och framför allt snabbhet pekar på att våra AI system kan bli överlägsna den biologiska/mänskliga intelligensen. Redan idag kan vi ana var det är på väg, självkörande bilar, datorer som vinner över människor i frågetävlingar och svarssystem (t.ex. www.wolframalpha.com) som förstår det naturliga språket (Kurzweil 2013). 2.2 Starka och svaga AI Man brukar tala om två kategorier av AI. Starkt och svagt. Det finns flera tolkningar av dessa begrepp. Jag ska sammanfatta vad den största skillnaderna är och varför man har valt att dela det just så. Stark AI, ska kunna agera självständigt, tänka själv. Den behöver inte matas med data, den kan själv hämta och analysera data för att lösa sin uppgift. Program som har autonomi inom sitt uppdragsområde och som kan vara delaktiga i utvecklingen av mer intelligenta program (McGinnis 2010). Svagt AI, en programmeringsteknik som ger deterministiskt datorprogram en funktion att svara lämpligt på olika situationer (Dunnuck 2002). Denna form kräver definition av utgångsdata och direktiv för att lösa uppgifter. Kort sammanfattat skulle jag vilja uttrycka det att i princip är skillnaden att de svaga AI system är sådana som finns och används idag (i beslutsstöd och expertsystem, kommunikationssystem, dataspel, vapensystem och robotar), de kan inte hitta på egna uppdrag utan människans direktiv och kan inte utveckla sig själva. Starka AI system finns i princip inte praktiskt idag utan är mer eller mindre teoretiska konstruktioner. 2.3 Antropomorfism och AI Utgår vi ifrån våra mänskliga egenskaper när vi pratar om det icke mänskliga? Positiva och negativa effekter av antropomorfism. En gren inom AI forskningen förespråkar antropomorfism, vilket kommer från grekiskans anthropos och morphe vilket i sin tur betyder människa och form. (Amdal 2003) Att kommunicera med datorsystem via maskinkod är besvärligt. Det som representerar AI systemet och dess gränssnitt förväntas motsvara det som vi känner igen. Man kan förmänskliga för att skapa en relation, för att förbättra samspelet, här kan antropomorfism vara ett verktyg, inte för att låta oss tro att det är en människa vi interagerar med utan att underlätta kommunikationen. Om antropomorfism vore lösningen på alla problem i interaktionen mellan AI system och människan skulle man kunna ge alla AI system ett mänskligt utseende, mänskligt tal och egenskaper. Det finns idag långt gångna projekt som just jobbar med att skapa mänskliga attribut för att tillämpa dessa på robotar i olika syften. Frågan är hur långt man ska gå i att göra maskiner människolika. Märker man inte skillnad om man talar med en robot eller människa kanske frustration kan uppstå då man ställer för höga förväntningar? Hur vi uppfattar artificiella ting som har mänskliga attribut kan vara olika beroende på situation, vår sociokulturella bakgrund och våra förväntningar (Amdal 2003). Jag återkommer till frågeställningen om de etiska aspekterna av mänskligt utseende, hur det kan på gott och ont påverka vår relation till AI.

En social relation kan skapas med just antropomorfism. Ansiktsuttryck, ögonkontakt och kroppsspråk är viktiga informationskanaler för människor. Det vore oklokt om vi inte använde oss av dessa kraftfulla kommunikationsverktyg. Vår rädsla för hotfullt AI kan härstamma ifrån just antropomorfismen. Om vi föreställer oss intelligenta maskiner med mänskliga karaktärsdrag då drar vi slutsatsen att dessa inte bara delar våra goda egenskaper utan kan precis som människor vara onda. En sådan form av intelligens skulle komma till samma slutsatser som de flesta människor och värdera sitt välbefinnande högst. En annan tanke är att den typen av negativa egenskaper skulle kunna utvecklas om AI utvecklas i ett slags evolutionslik process som premierar egenskaper som t.ex. självbevarelse framför empati (McGinnis 2010). Här talar vi återigen om mänskliga egenskaper på en maskin. 2.4 Teknologisk singularitet Begreppet syftar på ett stadium av AI när man möter oförmågan att förutse och begripa det som finns bortom gränsen för AI s kapacitet. En utökad kognitivt kapacitet skapar kommunikationsproblem. Det som vi idag kallar digital divide kan betraktas som ett förenklat exempel. Som vanligt är vetenskapsmännen oense. En del finner den högst olustig medan andra ser detta som en ljus framtid. Om datorer/robotar uppnår intelligensnivåer som överstiger människornas och fortsätter utveckla sig själva kommer de att bli överlägsna på flera områden och kunna utkonkurrera oss. Till stöd för sådana teorier kan man framföra t.ex. Moores lag (som förutspår att datorkapaciteten fördubblas på mellan 18-24 månader) och att hjärnans kapacitet kan uppskattas (Baase 2013). Den tekniska utvecklingen skulle göra det möjligt att inom några decennier kunna ha datorsystem med jämförbar kognitiv kapacitet som människans. Det finns även en hel del skepticism mot en sådant utveckling. Dels att de teknisk hårdvaruframsteg inte nödvändigtvis kommer att blir så stora och dels att det kommer att ta längre tid att utveckla fungerande mjukvara, om det ens går. Vissa teknologiska framsteg har visat sig lättare än man trodde (tex kostnadseffektivitet, spridning) medan andra som förutspåddes framgångar har visat sig vara betydligt svårare Ett exempel är förmågan att tolka naturligt språk. Det går fortfarande inte att förmedla sig med datorer idag, även enklaste instruktioner kan vara svåra att få utförda. Datorn hör vad jag säger men förstår inte. Att det ändå finns goda möjligheter att AI kan utvecklas, och överlägsna människans intelligens, argumenterar Peter Nordin med bl a att AI kommer att ha ögonblicklig tillgång till mänsklig ackumulerad kunskap, kan överlägset resonera med sig själ symbolisk, mycket snabbare hårdvara, direktkommunikation med andra enheter, ingen teoretisk fysisk begränsning, högre energieffektivitet (Nordin, Wilde 2003). Att i ett läge ställas inför problem som överstiger vår fattningsförmåga och ha en enda utväg att överlåta mer (allt?) makt till AI system som det enda som kan lösa problemet kan låta hotfullt, och på sätt och vis är det så. Detta exemplifieras i filmen Terminator där ett datavirus kan bara bekämpas med att överlåta kontrollen över datasystemet till det intelligenta systemet skynet, som drar den logiska slutsatsen att det är mänskligheten som är hotet mot dess existens och måste därför elimineras. Ur vårt perspektiv kan det låta fel men ur ett annat kan det se helt logiskt ut och vara ett intelligent beslut som faktiskt kan vara rationellt. Vi känner till exempel på kortsiktiga och långsiktiga beslut som som kan orsaka olika effekter beroende ur vilket tidsperspektiv man ser det.

2.5 Swarm technology Konceptet baseras på små robotiserade enheter som kommunicerar trådlöst med varandra, varje enhet har en mycket begränsad kapacitet när det gäller beräkningskraft men har en stark förmåga att samarbeta. Dessa enheter skapar ett system där ju fler desto större förmåga att lösa problem genom att parallellt bearbeta uppgifter (Dunnuck 2002). Min bild av sådana svärmar som kan agera intelligent präglas av analogin till vissa biologiska livsformer som tex insekter. När jag pratade med Kiell Bäcklund som jobbar med evolutionära algoritmer jämförde han dessa med myrstackars förmåga att genom samarbete åstadkomma lösningar. En annan tanke som i sammanhanget låter relevant är fenomenet Wisdom of the crowd (Baase 2013). Vi ser idag enorma mängder data där varje enskilt del inte ger speciellt mycket information men om man sammanställer dessa på ett intelligent sätt kan de vara mycket värdefulla och exakta. Personligen ser jag viss analogi till den mer abstrakta datahanteringen där olika teknologier använder det som kallas Big data. I swarm technology är det fysiska enheter som har sin styrka i antalet. I fallet med teknologier som bygger på Big data kan det vara små distribuerade datorprogram. 2.5 Risker och negativa konsekvenser eller positiva möjligheter och fördelar av AI? Bilden av AI är starkt präglad av populärkulturen, från bioduken eller boksidorna har man i decennier skrämt oss med Frankensteins monster, terminator robotar och matrixsystem. Det finns dock stora skillnader i vår uppfattning och fobier kring icke mänsklig intelligens. Den kan vara delvis beroende av vilken sociokulturell grupp man tillhör. I boken Humanoider tar författarna upp exemplet att i Japan är humanoida robotar mycket populära och har inte alls samma negativa associationer som i västländer. Det kan enligt vissa forskare grunda sig i religiösa traditioner kring frågor om livet och skapande av liv (Nordin Wilde 2003). Men även i Japan tar man hänsyn till humanoidernas utseende för att skapa en positiv och ej hotfull bild. De robotar som utvecklas ges ofta mjuka drag så som en vänlig, ljus röst, en kropp som är mindre än människans samt ljusa och glada färger gärna med ett glatt ansiktsuttryck (ex Hondas ASIMO). Man vill inte skrämma och man vill vara tydlig i vilken roll roboten har. Ett av målen med AI är att skaffa sig nya verktyg i skapandet av mer effektiva datorbaserade system. Det är ganska naturligt att vi försöker utnyttja våra tillgångar på bästa sätt. Vår stora fascinationen av liv kan vara drivkraften att skapa livsliknande program. Vissa oavsiktliga följder kan uppstå och utgöra ett hot mot mänskligheten och vår civilisation. Det är vår strävan att göra världen så bekväm och anpassad till våra liv som möjligt. Vi anpassar vår omgivning. Vi kämpar mot och eliminerar det som är negativt för oss (som sjukdomar och begränsningar). Generellt betraktar vi oss som de högst stående varelserna på jorden och ger oss som oftast tolkningsföreträde till hur världen ska vara organiserad. Detta säger Hans Moravec vars tankar Dunnuck använder sig av i sin artikel (Dunnuck 2002). En varelse (eller grupp) som skulle vara konstgjord och skapade och programmerade utifrån våra mänskliga egenskaper skulle tänka, agera på likartad sätt. En ny ras av robotar av det slaget skulle antagligen kunna se sig själv som den överlägsna rasen (Dunnuck 2002).

Om robotar kommer att vara människolika är det troligt att de kommer att påminna om oss i flera avseenden. Att vilja skydda sin egen existens, utveckla sina förmågor och skaffa sig kontroll över de resurser som de är beroende av. Samtidigt så är ju inte forskarnas mål att skapa tekniska konstruktioner för att förgöra sig själva och mänskligheten. Vår vilja att skapa någonting (omedvetet) som överlever oss själva och på ett sätt gör oss odödliga. Antingen att bli ett med teknologin eller helt att övergå i ett nytt tillstånd av existens baserad på AI. Att stoppa utvecklingen (även den som inte gagnar mänskligheten) har visat sig omöjligt hittills. Därför är det av stor vikt att vi är observanta och försiktiga och beredda på vad som kan komma att hända. Att utveckla med ansvar och kritisk inställning (Dunnuck 2002). Varje teknologi kan användas på skadligt sätt. Ju mer påtaglig och potensielt farlig teknologi för oss som människor desto mer försiktiga och förberedda måste vi vara. Författaren påtalar ett ansvarsfullt utveckling av AI. Det är ingenjörerna, utvecklarna själva som är bäst lämpade att ta ställning till dessa frågor. Detta gör att den moraletiska debatten måste sträcka sig över flera områden (Dunnuck 2002). Det finns idéer om att ha ett slags motsvarighet till Hippokrates ed för de som utvecklar AI. Detta anses dock helt orealistiskt att det skulle ha en praktisk effekt (McGinnis 2010). Dock finns flera exempel på etiska riktlinjer för professionella inom mjukvarutveckling (Baase 2013). Som min reflektion över Dunocks resonemang ser jag en möjlighet som är helt unik i mänsklighetens historia att diskutera och resonera över effekter av en teknologi som inte än är fullt verklig. Tack vore ett flertal auktoriteter och forskare inom områden som informatik och futurologi (ex Moravec, Kurzweil) så har ämnet lämnat det rent populärvetenskapliga. Det borde ge oss ett försprång inför kanske de största etiska och moraliska utmaningarna i mänsklighetens historia. En utmaning som ligger i vårt behov av säkerhet och förutsägbarhet är att garantera att AI inte drar slutsatser som får negativa konsekvenser för människan. Här kan man ta upp Isaac Asimovs robotlagar som skulle kunna utgöra ett slags grundplåt för konstruktion av allmänt acceptabla AI system. Dock när man tänker på hur komplext vårt mänskliga beteende kan vara kan te sig praktiskt omöjligt, vilket han också flerfall tar upp i sina böcker. En praktisk fråga om AI och dess etiska implikationer är den avhumanifierade krigsföringen. Varje ny teknologi som får sin tillämpning inom det militära har riskerar att bli starkt moraliskt ifrågasatt (kanske ändå mest av de som inte har tillgång till den?) Så var det på medeltiden när en armborst kunde penetrera en rustning på långt håll och en enkel bonde kunde lätt ta ihjäl en riddare. Detta orsakade starka kontroverser då. I modernare tid har den snabba vapenutvecklingen gett oss vapen som har en räckvidd över hela jorden och kan med hjälp av AI agera autonomt, dock är det människor som beslutar om mål och exekvering. Det finns tekniska möjligheter att låta maskinerna göra den smutsigaste av alla sysslor. De etiska aspekterna diskuteras av Mark Coeckelbergh med fokus på drönarpiloter och den moraliska komplexitet som uppstår. Bl.a. skriver han att det uppstår en omhumanisering av fienden pga den stora mängd personliga spaningsuppgifter. Piloterna som styr dessa halvautonoma flygplan har som oftast ett långdraget jobb att följa målet för tt förbereda en så precis attack som möjligt, man skapar sig en rik bild av människan som är målet. Själva attacken är endast en liten del av uppdraget, även om de inte slåss man mot man med bara händer så är de mycket närmare fienden än vad tex en traditionell artillerisoldat är. Med modern teknik skapas ett större fysiskt avstånd mellan stridande samtidigt som ett

moraliskt avstånd uppstår. Om även det slutgiltiga valet av åtgärd lämnas över till maskin får frågan ytterligare djupare dimension om ansvaret (Coeckelbergh 2013). Om AI på slagfältet kan vara positivt är en svår fråga att svara entydigt på. Det blir en komplex fråga och hur skrämmande det kan vid första tanke vara så förtjänar det en rationell diskussion. Ett inlägg i debatten finns i artikeln Accelerating AI där författaren tar upp några av tänkbara positiva effekter av intelligenta vapen (McGinnis 2010). De konventionella vapnen som är utvecklade för att användas mot människor (kemiska, biologiska) har ingen verkan på robotiserade vapensystem, dess användning blir betydligt mindre värdefullt. Om de inte ger fördelar på slagfältet minskar anledningen till att skaffa och förfoga över sådana. Användning av dödligt våld är ofta motiverad av att skydda de egna trupperna, när de egna trupperna inte är utsatta för fara kan man trappa ner våldet. Med intelligenta vapen kan operationerna göras mindre och mer exakta med mindre skador som följd. Robotar kan bli programmerade att undvika civila offer. Inte för att de ska känna empati utan för att det helt enkelt blir deras uppgift. Jag kan tänka mig teoretisk positiva effekter, även om det kan se ut att det blir lättare för beslutsfattare att eskalera en konflikt till att använda våld, då de egna riskerna blir mindre och risken att så kommer ske oftare borde konsekvenserna bli mer humana. Datorer, utan känslor som hämndlystnad, rädsla, irritation, psykiska störningar kan teoretiskt inte begå krigsbrott. Ansvaret blir betydligt tydligare. Begreppet jag lydde bara order blir tydligare. Beslutsfattarnas order kommer att utföras utan personliga tolkningar och därmed kan de ordergivande starkare bindas till sina beslut. Redan idag ser vi på den globala arenan att fler konflikter stannar på en nivå av ekonomisk och digital krigsföring (cyberatacker). Frågan är om det är ett paradigmskifte inom konflikthantering. 2.5.1 Autonomi och dess roll En viktig parameter när det gäller AI är dess autonomi. Som vi redan bekantat oss med så är en egenskap av starkt AI att det är självständigt dvs har en hög grad av autonomi. Denna egenskap som är så central kan beskrivas som en trappa av olika nivåer av autonomi. Det är inte så att den antingen finns eller inte finns. I Artikeln Ethics, regulation and the new artificial intelligence, part II:autonomy and liability beskrivs de lika stegen i liknelser. I det enklaste fallet de verktyg som helt och hållet har hela sin funktion baserad på människans styrning, som nästa steg kan man tänka sig en elektrisk tandborste som visserligen måste sättas på och hanteras av människan men man även leverera en tjänst automatiskt. Som nästa steg kan man se olika obemannade transportsystem, (hissar, automatiska pendeltåg) De agerar utan människans ingripande men uppenbart följer strikta regler som de inte kan avvika ifrån. Avancerade datoriserade mekanismer agerar utifrån program som har en reaktion inför varje eventualitet.

Ytterligare steg på autonomitrappan är system som obemannade fabriker, internetagenter som samlar in data och utför analyser eller avancerade vapensystem. De har funktioner som låter de analysera och utnyttja information som påverkar deras prestation, de kan anpassa sitt handlande efter situation. Men även dessa system är i slutändan beroende av människans handlande. När självlärande system kom var detta ett stort steg på autonomitrappan. Ett sådant system är inte längre beroende av att få allt information för sina beslut från människan. Expertsystem arbetar på detta sätt. När ett begränsad antal direktiv inte kan fås eller när ytterligare situationsbedömningar kan sådana system visa sig bristfälliga och faktiskt leverera felaktiga slutsatser. System baserade på sk neurala nätverk däremot ska kunna hantera denna typ av utmaningar. Dessa system kan tränas genom observation induktion och observation. Analysera stora datamängder, generera mönster, utifrån ny data justera och omvärdera slutsatserna. Ett AI system som arbetar på detta autonoma sätt kommer att behöva klassificiera det som omger den, den data som bidrar till slutsatser. Dessa kommer i sin tur att vara grunden till nästa nivå av inlärning (Perri 6 2001). Jag ser att förståelse av nivåerna av autonomi behövs för förståelse av var ansvarsfrågorna vid utveckling och användning av AI. Om man vänder på resonemanget så ser man att om nivån av ansvar och kontrollbehov är känd borde man kunna implementera detta under utvecklingsfasen. Många är mycket optimistiska inför att starkt AI kommer att förbättra människornas tillvaro. Robotar med starkt AI skulle kunna göra livet enklare, speciellt för människor med olika handikapp eller nedsatta funktioner. AI har kapacitet att förbättra forskningen och förlänga våra liv. I de mest vågade scenarios som bl.a. Ray Kurzweil tror på kan människor leva långa, bra liv med höga inkomster. Till och med kanske oändliga liv tack vore AI. (McGinnis 2010). 2.5.2 Expertsystem Expertsystem består huvudsakligen av en kunskapsdatabas och en lnference engine som applicerar logiska regler på data. Dessa system har visat sig framgångsrika inom medicinsk diagnostik, datakommunikation och genetik. En av konsekvenserna av dessa AI system inom beslutsstöd är som påpekas av Lawrence redan på åttiotalet att all den extra information som presenteras i form av underlag gör det svårare att välja och ta till sig lösningarna. paralysis by analysis inträder och istället för klarhet skapas förvirring (Lawrence 1991). Kombination av mänskliga beslutfattare och AI expertsystem ger ett dilemma där för att fatta bättre beslut måste man begränsa sig till bara en del av informationen och förlita sig på systemets funktion. Ansvarsfrågan kvarstår. Visserligen hör man inte längre så ofta att datorn gjorde fel som ursäkt för ett fel i processen men bara en nyligen inträffad incident då arbetsförmedlingen kallade sexioentusen personer till att besöka deras kontor istället för ett tusen via deras kommunikationssystem. Ansvarsfrågan blir diffus vid sådana situationer. Människan blir ofrånkomligt fjärmat från själva kärnan av problemställningen. Jag kan personligen redan idag föreställa mig ett scenario där jag vill äta lunch och frågar ett expertsystem och vilken restaurang jag ska välja. Den kommer antagligen basera sitt lösningsförslag på mitt problem baserat på min lokalisering, tidigare preferenser, priskänslighet osv.

3 Analys och diskussion 3.1 Etiska frågor När det handlar om ett mjukt AI är det för de flesta inte en fråga men när man tar upp ett starkt AI's egenskaper (självständigt och intelligent) ur ett mer filosofiskt perspektiv så måste vi fundera på hur vi ska definiera ett sådant system. Vi stöter här på paralleller till definition av tex liv. Om enklaste djur på vår planet har vissa rättigheter ska inte då intelligenta system ha rättigheter? Om vi skulle så att säga dra ut sladden till ett intelligent autonomt system, skulle man då säga att vi dödade det? Ett ytterligare steg skulle kunna vara om AI får eller utvecklar det vi kallar känslor. Det skulle innebära ytterligare steg till komplexa frågor om tex mänskliga rättigheter. Frågor om medvetande och själ som har utvecklats med mänskligheten är i sig inte nya (Dunnuck 2002). En grundläggande frågeställning är på vilka kriterier baseras vår etik. Är det rimligt att underkuva ett AI system som är intelligentare än en själv och har ett rikare känsloliv? (Nordin Wilde 2003). Den homocentriska etiken har varit ifrågasatt av flera förespråkare av djurens rättigheter. Bla av Peter Singer vars åsikter om vilka kriterier ska vara tunga vid bedömning av rättigheter baseras på begrepp som möjligheten att planera och förutsäga sin framtid, att undvika smärta och maximera individuella fördelar. Han propagerar för att utöka rättigheterna att även omfatta ickemänskliga arter (Gomel 2011). Här skulle jag vilja ta upp begreppet neurala nätverk. Ett neural nätvärk kopierar den mänskliga hjärnans funktion. Speciellt när vi diskuterar etiska frågeställningar bör man fundera på likheterna. Vi stänger och slår på elektroniska system hela tiden idag, de elektroniska system kommer i framtiden att vara komplexa neurala nätverk, mycket människolika (Dunnuck 2002). Vi är vana att utvecklingen av etik har varit starkt knutet till mänsklighetens utveckling. Den senaste tidens (historiskt) starka fokus på de värden och rättigheter som vi kallar mänskliga samtidigt som vetenskapen och filosofin tvingar fram behov av omprövning. Etikens och mänsklighetens domän har i stort varit densamma. Tills nu (Gomel 2011). Historiskt har dilemman kring mänsklighet och därtill kopplade etiska aspekter diskuterats flitigt främst inom SF litteratur och film. Till stor del ganska taffligt och ytligt. Intelligens har trots svårigheterna att definiera denna varit praktiskt förbehållen levande varelser. De mänskliga rättigheterna kommer att behöva skrivas om allt eftersom dessa tillskrivs en entitet som inte är lika självklar vad den är och kommer att bli. På samma sätt som mänskligheten har använt sig av avhumanifiering för att rationalisera sina oetiska handlingar är det en risk att detta komplicerar användning av AI (Gomel 2011). Vår benägenhet att stöta bort och diskriminera det som är annorlunda är en ökänd egenskap, på samma sätt som motsättningar mellan raser, kön och andra attribut kan man tänka sig motsättningar mellan de som har tillgång och använder teknologin (människa 2.0?) och de människor som saknar denna. En fråga om människovärde kan bli mer påtaglig när skillnaden mellan människorna skulle vara flera hundra år i livslängd och tusentals gånger högre intelligens. Ska vår mänskliga etik sträcka sig bortom kött och blod och i så fall hur långt? Om mänsklig intelligens ska vara ett mått på etisk tyngd, på samma sätt som förhållandet mellan människor och djur idag; ska då ett intelligent datasystems etik som är flera gånger om mer intelligent än alla människor samlade vara överordnat? De flesta nya teknologierna som förändrar oss som människor (organtransplantationer och avancerade proteser) väcker debatt. Idag lever många människor med proteser som hjälper

de både att se höra och kommunicera. Den snabba utvecklingen (Oscar Pistorius alias Blade runner) gör det möjligt att inte bara springa lika bra eller tom bättre än en normal människa utan låter en höra och se bättre och mer (google glasses). Redan idag går vi omkring och bär på våra utökade hjärnor (smarta mobiltelefoner) som visserligen inte än är sammanvuxna med vår biologiska kropp men redan anses av många som en lika naturlig attribut som kläder eller glasögon. En modifierad kropp, speciellt med kognitiva förmågor kommer att skapa ojämnvikt i samhället. Föreställ er en människa med en kraftigt förstärkt minne eller som kan räkna miljoner gånger snabbare än dig. Denna teknologiska utveckling kommer att kräva nya lagar (McGinnis 2010) I ett teoretisk exempel som Sara Baase tar upp (Baase 2013), jobbar man med ett avancerat system som använder AI för att ta fram beslut om påföljd för dömda brottslingar. En domare kan ta hänsyn till faktorer som att datorsystem inte kan. Det kan vara omständigheter, karaktärsdrag hos den dömde eller annat. Det utdömda straffet kan ibland vara utformat på ett okonventionellt sätt för att bättre motsvara omständigheterna. Ett program som analyserar liknande fall och drar slutsatser därav kan inte detta. Däremot kan en domare vara överdrivet hård i sina bedömningar och då skulle ett sådant system vara mer rättssäker. Om man ändrar frågeställningen till att systemet endast ska hjälpa domare att välja rätt påföljd blir det annorlunda. Det är onekligen av stor vikt att erfarna experter inom området är nödvändiga i utvecklingen av ett sådant system. När resultat presenteras för domarna så bör man ta hänsyn till en hel del praktiska saker, som tex i vilken ordning vill man läsa liknande fall, är det i kronologisk, hur grovt eller kanske vika påföljderna var? Det borde finnas en korrelation mellan hur stort påverkan ett system har på människornas li och vilka resurser i form av expertis och erfarenhet som ska involveras i utvecklingen. Ytterligare frågor är om vem och hur ska kunna modifiera ett sådant system? Det är av högsta vikt i sammanhanget att systemet beter sig konsekvent och förutsägbart. Att ett sådant system måste ha adekvat skydd mot otillåten manipulation är uppenbart. Samma etiska problem som kom med den tekniska utvecklingen, är tillämpningsbara när det kommer till artificiell intelligens. Brottslighet, immateriallrätt, integritet och säkerhet, alla dessa hot fanns inte med när informationsteknologi utvecklades från början. Därav dras vi med problem i efterhand, se bara på debatten om upphovsrätten där tekniken ligger år före lagstiftningen för att inte tala om den sociala mognadsgraden. Samma sak gäller AI och dess inflytande på samhället. Men i det här fallet borde vi kunna vara bättre förberedda då dessa frågor har behandlats i tusentals hyllmetrar litteratur och publikationer. Denna gång har vi kanske bättre odds att vara bekanta med frågeställningar från SF film och böcker. Ett citat av SF författaren Arthur C. Clarke Whether we are based on carbon or on silicon makes no fundamental difference; we should each be treated with appropriate respect. Arthur C. Clarke, 2010: Odyssey Two.

3.2 Olika perspektiv på AI Kulturvetaren Peter Kåhre, i sin artikel På AI-teknikens axlar ger sitt perspektiv på AI. Kåhre skriver att kunskapsutveckling handlar om social kommunikation. Och social kommunikation bygger inte på individuella handlingar. Denna sociala kommunikation har förstås kopplingar till individuella handlingar men det är inte dessa handlingar som konstituerar den sociala kommunikationen. På detta sätt ett AI systems funktion innebär att människans inblandning minskas. Men någonstans kommer människan att vara med i processerna, skriver Kåhre, eftersom det blir meningslöst med AI-system om de inte någonstans skapar en ny observatörsposition för en människa. Det har mest att göra med att vi som värderar AI-systemen är människor. Hans slutsats är att det finns ingen mening med AI om inte en människa kan använda denna och uppskatta dess kvaliteter. Men samtidigt menar han att det är inte bara genom mänskliga aktivitet som sådant kvalitet kan skapas. Kåhre sammanfattar detta i tre perspektiv på AI. Människan måste alltid ha tillgång till redskap för att bete sig intelligent men redskapen kan aldrig skapa något på egen hand. Denna argument återfinns hos många forskare inte minst beskrivs behovet av en kropp för att skapa starkt AI i boken Humanoider (Nordin Wilde 2003). Det är alltid människan som måste göra så att redskapen fungerar. Även om AI erbjuder ett ytterst potentiellt redskap kan detta redskap aldrig skapa kunskap på egen hand. Det kan bara utnyttjas genom människan skriver Kåhre. Vi kan tala om svag AI men aldrig om stark AI. Här utgör hans syn på AI en motpol vad tex Ray Kurzweil hävdar. Enligt Kåhre är en förutsättning för att människan skall kunna komma fram till ny kunskap att man med verktygen kan skapa nya kunskapsstrukturer som ger människorna en väg att bryta invanda kunskapsmönster. Det förutsätter att redskapen kan omplacera möjligheter till observationer. Ur detta perspektiv innebär tanken på stark AI inget nytt skriver han, kunskapen har alltid omstrukturerats av kulturella redskap som böcker och bibliotek. Den funktionalitet som behövs för intelligens kan därför finnas både hos redskap och hos människor. Det är ett förhållande som gör att vi bör se på kunskap som ett distribuerat fenomen. Att vi idag talar om stark AI som en ny företeelse handlar om att datatekniken gör att redskapen blivit så kapabla på att effektivera dessa processer att vi upplever att de kan göra något som vi tidigare trott att bara människor klarar av (Kåhre 2009). Intelligens handlar om ett samarbete mellan människor och redskap där den ena eller den andra kan fungera självständigt men där samarbete alltid leder till bättre resultat. Det är en strategi som samtidigt innebär att en människa i förhållandet till en annan människa fungerar som ett redskap för den andra människan och vice versa. Sociala interaktioner mellan människor kan vara effektiva för att utveckla kunskap utan att de i just denna interaktion behöver använda kulturella redskap (Kåhre 2009).

4 Slutsatser Vissa uppgifter görs bättre av maskiner eller av kombinerad maskin-människa. Detta kan skapa ett kapacitetsavstånd till vanliga människor som får dagens digital divide att blekna i jämförelse. AI är redan här och påverkar vårt beteende. Begrepp kommer att behöva omdefinieras för att bättre motsvara verkligheten. Det är svårt att prognostisera utvecklingen. 5 Förslag till vidare studier Ett intressant område för AI frågorna är lagstiftning och rättssystemet. Om vi utgår ifrån att juridisk ansvar är intimt förbundet med människans handlande så kan det i samband med ett starkt AI skapa intressanta frågeställningar. Människan kan ta ansvar för sina handlingar men när kontrollen inte är fullständig? Om det handlar om ett system som utvecklar och modifierar sig själv eller lär sig av sin användare, kan då den ursprungliga tillverkaren eller programmeraren ställas till svars? Man kan se en viss analogi till föräldrar barn förhållande, föräldrarna ansvarar för sina barn men det går inte att ställa föräldrarna till svars för alla barns handlingar. Ett annat område av stort intresse för staten är de ekonomiska aspekterna. Vårt samhälles styrfunktioner baseras på ekonomiska samband, men skulle människor kunna lasta över alla sina uppgifter på intelligenta mångsidiga maskiner som tillgodoser de flesta av deras behov. En återgång till självförsörjning från marknadsekonomi. Redan idag fungerar tex sk robotmäklare som automatiskt genomför handel på börsen och tjänar pengar åt sina uppdragsgivare. Sociala effekter som att ökad skillnad på de som har tillgång och makt över AI system och de som inte har det. Att förstärka sina egna förmågor med AI ger ökad inflytande och makt. Hur påverkas vår världsåskådning, etik/moral och religiösa ställningstaganden av att AI blir en del av vår värld? Vi har alltid betraktat oss som de högst stående varelserna och baserat på detta antagit etiska regler. Vi pratar om de mänskliga rättigheterna men i många avseenden menar vi vissa egenskaper som baseras på sådant som vi kopplar ihop med människan, som tex känslor och förmågan att tänka. Det är inte rätt att utsätta en människa för lidande men det är inte rätt att plåga djur heller. Här finns en graderingsskala utifrån vår uppfattning hur de kan uppleva lidandet. En katts död anses stå högre på etikskalan än en flugas. Huruvida denna logik kan utvecklas och tillämpas på icke biologiska intelligenser är en intressant fråga. Vidare frågor om AI kan någonsin betraktas som levande och på vilka grunder en relation människa maskin kan baseras behöver en mer tvärvetenskapligt arbete som även skulle behöva inkludera filosofer och teologer. Kanske inte för att dessa områden inverkar så mycket på AI utan att AI skulle kunna inverka på dem. Låt mig avsluta med ett citat ur Arthur C. Clark 2001: A Space Odyssey Där AI representeras av datasystemet HAL och människan av astronauten Dave. De är oense om prioriteterna i uppdraget: Dave Bowman: Hello, HAL. Do you read me, HAL? HAL: Affirmative, Dave. I read you. Dave Bowman: Open the pod bay doors, HAL. HAL: I'm sorry, Dave. I'm afraid I can't do that. Dave Bowman: What's the problem? HAL: I think you know what the problem is just as well as I do. Dave Bowman: What are you talking about, HAL?

HAL: This mission is too important for me to allow you to jeopardize it. Dave Bowman: I don't know what you're talking about, HAL. HAL: I know that you and Frank were planning to disconnect me, and I'm afraid that's something I cannot allow to happen. Dave Bowman: Where the hell'd you get that idea, HAL? HAL: Dave, although you took very thorough precautions in the pod against my hearing you, I could see your lips move. Dave Bowman: Alright, HAL. I'll go in through the emergency airlock. HAL: Without your space helmet, Dave, you're going to find that rather difficult. Dave Bowman: HAL, I won't argue with you anymore. Open the doors. HAL: Dave, this conversation can serve no purpose anymore. Goodbye

6 Referenslista Amdal Per (2003). Socialt beteende och social interaktion i AI-system [Elektronisk] Linköpings Universitet Institutionen för datavetenskap Tillgänglig: www.ida.liu.se/~729g50/studentpapper-03/per-amdahl.pdf [2014-03-27] Baase Sara (2013) A gift of fire, Social, Legal, and Ethical Issues for Computing Technology. Pearson Education Limited, Edinburgh Gate Harlow Essex CM20 2JE England Coeckelbergh Mark (2013) Drones, information technology, and distance: mapping the moral epistemology of remote fighting. [Elektronisk] Tillgänglig: Springer Science+Business Media Dordrecht 2013 [2014-03-27] Dunnuck Nicholas S (2002) The Effect of Emerging Artificial Intelligence Techniques on the Ethical Role of Computer Scientists. [Elektronisk] The Faculty of the School of Engineering and Applied Science University of Virginia Tillgänglig: http://www.cs.virginia.edu/~evans/theses/dunnuck.pdf [2014-03-27] Gomel Elana (2011) Science (Fiction) and Posthuman Ethics: Redefining the Human. [Elektronisk] The European Legacy: Toward New Paradigms, 16:3, 339-354, DOI:10.1080/10848770.2011.575597 Tillgänglig: http://dx.doi.org/10.1080/10848770.2011.575597 [2014-03-27] Kurzweil Ray (2013) How to Make a Mind. [Elektronisk] The Futurist, March-April, 2013, Vol.47(2), p.14(4) Tillgänglig: Academic Search Elite [2014-03-27] Kåhre Peter (2009) På AI-teknikens axlar. Om kunskapssociologin och stark artificiell intelligens. Lund Dissertations in Sociology ISBN 91-7267-289-7 ISSN 1403-6061 printed by Media-Tryck, sociologen 2009 Department of Sociology, Lund University P.O. Box 114 SE-221 00 Lund Lawrence Thomas (1991) Impacts of Artificial Intelligence on organizational decision making. [Elektronisk] University of Alberta, Edmonton, Canada Journal of Behavioral Decision Making, Vol4,195-214 (1991) Tillgänglig: http://onlinelibrary.wiley.com/doi/10.1002/bdm.3960040306/abstract [2014-03-27] McGinnis JohnO (2010). Accelerating AI+. [Elektronisk] NorthwestemUniversity,SchoolofLawPrintedinU.S.A. NorthwestemUniversityLawReview. vol:104 sidor:1253-1665 Tillgänglig: Academic Search Elite [2014-03-27] Nordin Peter, Wilde Johanna (2003) Humanoider. Självlärande robotar och artificiell intelligens. Liber AB, 11398 Stockholm 03. Perri 6 (2001) Ethics, regulation and the new artificial intelligence, part II: autonomy and liability [Elektronisk] Information, Communication & Society, 2001, Vol.4(3), p.406-434 Tillgänglig: Taylor & Francis [2014-03-27]