Googles'självkörande'bil AmandaJaber(amaja463) AI 279G43 2016901909
Innehållsförteckning 1.#INLEDNING#...#3 1.1 SYFTE#...#3 1.2 AVGRÄNSNING#...#3 2.#GOOGLE#SJÄLVKÖRANDE#BIL#...#4 2.1HURBILENFUNGERAROCHUPPBYGGNAD...4 2.1.1$Lidar$*$laseravståndsmätare$...$5 2.1.2$Frontkamera$för$närseende$...$5 2.1.3$Radar$sensorer$...$5 2.1.4$$Antenn$...$5 2.1.5$Ultraljuds$sensorer$...$5 2.1.6$Enheter$inom$bilen$...$6 2.2HURGOOGLESJÄLVKÖRANDEBILUPPTÄCKEROCHUNDVIKERHINDER...6 2.2.1$Hur$testas$bilen$...$6 2.2.2$Maskininlärning$...$6 2.2.3$Visuell$information$...$7 2.2.4$Djup$inlärning$...$8 2.3.ÄRBILENSÄKER?...9 2.3.1$Problem$...$10 3.#SLUTSATS#...#10 4.#BILAGA#...#12 5.#REFERENSER#...#15 2
1.Inledning Är du redo att bli körd, inte av än chaufför, men av själva bilen? I och med den snabba framväxten av tekniken har även bilar blivit smartare. Allt fler företag så som Tesla, Google och Apple har börjar tävla med varandra för att skapa de bästa och mest effektiva autonoma bilar framförallt för att öka bekvämlighet, användarvänlighet och säkerhet [ 1 ]. I dagsläget är en av de vanligaste orsakerna till trafikolyckor den mänskliga faktorn [ 2 ]. Det är här de autonoma bilarna kommer in, dessa smarta fordon kan öka trafiksäkerheten [ 1 ]. Dessa bilar skulle även kunna öka produktiviteten och frigöra resurser. Google är ett av de första företag som redan har sina självkörande bilar ute i stadstrafik, de menar att deras bilar har lägre olycksfrekvens är den genomsnittlige mänskliga föraren. Många förutspå framtiden, att säkra självkörande bilar kommer finnas inom några år [ 2 ]. Redan nu används assistens system där tillexempel bilar kan fickparkera på egen hand [ 3 ]. Dock finns det nya faror med dessa självkörande bilar och än så länge har fortfarande mänskliga förare visa fördelar gentemot de självkörande bilarna [ 4 ]. 1.1 Syfte Syftet med denna rapport är att skapa en fördjupning inom ett område inom AI, i detta fall Googles självkörande bil. Detta genom en tydlig sammanfattning om Google bilen och hur detta intelligenta system är uppbyggt specifikt hur bilen upptäcker och känner igen objekt och hinder, med andra ord hur objekt igenkänningen i bilen fungerar. 1.2 Avgränsning Google bilen är uppbyggd på många olika komponenter men för att rapporten inte ska bli allt för bredd så är denna rapport fokuserad på/fördjupad i neurala nätverk och maskininlärning som kan hjälpa bilen med objektigenkänning. 3
2.Googlesjälvkörandebil 2.1Hurbilenfungerarochuppbyggnad Självkörande bilar kommer att minska väggolyckor, trafikstockningar och bränsleförbrukning. Googles självkörande projekt startade år 2009. Redan då testade de bilen på en motorväg i California. 2012 hade de testat och kört hela 300 000 miles på motorvägar. Sedan byte de ut motorvägen till mer komplexa gator. 2014 konstruerade de en prototyp på fordonet som var designat från grunden till att vara helt självkörande. I december 2014 efter fler månader av tester byggdes bilen från deras prototyp. I dagsläget har bilen kört över 1 miljon miles och är just nu ute på gator både i California och Texas [ 21 ]. Bilarna som egentligen inte ska ha ratt eller pedaler, var tvungen att utrusta med det till en början på grund av en lagstiftning. Eftersom det krävs att det sitter en förare bakom ratten ifall något skulle gå fel och de måste ingripa. Google bilen är helt eldriven och i dagsläget kan inte bilen köra snabbare än 40 km/h [ 6 ]. Googles självkörande bil är utrustad med åtta olika typer av sensorer. En kamera som kallas Lidar. Chris Urmson, som är chef över självkörande bilar hos Google, säger att själva hjärtat i systemet [ 7 ]. Lidar mäter distansen till objekt för att bygga upp en detaljerad 3D karta av omgivningen. Bilen har även en kamera i vindrutan som kollar efter närliggande faror/hinder så som fotgängare, cyklister och andra fordon, den läser även vägskyltar och upptäcker trafikljus. Bilen har även radar både där fram och bak på stötfångaren, dessa radar håller koll på andra fordon framför och bakom bilen. Externt har bilen en bak monterad antenn som tar emot geografisk platsinformation från GPS-satelliter och en sensor på ett av de bakre hjulen som övervakar bilens rörelser. Internt har bilen höjdmätare, gyroskop och en varvräknare för att ge ännu finare mätningar på bilens position, som alla samverkar till att ge bilen mycket noggrann data som behövs för att bilen ska fungera säkert [ 8 ]. Genom att bilen kombinerar laser mätningarna med högupplösnings kartor av världen, producerar detta olika typer av data som tillåter bilen att köra sig själv medan den undviker hinder och trafiklagar [ 7 ]. Genom att kombinerar alla åtta sensorerna gör detta möjligt att Google självkörande bil fungerar och kan säkert ta sig från A till B. Till exempel kan självkörande Google bilen framgångsrikt identifiera en cykel och förstår att om cyklisten sträcker ut en arm avser personen att göra en manöver. Den förarlösa bilen vet då att den ska sakta ner och ge cykeln tillräckligt utrymme för att fungera säkert [ 8 ]. Alla data från bilen som samlas i sensorerna samlas in och tolkas tillsammans med bilens CPU eller inbyggd programvara för att skapa en säker kör upplevelse [ 9 ]. Bilen har flera olika synfält (laser, kameror, radar) som spelar en specifik roll och det räcker med att objektet har synt i ett av fälten för att bilen ska veta vart det är. Denna syn skapar en parallax som är olikt ögat och detta tillåter systemet att hitta objektets avstånd i realtid. Lidar systemet är bra på att få en exakt karta på bilens omgivning men den är inte lika bra på att veta farten på andra fordon i verklig tid, det är därför bilen även har radar där fram och bak. Bilen tar alltid hänsyn till andras fordons rörelse runt omkring dem. Googles programvara integrerar all data som sensor systemen tar in för att bygga en karta över bilens position. Genom att kombinera dessa objekt igenkännings system och fler miljoner miles som körts leder det till en avancerad kör system som bara blir mer och mer avancerad [ 10 ]. 4
2.1.1LidarClaseravståndsmätare Lidar (Light Detection and Ranging) laser system är enligt Google hjärtat av objekt igenkänning. Lidar har en roterande kamera med 360 grader syn och detta system hjälper bilen att se [ 11 ]. Denna kamera är en laseravståndsmätare som skapar 3D bilder av objekt som hjälper bilen att se faror/hinder längst vägen. Denna kamera räknar ut hur långt bort ett objekt är från bilen. Detta gör den genom att ta tiden på hur lång tid det tar för laserstrålen att träffa objektet och sedan komma tillbaka igen [ 9 ]. Lidar innehåller en laser, en scanner och en GPS. Lidar systemet gör så att bilen kan få exakt, flexibel och noggrann information om omgivningarna [ 12 ]. Detta system är viktigt för flera olika saker. Det första är att den får en exakt räckvidd på 100 meter. Det finns några andra upptäcka teknologier på bilen som har större räckvidd men inte lika precis som lidar. Lasern studsar en stråle från ytan och mäter reflektionen för att besluta avståndet. Det system som Google använder är en Velodyne 64-stråle laser som kan rotera 360 grader och ta upp till 1.3 miljoner avläsningar per sekund. Den är monterad på taket på bilen så att synen inte ska blockeras [ 10 ]. Se figur 1. 2.1.2Frontkameraförnärseende Bilen har en frontkamera, placerad på vindrutan, som hjälper bilen att se objekt rakt framför den så som fotgängare, cyklister och andra fordon. Det är även denna kamera som upptäcker och registrerar information om vägsignaler och trafikljus, dessa signaler och ljus är intelligent förklarats av bilens inbyggda programvara [ 9 ]. Se figur 1. 2.1.3Radarsensorer Bilen har fyra raders monterade på fram- och bakstötfångarna. Dessa gör så att bilen är medveten om andra fordon både framför och bak. Denna teknik är bekant eftersom det är samma som de adaptiva farthållare våra bilar idag är baserade på. Radar sensorerna har ett digitalt öga på de andra bilarna. Programvaran är programmerad att alltid hålla ett avstånd på 2-4 sekunder med bilen framför. Genom att ha denna teknik kan bilen automatiskt höja farten eller sänka den beroende på beteendet på bilen/föraren framför. Googles bilar använder denna teknik för att hålla passagerare och andra bilister säkra genom att undvika kraschar och stötar [ 9 ]. Se figur 1. 2.1.4Antenn Antennen på bilen är placerad där bak på bilen och läser exakt geografisk lokalisering för bilen. Denna antenn tar emot information på bilens exakta lokalisering, detta tack vare GPS satelliter. Bilens GPS tröghetsnavigeringsenhet arbetar tillsammans med sensorerna för att hjälpa bilen att lokalisera sig själv. Dock kan GPS: en uppskattning vara flera meter fel på grund av signalstörningar från omvärlden. För att man ska kunna minimera dessa osäkerheter jämförs data från GPS: en med data från sensorernas karta som samlas in från samma lokalisering. När bilen rör på sig uppdateras hela tiden den interna kartan med ny information om positionen av sensorerna [ 9 ]. Se figur 1. 2.1.5Ultraljudssensorer Dessa sensorer finns på bilens bakhjul och håller redan på bilens rörelse och varnar bilen om hinder där bak. Ultraljuds sensorer finns redan nu i vissa bilar. Tillexempel de bilar som har automatiskt assistent när man ska baka och parkera bilen. Dem bilarna har sensorer som hjälper till att navigera bilen att baka och parkera i en trång parkeringsplats [ 9 ]. Se figur 1. 5
2.1.6Enheterinombilen Inne i Google bilen finns det höjdmätare, gyroskop och varvräknare. Alla dessa enheter hjälper till att fastställa en exakt position på bilen tack vare deras olika mät parametrar [ 9 ]. 2.2HurGooglesjälvkörandebilupptäckerochundvikerhinder 2.2.1Hurtestasbilen Googles självkörande bil testas på privata banor, men sedan 2010 har bilarna börjat testas på allmänna vägar. Det är alltid två människor i bilen, en kvalificerad förare som kan ta kontrollen över bilen ifall det skulle behövas och en Google ingenjör som sitter på passagerarsätet för att övervaka beteendet på bilens programvara [ 8 ]. För tillfället, innan självkörande bilar testas ute på de allmänna vägar, kör en vanlig bil och mappar ut rutten och alla dess väg förhållanden, så som vägskyltar, stolpar etc. Denna karta läggs in i bilens programvara för att hjälpa bilen att identifiera vanliga delar av vägen. När bilen rör på sig hjälper laseravståndsmätare, Lidar, till och genererar en detaljerad 3D karta på omgivningen vid det tillfället. Bilen jämför denna karta med den redan existerande kartan (som samlades in från den vanliga bilen) för att lista ut aspekter i vägen som inte är vanliga, identifierar objektet och undvika objektet [ 9 ]. 2.2.2Maskininlärning Googles självkörande bil har blivit lärd att navigera sig genom olika komplicerade scenarion ute på vägarna. Detta genom att bilen använder sig av sensorer och programvara för att känna igen objekt så som fotgängare, cyklister, fordon med mera, för att säker kunna köra runt dem. När bilen kör måste den, som alla förare måste fråga sig: Vart är jag? Bilen bearbetar både kartan och sensor informationen för att fastställa vad som finns i världen, vilken gata den är på och vilket körfält den är på. Vad finns runtomkring mig? Sensorerna upptäcker objekt runt om kring den och programvaran klassificerar objekten. Vad kommer att hända härnäst? Programvaran förutspår vad alla objekten kan komma att göra. Vad ska jag göra? Programvaran väljer en säker hastighet och bana. [ 13 ] Detta visar att bilen använder sig av både sökning, planering och probabilistisksannolikhet, man kan säga att bilen är en intelligent agent. Bilen är programmerad i sitt system så att den ska göra intelligenta beslut och lära sig saker. Bilen bygger på maskininlärning, alltså hur man kan lära bilen att hantera alla slags situationer den kan tänkas hämna i. När bilen testas kan Googles ingenjör i bilen då säga vad bilen ska göra om den kommer i en situation den inte känner igen, genom att tillexempel säga att den ska stanna om denna situation händer. På detta viss så lär sig bilen detta och kan sedan, om den kommer i samma situation, känna igen denna typ av hinder och veta vad den ska göra. Den kan mönster matcha de olika objekten för att veta att det är detta som gäller vi denna situation i framtiden [ 8 ]. Bilens programvara har blivit programmerad för att den ska kunna på ett korrekt sätt tolka väg beteenden, vanliga vägskyltar och motorförares signaler. Bilen har förbestämda form- och rörelsebeskrivningar så att systemet kan hjälpa bilen att göra intelligenta beslut. Tillexempel om en cyklist gestikulerar att han ska göra en manöver kan den självkörande bilen tolka detta korrekt och sakta ner farten för att låta cyklisten svänga [ 9 ]. 6
2.2.3Visuellinformation Bildigenkänning är något som blir att vanligare. Bildigenkänning bygger på djupa neurala nätverk, som är inspirerad av den mänskliga hjärnan. Neurala nätverk har nått nivåer med lägre felfrekvens och en mycket högre kapacitet än människan inom många domäner, därför används de inom många tillämpningsområden. Redan idag kan man se att neurala nätverk är bättre på igenkänning än människan. Idag används neurala nätverk inom det militära, Facebooks AI grupp, passkontroller m.m. [ 2 ]. Google bilen använder sig av radar, kameror och laser för att identifiera objekt inom 100 meter i dagsläget. Bilen är utrustad med flera olika sensorer och kameror, som nämns innan, för att veta vad den ska göra, känna igen, identifiera, hitta och undvika hinder/objekt. Dock är lidar väldigt dyrt och det skulle vara bättre om bilarna kan lita på och använda billigare kameror. Men tekniken går snabbt fram och forskare på Google arbetar redan nu för att kunna använda bättre teknik. Googles forskare Anelia Angelova arbetar med data syn och maskin inlärning. Hon presenterade på IEEE internationella konferensen ett detektor system som bara använder sig av video bilder. Men det finns ett problem med video kameror. Kamerornas visuella information ger en breddare syn än radars, så som lidar, men det saktar ner processen. Det bästa video systemet använder djupa neurala nätverk, alltså maskin inlärnings algoritmer som kan tränas för att klassificera bilderna och annan slags data väldigt exakt. Djupa neurala nätverk förlitar sig på flera lager av processer mellan input och output lager. När det gäller bildigenkänning lär sig input lagret egenskaper av pixlarna på bilden, nästa lager lär sig kombinationen av dessa egenskaper och så fortsätter det på detta sätt genom de mellanliggande lager, där sambanden gradvis växer fram. Output lagret gör en gissning på vad systemet kollar på. Dessa neurala nätverk kan överträffa människors sätt att känna igen ansikten. Dock finns det problem med att använda dessa nätverk i bilen. De traditionella djupa nätverken är väldigt långsamma på att upptäcka fotgängare eftersom de delar upp varje gatubild till 100 000 eller mer små pixlar och sedan analyserar varje i sin tur. Denna process kan ta några sekunder eller till och med minuter vilket gör de oanvändbara för att navigera runt gator, eftersom innan en bil med sådana nätverk har identifierat fotgängaren kan den ha kört över den personen [ 15 ]. Angelova har skapat en ny fotgängare detektor som har tre separata steg. Det första är djupa neurala nätverk, men en som delar upp bilden till ett rutnät med bara några delar än flera tusen. Detta nätverk är tränat att göra flera upptäckter samtidigt på flera lokaliseringar och ta ut det som den tror är fotgängare. Det andra steget är ett till nätverk som förfinar resultatet. Det tredje steget är ett traditionellt djupt nätverk som ger det slutgiltiga ordet om det bilen verkligen ser är en fotgängare eller något annat. Denna nätverks process går mycket snabbare än ett vanligt. Det går ungefär 60 till 100 gånger snabbare än tidigare nätverk. Angelovas system blev tränad under ungefär en dag och det kunde sedan identifiera fotgängare på cirka 0.25 sekunder. Dock erkänner Angelova att det fortfarande inte är 0.07 sekunder som behövs för realtid användning. Självkörande bilar måste veta nästan direkt informationen om det är en fotgängare eller inte för att säkert kunna göra undanmanöver. Hon säger ändå att detta system kan komplementära ifall andra sensorer misslyckas. Angelova förutspår att i framtiden kommer prestandan på bilarna förbättrar, eftersom det blir fler tillgängliga kraftfulla bearbetnings system och kapaciteten på neurala nätverk blir allt bättre. Hon tror att nätverken kommer bli snabbare. Den tiden då självkörande bilar finns tillgängliga för allmänheten att köpa, kommer kanske lidar ha försvunnit helt och hållet tror hon [ 15 ] 7
2.2.4Djupinlärning Neurala nätverk är inspirerade av människans hjärna, men det som är den största poängen med nätverket är att de kan tränas. För att systemet ska kunna känna igen ett objekt, tillexempel en katt, måste den matas med massor av bilder på objektet och på annat. Är bilderna från början märkta, kan maskinen själv hitta mönster och regler på vad som kännetecknar objektet. Algoritmerna i maskininlärning kan lära sig att känna igen bilder på samma sätt och dess egenskaper och särdrag. Det finns nackdelar med traditionella neurala nätverk. Detta är att det inte finns någon teori om hur många neuroner som behövs och hur många lager. Det är här djup inlärning kommer in. Djup inlärning är att det neurala nätverket består utav flera lager (se figur 3), de tidigare enkla neurala nätverken består utav bara några få lager som inte kan hantera alla uppgifter (se figur 2), men nu har nätverket vuxit och blivit allt bättre på att hitta och tolka information. Genom att ny forskning, så som Angelovas forskning som nämnts innan, kommer djup inlärning leda till nya tillämpningar i AI [ 18 ]. Neurala nätverk och djup inlärning ger den bästa lösning till många problem i bildigenkänning, taligenkänning och naturlig språkbearbetning [ 19 ]. Men hur fungerar egentligen djupa neurala nätverk? Djupa neurala nätverk är neuralt nätverk med multipla gömda lager av enheter mellan input och output lager. Detta nätverk är utvecklat från maskinlärning och perceptron inlärnings algoritmer, dock var dessa begränsade i sin förmåga och de behövde utvecklas. Djupa neurala nätverk använder linjär regression. Linjär regression är att en dator följer linjen mellan två relaterade variabler. Djupa neurala nätverk kan bearbeta icke-linjära multipla följder vilket effektivt förutspår okända variabler om man har tillräckligt med data för att träna den [ 20 ]. Det som nämnts innan så har Googles forskare Anelia Angelova utvecklat en ny detektor system som ska upptäcka fotgängare, detta genom något som kallas Large-Field-Of-View (LFOV) djupt nätverk. Detta system ska uppnå högre noggrannhet och är designad för att göra de djupa nätverken snabbare. Idén med LFOV djup nätverk är att lära den att göra klassifikationsbeslut samtidigt och noggrant på flera lokaliseringar. Detta nätverk kan bearbeta större bildareor mycket snabbare än vanliga djupa neurala nätverk har kunnat göra. Det kan även helt själv återanvända beräkningar. Angelovas detektor system är en kombination av LFOV nätverk och vanligt djupa nätverk [ 1 ]. LFOV klassificeraren är en djup neural nätverk som är tränad att upptäcka flera objekt samtidigt på ett vanligt rutnät. Vid en enda skala tas en stor del av bilden in som input. Output är här (figur 4) 16 dimensionellt, där varje position kodar om det finns någon fotgängare i den, motsvarande 4x4 rutnätet av input bilden. Tillexempel är de i figur 4 två fotgängare som kan upptäckas av en enda LFOV klassificerar, medan alla 16 platser är testade samtidigt. LFOV funkar i multipla skalor. Det systemet gör, är att subdela input bilden i en 4x4 rutnät och för varje ruta lär sig nätverket om det är en fotgängare inom den rutan eller inte. [ 1 ]. LFOVklassificeraren,somärendjupnätverksombearbetarstoraområdenavenbild ochsamtidigttarbeslutavnärvaronhosfotgängarepåfleralokaliseringar.denär designadtillattfunkasnabbareänvanligadjupanätverk.somettresultattilldettakan denbearbetaenhelbildmycketsnabbare[1] LFOV klassificeraren användas i första steg till att generera förslags rutor för att upptäcka fotgängare. De har implementerat ett enkelt nätverk och designat det så att dess beräknings tid är väldig snabb. Mer specifikt funkar LFOV klassificeraren på 64x64 RGB input bilder och har dessa lager: 8
9 Ett 5x5 lager med filtrerings djup av 32, med ett steg på 2. Detta följs av ett normaliseringslager och ett sammanslagningslager. 9 Ett 1x1 lager med djup 32, som ger ett djup till nätverket med väldigt liten beräknings kostnad. 9 Ett fullt anslutningslager med ett djup på 512, som följs utav en avhopp lager 9 Ett anslutningslager med 17 output som är bifogad på slutet Varje output har ansvaret för en av rutorna i 4x4 rutnätet samt en ytterligare output för att upptäcka fotgängare som sträcker sig över hela bilden. Själva idén med LFOV klassificerare är att de djupa neurala nätverken, genom flera lager av slutsatser, är kapabla att lära sig om fotgängarnas närvaro i olika mindre skalor. För att spara tid används en input bild på en storlek 64x64, så att den kan effektivt upptäcka fotgängare med en låg upplösning, 16x16 rutor i varje rutnät. LFOV modellen använder fullt anslutna lager. Beslut om fotgängarna i en ruta kommer bero på informationen som är tillgänglig i grannrutan och hela rutnätet, som kommer ge en kontext. Designen är blockvis så den kommer inte alltid ha full kontext tillgänglig [ 1 ]. Som man kan se i figur 5 visar detta hur man kan träna LFOV nätverket. Nätverket genererar alla möjliga fyrkantiga rutor runt fotgängaren så att personen hamnar i all rutor av 4x4 rutnätet, där det är möjligt. Figur 5 visar exempel på inputs som används i nätverket. LFOV nätverket kan framgångsrikt lära sig att upptäcka fotgängarna, även när de skalas om till en 16x16 pixel storlek. Eftersom fotgängare kommer i olika storlekar, genererar det data med olika skalor, vilket sedan skalas om till samma storlek i nätverket [ 1 ]. I LFOV nätverket är skjutfönster klassificerarens steg, storlek 4 pixlar som en baslinje algoritm. Det finns även en lokal skjutfönster för att täcka alla förskjutningar, så att man kan testa alla lokaliseringar i det önskade steg storleken [ 1 ]. Eftersom den sista fotgängare detektorn måste arbeta snabbt används en kaskad av djupa nätverk, där LFOV klassificeraren är det första steget. Algoritmen innehåller tre steg. Det första är en LFOV klassificerare (se figur 5) som fungerar på större rutor på bilden och är speciellt designade att vara snabba. Dess syfte är att generera förslag på rutor där det kan finnas fotgängare. Det andra är en lite djup nätverk som använder samma djup nätverk modell arkitektur som LFOV, men fungerar på 16x16 input bild istället för en stor fält input på 64x64. Denna beslutar om input bilden innehåller en fotgängare eller inte. Det tredje och sista steget är ett vanligt djupt nätverk [ 1 ]. Den viktigaste komponenten av LFOV djup nätverk är att det är flera gånger snabbare än vanliga djupa nätverk av samma kapacitet. Detta betyder att LFOV nätverket är fördelaktigt gällande snabbhet jämfört med andra djupa nätverks modeller. Kvaliteten att upptäcka hos LFOV avtar inte, utan dess snabbhet beror mycket på återanvändningen av beräkningar [ 1 ]. 2.3.Ärbilensäker? Detta är en fråga som kommer upp under debatterna om självkörande bilar. Is it safe to hand over control of a vehicle to a robot? [ 8 ] De som stödjer självkörande bilar tar ofta upp hur dessa bilar kan rädda liv och minska olyckor på vägarna och hur osäkra vägarna är i bilar som inte är självkörande. Över hela världen är det 1.2 miljoner människor som dör i trafiken. Google hävdar att 90 % av dessa dödsfall var på grund av mänskliga fel. År 2014 framförde Google att deras självkörande bilar hade kört över 700 000 miles utan att ha hamnat i olyckor, de var en bil som hade blivit påkörd där bak men det var den andra förarens fel. Även om detta är en relativt liten siffra jämfört med vad en förare kör i exempelvis Storbritannien (de 9
tror att de kör cirka 267 biljoner miles) så är det positivt att Google självkörande bil fortfarande inte har hamnat i någon olycka [ 8 ]. 2.3.1Problem Med självkörande bilar finns många fördelar så som mindre olyckor vilket leder till mindre dödsfall, funktions nedsatt så som blinda kan åka med och man slipper dåliga förare. Men självklart finns det nackdelar också. Det finns möjligheter för andra att utnyttja mjukvaran i bilen. Om det inte finns tillräckligt bra säkerhet i bilarna kan systemet i bilen bli hackad. Hackers kan ta över både styrning och bromsar och detta demonstrerar Charlie Miller och Chris Valasek som är två forskare från amerikanska Defense Advanced Research Projects Agency (DARPA). De sitter i baksätet och hackar sig in i bilens system och får kontroll över allt i bilen. Dock är detta problem bara möjligt, i dagsläget, om man har fysisk koppling in i bilens system, men självklart visar detta vilken fara det finns och vilket problem detta kan bli. Miller och Valasek tycker att biltillverkarna måste ta hänsyn till detta och veta att mjukvaran som det är i bilen liknar de som finns i en PC från 90-talet [ 5 ]. Ett annat problem är att lidar systemet är väldigt dyrt och de funkar inte lika bra i alla väder. Sensorerna på bilen kan försämras tillexempel om det snöar eller det går från dagsljus till skymning.[ 16 ]. Lidar systemet är inte heller billigt den kan kosta upp till 80 00 dollar [ 17 ]. En annan kritik som bilen får är att den saknar ett sinne. I en artikel skriven av Susan Kuchinskas menar hon att det fortfarande behövs människor bakom ratten ifall något händer. Hon menar att människor är kapabla att fatta beslut på bara några bråkdels sekunder, detta visar att även om bilen är byggd på avancerad mjukvara saknar den fortfarande ett centralt bearbetningssystem, ett sinne, för att ta snabba och förnuftiga beslut och utföra handlingar efter det. Enligt Francis Govers, som är den före detta NASA ingenjör, att fordonen måste lära sig att förstå sin omgivning hellre än att upptäcka objekt. Han menar att fordon inte alltid måste undvika objekt tillexempel kan man köra över ett fart hinder, men man vill inte köra över en hund som har samma storlek och form som farthindret. Raj Rajkumar, som är professor i elektronik och datavetenskap på Carnegie Mellon Universitet, menar att trafik skapar en dynamisk dimension för beslutsfattning. Bilens programvara måste handla utifrån data den får, även om förhållandena runtomkring bilen ständigt strömmar in. Rajkumar säger att en programvara kan göra de rätta saker under visa scenarion men fel saker i andra. Tillexempel, för att undvika en kollision är frågan om det är bättre att öka hastigheten eller sakta ner? Hur smarta bilarna än är idag så menar Kuchinskas att de är kognitiva småbarn och behövs utvecklas till att bli snabbare. Hjärnan i bilen, programvaran, måste kunna fatta beslut och upptäcka objekt mycket snabbare, de måste bli snabbare än en människas nervsystem. Bilar är inte allt för smarta idag, men de kan göra objektigenkänning och se skillnad på vad som är ett fart hinder och vad som är en hund. Kuchinskas tror att så småningom kommer bilarna att bli bättre förare än oss människor [ 16 ]. 3.Slutsats Jag tror att denna självkörande bilar kommer att förverkligas, men inte förens om några år. Som nämnts i rapporten är det inte bara Google som försöker utveckla självkörande bilar, utan många kända företag hakar på. Tekniken går så himla snabbt framåt, år 2009 var Googles självkörande bil bara en prototyp, sex år senare finns den ute på allmänna gator och kör runt. Detta tycker jag är ett bevis på att det går, även fast det finns mycket kvar och göra och problem med bilen, men som sagt så går tekningen så snabbt fram och utvecklingen går åt 10
en riktning som jag tror många inte trodde den skulle kunna. Nya tekniker så som neurala nätverk som blir mer och mer vanliga, kommer att hjälpa processen framåt. Djup inlärning är bara i början av dess tidiga skede, så man kan bara tänka sig vad utvecklingen av det kommer leda till. Men man måste ändå tänka på att Google är bland de första som testar självkörande bilar och de har en lång väg kvar, tekniken och kostanden är ett hinder i vägen. De är några år kvar tills bilen kommer gå i uppfyllelse, men som många förutspår kommer bilen bli en verklighet tror jag. 11
4.Bilaga Figur$1:$Bilens$olika$enheter$ $ Figur$2:$Enkel$neuralt$nätverk$ $ 12
$ Figur$3:$Djup$neuralt$nätverk$ Figur$4:$Large*field*of*view$djup$nätverk$ $ Figur$5:$Träning$av$LFOV$nätverket$ $ 13
$ Figur$6:$Arkitekturen$av$Large*field*of*view$djup$nätverk$ 14
5.Referenser [1] Angelova,Anelia,Krizhevsky,Alex,Vanhoucke,Vincent(2015).Pedestrian DetectionwithaLarge9Field9Of9ViewDeppNetwork,s.198 [2] Gisslén,Linus(2014).Artificiellintelligens:Teknisk$prognos,s.15,17 [3] TheEdge(2015).NoDriverNecessary,s.799 [4] Newcomb,Doug(2015).MakingRobotCarsMoreHuman,s.193 [5] Autonomafordoninnebärökadsäkerhetochnyafaror. http://www.innovationcamp.se/autonoma9fordon9innebar9okad9sakerhet9 och9nya9faror.html,hämtad8/1916 [6] Törnros,Robin(2015).Googlessjälvkörnadebilitrafikenredanisommar. http://teknikensvarld.se/googles9sjalvkorande9bil9i9trafik9redan9i9 sommar9183962/,hämtad8/1916 [7] Guizzo,Erico(2011). http://spectrum.ieee.org/automaton/robotics/artificial9intelligence/how9 google9self9driving9car9works,hämtad8/1916 [8] HowdoGoogle sself9drivingcarswork? http://www.alphr.com/cars/7038/how9do9googles9self9driving9cars9work, hämtad8/1916 [9] 10Astonishingtechnologiesthatpowergoogle sself9drivingcars. http://www.national.co.uk/tech9powers9google9car/,hämtad8/1916 [10] Whitwam,Ryan(2014).http://www.extremetech.com/extreme/1894869 how9googles9self9driving9cars9detect9and9avoid9obstacles,hämtad8/1916 [11] Oreskovic,Alexei(2015).http://uk.businessinsider.com/google9hiring9 lidar9expert9for9self9driving9cars92015912?r=us&ir=t,hämtad8/1916 [12] Lidar9LightDetectionandRanging9isaremotesensingmethod(2013). http://www.webcitation.org/6h82i1gfx,hämtad8/1916 [13] GoogleSelf9DrivingCarProject:Navigating$city$streets. https://www.google.com/selfdrivingcar/how/,hämtad8/1916 [15] Harris,Mark(2015).NewPedestrianDetectorfromGoogleCouldMake Self9DrivingCarsCheaper.http://spectrum.ieee.org/cars9that9 think/transportation/self9driving/new9pedestrian9detector9from9google9 could9make9selfdriving9cars9cheaper,hämtad8/1916 [16] Kuchinskas,Susan(2013).TrainingthebrainofaDriverlessCar. http://www.scientificamerican.com/article/autonomous9driverless9car9 brain/,hämtad8/1916 15
[17] Thompson,Cadie(2015).http://www.techinsider.io/difference9between9 google9and9tesla9driverless9cars92015912,hämtad8/1916 [18] Rose,Joanna(2015).Kanviskapaintelligens? http://fof.se/tidning/2015/7/artikel/kan9vi9skapa9intelligens,hämtad 8/1916 [19] Nielsen,Michael(2015).NeuralNetworksandDeepLearning. http://neuralnetworksanddeeplearning.com,hämtad8/1916 [20] Murphy,Margi(2015).Everythingyouneedtoknowaboutdeeplearning andneuralnetworks.http://www.techworld.com/big9data/why9does9 google9need9deep9neural9network9deep9learning93623340/,hämtad8/19 16 [21] GoogleSelf9DrivingCarProject:Where$we ve$been. https://www.google.com/selfdrivingcar/where/,hämtad8/1916 16