Digitala System: Datorteknik ERIK LARSSON

Relevanta dokument
Digitala System: Datorteknik ERIK LARSSON

Närliggande allokering Datorteknik

Datorarkitekturer med operativsystem ERIK LARSSON

Minnet från processorns sida Datorteknik

Tentamen den 12 januari 2017 Datorarkitektur med operativsystem, EDT621

Exempeltentamen Datorteknik, EIT070,

Datorteknik ERIK LARSSON

Tentamen den 14 januari 2015 Datorarkitekturer med operativsystem, EDT621, 7,5 poäng

Digitala System: Datorteknik ERIK LARSSON

Tentamen den 18 mars svar Datorteknik, EIT070

Datorarkitekturer med operativsystem ERIK LARSSON

Filsystem - Inode. Datorteknik. Minnets komponenter. Programexekvering. Enhet för indata. Enhet för utdata CPU. Primärminne.

Minnets komponenter. Digitala System: Datorteknik. Programexekvering. Programexekvering. Enhet för utdata. Enhet för indata CPU.

Svar till tentamen den 16 december 2013 Datorarkitekturer med operativsystem, EDT621, 7,5 poäng

Datorarkitekturer med operativsystem ERIK LARSSON

Datorarkitekturer med operativsystem ERIK LARSSON

En processor kan ha en klockfrekvens på flera GHz. Det går alltså a9 exekvera en instruk=on väldigt for, givet a9 instruk=onen finns i processorn.

Övning1 Datorteknik, HH vt12 - Talsystem, logik, minne, instruktioner, assembler

SVAR TILL TENTAMEN I DATORSYSTEM, VT2013

TSEA28 Datorteknik Y (och U)

0.1. INTRODUKTION Instruktionens opcode decodas till en språknivå som är förstålig för ALUn.

Pipelining i Intel Pentium II

Hantering av hazards i pipelines

Tentamen i Digitala system - EDI610 15hp varav denna tentamen 4,5hp

TSEA28 Datorteknik Y (och U)

Dugga 1 status 41 godkända 39 ej godkända ERIK LARSSON

Tentamen den 17 mars 2016 Datorteknik, EIT070

En något mer detaljerad bild av en processor. De tre delarna i processorn är: Nere 3ll vänster finns e' antal register som används för a' lagra data.

En något mer detaljerad bild av en processor. De tre delarna i processorn är: Nere 3ll vänster finns e' antal register som används för a' lagra data.

Datorsystem 2 CPU. Förra gången: Datorns historia Denna gång: Byggstenar i en dators arkitektur. Visning av Akka (för de som är intresserade)

Grundläggande datavetenskap, 4p

En Von Neumann-arkitektur ( Von Neumann-principen i föreläsning 1) innebär:

Datorsystemteknik DVGA03 Föreläsning 8

Datorarkitekturer med operativsystem ERIK LARSSON

Datorteknik. Föreläsning 6. Processorns uppbyggnad, pipelining. Institutionen för elektro- och informationsteknologi, LTH. Mål

Hantering av hazards i multi-pipelines

Datorarkitekturer med operativsystem ERIK LARSSON

Program Datorteknik. Kontrollenhet. Exekvering av en instruktion. Abstraktionsnivå: Högnivåspråk. Assemblyspråk. Maskinspråk.

Datorteknik ERIK LARSSON

Vad bör göras? Steg 1. RISC => pipelining. Parallellism. Pipelining. Nya LDA 13. RISC(reduced instruction set computer) Öka klockfrekvensen

Pipelining i Intel 80486

Arm Cortex-A8 Pipeline

F2: Motorola Arkitektur. Assembler vs. Maskinkod Exekvering av instruktioner i Instruktionsformat MOVE instruktionen

DatorsystemteknikDAVA14 Föreläsning 9

Pipelining i RISC-processorn. Joakim Lindström Institutionen för informationsbehandling Åbo Akademi E-post: jolindst@abo.fi

Tentamen den 14 januari 2016 Datorarkitektur med operativsystem, EDT621

Föreläsningsanteckningar 2. Mikroprogrammering I

Föreläsningsanteckningar 5. Cacheminnen

Datorteknik ERIK LARSSON

Tentamen den 9 januari 2018 Datorarkitekturer med operativsystem (EITF60)

IBM POWER4, den första flerkärniga processorn och dess pipelines.

Lunds Tekniska Högskola Datorarkitektur med operativsystem EITF60. Superscalar vs VLIW. Cornelia Kloth IDA2. Inlämningsdatum:

System S. Datorarkitektur - en inledning. Organisation av datorsystem: olika abstraktionsnivåer. den mest abstrakta synen på systemet

Tentamen i Digitala system - EITA15 15hp varav denna tentamen 4,5hp

Tentamen Datorteknik D del 2, TSEA49

Digitalteknik och Datorarkitektur 5hp

Datorteknik ERIK LARSSON

Program som ska exekveras ligger i primärminnet. Processorn hämtar instruk7on för instruk7on. Varje instruk7on, som är e= antal 1:or och 0:or, tolkas

Datorteknik ERIK LARSSON

Datorteknik ERIK LARSSON

Spekulativ exekvering i CPU pipelining

Snapdragon 810: Cacheminnet

Datormodell. Datorns uppgifter -Utföra program (instruktioner) Göra beräkningar på data Flytta data Interagera med omvärlden

Datorteknik. Tomas Nordström. Föreläsning 2. För utveckling av verksamhet, produkter och livskvalitet.

Hannes Larsson - IDA 2, LTH Campus Helsingborg. NEC V R 4300i. Interlock-handling EDT621

Program kan beskrivas på olika abstrak3onsnivåer. Högnivåprogram: läsbart (för människor), hög abstrak3onsnivå, enkelt a> porta (fly>a 3ll en annan ar

HF0010. Introduktionskurs i datateknik 1,5 hp

Processor pipelining genom historien (Intel i9-intel i7)

LABORATION DATORTEKNIK D. Pipelining. Namn och personnummer. Version: (OS,OVA,AN)

Moment 2 Digital elektronik. Föreläsning Inbyggda system, introduktion

Elektroteknik MF1016 föreläsning 9 MF1017 föreläsning 7 Mikrodatorteknik

CE_O5. Cacheminne. Hemlaboration 2.

Institutionen för datavetenskap 2014/15

Uppgift 1: a) u= a c + a bc+ ab d +b cd

Flera processer. Minneshantering. Trashing kan uppstå ändå. Ersätta globalt

Föreläsningsanteckningar 3. Mikroprogrammering II

Fetch-Execute. Datorteknik. Pipelining. Pipeline diagram (vid en viss tidpunkt)

Digitalteknik och Datorarkitektur 5hp

Tenta i Digitalteknik

Tentamen. Datorteknik Y, TSEA28

Foto: Rona Proudfoot (some rights reserved) Datorarkitektur 1. Datapath & Control. December

4. Pipelining. 4. Pipelining

Datorsystem. Exempeltentamen

Datorarkitektur I. Tentamen Lördag 10 April Ekonomikum, B:154, klockan 09:00 14:00. Följande gäller: Skrivningstid: Fråga

Datorhistorik. Föreläsning 3 Datorns hårdvara EDSAC. Eniac. I think there is a world market for maybe five computers. Thomas Watson, IBM, 1943

Datorteknik ERIK LARSSON

General Purpose registers ALU I T H S V N Z C SREG. Antag att vi behöver skriva in talet 25 till register R18

Grunderna i stegkodsprogrammering

Parallellism i CDC 7600, pipelinens ursprung

c a OP b Digitalteknik och Datorarkitektur 5hp ALU Design Principle 1 - Simplicity favors regularity add $15, $8, $11

Tentamen i Digitala system - EITA15 15hp varav denna tentamen 4,5hp

Föreläsning 3.1: Datastrukturer, en översikt

Omtentamen i CDT204 - Datorarkitektur

MESI i Intel Core 2 Duo

Datorarkitekturer med Operativsystem

Föreläsningsanteckningar 4. Pipelining

Några gamla tentamensuppgifter: Minneshantering

Det finns en hemsida. Adressen är

Mikroprogrammering I

Datorsystemteknik för E/D

Transkript:

Digitala System: Datorteknik ERIK LARSSON

Huvudled (H) Trafikljus för övergångsställe Trafikljus för huvudled (H) Trafikljus: Sväng vänster (H->T) Gående - vänta Trafikljus för tvärgata (T) Tvärgata (T) Bil vill svänga vänster Natt/dag indikator Bil på tvärgata Gående

Uppgift 4. Skicka kod till port Skriv funktionen skicka_ut. Den ska ta emot ett argument som innehåller koden från tabellen och skicka ut den till rätt ställen. void skicka_ut(char ut){ PORTA =. ; PORTC =. ; PORTD =. ;} void skicka_ut(char ut){ PORTA = ((PORTA & 0b10000111) (ut & 0b01111000)); PORTC = ((PORTC & 0b00111111) ((ut & 0b00000110)<<5)); PORTD = ((PORTD & 0b11111011) ((ut & 0b00000001)<<2)); }

Digitala System: Datorteknik ERIK LARSSON

Minnet från processorns sida Processorn ger kommandon/instruktioner med en adress och förväntar sig data. Exempel: READ(ADR) -> DATA Fysisk adress Logisk adress READ 00001000 READ (00001000) Primärminne CPU Address Instruction 00001000 0000101110001011 00001001 0001101110000011 00001010 0010100000011011 00001011 0001001110010011 0000101110001011 Minne CPU Register Kontrollenhet Aritmetisk Logisk Enhet (ALU)

Minneshierarki

Minneshierarki Processor registers: 8-32 registers (32 bitar -> 32-128 bytes) accesstid: få ns, 0-1 klockcykler On-chip cache memory (L1): 32 till 128 Kbytes accesstid = ~10 ns, 3 klockcykler Off-chip cache memory (L2): 128 Kbytes till 12 Mbytes accesstid = 10-tal ns, 10 klockcykler Main memory: 256 Mbytes till 4Gbytes accesstid = ~100 ns, 100 klockcykler Hard disk: 1Gbyte tid 1Tbyte accesstid = 10-tal milliseconds, 10 000 000 klockcykler

Cacheminne Primärminne Instruktioner och data Instruktioner och data Adress Cacheminne Kopior av instruktioner och data Instruktioner och data Adress Central processing unit (CPU) Register Accesstid: 100ns Accesstid: 10ns

Cacheminne Minnesreferenser tenderar att gruppera sig under exekvering både instruktioner (t ex loopar) och data (datastrukturer) Lokalitet av referenser (locality of references): Temporal lokalitet lokalitet i tid» om en instruktion/data blivit refererat nu, så är sannolikheten stor att samma referens görs inom kort Rumslokalitet» om instruktion/data blivit refererat nu, så är sannolikheten stor att instruktioner/data vid adresser i närheten kommer användas inom kort

Princip för cacheminne Antag en liten byrå (4 lådor) och ett källar/vindsförråd (16 lådor) 00 01 10 11 0000 0001 0010 0011... 1110 1111 Alla kläder finns i källarförrådet. Vissa kläder de som änvänds mycket lagras i byrån

Cacheminne (Direktmappning) Hamnar i denna låda Låda 0 1 2 3 Adress 00 01 10 11 Tag 00 01 10 11 TAG Adress 0000 fin skjorta 0001 fin byxor 0010 fin t-shirt 0011 ful skjorta 0100 ful byxor 0101 ful t-shirt. 1110 1111 I låda 00 med TAG=00 ligger där en fin skjorta eller ful byxor?

Cacheminne (Associativmappning) Kan hamna i vilken låda som helst Låda 1 2 3 4 Tag 0000 0100 0001 0010 TAG Adress 0000 fin skjorta 0001 fin byxor 0010 fin t-shirt 0011 ful skjorta 0100 ful byxor 0101 ful t-shirt. 1110 1111 I låda 1 med TAG=0000 ligger där en fin skjorta eller ful byxor?

Cacheminne (2-vägs set associative) Hamnar i denna låda Set 0 1 Tag 000 010 010 111 TAG Adress 0000 fin skjorta 0001 fin byxor 0010 fin t-shirt 0011 ful skjorta 0100 ful byxor 0101 ful t-shirt. 1110 1111 I set 0 finns där en fin skjorta eller ful byxor?

Jämför cacheminnen Direct mapped, 2-way set associative, fully associative Block access sequence: 0, 8, 0, 6, 8 Direct mapped: Block 0 vill till cache line 0 Block 8 vill till cache line 0 (8 modulo 4) Block 6 vill till cache line 2 (6 modulo 4) CACHERAD TID Block address Cache index Hit/miss Cache content after access 0 1 2 3 0 0 miss Mem[0] 8 0 miss Mem[8] 0 0 miss Mem[0] 6 2 miss Mem[0] Mem[6] 8 0 miss Mem[8] Mem[6]

Jämför cacheminnen Direct mapped, 2-way set associative, fully associative Block access sequence: 0, 8, 0, 6, 8 2-way set associative: Block 0 vill till set 0 (0 modulo 2) Block 8 vill till set 0 (0 modulo 2) Block 6 vill till set 0 (0 modulo 2) TID Block address Cache index Hit/miss 0 0 miss Mem[0] 8 0 miss Mem[0] Mem[8] 0 0 hit Mem[0] Mem[8] 6 0 miss Mem[0] Mem[6] 8 0 miss Mem[8] Mem[6] Cache content after access Set 0 Set 1

Jämför cacheminnen Direct mapped, 2-way set associative, fully associative Block access sequence: 0, 8, 0, 6, 8 Fully associative: Block kan placeras var som helst TID Block Hit/miss Cache content after access address 0 miss Mem[0] 8 miss Mem[0] Mem[8] 0 hit Mem[0] Mem[8] 6 miss Mem[0] Mem[8] Mem[6] 8 hit Mem[0] Mem[8] Mem[6]

Antal cachenivåer (levels) Primärminne Instruktioner och data Cache minne Cache minne L1 Central processing unit (CPU) Register L2

Separat instruktion/data cache Cacheminne Primärminne Instruktioner och data Kopior av instruktioner Cacheminne Kopior av data Central processing unit (CPU) Register

AMD Athlon 64 CPU

Minnets innehåll över tiden TID

Paging Program A byte 0 byte 1. SIDA A0 SIDA A1 SIDA A2 byte n SIDA A3 (lagring på hårddisk ej sammanhängande se tidigare)

Paging Logisk adress Fysisk adress

Demand paging Ladda endast de pages som behövs till primärminnet CPU utnyttjande OS tar alltmer tid för att hantera sidfel Grad av multiprogrammering (hur många program som är aktiva)

Virtuellt minne Använd primärminne som cache för sekundärminne (hårddisk) Hanteras med hårdvara och operativsystem Program delar primärminnet Varje program får sin virtuella adressrymd Skyddas från andra program CPU och OS översätter virtuella adresser till fysiska adresser Ett block kallas för sida (page) Miss kallas för sidfel (page fault)

Translation Look-Aside Buffer (TLB) 1 2 3 Vid sidfel OS aktiveras

AMD Athlon 64 CPU CPU

Sammanfattning Snabba minnen är små, stora minnen är långsamma Vi vill ha snabba och stora minnen Cacheminnen och virtuellt minne ger oss den illusionen Lokalitet viktigt för att cacheminnen och virtuellt minne ska fungera Program använder vid varje tidpunkt en liten del av sitt minne ofta Minneshierarki L1 cache <->L2 cache. Primärminne - Sekundärminne

Digitala System: Datorteknik ERIK LARSSON

Dator Primärminne Instruktioner och data Data/instruktioner Kontroll Central processing unit (CPU) Fetch instruction Execute instruction

Programexekvering (1) Hämta instruktion på 00001000 (där PC pekar) Fetch (2) Flytta instruktionen 0000101110001011 till CPU (3) Avkoda instruktionen: 00001 MOVE, 01110001 Adress, 011 Register 3 (4) Hämta data på adress: 01110001 Execute (5) Lagra datan i register 3 Primärminne Address Instruction 00001000 0000101110001011 00001001 0001101110000011 00001010 0010100000011011 00001011 0001001110010011 Data Instruktioner Register CPU Kontrollenhet Aritmetisk Logisk Enhet (ALU)

Fetch-Execute Utan pipelining: Tid: 1 2 3 4 5 6 Instruktion 1 Instruktion 2 Instruktion 3 Fetch Execute Fetch Execute Fetch Execute Med pipelining: Tid: 1 2 3 4 Instruktion 1 Instruktion 2 Instruktion 3 Fetch Execute Fetch Execute Fetch Execute

Pipelining 6-stegs pipeline: Fetch instruction (FI) Decode instruction (DI) Calculate operand address (CO) Fetch operand (FO) Execute instruction (EI) Write operand (WO) Tid: 1 2 3 4 5 6 7 8 Instruktion 1 Instruktion 2 Instruktion 3 FI DI CO FO EI WO FI DI CO FO EI WO FI DI CO FO EI WO

Pipelining Fler pipeline steg ger bättre prestanda, men Mer overhead att hålla koll på pipeline Komplexare processor Svårt att hålla pipelinen full pga pipeline hazards 80486 och Pentium: Fem-stegs pipeline för heltal (integer) instruktioner Åtta-stegs pipeline för flyttals (float) instruktioner PowerPC: Fyra-stegs pipeline för heltal (integer) Sex-stegs pipeline för flyttal (float)

Pipeline diagram (vid en viss tidpunkt)

Pipeline diagram

Pipeline kontroll Kontrollsignaler fås från instruktion

Kontrollenhet utan pipeline (FÖ1) ADD XOR ClearY System buss Z Z in ALU Y MBR MAR PC Z out Carry in Y out Y in MBR out MBR in MAR in PC out PC in R0 out R0 in RN out RN in IR in IR out Kontroll signaler MBR out R 0 R n IR Klocka Kontrollenhet Y in R0 RN out out MAR in Statussignaler Carry, overflow MAR out PC in ADD

Kontrollenhet utan pipeline (FÖ1) Instruktion: ADD R1, R3 // R1 <- R1 + R3 Kontrollsteg: 1. PC out, MAR in, Read, Clear Y, Carry-in, Add, Z in 2. Z out, PC in 3. MBR out, IR in 4. R1 out, Y in 5. R3 out, Add, Z in 6. Z out, R1 in, End

Strukturella hazards Resurs (minne, funktionell enhet) behövs av fler än en instruktion samtidigt Instruktionen ADD R4, X R4 <- R4 + X I steget FO hämtas operanden X från minnet. Minnen accepterar en läsning i taget Tid: 1 2 3 4 5 6 7 8 ADD R4, X Vill läsa i minnet! FI DI CO FO EI WO FI DI CO FO EI WO FI DI CO FO EI WO FI DI CO FO EI WO FI DI CO FO EI WO FI DI CO FO EI WO

Strukturella hazards Tid: 1 2 3 4 5 6 7 8 ADD R4, X ADD R1, R2 FI DI CO FO EI WO FI DI CO FO EI WO FI DI CO FO EI Stall WO FI DI CO FO EI WO Penalty: 1 cykel Men här då? Inget problem då instruktionern (ADD R1, R2) använder register

Strukturella hazards För att minska strukturella hazards öka antalet resurser. Ett klassiskt sätt att undvika hazards vid minnesaccess är att ha separat data och instruktions cache Primärminne Instruktioner och data Cacheminne Kopior av instruktioner Cacheminne Kopior av data Central processing unit (CPU) Register

Data hazards Antag två instruktioner, I1 och I2. Utan pipeline, så är I1 helt färdig innan I2 startar. Men, så är det inte med pipelines. Det kan bli så att I2 behöver resultat från I1 men I1 är inte klar I1: MUL R2, R3 R2 <- R2 * R3 I2: ADD R1, R2 R1 <- R1 + R2 MUL R2, R3 ADD R1, R2 FI DI CO FO EI Här görs * Här skrivs resultatet till R2 WO FI DI CO FO EI WO FO EI WO STALL FI DI CO FO CO EI WO FO EI WO Penalty: 2 cykler Här vill I2 ha resultat från *

Data Hazards För att minska penalty kan forwarding/bypassing användas Resultat från ALUn kopplas direkt (forward/bypass) till ingångar. Man behöver alltså inte vänta på WO-steget MUX ALU MUX MUL R2, R3 ADD R1, R2 FI DI FI CO FO EI WO DI CO Stall WO FO EI WO

Data Hazards Ändra ordning på instruktioner (re-schedule) för att undvika att använda resultat från load i direkt följande instruktion C kod: stall stall A=B+E; C=B+F; lw $t1, 0($t0) lw $t2, 4($t0) add $t3, $t1, $t2 sw $t3, 12($t0) lw $t4, 8($t0) add $t5, $t1, $t4 sw $t5, 16($t0) 13 cycles lw $t1, 0($t0) lw $t2, 4($t0) lw $t4, 8($t0) add $t3, $t1, $t2 sw $t3, 12($t0) add $t5, $t1, $t4 sw $t5, 16($t0) 11 cycles

Kontroll hazards Kontroll hazards uppkommer på grund av hopp (branch) instruktioner Ovillkorliga hopp (unconditional branch) Adress Instruktion Kommentar.. 01011 Instruktion 29 //Instruktion 29, PC=PC+1 01100 BR 10101 // PC = 10101, PC=PC+1 01101 Instruktion 31 //Instruktion 31, PC=PC+1 10101: Instruktion 89 //Instruktion 89, PC=PC+1

Kontroll hazards 01011 Instruktion 29 01100 BR 10101 01101 Instruktion 31 10101: Instruktion 89 Efter FO är hoppadressen känd BR 10101 Instruktion 31 Här vet vi att det är en hoppinstruktion Penalty: 3 FI DI CO FO EI WO FI Stall Stall FI DI CO Instruktion 31 är alltså fel WO FO EI WO FI DI CO EI WO FO EI Här börjar vi med rätt instruktion (instruktion 89) WO

Kontroll hazards Villkorliga hopp (conditional branch) ADD R1, R2 //R1 <- R1 + R2 BEZ Target //Branch if zero instruktion 31 Target: instruktion 89 Alternativ: Hoppet görs (Branch taken) ADD R1, R2 BEZ Target instruktion 31 Penalty: 3 cykler Här vet vi att det är en hoppinstruktion FI DI CO FO EI FI DI CO FI Stall WO FO Stall Instruktion 31 kan vara fel Här görs additionen som påverkar Z-flaggan (om hoppet ska göras eller inte. WO EI Här är hoppadressen känd WO FI DI CO WO FO EI WO Kan hämta instruktion 89

Kontroll hazards Villkorliga hopp (conditional branch) ADD R1, R2 //R1 <- R1 + R2 BEZ Target //Branch if zero instruktion 31 Target: instruktion 89 Alternativ: Hoppet görs inte (Branch not taken) ADD R1, R2 BEZ Target instruktion 31 Penalty: 2 cykler Här vet vi att det är en hoppinstruktion FI DI CO FO EI FI DI CO FI Stall WO FO Stall Instruktion 31 kan vara rätt Här görs additionen som påverkar Z-flaggan (om hoppet ska göras eller inte. WO EI Här är hoppadressen känd WO DI CO WO FO EI WO Instruktion 31 är rätt..

Minska penalties vid hopp Hoppinstruktioner påverkar prestandan av en pipeline Vanligt med hoppinstruktioner: 20%-35% av alla instruktioner är hoppinstruktioner (villkorliga och ovillkorliga) Villkorliga hopp är vanligare än ovillkorliga hopp (mer än dubbelt så många villkorliga hopp som ovillkorliga hopp) Mer än 50% av villkorliga hopp tas Viktigt att minska penalties som uppstår pga hoppinstruktioner

Delayed branching Tanken med delayed branching är att låta processorn göra något istället för att göra stalls Med delayed branching så exekverar processorn alltid den instruktion som kommer efter hoppinstruktionen, och sedan kan programflödet ändra riktning (om nödvändigt) Instruktionen som hamnar efter ett hopp men som exekveras oavsett utgången av hoppet, sägs ligga i branch delay slot

Delayed branching Den här instruktionen påverkar inte det som händer fram till hoppet Detta har programmeraren skrivit: MUL R3, R4 R3<-R3*R4 SUB #1, R2 R2<-R2-1 ADD R1, R2 R1<-R1+R2 BEZ TAR Branch om zero MOVE #10, R1 R1<-10 Detta är det som kompilatorn (assemblatorn) genererar: SUB #1, R2 R2<-R2-1 ADD R1, R2 R1<-R1+R2 BEZ TAR Branch om zero MUL R3, R4 R3<-R3*R4 MOVE #10, R1 R1<-10 Den här instruktionen exekveras bara om hoppet inte tas Den här instruktionen kommer exekveras oavsett om hoppet tas eller ej Den här instruktionen kommer exekveras bara om hoppet inte tas

Delayed branching Här görs additionen som påverkar Z-flaggan (om hoppet ska göras eller inte). Alternativ: Hoppet görs (Branch taken) ADD R1, R2 BEZ Target MUL R3, R4 Instruktion vid Target Penalty 2 cykler (innan 3) Alternativ: Hoppet görs inte (Branch not taken) ADD R1, R2 BEZ Target MUL R3, R4 MOVE #10, R1 FI DI CO FO EI Penalty: 1 cykler (innan 2) WO FI DI CO WO FO EI WO FI DI CO WO FO EI WO FI DI CO FO EI FI DI CO FI Stall FI DI CO WO FO EI WO FI WO FO Stall WO EI Här är hoppadressen känd WO FI DI CO WO FO EI WO Här är det klart om vi ska fortsätta med MOVE. DI CO WO FO EI WO

Delayed branching Om kompilatorn inte hittar en instruktion att flytta till branch delay slot, så läggs en NOP (no operation) instruktion in. MUL R2, R4 R2<-R2*R4 SUB #1, R2 R2<-R2-1 ADD R1, R2 R1<-R1+R2 BEZ TAR Branch om zero MOVE #10, R1 R1<-10 Nu kan inte MUL flyttas eftersom resultatet påverkar instruktionerna efter I 60%-85% av fallen med hoppinstruktioner, kan en kompilator hitta en instruktion som kan flyttas till branch delay slot

Översikt Pipelining Pipeline problem (hazards) Strukturella problem (hazards) Data problem (hazards) Kontroll problem (hazards) Delayed branching Branch prediction Statiskt prediction Dynamisk prediction Branch history table

Branch prediction Rätt branch prediction är viktigt Baserat på prediction, kan respektive instruktion hämtas (och näst följande) för att placeras i instruktionskön. När hoppvillkoret är bestämt, kan exekveringen fortsätta (enligt gissningen (prediktering). Om gissningen är fel, måste hämtning av rätt instruktioner göras. För att utnyttja branch prediction maximalt, kan vi påbörja exekveraing innan hoppvillkoret är bestämt spekulativ exekvering

Speculative execution Med speculativ exekvering menas att instruktioner exekveras innan processorn vet om det är rätt instruktion som ska exekveras. Om gissningen (spekuleringen) var rätt, kan processorn fortsätta. Annars, för man göra om (hämta rätt instruktion) Branch prediction strategies: Statisk prediktering Dynamisk prediktering

Intel 80486 pipeline Intel 80486 är den sista icke-superscalar processorn från Intel. 80486 är exempel på avancerad non-superscalar pipeline Fem pipeline steg och ingen branch prediction (always not taken) Fetch: Instruktioner hämtas från cache och placeras i instruktionskö. Instruktionskön organiserad som två pre-fetch buffrar som opererar operoende av varandra för att hålla prefetch buffert full) Decode1: Tar de 3 första byten i en instruktion avkodar: opkod, adresserings mode och instruktionslängd Decode2: Avkodar resten av instruktionen och producerar kontrollsignaler. Gör adressberäkning. Execute: ALU operations. Cache access för operander. Write back: Updaterar register, status flaggor.

ARM pipeline ARM7 pipeline (3-steg) Fetch: hämtar instruktioner från cache Decode: Avkodar Execute: Läser register, gör ALU beräkningar och skriver tillbaka svar ARM9 pipeline (5-steg): Fetch: hämtar instruktioner från cache Decode: Avkodar Execute: Läser register, gör ALU beräkningar Data memory access: skriver tillbaka svar till/från D-cache Register write: Skriver till register

Fallgropar Pipelining är enkelt Principen är enkel, problemen finns i detaljerna:» T ex detektera kontroll hazards Pipelining är teknologioberoende Varför inte använt pipelining innan?» Mer transistorer gör det möjligt med mer avancerade tekniker Dålig design av instruktionsuppsättning (ISA) kan göra pipelining svårare Komplex instruktionsuppsättning Komplexa adresseringsmöjligheter

Sammanfattning Instruktioner exekveras som en sekvens av steg; t ex Fetch instruction (FI), Decode instruction (DI), Calculate operand address (CO), Fetch operand (FO), Execute instruction (EI) och Write operand (WO) En pipeline består av N steg. Vid ett visst ögonblick kan N instruktioner vara aktiva. Om 6-steg används (FI, DI, CO, FO, EI, WO) kan 6 instruktioner vara aktiva Att hålla piplinen full med instruktioner är svårt pga pipeline hazards. Strukturella hazards beror på resurskonflikter. Data hazards beror på detaberoende mellan instruktioner Control hazards beror på hoppinstruktioner

Sammanfattning Hoppinstruktioner påverkar pipelinen mycket. Viktigt att minska penalties Instruktion fetch unit kan känna igen hoppinstruktioner och ta fram vart hoppet går. Genom att hämta snabbt från instruktions cachen och hålla instruktionskön full så kan penalties för ovillkorliga hopp reduceras till noll. För villkorliga hopp är det svårare då man måste veta om hoppet ska tas eller ej Delayed branching är en kompilator-baserad teknik för att minska branch penalty genom att flytta instruktioner till branch delay slot Viktigt för att minska branch penalty är att ha bra branch prediction teknik. Statiska tekniker tar inte hänsyn till exekverings historik, vilket dynamiska tekniker gör Branch history tables används för att lagra utfall av ett hopp och target adress (vart hoppet går)