BACKUP Vägen från band till molntjänst Whitepaper
Innehåll. Bakgrund. Bakgrund 03 Både för företaget och individen 04 Lagringshierarki 05 Metadata 05 Nyckeltalen RTO och RPO 05 Var ska data lagras? 05 Hur länge ska data sparas? 05 Backup brukar kallas säkerhetskopiering när begreppet någon gång översätts till svenska. Ett ord som passar bra för att beskriva hur denna uppgift brukade utföras. Ungefär så här: Allt innehåll på en disk, en server, eller ett helt lagringssystem kopieras nattetid över till band. Så går det fortfarande till på många håll, men allt oftare görs backup i dag på andra sätt. Nu kan backup göras till disk lika gärna som till band. Vi har också tillgång till lagringssystem för datacenter där backup är en integrerad funktion. En annan utveckling är backup baserad på snapshots ögonblicksbilder av en lagrad datamängd. Och sist men inte minst viktigt för framtiden: möjligheten att lägga backup i molnet och andra varianter på Backup-as-a-Service. Backup som tjänst 06 Moln till moln-backup 06 Kontrollera backupen 07 Testa återläsning 07 Snapshot-baserad backup 07 Hur länge ska data sparas? 07 Marknaden för datahantering och backup 08 Leverantörsöversikt 09
Både för företaget och individen. Alla som använder datorer och andra IT-relaterade hjälpmedel för att hantera data i arbetet eller för privat bruk behöver någon form av plan för att skydda sin information. Proacts perspektiv på backup är som regel professionellt, men värt att tänka på är att backup inte bara handlar om att skydda data för en hel organisation, utan också för individer. Dataförluster kan uppstå på många olika sätt och den allra vanligaste orsaken är varken diskkrascher eller andra slags haverier, utan oavsiktlig radering eller överskrivning. Detta drabbar bara en eller ett fåtal medarbetare varje gång, men kan ändå vara både irriterande och kostsamt. Ett enkelt men viktigt test för en backuprutin är därför hur snabbt det går att söka och återskapa enstaka filer. Den mest användarvänliga lösningen blir i praktiken ofta också den säkraste och mest kostnadseffektiva. Lagringshierarki I dag är det vanligaste alternativet att ta backup till disk, och att använda ett Raid-system eller motsvarande, som har inbyggd feltolerans. Band är fortfarande ett gångbart alternativ och i något fall även nödvändigt på grund av regelverk men får alltmer rollen som arkivmedium. Arkiv och backup är inte samma sak, eftersom kraven på tillgänglighet skiljer sig starkt. Just kraven på tillgänglighet ligger till grund för principen med en hierarkisk struktur för datalagring (storage tiering), som är minst lika gångbar i dag som när begreppet skapades av analysföretaget Gartner omkring 1990. De olika nivåerna i lagringshierarkin definieras av hur viktigt det är att snabbt få åtkomst till data, och arkivdata hamnar självklart på den lägsta nivån. Dessa begrepp kan tillsammans leda fram till rätt backuplösning sett till kraven och till ekonomin. Visserligen är överförsäkring av data knappast något vi hör talas om, men självklart ska backuplösningen utformas mot rimliga och relevanta krav för att bli onödigt kostsam. Genom att sätta målen uttryckt som RTO och RPO får man besked om hur ofta backup måste tas och vilken prestanda som krävs av exempelvis ett disksystem för backup och datalänkar där backup tas till molnet eller en reservanläggning. I dag när det finns lösningar som medger kontinuerlig backup blir frågan om frekvens överspelad för dem som valt en sådan. Var ska data lagras? Metadata I dagens IT-miljöer där många organisationer upplever en explosiv tillväxt i datamängderna blir det alltmer nödvändigt att skilja mellan olika slags data för att upprätthålla ett meningsfullt och effektivt dataskydd. Alla data har inte samma värde eller prioritet och kan därför hanteras på olika sätt. Att utnyttja metadata, data om data, är ett verktyg som underlättar detta och metadata är därför en funktion som idag lyfts fram av flera leverantörer av applikationer och backupverktyg. Metadata har också stor betydelse som stöd för informationshantering i bredare bemärkelse än backup, något som vi diskuterar närmare i ett annat whitepaper från Proact, Rensa upp i datadjungeln. Nyckeltalen RTO och RPO För att ställa krav på och utvärdera backuplösningar används framför allt två nyckeltal: återställningstid eller RTO (Recovery Time Objective,) samt återställningspunkt / RPO (Recovery Point Objective). RTO är ett mått på hur lång tid som återställningen till normal drift får ta, inklusive återläsning av backup. RPO är ett mått på den dataförlust som är acceptabel hur gammal får den backupkopia som används för återläsning vara som mest? En viktig faktor är att bestämma var backuper ska lagras fysiskt. Att göra det inom samma system eller inom ett datacenter kan betyda att man lever i en falsk säkerhet. Tidigare var en normal rutin att ta ur och lägga backupband på en säker plats, exempelvis i ett brandsäkert skåp, men i dag när backup oftast tas till disk betyder det att backupsystemet åtminstone bör stå i en annan lokal än ordinarie datacenter, och gärna på längre avstånd. Hur länge ska data sparas? När man avgjort hur ofta backup behöver tas är nästa fråga hur länge en kopia behöver finnas tillgänglig. Goda rutiner kan se olika ut beroende på organisationens behov, men det finns alltid ett medvetande om vilken tillgänglighet som gäller. I vissa branscher och offentliga verksamheter finns också regelverk för informationshantering med tydligt ställda krav på att spara data för senare referens. Med diskbaserad backup blir det relativt sett dyrare än tidig.
Utvecklingen av molntjänster och trenden att molntänkande och molnlösningar kommer in även i en traditionell ITinfrastruktur som driftas internt påverkar även backup. Men även om molnet förändrar sättet som vi hanterar och delar information så betyder det inte att rutinerna för backup och återställning blir mindre viktiga. Frågan om hur länge backuper sparas är särskilt intressant när molntjänster för applikationer och lagring ska utvärderas. I standardavtalen från marknadens ledande leverantörer av applikationstjänster i molnet är det vanligaste att backupdata är tillgängligt i en månad, vilket inte är tillräckligt i många professionella sammanhang. Lösningen på denna utmaning går också att hitta i molnet: tjänster för molnbaserad backup, även kallat Backup-as-as- Service. Molnbackup är intressant alternativ även för företag och myndigheter som annars inte satsat på molntjänster där molnet erbjuder både en smidig lösning och möjligheter att spara kostnader jämfört med att hantera backup internt. Det gäller inte minst om man söker en lösning där backupdata lagras utanför sitt eget datacenter. En annan faktor som tillkommer vid kravställningen på molnbackup är nätverket tillräcklig bandbredd måste finnas för att medge återställning inom rimlig ibland avtalad tid. Dessutom måste datalänken vara tillförlitlig, vilket också påverkar kostnaderna. Backup som tjänst. Moln till moln-backup En välkänd tumregel för dataskydd är att spara flera backupkopior på olika platser. Samma regel gäller fortfarande när IT-miljön sträcker sig ut i molnet. Man vill ha en extra kopia av alla data från molnbaserade applikationer sparat på ett säkert sätt, antingen i ett eget datacenter eller i en annan molnstruktur. Mycket talar för det senare alternativet. För en organisation som redan tagit ett stort steg till molnet för att spara pengar och för att kunna lägga fullt fokus på kärnverksamheten blir det något av ett steg tillbaka att börja hantera backuper inom huset. Med backup från moln till moln behåller man fördelarna med molnet och skapar samtidigt en garanti för dataskydd som täcker även den osannolika händelsen att något går riktigt snett i applikationstjänster eller filservrar som ligger i molnet. En bra utgångspunkt för kraven på backup i molnbaserad IT-infrastruktur är att den ska uppfylla samma krav som när samma applikationer och system driftas i egen regi. Det gäller också i hur man engagerar användarna. Det bästa sättet att undvika slöseri med tid och resurser är att utbilda medarbetarna så att de själva kan klara återställning av sina egna data från en molntjänst. Då underlättar en backupfunktion med goda sökmöjligheter och tydliga tidsangivelser. Kontrollera backupen Något av det värsta som kan hända en IT-ansvarig är att försöka återställa förlorade data och bara för att upptäcka att det är fel på backupen. För att minska den risken krävs till att börja med goda rutiner där alla backuper kan kontrolleras med hjälp av regelbundna rapporter, via administratörsgränssnitt och andra hjälpmedel: När något gått snett ska det upptäckas redan när backupen tagits, inte först när den behövs. Den bakomliggande orsaken är ofta problem som inte har direkt med backuphanteringen att göra utan som beror på att lagrade data innehåller fel, exempelvis skadade eller helt tomma filer. Därför kan statusinformation och felmeddelanden i samband med backup också ge viktiga signaler om kvaliteten på organisationens data och istället leda till åtgärder i början av kedjan. Testa återläsning Den viktigaste anledningen att göra backup är katastrofsäkring. Och precis som andra rutiner som ingår i ett katastrofskydd så kräver backup övning eller mer exakt: att man regelbundet testar sin backup och återläser data. ITansvariga vittnar ofta om att det är svårt att göra fullständiga tester av återställning tillräckligt ofta. Det är resurskrävande och ibland även tekniskt komplicerat att genomföra. Men realistiska, regelbundna tester är nödvändiga för att säkerställa funktionen hos sin backup, liksom för att veta hur uppsatta mål för exempelvis RTO (som kan vara avtalade) stämmer med verkligheten. Snapshot-baserad backup Ett snapshot-baserat system löser utmaningen med backup på ett helt annorlunda sätt än konventionell teknik. Fördelarna är uppenbara: backuphanteringen blir mycket snabbare både vid löpande drift när data sparas och vid återställning. Återställning kan göras nästan omedelbart och med små dataförluster med nyckeltal för RTO och RPO som är omöjliga att nå med konventionell backup. En kort förklaring till att prestandan skiljer sig så starkt är att en snapshot-kopia är en direkt avbild av primärlagrade data, utan konvertering till särskilda backupformat. Utvecklingen av snapshot-backup har gått snabbt och det är idag möjligt att helt ersätta konventionell backup med ett snapshot-baserat system med alla dess funktioner. Förutsättningen är att backuplösningen kan hantera den aktuella IT-miljön. Till exempel krävs ofta direkt stöd för databaser och applikationer. Möjligheterna och fördelarna är så stora att alla ledande leverantörer inom datalagring i dag erbjuder snapshotlösningar. Virtualiseringen av IT-infrastrukturen har också påverkat hur backup görs. Från kopiering av fysiska diskar handlar det nu om backup av virtuella diskar. Det kräver backupverktyg som kan hantera virtualiseringsmiljöer som VMware och Hyper-V.
Marknaden för datahantering och backup. Leverantörsöversikt. Strävan efter att klassificera och värdera information har en stark påverkan på utvecklingen av produkter och verktyg som används för att lagra och hantera data. Den skarpa åtskillnaden mellan primärlagring (som regel på disk), backup och arkiv som länge varit rådande är inte längre lika naturlig. De växande datamängderna är bara en av flera faktorer som ändrat förutsättningarna: det kan till exempel visa sig omöjligt att genomföra en traditionell backup, med nattlig överföring från disk till band eftersom tiden inte räcker till. Till detta kommer utvecklingen av flashbaserad primärlagring och helt diskbaserade lagringssystem med integrerad backupfunktion, liksom snapshot-baserad backup. Även framväxten av virtualiserad IT-infrastruktur och molnlösningar har haft en direkt påverkan på det område som idag ofta kallas datahantering (data management) och som även omfattar det som vi tidigare känt som backup, eller säkerhetskopiering. Virtualiserade miljöer ställer särskilda krav och verktyg och rutiner för backup har fått anpassas till dessa, och även helt nya produkter har kommit fram som svar på dessa behov. Utvecklingsarbetet handlar också om att underlätta hantering av data i molnet och att skapa bättre integration mellan publika och privata molntjänster. För att hålla nere totalkostnaderna för lagring och hantering av strävar man efter att minska datamängden och tillväxten av data som är överflödiga eller som inte utnyttjas. Detta görs sedan länge genom olika slags komprimering. En vidare utveckling av komprimering är deduplicering, möjligheten att minska det verkliga lagringsbehovet genom att identifiera mönster av data som upprepas och undvika att dessa kopieras. Deduplicering kan dels användas för att utnyttja lagringsutrymmet mer effektivt, dels för att minska mängden data som behöver överföras i nätverk eller mellan olika lagringsmedia ett sätt att höja den effektiva bandbredden. Deduplicering i backupsammanhang skapar betydande fördelar. Genom att minska behovet av lagringskapacitet förändras ekonomin så att diskbaserad backup och katastrofsäkring blir praktiskt genomförbart för fler applikationer och i sammanhang där det tidigare inte varit aktuellt. Vid sidan av renodlade mjukvaruprodukter för backup och arkivering finns även integrerade, diskbaserade system där backup och dataskydd ingår. Sådana finns både för storskalig datacentermiljö och i form av kompakta system som levereras körklara och vänder sig till mindre verksamheter. EMC Data Domain och NetBackup Appliances från Veritas/Symantec är exempel på integrerade produkter för lagring som utgår från detta koncept. CommVault Data Platform (tidigare kallad Simpana) omfattar funktioner för bland annat backup, arkivering, återställning, deduplicering, och replikering. CommVault lyfter särskilt fram att all programvara är byggd från grunden som en enhetlig plattform för datahantering och att den stödjer traditionell IT-infrastruktur, virtualiserade miljöer och molntjänster och med en god integration mellan olika. CommVault breddar nu sin verksamhet genom att komplettera sin mjukvara med funktioner som utnyttjar metadata. Syftet är att möjliggöra klassificering av data för att effektivisera backup och återställning, samt att stödja Big datafunktioner genom att lättare identifiera relevanta och värdefulla data. CommVault är ett renodlat programvaruföretag, men genom ett samarbete med Fujitsu finns deras teknik tillgänglig i ett integrerat system av appliancetyp, Eternus CS200c. EMC har som strategisk vision att ersätta traditionell backup med dataskydd på en högre nivå kallat data protection continuum och som omfattar alla data oavsett var de lagras i ett datacenter, i molnet eller på mobila enheter. EMC strävar också efter att komma bort från separata produkter för backup. Ett resultat av detta är Data Protection Suite, som samlar EMC:s viktigaste mjukvaruprodukter inom området, bland annat NetWorker, Avamar och Data Protection Advisor. Kunderna får på så sätt tillgång till alla funktioner och verktyg inom ramen för en licensmodell, även om de ingående produkterna alltjämt kan betraktas som fristående. EMC:s viktigaste produkter för datahantering EMC Data Domain är ett diskbaserat system för backup, arkivering och katastrofsäkring. Data Domain var en av de första produkterna på marknaden att utnyttja deduplicering. De minskade lagringsbehoven som detta ger har möjliggjort en övergång från bandbaserad backup till disk i många sammanhang. EMC NetWorker är en backupmjukvara avsedd främst för stora organisationer. Den hanterar och automatiserar backup till band, disk och flashbaserat lagringsmedia. Produkten har en lång historia och lanserades först 1990, då under namnet Legato Networker. I dag finns ett brett stöd för olika operativsystem och plattformar, bland annat Linux, Windows, Mac OS och Open VMS, liksom för virtuella miljöer. EMC Avamar är en backupmjukvara för medelstora organisationer. Avamar har utvecklats sedan mer än 15 år och erbjuder i dag funktioner för bland annat deduplicering, liksom stöd för molnbaserad IT-infrastruktur och virtuella miljöer.
NetApp erbjuder en rad verktyg för backup, återställning och datahantering både anpassade till företagets egna lagringssystem och sådana som kan integreras med andra miljöer. NetApp var tidigt ute på marknaden med produkter som bygger på snapshot-teknik vilket medger kontinuerlig backup med höga prestanda och som sparar lagringsutrymme. NetApp produkter för datahantering: SnapManager är ett verktyg för hantering av backup, kloning och återställning. Det finns tillgängligt i anpassade versioner för backup av applikationer, databaser och hela systemmiljöer. SnapProtect är ett verktyg som både hanterar traditionell backup med snapshotbaserat dataskydd. Symantec, länge en stor leverantör inom datahantering och backup, har beslutat att dela upp företaget i två. Verksamheten inom IT-säkerhet kvarstår inom Symantec, medan Information Management (datahantering inklusive backup) övergår till nybildade Veritas Technologies. Namnet Veritas har behållits från det företag som Symantec förvärvade 2004. Uppdelningen planeras att vara slutförd vid årsskiftet 2015/2016. Veritas viktigaste produkter: NetBackup är en programvarufamilj för backup och återställning som vänder sig till större organisationer och har ett brett stöd för operativsystem och varianter av Windows, Unix, Linux med flera. Veritas utvecklar även integrerade diskbaserade system för backup med NetBackup som grund och dessa säljs under samma varumärke. Övriga NetApp Snapshot produkter är SnapMirror för replikering, SnapVault för backup disk till disk, SnapRestore för återställning. NetApp AltaVault är ett hårdvarubaserat backupsystem (tidigare kallat SteelStore) för integrerad backup. Det knyter samman en traditionell backuplösning med backup i molnet. AltaVault behöver inte kombineras med andra lagringssystem från NetApp och stödjer en rad backupprogramvaror (bland andra EMC Networker, Veritas NetBackup och IBM Tivoli Storage Manager), liksom olika molntjänster (Microsoft Azure, Amazon Web Services, mf l). Backup Exec är sedan länge en mycket spridd programvara för backup. Den kan anpassas till organisationer i alla storlekar, med inriktning på plattformar från Microsoft och VMware. Backup Exec kan hantera såväl fysiska som virtuella servrar genom ett användargränssnitt. Veritas InfoScale (tidigare Symantec Storage Foundation Suite) är en produktfamilj med verktyg för hantering av datalagring. InfoScale bygger på en mjukvarudefinierad arkitektur för lagring och är anpassat till virtualiserade miljöer. InfoScale finns tillgängligt för Linux och Windows. Övriga leverantörer på marknaden Veeam är bland de största leverantörerna inom backup och datahantering står Veeam ut från mängden. Företaget är schweiziskt och grundades så sent som 2006. Tillväxten har varit snabb och Veeam har 2015 nära 2 000 anställda. Veeam är också mer specialiserade än de främsta konkurrenterna, och utvecklar produkter enbart för virtuella IT-miljöer stöd finns för VMware vsphere och Microsoft Hyper-V. Företaget har hämtat sitt namn från begreppet VM Virtual Machine, baserat på dess engelska uttal. Huvudprodukten är Veeam Backup & Replication samt administrations- och planeringsverktyget Veeam ONE. Dessa marknadsförs även tillsammans som Veeam Availability Suite. Microsoft System Center Data Protection Manager (DPM) är en programvaruprodukt från Microsoft för dataskydd genom backup och återställning. DPM är en del av System Center, Microsofts produktfamilj för systemadministration. Produkten utvecklades från början för en traditionell, serverbaserad Windowsmiljö, men stödjer nu även infrastruktur i molnet via Microsoft Azure samt för virtuella miljöer som bygger på teknik från VMware. IBM Tivoli Storage Manager (TSM) har fått stor spridning som en del av Tivoli Framework, IBM:s övergripande plattform för systemadministration. TSM är en mjukvaruprodukt för backup och återställning. TSM har utvecklats till produktfamilj med ett flertal tillval, för exempelvis backup av databaser och e-mail och omfattar stöd för molnbaserad infrastruktur och virtuella miljöer. HP DataProtector är en programvara för backup och återställning som kan användas för en enstaka server eller i en storskalig ITmiljö. Data Protector har stöd för olika systemplattformar (Windows, Unix, Linux) inklusive virtuella miljöer och hanterar såväl disk- som bandbaserad backup.
Proact är Europas ledande fristående integratör inom integrerade system (datalagring, servrar och nätverk) och privata molntjänster. Proact levererar verksamhetsnytta genom att hjälpa företag och myndigheter över hela världen att minska risken, sänka kostnaderna samt framförallt leverera flexibla, tillgängliga och säkra IT-tjänster. Proacts lösningar täcker alla delar av ett datacenter såsom lagring, servrar, säkerhet och nätverksfunktioner. Därutöver hanterar Proact 70 petabyte information via molntjänsteverksamhet. Hittills har Proact genomfört fler än 3 500 framgångsrika projekt över hela världen. Proact-koncernen har fler än 660 anställda och finns i Belgien, Danmark, Estland, Finland, Lettland, Litauen, Nederländerna, Norge, Slovakien, Spanien, Storbritannien, Sverige, Tjeckien, Tyskland och USA. Proact grundades 1994 och moderbolaget Proact IT Group AB (publ) är noterat på Nasdaq Stockholm sedan 1999 under symbolen PACT. Ytterligare information om Proacts verksamhet finns på Stockholm Box 1205 164 28 Kista T +46 (0)8 410 666 00 Arvika Strandvägen 2 671 51 Arvika T +46 (0)8 410 666 00 Göteborg Mölndalsvägen 24 412 63 Göteborg T +46 (0)31 760 68 00 Linköping Ågatan 40 582 22 Linköping T +46 (0)13 465 68 00 Lund Scheelevägen 17 223 70 Lund T +46 (0)46 540 68 00 Sundsvall Medborgargatan 24 856 30 Sundsvall T +46 (0)8 410 666 00