Samordna leveranskedjan med hjälp av information 18/4/2013 Johanna Småros, RELEX johanna.smaros@relexsolutions.com +358 40 543 1142
Efterfrågan förvrängs i leveranskedjan Försäljning till slutkund Butikernas beställningar från centrallagret Centrallagrets beställningar från leverantör De flesta leveranskedjor har en struktur och inbyggda mekanismer som av sig själva förorsakar variation i efterfrågan
Orsaker till att variationen ökar Bilkö-effekten Överdrivet kraftiga reaktioner i leveranskedjan För radikala ökningar eller minskningar i prognoser eller säkerhetslager Hamster-effekten Försök att gardera sig mot fruktad brist genom att beställa mera än behovet Klump-effekten Orderkvantiteter, cykler i arbetsprocesserna Köp mera, spara mera -effekten Utnyttjandet av kampanjpriser, gardering inför prishöjning Källa: Lee et al. 1997: Information distortion in a supply chain: The bullwhip effect, Management Science, Vol. 43, No. 4
Snabbare respons med hjälp av POS-data
Inbesparingen i tid kan räknas i månader En studie av två leverantörers lanseringar inom dagligvaruhandeln påvisade effekten av POS-data Genom att analysera POS-data, kunde nivån på efterfrågan för de nya produkterna fastställas i genomsnitt 30 dagar (och upp till 100 dagar) snabbare än om man endast hade tillgång till data på orderflödet från butikerna till centrallagret Skillnaden i reaktionshastigheten var än större, i snitt 61 dagar (och upp till 128 dagar), om man jämförde informationsvärdet i POS-data med informationen som kunde läsas ut av centrallagrens orderflöde till leverantörerna Källa: Småros, 2005, Information sharing and collaborative forecasting in retail supply chains, Doctoral dissertation, Helsinki University of Technology.
Inte riktigt så enkelt Det är viktigt att komma ihåg att det trots allt är det verkliga orderflödet som centrallagren och leverantörerna skall svara på Använder man sig av POS-data rakt av som prognos, kan det leda till att lagernivåerna på centrallagret eller hos leverantören kommer i fel fas med det faktiska leveransbehovet För att få en riktigt bra prognos på det framtida leveransbehovet, gäller det att förutom att granska POS-data för att estimera nivån på slutkundernas efterfrågan, även räkna in Vilka buffertlager som redan finns i leveranskedjan, Estimera hur länge det kommer att ta att beta av den del av lagret som visar sig överflödig, Ta i beaktande ledtider, leveransschema och beställningsmultiplar, som skapar klumpar i orderflödet Filtrera ut den andel av efterfrågan som är färgad av kampanjaktivitet
Förädla POS-data till beställningsprognoser Källa: Tatu Ylinen, Onninen
Exempel
Tesco Connect
Varför har utvecklingen dröjt? Collaborative planning, forecasting and replenishment (CPFR) var extremt framme kring år 2000 Många piloter startades, men de bestående processerna förblev fåtaliga Det var helt enkelt övermäktigt att jobba med ett massivt antal artiklar enligt CPFR modellen Idag har CPFR återuppväckts Handelns processer och IT-stöd har mognat det finns en grund för samarbetet att bygga på Kostnaderna för att processera och överföra stora datamängder har sjunkit kraftigt Kunskapsnivån inom styrning av leveranskedjan har ökat
RELEX datamodell Effektiv datahantering Kolumnbaserad databas med hög kompression Hela databasen kan hållas i datorminnet, 1 TB data ~ 100 GB minne Klusterbildning optimerad enligt detaljhandels behov och typiska användningsfall Utnyttjandet av all beräkningskraft Hög grad av parallellkörning Big data Detaljerade beräkningar för extremt stora kvantiteter data Actionable analytics Flexibel uppföljning och avvikelselarm i samma system som varu- och sortimentsstyrning Extremt hög flexibilitet Agile implementation, snabbare implementeringsprojekt och genomförandte av förändringar via användargränssnittet i produktion
Enorma möjligheter Dagens IT-lösningar ger oss tillgång till data, analyser, prognoser som man bara kunde drömma om för 10 år sedan, t.ex. POS-data, beställningsprognoser och CPFR Kundklubbsdata, kampanjdata, varukorgsanalyser Leveransdata och avvikelser i transporter Massiva mängder data och möjligheten att analysera vad som helst löser dock i sig inga problem För att utnyttja möjligheterna krävs: rätt processer, korrekt master data, tydliga ansvar, fungerande beslutsunderlag och en vision av vad som ska uppnås!
Tack! Frågor?