Myter om lagerstyrning - Lagerstyrningsakademin

Download Report

Transcript Myter om lagerstyrning - Lagerstyrningsakademin

Myter om lagerstyrning
Om man dimensionerar ett säkerhetslager för en artikel med en beräkningsmetod som utgår från en önskad servicenivå så får man denna servicenivå - Maj 2013
När man läser om dimensionering av säkerhetslager i läroböcker framgår det aldrig i
vilken utsträckning man får den servicenivå som man dimensionerar säkerhetslagret
för. Eftersom det inte nämns, utgår nog de flesta från att man får den servicenivå
man dimensionerar för. Så är emellertid praktiskt taget aldrig fallet. Skillnaderna kan
vara mycket stora och dessutom ofta så att den erhållna servicenivån är mindre än
den man dimensionerat med. Det finns tre huvudorsaker till att så är fallet.
En huvudorsak är att man använder olika mått på servicenivå. För att mäta erhållen
servicenivå är orderradsservice (andel orderrader som kan levereras direkt från lager) helt dominerande i företag medan man vid dimensionering av säkerhetslager
antingen använder cykelservice (Serv 1), dvs. andel lagercykler utan brist, eller fyllnadsgradsservice (Serv2), dvs andel av efterfrågan som kan levereras direkt från
lager. Speciellt stor blir skillnaden mellan dimensionerande cykelservice och erhållen
orderradsservice. Det kan röra sig om betydligt mer än tio procentenheter, speciellt
om inleveranskvantiteterna är stora. Ju mindre kundorderkvantiteterna är desto mindre blir skillnaden mellan dimensionerande fyllnadsgradsservice och erhållen orderradsservice men orderradsservicen är praktiskt taget alltid klar lägre.
Den andra huvudorsaken är ofullkomligheter i beräkningsmodellerna. Används exempelvis ett beställningspunktssystem bygger beräkningsmodellen på att alla uttag
är ett styck. Så är ju i praktiken nästan aldrig fallet. Konsekvensen blir att aktuellt lagersaldo alltid kommer att vara mer eller mindre under beställningspunkten när förslag till att lägga ut en ny lagerpåfyllnadsorder kommer, dvs den kvantitet som finns i
lager kommer inte att täcka efterfrågan under ledtid. Fenomenet kallas överdrag och
inträffar även vid användning av andra lagerstyrningsmetoder. Säkerhetslagret är inte
avsett för och inte dimensionerat för att fånga upp sådana överdrag. Följaktligen, om
man inte gör ett tillägg för förväntade överdrag, blir erhållen servicenivå lägre än den
man räknat med och dimensionerat säkerhetslagret för.
Dimensionering av säkerhetslager baserat på servicenivå bygger praktiskt taget alltid
på att efterfrågan antas vara normalfördelad. Så är i regel endast fallet vid någorlunda frekvent efterfrågan. Denna tredje huvudorsak till att erhållen servicenivå avviker
från den man dimensionerat säkerhetslagret för har i allmänhet klart mindre betydelse än de båda förstnämnda.
Vid prognostisering med hjälp av exponentiell utjämning bör man sätta
utjämningskonstanten alfa till 0,1 - April 2013
Utjämningskonstanten alfa är den helt avgörande parametern när man använder exponentiell utjämning för att prognostisera framtida efterfrågan. Lämpligt parametervärde väljs med utgångspunkt från aktuellt efterfrågemönster. I princip bör man välja
lite större värden om det finns inslag av säsongmässiga variationer eller trender och
lite mindre värden om det finns stora slumpmässiga variationer. I grunden är valet
alltså en fråga om avvägning mellan att få prognoser som så snabbt som möjligt anpassar sig vid systematiska efterfrågeförändringar å ena sidan och att få stabilitet
mot slumpmässiga variationer å den andra.
Trots att utjämningskonstanten följaktligen är en parameter som bör anpassas och
väljas så att medelprognosfel såväl som absoluta prognosfel blir så små som möjligt
verkar det finnas en föreställning om att värdet bör vara 0,1. I en stor del av facklitteraturen om prognostisering med hjälp av exponentiell utjämning antingen rekommenderas det att utjämningsfaktorn sätts till 0,1 eller så visar man beräkningsexempel
med just detta värde. I företag är det också direkt vanligt att använda värdet 0,1. Det
är inte i sig något fel med att välja alfa lika med 0,1 men man kan ändå fråga sig varför just detta värde blivit så totalt dominerande att det nästan blivit ett självklart val
eller i varje fall det val man gör om man inte har några bra skäl att välja något annat
värde.
Sannolikt finns det en historisk förklaring. Prognosmetoden exponentiell utjämning
utvecklades i slutet av femtiotalet av en amerikan som hette Robert Brown. Bakgrunden var att datortillverkaren IBM önskade en prognosmetod som med tanke på minnes- och processorkapacitet i dåtidens datorer krävde så litet minnesbehov som möjligt och så få och enkla beräkningar som möjligt. Från den utgångspunkten är exponentiell utjämning helt outstanding. De enda data man behöver lagra utöver utjämningskonstanten är förra månadens verkliga efterfrågan och den senaste prognosen.
När metoden presenterades i böcker och andra publikationer som skrevs av Robert
Brown användes nästan alltid just värdet 0,1 och detta värde tycks sedan ha spridits
vidare från bok till bok. Brown har också i en av sina böcker redovisat varför just 0,1
användes vid de första tillämpningarna av metoden. Orsaken var att det krävdes avsevärd processorkapacitet för att utföra multiplikationer i den tidens datorer, i Browns
fall en IBM 602. Genom att använda 0,1 behöver man inte multiplicera. Det räcker att
ta bort den sista siffran i det efterfrågevärde som utjämningskonstanten skall multipliceras med.
Det är nog inte helt självklart att vi av gammal vana skall fortsätta att använda parametervärdet 0,1 bara för att datorerna på 50-talet hade begränsad beräkningskapacitet. Lite mer nyanserade riktlinjer för val av värde finns i rapporten ”Användning av
glidande medelvärde och exponentiell utjämning” på den här hemsidan.
Om orderkvantiteter beräknas med hjälp av Wilsons formel (kvadratrotsformeln) för inköpsartiklar kommer de att bli för stora och medföra
för hög kapitalbindning - Mars 2013
Vid inköp av artiklar till lager är det vanligt att orderkvantiteter beräknas med hjälp av
den så kallade Wilsons formel. Den innebär att orderkvantiteten bestäms genom att
optimera summa ordersärkostnader och lagerhållningssärkostnader. Trots att detta
är en i varje fall teoretiskt korrekt typ av optimering, är det ganska vanligt att den orderkvantitet som beräknas på det här sättet anses ge för stora orderkvantiteter. Enligt
min uppfattning är det oftast snarare tvärtom.
En orsak till att många anser att Wilson ger för stora orderkvantiteter torde vara att
det finns ett ganska utbrett allmänt ifrågasättande av att lägga varor på lager. Det är
en i många fall mer känslomässigt än rationellt betingad åsikt. Med lean-terminologi
rubriceras det som slöseri att lägga varor på lager och det räknas till en av de sju
formerna för slöseri som utgör just-in-time filosofins kärna. Enligt männen bakom
just-in-time filosofin, dvs Taichi Ohno och Shigeo Shingo, är emellertid inte lager en
form av slöseri. Det är onödigt lager som är slöseri. Stora ambitioner att till nästan
vilket pris som helst kunna reducera kapitalbindning i materialflöden genom att dra
ner orderkvantiteter har säkert också ha drivit fram synsättet att Wilson ger för stora
orderkvantiteter.
En annan orsak bakom föreställningen om för stora orderkvantiteter är mer analytiskt
betingad och har att göra med att den beräkningsmodell som används bygger på ett
antal förenklande antaganden, exempelvis att efterfrågan är känd och konstant och
att förbrukningen är kontinuerlig och sker i infinitesimalt små kvantiteter. Dessa antaganden stämmer givetvis inte med verkligheten men missöverensstämmelsen leder
inte till att de beräknade kvantiteterna blir för små. Med simulering kan man visa att
det snarast är tvärtom även om skillnaderna inte är särskilt stora. Se exempelvis
forskningsrapporten ”Hur väl fungerar vanligt använda lagerstyrningsmodeller under
verkliga förhållanden” som kan laddas ner på den här hemsidan.
En tredje orsak har att göra med att det finns ett antal faktorer som påverkar hur stora orderkvantiteterna bör vara men som man inte tar hänsyn till. Om det är fråga om
orderkvantiteter i produktionen kan det finnas goda skäl för en sådan åsikt. Exempelvis tas ingen hänsyn till den större kapitalbindning i PIA som större orderkvantiteter
medför, inte till konsekvenser av bullwhip-effekter av stora orderkvantiteter och inte
till att man låser upp kapacitet längre om man använder större orderkvantiteter vilket
leder till att man blir mindre flexibel. Detta gäller emellertid inte inköpta artiklar. Den
enda faktor av betydelse som man inte direkt tar hänsyn till i formeln är den ökade
risk för inkurrans om stora orderkvantiteter skulle kunna leda till. Om det är fråga om
färskvaror och modevaror är detta givetvis en relevant synpunkt. I många andra fall
torde det i allmänhet inte vara orderkvantiteten som är avgörande utan snarast dåliga
prognoser och materialstyrningsmetoder som baseras på historik i stället för framåtriktade efterfrågebedömningar. Om exempelvis omsättningshastigheten för en artikel är 12 ggr beställer man 6 ggr per år, dvs levererad kvantitet kan då inte förväntas
ligga i lager i mer än c:a 2 månader. Detta är knappast en så lång tidshorisont att den
påtagligt skulle kunna orsaka framtida inkurrans om beställningarna baseras på rimligt korrekta prognoser.
Den största bristen med Wilsons formel hänger i stället samman med en annan faktor
som det inte tas hänsyn till, nämligen att vald orderkvantitet påverkar säkerhetslagrets storlek och därmed leveransförmågan. Lämplig säkerhetslagerstorlek påverkas
av orderkvantiteten eftersom antalet inleveranser per år och därmed antalet bristtillfällen blir fler ju mindre orderkvantiteter man använder. Det är sålunda precis tvärtom. Orderkvantiteter bestämda med Wilsons formel blir alltid mer eller mindre för
små. Enligt ovan nämnda simuleringsstudie blir de mellan 10 och 30 % för små framför allt beroende på hur stora kundorderkvantiteterna är.
Kapitalbindningen i lager blir lägre om man använder kanban än om man
använder ett traditionellt beställningspunktssystem för lagerstyrning Februari 2013
Det är en mycket utbredd uppfattning att kanban är den mest effektiva metod som
finns för lagerstyrning och att den medför mindre kapitalbindning i lager än andra metoder, i varje fall när det används i planeringsmiljöer med korta ledtider och låga ordersärkostnader/omställningstider. Bland annat anses den vara effektivare än det
traditionella beställningspunktssystemet. Ett kanbansystem i princip är ett beställningspunktssystem. Att så är fallet framgår av att antalet kanbankort gånger lastbärarkvantiteten motsvarar en beställningspunkt och att en lastbärare i idealfallet motsvarar orderkvantiteten. Det framgår också av den formel som brukar användas för
att beräkna antalet nödvändiga kanbankort. Mot denna bakgrund förefaller det märkligt att kanban skulle kunna prestera bättre än ett beställningspunktssystem, i varje
fall med avseende på den kapitalbindning som respektive metod ger upphov till.
För att på ett rättvisande sätt kunna jämföra två lagerstyrningsmetoder måste de användas på lika villkor, dvs. med samma krav på servicenivå, samma efterfrågevariationer, samma ledtider samt samma ordersärkostnader och därmed samma orderkvantiteter. Eftersom beställningspunkten med kanban är lika med en multipel av
lastbärarkvantiteten måste den på grund av avrundning vara större eller lika med
motsvarande beställningspunkt i ett beställningspunktssystem. Antag till exempel att
beställningspunkten för en artikel beräknats till 66 styck och att lastbärarkvantiteten
är 20 styck. 66 dividerat med 20 blir 3,3. Eftersom man inte kan avrunda nedåt utan
att få för låga beställningspunkter och därmed för låg servicenivå måste antalet kanbankort sättas till 4, dvs. motsvarande en beställningspunkt på 80. Detta innebär att
man får ett säkerhetslager som är 14 styck för stort jämfört med det säkerhetslager
man får om man använder beställningspunktssystem, Med andra ord kommer kanbansystem jämfört med beställningspunktssystem alltid att medföra större kapitalbindning.
Ur lagerstyrningssynpunkt är uttagskvantiteten i kanbansystem alltid en lastbärarkvantitet eftersom ett kanbankort endast frigörs när en lastbärare är tom. ”Uttagskvantiteterna” är med andra ord väsentligen större än vad som är fallet när man använder ett beställningspunktssystem. Detta medför att det så kallade överdraget, dvs
skillnaden mellan beställningspunkten och lagersaldot när beställningspunkten underskrids blir större för kanbansystem, och att den kvantitet som är kvar för att täcka
behoven under återanskaffningstiden blir för liten. Om lastbärarkvantiteterna är stora
kan man därför behöva lägga till ett extra kanbankort vilket ytterligare bidrar till ökad
kapitalbindning jämfört med beställningspunktssystem.
Att kanbansystem medför högre kapitalbindning än beställningspunktssystem har
också visats med hjälp av simulering. Resultaten från simuleringen finns publicerade
i en rapport på den här hemsidan. De visar att man kan förvänta sig att säkerhetslagret blir mellan storleksordningen 10 och 30 procent högre med kanbansystem beroende på lastbärarkvantitetens storlek. För att man skall kunna uppnå en kapitalbindning med kanban som ligger i paritet med vad man kan uppnå med beställningspunktssystem måste lastbärarkvantiteterna och därmed orderkvantiteterna vara
mycket små. Det framgår också av den tumregel som Toyota tillämpar, nämligen att
lastbärarkvantiteten inte bör vara större än en tiondels dagsförbrukning. Så små orderkvantiteter är det sällan ekonomiskt försvarbart att använda.