Foto: Lietzmann
Op het volledig vernieuwde logistiekcongres in Berlijn (als "supply chain" geen algemene term was, zou de toevoeging "CX" ook de nabijheid van Zwitserland kunnen aangeven) wordt al jaren naast een logistiekprijs ook een wetenschapsprijs uitgereikt. De prijs van dit jaar was voor AI-ondersteund reinforcement learning.
Na de presentaties van de vier finalisten op het "Deep Dive Stage" van de BVL Supply Chain CX, koos de jury het proefschrift van Sebastian Lang over kunstmatige intelligentie, met de focus op een specifieke praktische toepassing – namelijk het berekenen van productieplanningen – als winnend project. Lang maakt gebruik van methoden van zogenaamd "reinforcement learning" (RL). Hiermee kan software door middel van vallen en opstaan worden getraind, zodat deze vervolgens in realtime beslissingen over het productieproces kan berekenen.
Het verschil met gevestigde methoden is dat de training niet gebaseerd is op trainingslabels, maar op vallen en opstaan. Dit lijkt enigszins op de bekende programmeerstappen van "als-dan-ga-naar". Toepassingen van reinforcement learning zijn echter bedoeld om op de lange termijn en met een aanzienlijk hogere waarschijnlijkheid de juiste conclusies te trekken uit zowel positieve als negatieve feedback. Hierdoor wordt stap voor stap een veel betrouwbaardere plannings- en controlestrategie ontwikkeld dan mogelijk zou zijn met conventionele systemen. Lang heeft hiermee een nieuwe weg ingeslagen: in de afgelopen 30 jaar zijn er slechts ongeveer 100 publicaties over reinforcement learning verschenen. Reinforcement learning is bijzonder geschikt voor de veeleisende procesplanning in zeer volatiele, complexe of storingsgevoelige productieomgevingen. Langs proefschrift laat aan de hand van een concreet voorbeeld uit de transportplanning zien dat het concept ook overdraagbaar zou moeten zijn naar andere logistieke gebieden.

















