Accessible Unlicensed Requires Authentication Published by De Gruyter November 20, 2021

Dynamische Losgrößenoptimierung mit bestärkendem Lernen

Dynamic Adjustment of Lot Sizes with Reinforcement Learning
Thomas Voß, Christopher Bode and Jens Heger

Abstract

Die Produktionsplanung und -steuerung hat großen Einfluss auf die Wirtschaftlichkeit und logistische Leistungsfähigkeit eines Produktionsunternehmens. Dieser Beitrag gibt einen Einblick in die Verwendung von Simulationsmodellen als virtuelles Abbild einer Abfüllanlage in der Prozessindustrie. Weiterhin zeigt er die damit verbundene Möglichkeit eines Ansatzes mit bestärkendem Lernen (RL) zur dynamischen Losgrößenberechnung auf. Er erläutert eine mögliche Implementierung in einem ERP-System und zeigt, wie eine Entscheidungshilfe den Planenden unterstützen kann, um bis zu 5 Prozent Kosten zu sparen.

Abstract

Production planning and control has a great influence on the economic efficiency and logistical performance of a company. In this context, the article gives an insight into the use of simulation as a virtual model of a filling machine in the process industry. Furthermore, it shows the associated possibility of a reinforcement learning (RL) approach for dynamic lot sizing. The contribution indicates a possible implementation in an ERP system and shows how a decision support tool can support the planner to save up to 5 % costs.


Tel.: +49 (0) 4131 677-1884

Literatur

1 Welsch, A.; Eitle, V.; Buxmann, P.: Maschinelles Lernen. HMD Praxis der Wirtschaftsinformatik 55 (2018) 2, S. 366–382 DOI: 10.1365/s40702-018-0404-z10.1365/s40702-018-0404-zSearch in Google Scholar

2 Bundesministerium für Wirtschaft (Hrsg.): Einsatz von Künstlicher Intelligenz in der Deutschen Wirtschaft: Stand der KI-Nutzung im Jahr 2019. Berlin, 2020Search in Google Scholar

3 Azadnia, A.; Saman, M.; Wong, K.: Sustainable Supplier Selection and Order Lot-sizing: An Integrated Multi-objective Decision-making Process. International Journal of Production Research 53 (2015) 2, S. 383–408 DOI: 10.1080/00207543.2014.93582710.1080/00207543.2014.935827Search in Google Scholar

4 Schuh, G.; Reuter, C.; Prote, J.-P.; Brambring, F.; Ays, J.: Increasing Data Integrity for Improving Decision Making in Production Planning and Control. CIRP Annals 66 (2017) 1, S. 425–428 DOI: 10.1016/j.cirp.2017.04.00310.1016/j.cirp.2017.04.003Search in Google Scholar

5 Schmidt, M.; Maier, J.; Grothkopp, M.: Eine bibliometrische Analyse: Produktionsplanung und -steuerung und maschinelles Lernen. wt Werkstattstechnik online 110 (2020) 4, S. 220–225 DOI: 10.37544/1436-4980-2020-04-5410.37544/1436-4980-2020-04-54Search in Google Scholar

6 Maier, J.; Voß, T.; Heger, J.; Schmidt, M.: Simulation Based Optimization of Lot Sizes for Opposing Logistic Objectives. In: Ameri, F.; Stecke, K. E.; von Cieminski, G.; Kiritsis, D. (Hrsg.): Advances in Production Management Systems. Springer International Publishing, Cham 2019, S. 171–179 DOI: 10.1007/978-3-030-29996-5_2010.1007/978-3-030-29996-5_20Search in Google Scholar

7 Şenyiğit, E.; Düğenci, M.; Aydin, M.; Zeydan, M.: Heuristic-based Neural Networks for Stochastic Dynamic Lot Sizing Problem. Applied Soft Computing 13 (2013) 3, S. 1332–1339 DOI: 10.1016/j.asoc.2012.02.02610.1016/j.asoc.2012.02.026Search in Google Scholar

8 Hachicha, W.: A Simulation Metamodelling Based Neural Networks for Lot-sizing Problem in MTO Sector. International Journal of Simulation Modelling 10 (2011) 4, S. 191–203 DOI: 10.2507/IJSIMM10(4)3.18810.2507/IJSIMM10(4)3.188Search in Google Scholar

9 Wang, J.; Li, X.; Zhu, X.: Intelligent Dynamic Control of Stochastic Economic Lot Scheduling by Agent-based Reinforcement Learning. International Journal of Production Research 50 (2012) 16, S. 4381–4395 DOI: 10.1080/00207543.2011.59215810.1080/00207543.2011.592158Search in Google Scholar

10 Voß, T.; Rokoss, A.; Maier, J.; Schmidt, M.; Heger, J.: Outperformed by a Computer? – Comparing Human Decisions to Reinforcement Learning Agents, Assigning Lot Sizes in a Learning Factory.In: Proceedings of the Conference on Learning Factories (CLF), June 3, 2021 DOI: 10.2139/ssrn.385919610.2139/ssrn.3859196Search in Google Scholar

11 Münzberg, B.: Multikriterielle Losgrößenbildung. Zugl.: Dissertation, Univ. Hannover, 2013; PZH-Verlag, Garbsen 2013Search in Google Scholar

12 Sutton, R. S.; Barto, A. G.: Reinforcement Learning: An Introduction. MIT Press, Cambridge, MA 2018Search in Google Scholar

13 Search in Google Scholar

14 Schulman, J.; Wolski, F.; Dhariwal, P.; Radford, A.; Klimov, O.: Proximal Policy Optimization Algorithms. (2017)Search in Google Scholar

15 Jaderberg, M.; Dalibard, V.; Osindero, S.; Czarnecki, W.; Donahue, J.; Razavi, A.; Vinyals, O.; Green, T.; Dunning, I.; Simonyan, K.; Fernando, C.; Kavukcuoglu, K.: Population Based Training of Neural Networks. (2017)Search in Google Scholar

Published Online: 2021-11-20

© 2021 Walter de Gruyter GmbH, Berlin/Boston, Germany