LEADER 07476nam 22006015 450 001 9910731410903321 005 20230621203252.0 010 $a3-658-41751-X 024 7 $a10.1007/978-3-658-41751-2 035 $a(CKB)5720000000232550 035 $a(DE-He213)978-3-658-41751-2 035 $a(MiAaPQ)EBC30605736 035 $a(Au-PeEL)EBL30605736 035 $a(PPN)272273767 035 $a(EXLCZ)995720000000232550 100 $a20230621d2023 u| 0 101 0 $ager 135 $aurnn|008mamaa 181 $ctxt$2rdacontent 182 $cc$2rdamedia 183 $acr$2rdacarrier 200 10$aMethoden des bestärkenden Lernens für die Produktionsablaufplanung$b[electronic resource] /$fvon Sebastian Lang 205 $a1st ed. 2023. 210 1$aWiesbaden :$cSpringer Fachmedien Wiesbaden :$cImprint: Springer Vieweg,$d2023. 215 $a1 online resource (XXXIII, 286 S. 62 Abb., 42 Abb. in Farbe.) 311 $a3-658-41750-1 327 $aIntro -- Danksagung -- Kurzfassung -- Inhaltsverzeichnis -- Abbildungsverzeichnis -- Tabellenverzeichnis -- Abkürzungsverzeichnis -- Mathematische Notation -- Für Probleme der Produktionsablaufplanung -- Für gradientenabhängiges bestärkendes Lernen -- Für gradientenfreies bestärkendes Lernen -- Statistische Kenngrößen -- 1 Einleitung -- 1.1 Motivation und Problemstellung -- 1.2 Zielstellung der Arbeit und Forschungsfragen -- 1.3 Forschungsmethodik und Aufbau der Arbeit -- 2 Grundlagen der Produktionsablaufplanung -- 2.1 Begriffsbestimmung und thematische Abgrenzung -- 2.2 Prozess der Produktionsablaufplanung -- 2.3 Mathematische Optimierung der Produktionsablaufplanung -- 2.3.1 Mathematische Formalisierung -- 2.3.2 Modellbildung -- 2.3.3 Konventionelle Lösungsverfahren -- 3 Grundlagen des Bestärkenden Lernens -- 3.1 Einordnung in die künstliche Intelligenz und in das maschinelle Lernen -- 3.1.1 Überwachtes Lernen als angrenzendes Paradigma -- 3.1.2 Unüberwachten Lernens als angrenzendes Paradigma -- 3.2 Grundprinzip und Taxonomie des bestärkenden Lernens -- 3.3 Gradientenabhängiges bestärkendes Lernen -- 3.3.1 Markov-Entscheidungsproblem -- 3.3.2 Nutzenfunktion -- 3.3.3 Aktionsnutzen-bewertende Verfahren -- 3.3.4 Entscheidungspolitik-approximierende Verfahren -- 3.3.5 Actor-Critic-Verfahren -- 3.4 Gradientenfreies bestärkendes Lernen -- 3.4.1 Modellsuchende und parameteroptimierende Verfahren -- 3.4.2 Hybride Verfahren - NeuroEvolution of Augmenting Topologies -- 4 Stand der Wissenschaft und Technik: Bestärkendes Lernen in der Produktionsablaufplanung -- 4.1 Gradientenabhängige Verfahren für die Produktionsablaufplanung -- 4.1.1 Agentenbasierte Auswahl von Prioritätsregeln -- 4.1.2 Agentenbasierte Ressourcenbelegungsplanung -- 4.1.3 Agentenbasierte Reihenfolgeplanung -- 4.1.4 Agentenbasierte Losbildung. 327 $a4.1.5 Agentenbasiertes Reparieren von ungültigen Ablaufplänen -- 4.2 Gradientenfreie Verfahren für die Ablaufplanung im Allgemeinen -- 4.2.1 Einsatz der Kreuzentropie-Methode in der Ablaufplanung -- 4.2.2 Einsatz von Bayes'scher Optimierung in der Ablaufplanung -- 4.2.3 Einsatz von Neuro-Evolution in der Ablaufplanung -- 4.3 Zusammenfassung und Diskussion der Forschungslücke -- 5 Eine Methode zum Einsatz von bestärkenden Lernverfahren für die Produktionsablaufplanung -- 5.1 Ausgangssituation, Problemstellung und Anforderungsdefinition -- 5.2 Von der Produktionsablaufplanung zur agentenbasierten Produktionsablaufsteuerung - Prozessmodell und Funktionsprinzip -- 5.2.1 Agentenbasierte Ressourcenbelegungsplanung -- 5.2.2 Agentenbasierte Reihenfolgeplanung und Losbildung -- 5.3 Projektierung und Entwicklung von agentenbasierten Produktionsablaufsteuerungen -- 5.3.1 Entwurf von Agentenumgebungen -- 5.3.2 Definition von maschinellen Lernaufgaben und Gestaltung von Agenten -- 5.3.3 Integration und Inbetriebnahme von Agenten und Agentenumgebungen -- 5.3.4 Auswahl und Implementierung von bestärkenden Lernverfahren -- 5.3.5 Gestaltung von Belohnungsfunktionen -- 5.3.6 Training von Agenten -- 5.4 Zusammenfassung der Methode -- 6 Evaluation der entwickelten Methode -- 6.1 Flexible-Job-Shop-Problem mit flexibler Operationsplanung -- 6.1.1 Problembeschreibung -- 6.1.2 Anwendung des DQN-Algorithmus zur Lösung des Problems -- 6.1.3 Diskussion der Ergebnisse -- 6.1.4 Erweiterung des Problems um einen dynamischen Auftragshorizont -- 6.2 Dynamisches Parallel-Maschinen-Problem mit familienabhängigen Rüstzeiten und ressourcenabhängigen Bearbeitungsgeschwindigkeiten -- 6.2.1 Problembeschreibung -- 6.2.2 Anwendung des PPO-Algorithmus zur Lösung des Problems -- 6.2.3 Diskussion der Ergebnisse -- 6.3 Zweistufiges Hybrid-Flow-Shop-Problem mit familienabhängigen Rüstzeiten. 327 $a6.3.1 Problembeschreibung -- 6.3.2 Anwendung des A2C-Algorithmus zur Lösung des Problems -- 6.3.3 Anwendung des NEAT-Algorithmus zur Lösung des Problems -- 6.3.4 Vergleich mit anderen Lösungsverfahren -- 7 Schlussbetrachtung -- 7.1 Zusammenfassung und Diskussion -- 7.2 Ausblick -- Literaturverzeichnis. 330 $aIn diesem Open-Access-Buch wird eine Methode zur Adaption, Integration und Anwendung von bestärkenden Lernverfahren (Reinforcement Learning) für die Produktionsablaufplanung beschrieben. Die Methode wird anhand von typischen Problemstellungen der Produktionsablaufplanung hergeleitet und evaluiert. Die Produktionsablaufplanung ist eine Kernaufgabe der Produktion und Logistik, bei welcher Aufträge auf Ressourcen so verteilt und in Reihenfolge gebracht werden müssen, dass geforderte Nebenbedingungen der Planung erfüllt werden. Entsprechende Optimierungsprobleme sind meist NP-schwer, wodurch eine optimale Lösung gewöhnlich nicht unter wirtschaftlichen Bedingungen erzielbar ist. In der Industrie werden stattdessen Prioritätsregeln, Heuristiken oder Metaheuristiken verwendet, die entweder zeiteffizient zu Lasten der Lösungsgüte rechnen oder qualitativ hochwertige Lösungen unter hohem Rechenaufwand erzeugen. Das bestärkende Lernen ist eine Unterart des maschinellen Lernens und eine weitere Klasse potenzieller Lösungsstrategien. Probleme der Produktionsablaufplanung sind insoweit vergleichbar, als dass sie sich ebenfalls als stufenartige Entscheidungsketten modellieren lassen. Trotz ihrer Vorteile existiert bisher kaum allgemeines Wissen hinsichtlich der Anwendung des bestärkenden Lernens für die Produktionsablaufplanung. Der Autor Sebastian Lang ist als wissenschaftlicher Mitarbeiter am Fraunhofer-Institut für Fabrikbetrieb und -automatisierung IFF in Magdeburg tätig. . 606 $aMachine learning 606 $aManufactures 606 $aIndustrial engineering 606 $aProduction engineering 606 $aMachine Learning 606 $aMachines, Tools, Processes 606 $aIndustrial and Production Engineering 615 0$aMachine learning. 615 0$aManufactures. 615 0$aIndustrial engineering. 615 0$aProduction engineering. 615 14$aMachine Learning. 615 24$aMachines, Tools, Processes. 615 24$aIndustrial and Production Engineering. 676 $a006.31 700 $aLang$b Sebastian$4aut$4http://id.loc.gov/vocabulary/relators/aut$01428172 801 0$bMiAaPQ 801 1$bMiAaPQ 801 2$bMiAaPQ 906 $aBOOK 912 $a9910731410903321 996 $aMethoden des bestärkenden Lernens für die Produktionsablaufplanung$93563496 997 $aUNINA