DIGIBatch

Digitalisierung diskontinuierlicher Produktionsprozesse in historisch gewachsenen Bestandssystemen

Programm / Ausschreibung Produktion der Zukunft, Produktion der Zukunft, 24. AS PdZ nationale Projekte 2017 Status laufend
Projektstart 01.04.2018 Projektende 31.10.2020
Zeitraum 2018 - 2020 Projektlaufzeit 31 Monate
Keywords Digitalisierung; Digitaler Zwilling; Prozessindustrie; diskontinuierlich; Batch Prozess

Projektbeschreibung

In der Sachgüterproduktion ist die Digitalisierung bzw. Industrie 4.0 voll im Gange und es werden laufend neue Lösungen und Produkte vorgestellt. In der Prozessindustrie schreitet diese Entwicklung langsamer voran. Die meisten dieser Unternehmen sind klein oder aus dem Mittelstand und haben nicht die Finanzmittel, um in teure Enterprise Lösungen zu investieren. Steigender Kostendruck und der Wunsch des Kunden nach mehr Individualisierung, insbesondere bei diskontinuierlichen Batch-Prozessen, wie trocknen, sterilisieren, eindampfen, kochen, backen etc. sorgen aber auch hier dafür, dass Unternehmen die Batch-Zeiten reduzieren und Rezepte anpassen und neu entwickeln müssen. Heute werden Rezepte und Regelparameter an der Anlage auf lokaler Ebene durch ausprobieren und testen vom Anlagenfahrer optimiert. Dieser Prozess dauert Jahre und es stehen in der Regel nur rudimentäre Analysewerkzeuge wie Tabellenkalkulations¬programme zur Verfügung.

In DIGIBatch wird gezeigt, wie mit den Komponenten Knowledge Base, Functional Mockup Units (FMU) und einer Cloud Plattform den Unternehmen ein einfaches und kostengünstiges Werkzeug zur Qualitäts- und Produktionssicherung und zur Konservierung von Kernwissen über den Produktionsprozess zur Seite gestellt werden kann. Mithilfe der FMU können physikalische Modelle aus bestehenden Simulationsumgebungen mit dem empirischen Wissen aus der Knowledge Base und mit Echtzeitdaten aus dem laufenden Prozess verknüpft, und als digitaler Zwilling des Kernprozesses über die Cloud Plattform Azure auf Unternehmens¬ebene zentral in einen laufenden Optimierungszyklus eingekoppelt, werden. Durch Rekalibrierung nach jedem Batch und laufender Regelparameteranpassung können Rezepte angepasst und weiterentwickelt werden. Zur Erhöhung der Qualitäts- und Produktions¬sicherheit können Merkmale aus dem Prozess automatisiert überwacht und Rezeptentwicklungen ohne großen Experimentieraufwand im laufenden Prozess über alle Standorte hinweg auf Basis von Simulationsmodellen nahezu in Echtzeit erfolgen.

Die Hauptergebnisse aus DIGIBatch sind ein einfach umsetzbarer Workflow zur Implementierung eines digitalen Zwillings auf skalierbaren und kostengünstigen Cloud Plattformen, insbesondere für kleine und mittelständische Unternehmen. Die Validierung anhand der in DIGIBatch definierten Kennzahlen (KPIs) erfolgt an einem Funktionsmuster des implementierten digitalen Zwillings im Labor des AIT, der als Showcase für die adressierten Endanwender aus der Prozessindustrie dient, um damit nachfolgende experimentelle Entwicklungs- und Demonstrationsprojekte anzustoßen.

Abstract

Industry 4.0 and digitalization are fully underway in manufacturing industry and new solutions and products are constantly being introduced. In process industry, however, this development is progressing at a slower pace. Most of these companies are small or medium-sized and do not have the means to invest in expensive enterprise solutions. Increasing cost pressure and the desire of the customer for more individualization, especially for discontinuous batch processes, such as drying, sterilizing, evaporation, cooking, baking, etc. force the companies to reduce batch times and to adapt and develop their recipes. Today, recipes and control parameters are evaluated by the plant operator directly at the plant by trial and testing. This process lasts for years, and usually only basic analysis tools such as spreadsheet programs are available.

DIGIBatch shows how to use a Knowledge Base, Functional Mockup Units (FMU), and a cloud platform to provide companies with a simple and cost-effective tool for quality assurance, production assurance and preservation of core knowledge about the production process. Using the FMU, physical models from existing simulation environments can be linked with the empirical knowledge from the knowledgebase and with real-time data from the ongoing process, and can be centrally integrated into a running optimization cycle via a cloud platform on the corporate level as a digital twin of the core process. By recalibration after each batch and ongoing control parameter adjustment, recipes can be adapted and further developed. In order to increase the quality and production reliability, features from the process can be monitored automatically and recipe developments can be carried out in soft real-time over all sites.

The main results from DIGIBatch are an easy-to-implement approach for the implementation of a digital twinning on scalable and cost-effective cloud platforms, especially for small and medium-sized enterprises. Validation using the KPIs defined in DIGIBatch is based on a functional model of the implemented digital twin in the laboratory of the AIT, which serves as a showcase for the addressed end users from the process industry, thereby initiating subsequent experimental development and demonstration projects.