Zum Inhalt

IDP

Industrial Data Program

Programm / Ausschreibung IWI 24/26, IWI 24/26, Basisprogramm Ausschreibung 2024 Status laufend
Projektstart 01.03.2024 Projektende 30.06.2025
Zeitraum 2024 - 2025 Projektlaufzeit 16 Monate
Keywords

Projektbeschreibung

Als Innovationstreiber gestaltet die Firma PALFINGER seit jeher die Veränderungen mit und entwickelt Lösungen, die digitale Kompetenzen bündeln und agil auf neue Herausforderungen reagieren. Maßgeblich für die Bewältigung der Herausforderungen im digitalen Zeitalter wird die zielgerichtete Nutzung von Daten sein. Durch umsichtiges Datenmanagement und geschickte Datennutzung können laufende Kosten gesenkt und Grundlagen für Automatisierung geschaffen werden. PALFINGER vereint im vorliegenden F&E Projekt Menschen, Prozesse und Technologien, um mittels künstlicher Intelligenz und maschinellem Lernen auf der Basis verfügbarer Daten innovative und effiziente Produkt- und Servicelösungen zu entwickeln.
Ziel des vorliegenden F&E-Projekts ist die Entwicklung und Implementierung einer digitalen Plattform zur Visualisierung und Nutzung umfassender Maschinendaten. Damit sollen unter anderem Wartungsvorhersagen getroffen und Energieoptimierungen umgesetzt werden können. Die daraus resultierenden Vorteile für den Praxiseinsatz sollen in Form eines neu zu entwickelnden IoT-Geschäftsmodells den PALFINGER-Kunden zur Verfügung gestellt werden.
Entwicklungsziele des vorliegenden F&E-Projekts:
- Datenerfassung und Prozessmustererkennung (Use Cases) der Geräte im Feldeinsatz
- Erkenntnisgewinn über die Prozessabläufe und Zusammenhänge zwischen Arbeitsabläufen in der Praxis, Prozessparametern in der Fertigung und dem Wartungs- und Lebenszyklus von PALFINGER-Produkten (Stichwort machine intelligence)
- Implementierung neuer Technologien wie Künstlicher Intelligenz (AI)
- Nutzbarmachen der generierten Datenmenge (Was ist der Mehrwert aus der Datensammlung? Wie kann man die gesammelten Daten zum Vorteil des Förderwerbers und dessen Kunden nutzbar machen?)
- Entwicklung von daten-getriebenen Geschäftsmodellen
Die Ergebnisse des vorliegenden Projekts sollen PALFINGER durch die Vermarktung zusätzlicher Serviceleistungen ein neues Geschäftsfeld eröffnen. Gleichzeitig sollen die Erkenntnisse in die Prozess- und Qualitätsoptimierung der Fertigung und damit auch in die Verbesserung der Produkte selbst einfließen. Das hat wiederum Einfluss auf den gesamten Produktlebenszyklus: Durch Kenntnisse über Zusammenhänge zwischen Use Cases und Verschleißerscheinungen könnten Schwachstellen ausgemerzt werden, prädiktive Wartung könnte Teilebrüche verhindern und die Nutzungsdauer der Geräte im Praxiseinsatz deutlich verlängern. Auch abgehendes Know-How durch Pensionierungen und Personalfluktuation, steigender Wettbewerb und die kontinuierlich zunehmenden Anforderungen an die Produkte machen eine Digitalisierung in der Produktion erforderlich.

Endberichtkurzfassung

Im Projekt Industrial Data Program wurden zentrale technologische Grundlagen für die datengetriebene Optimierung industrieller Prozesse geschaffen. Das Projektmanagement erfolgte methodisch nach PMI-Standards unter Einsatz von Smartsheet als operatives Steuerungstool. Das Reporting wurde über Power BI und Microsoft Azure realisiert, wodurch eine durchgängige Transparenz über Fortschritt, Ressourcen und Meilensteine gewährleistet war. Die Umsetzung fokussierte auf konkrete Anwendungsfälle in den Bereichen Machine Intelligence , Data Logging und Virtual Reality .

Ein Schwerpunkt lag auf der Definition und Spezifikation einer skalierbaren IoT- und Cloud-Architektur , die vollständig mit dem Microsoft-Technologie-Stack kompatibel ist. Die Architektur musste mit heterogenen Datenformaten (unstrukturiert, semistrukturiert, relational) umgehen können. Aufgrund der unterschiedlichen Anforderungen war eine umfassende Technologie- und Marktanalyse erforderlich. Als zentrale Datenplattform wurde Databricks ausgewählt und erfolgreich in die bestehende Infrastruktur integriert.

Die Datenarchitektur berücksichtigt unterschiedliche Datenqualitäten aus Quellsystemen, differenzierte Zugriffsrechte, Security-Vorgaben (inkl. Firewall-Konfigurationen) sowie Performance-Anforderungen für das Training von Machine-Learning-Modellen. Gleichzeitig wurde ein ressourcenbasiertes Kostencontrolling implementiert, um die Skalierung wirtschaftlich zu steuern.

Im Bereich Data Science wurde die Methodik CRISP-DM eingeführt und sukzessive um den CPMAI-Ansatz erweitert, um die Komplexität von KI- und ML-Projekten strukturiert zu adressieren. Die Modellbildung erfolgte auf Basis realer Datenquellen mit stark variierender Qualität. Es wurden Prozesse für Modelltraining, Hyperparameter-Tuning, Validierung und Testdatengenerierung etabliert, wobei potenzielle Zielsysteme bereits in der Architektur berücksichtigt wurden.

Ein weiterer technischer Schwerpunkt war die Integration von Cyber-Physical Systems (CPS) . Diese ermöglichen die physikalisch korrekte Abbildung des Verhaltens digitalisierter Maschinen und Anlagen. Das entwickelte Konzept erlaubt eine strukturierte Datenerfassung, Übertragung in die Cloud und unmittelbare Auswertung. Die physikalische Domänenexpertise wurde gezielt in die Modellbildung eingebunden, um die Aussagekraft der Analysen zu erhöhen.

Der entwickelte Prototyp ist direkt mit dem Produktivsystem verbunden und erfüllt alle Voraussetzungen für den Einsatz als Pilotsystem mit Echtzeitdaten. Die notwendigen Schnittstellen, Security-Settings und Firewall-Konfigurationen wurden vollständig implementiert. Das System ist damit technisch und organisatorisch für den produktiven Betrieb vorbereitet.