Zum Inhalt

NIKE MATE

NIKE huMan mAchine navigation TEaming

Programm / Ausschreibung KIRAS, Kooperative F&E-Projekte, KIRAS Kooperative F&E-Projekte 2022 Status laufend
Projektstart 01.10.2023 Projektende 30.09.2025
Zeitraum 2023 - 2025 Projektlaufzeit 24 Monate
Keywords Navigation, operation, urban

Projektbeschreibung

Einsätze im urbanen Umfeld sind für die Einsatzkräfte sehr fordernd. Durch die räumliche Beengtheit des urbanen Einsatzumfeldes müssen die Bewegungen der Einsatzkräfte optimal aufeinander abgestimmt werden. Die präzise Positionsbestimmung über alle Bewegungsebenen (supersurface – surface – subsurface) sowie bei eingeschränkter Sicht ist essenziell. Die collission-avoidance zwischen einzelnen Akteuren ist besonders beim Einsatz autonomer Systeme eine zentrale Herausforderung.

Abstract

Operations in urban area are very demanding to the involved forces. Due to the spacial confinement of the urban operations area it is necessary to coordinate the movements of all involved forced both in space and time.
The determination of the precise position in all movement levels (supersurface - surface -subsurface) and restricted view is a key to success.
Collision-avoidance (blue on blue) between the involved forces the key challenge, especially when autonomous systems are also in operation.

Endberichtkurzfassung

Im Projekt NIKE MATE (huMan mAchine navigation Teaming) wurde die Herausforderungen bei Einsätzen im urbanen Umfeld untersucht. Im Besonderen lag der Fokus auf der Positionsbestimmung von Akteuren in Umgebungen ohne GNSS und weniger Infrastruktur. Diese exakte Information ist essenziell, um Gefahren zu minimieren, Kollisionen zwischen Menschen und Maschinen zu verhindern, sowie Planung von Einsätzen zu koordinieren und damit den Stress bei den Akteuren zu reduzieren.

Das Projekt baut auf Erkenntnissen des Projektes NIKE BLUETRACK auf und erweiterte das Konzept um weitere Komponenten. Der Forschungsfokus lag auf den drei Aspekten: verbesserte Positionierung durch einen kollaborativen Ansatz, Visualisierung der Positionen für Führungskräfte und Untersuchung zu psychologischen Herausforderungen in solch komplexen Szenarien.

Zu Beginn des Projektes wurde das bereits vorhandene Pedestrian Dead Reckoning (PDR) Modell untersucht. Hierbei wurde der Speicherbedarf des KI-Modell reduziert, verschiedene Quantisierungen verglichen, um das gewählte Konzept mit neu gesammelten Trainingsdaten zu trainieren. Dies ermöglicht die Unterscheidung zwischen acht Bewegungsarten. Ebenfalls wurde eine innovative Pseudolite Positionierungsmethode untersucht, um die Übertragung von globalen Koordinaten ins Tunnelinnere zu realisieren. Vier synchronisierte bladeRF Transmittern senden ein von OHB generiertes Replika aus, welches ein adaptierter Receiver zur Position im WGS84 Koordinatensystem nutzt. Praktische Tests ergaben eine erfolgreiche Umsetzung.

Eine Weiterentwicklung gab es auf Seite der Positionierung von Akteuren im Tunnel. Entwickelt wurde ein kollaboratives Konzept, welches in einem Faktor Graph die Position eines Roboters und Personen schätzt. Dieses kombiniert UWB-Distanzmessungen, IMU-Schritte, LiDAR-SLAM und Radodometrie mit entsprechenden Fehlermodellen. Der Einsatz eines Faktor Graph ermöglicht eine Verbindung von zeitlich auseinanderliegenden Epochen, wie sie bei Schleifenschlüssen und Schritten auftreten können. Im Gegensatz zum bisher verwendeten Partikelfilter optimiert der Solver alle Epochen aufgrund bisheriger Informationen. Der gewählte iSAM2 Algorithmus ermöglicht hierbei eine Echtzeitprozessierung.

Ebenfalls weiterentwickelt wurde das UWB-System. Hierbei erfolgte die Entwicklung einer eigenen Firmware, welche bis zu 8 Distanzen pro Epoche ermöglicht, sowie Übertragung von Daten vom Fußgänger zum Roboter. Durch ein geeignetes TDMA-Schema sind sowohl Messungen zwischen dynamischen Akteuren als auch statischer Infrastruktur möglich.

Die Positionen werden zentral am Roboter prozessiert und an das Führungsinformationssystem XR COMMAND weitergeleitet und visualisiert. Dies ermöglicht eine Visualisierung in einer XR (Extended Reality) Umgebung.

Testmessungen im Zentrum am Berg verifizierten das gewählte Konzept und dienten zur Evaluierung. In einem UWB-Netzwerk konnten erfolgreich Distanzen zwischen Akteuren und an Wänden befestigen Ankern mit weiterer Sensorik fusioniert werden, um in Echtzeit Positionen (Mensch und Roboter) zu schätzen und zu visualisieren. Der kollaborative Ansatz in Kombination mit der Robotersensorik ermöglicht auch außerhalb der initialen Infrastruktur eine stabile Schätzung. Limitationen ergaben sich beim kompletten Ausfall von externen Messungen, worauf der Verband aus Roboter und Personen relativ zueinander valide Positionen liefert, aber absolut einen Drift aufweist.

Die Helmut Schmidt Universität Hamburg hat die psychologischen Effekte auf Soldaten im Einsatz in städtischer Infrastruktur untersucht und beurteilt.