RAILEYE 3D

Stereovision für die Außenhautüberwachung von Zügen

Programm / Ausschreibung Mobilität der Zukunft, Mobilität der Zukunft, MdZ - 11. Ausschreibung (2018) Status laufend
Projektstart 01.01.2019 Projektende 30.06.2021
Zeitraum 2019 - 2021 Projektlaufzeit 30 Monate
Keywords Automatisierte Selbstabfertigung; Deep-Learning Objektdetektion; Sterevision;

Projektbeschreibung

Die Anforderungen an die Verkehrsbetriebe in Bezug auf die Passagieranzahl und die erforderlichen Zuglängen, Taktfrequenzen und damit Abfertigungszeiten steigen kontinuierlich. Moderne Ansätze versuchen durch Komfortfunktionen mit einer entsprechenden Lenkung der Passagiere das Ein- und Aussteigen zu beschleunigen. Entscheidend für den Zug der Zukunft wird sein, dass dieser den Fahrer und auch das Personal durch „intelligente“ Funktionen, wie die automatische Überwachung der gesamten Außenseite des Zuges inklusive aller Türbereiche, zu unterstützen.

Ziel dieses Projektes ist daher die Untersuchung und Entwicklung innovativer 3D Sensorsysteme die als Fahrerassistenzsystem den Status der Abfertigung und des Bereiches zwischen Zug und Bahnsteigkante durch im Idealfall eine rot/grüne Anzeige signalisieren und so zu einer Beschleunigung der Abfertigung bei gleichzeitiger Einhaltung der geforderten „Safety“ Normen und betrieblichen Vorschriften erfüllen. Darüber hinaus soll die Sicherheit auch noch weiter verbessert werden, indem die Bereiche zwischen den Wagons durch zusätzliche Sensoren mit überwacht werden und so Passagiere und Personal, das sich in diesem Bereich aufhält, automatisch erkannt werden.

Das Projektkonsortium will im Zuge dieses Forschungsprojektes innovative 3D Sensorsysteme mit modernen visuellen Analyse- und Machine-Learning-Verfahren koppeln, und als Demonstratorsystem für sicherheitskritische Anwendungen evaluieren. Dabei müssen die bahnspezifischen Normen und Vorschriften ebenso berücksichtigt werden wie die Domänenspezifischen Funktionalitäten. Folgende repräsentative Use-Cases werden betrachtet:

Überwachung der gesamten Außenhaut des Zuges: Das System soll mittels neuartiger Methoden und Verfahren (Analyse von 3D Szenenkontext in Kombination mit Deep-Learning Methoden wie R-CNNs) sowie innovativer Sensorik (AHDR Sensortechnologie zur optimalen Bildqualitätsanalyse) ausgewählte Situationen wie Personen lehnen am Zug, stehen im Spalt zwischen Zug und Bahnsteigkante, Kinderwagen im Spalt, Person befindet sich im Türraum, Objekt steht im Gefahrenraum erkennen. Dabei soll das System auf einem Testfahrzeug zu demonstrationszwecken installiert und im Rahmen eines Feldtests erprobt werden.

Analyse des Zustandes des Zuges, um dem Fahrer in Form eines Semiautomatischen Mechanismus einerseits die Zugsegmente abfertigen zu lassen und andererseits automatisch zu überprüfen ob sich nach der Abfertigung noch eine Person z.B. auf die Tür oder an das Fahrzeug gelehnt bzw. im Gefahrenraum befindet. Dieser Algorithmus soll untersucht werden und gemeinsam mit den Stakeholdern der OEBB analysiert werden welche Funktionalitäten ein solches zukünftiges System benötigt.

Lagebild bzw. Perceptiondarstellung der gesamten Zuglänge mit Birdview Darstellung der Position von Personen und Objekten, um dem Fahrer einen optimalen Überblick zu verschaffen. So kann der Fahrer dann auch Informationen eines Videobildes einer örtlichen Position vor allem bei Regional- und Fernzügen mit großen Längen besser zuordnen und spezifisch auf Ereignisse eingehen.

Abstract

The demands on the public transport companies with regard to the number of passengers and the required train lengths, dispatching frequencies and thus handling times are increasing continuously. Modern approaches try to accelerate entry and exit through comfort functions with appropriate steering of the passengers. Crucial for the train of the future will be that it will support the driver and the staff through "intelligent" functions, such as the automatic monitoring of the entire outside of the train including all door areas.
The aim of the RAIL:EYE3D project is therefore the investigation and development of innovative 3D sensor systems which signal as driver assistance system the status of the clearance and the area between train and platform edge by ideally a red / green light signal and thus to an acceleration of dispatch while maintaining the required "Safety" Comply with standards and company regulations. In addition, safety is to be further improved by monitoring the areas between the wagons with additional sensors so that passengers and personnel residing in this area are automatically recognized.
As part of this research project, the project consortium intends to combine innovative 3D sensor systems with modern visual analysis and machine learning methods, and to evaluate them as a demonstrator system for safety-critical applications. The railway-specific standards and regulations must be taken into account as well as the domain-specific functionalities. The following representative use cases are considered:
- Monitoring of the entire outer skin of the train: The system is using novel methods and procedures (analysis of 3D scene context in combination with deep learning methods such as R-CNNs) and innovative sensor technology (AHDR sensor technology for optimal image quality analysis) selected situations such as persons leaning against the train , standing in the gap between train and platform edge, stroller in the gap, person is in the door, object is seen in the danger zone. The system should be installed on a test vehicle for demonstration purposes and tested in a field test.
- Analysis of the condition of the train, in order to allow the driver, in the form of a semi-automatic mechanism, on the one hand to have the train segments cleared and, on the other hand, to automatically check whether another person, e.g. leaning on the door or on the vehicle or in the danger area. This algorithm will be investigated and analyzed together with the stakeholders of the OEBB which functionalities such a future system needs.
- Situation picture or Perception representation of the entire train length with Birdview representation of the position of persons and objects, in order to give the driver an optimal overview. In this way, the driver can also better allocate information of a video image of a local position, especially on long-haul regional and long-distance trains, and respond specifically to events.