iLIDS4SAM
Integrated LiDAR Sensors for Safe&Smart Automated Mobility
Programm / Ausschreibung | IKT der Zukunft, IKT der Zukunft, IKT der Zukunft - 6. Ausschreibung (2017) | Status | abgeschlossen |
---|---|---|---|
Projektstart | 01.01.2020 | Projektende | 31.12.2023 |
Zeitraum | 2020 - 2023 | Projektlaufzeit | 48 Monate |
Keywords | LiDAR Sensor;Automatisiertes Fahren;Städtischer Verkehr;Schienenverkehr |
Projektbeschreibung
Aktuelle Fahrerassistenzsysteme fokussieren auf vergleichsweise einfache Szenarien in denen sich Objekte vorhersagbar verhalten, wie Autobahnverkehr oder Park¬assistenz ohne Fuß-gänger, Radfahrer oder Querverkehr. Es besteht somit ein dringender Bedarf, die Einsatzgebiete auf den städtischen Verkehr zu erweitern. Der Aktionsplan “Automatisiert-vernetzt-mobil” des bmvit definiert sieben Use Cases, davon drei mit Vorrang, welche Szenarien im Stadtverkehr mit einschließen und 360° Rund¬um¬blick und voraus¬schauende Gefahrenerkennung verlangen. Auch Euro NCAP definiert Testfälle mit Vulnerable Road Users (VRUs) wie erwachsenen Fußgängern, Kindern und Fahrrad¬fahrern im Stadtverkehr.
iLIDS4SAM wird dies durch die Entwicklung neuartiger LiDAR-basierter Systeme für die vorausschauende Gefahrenbewertung mit VRUs im städtischen Bereich adressieren. Die dazu nötige signifikante Verbesserung von Gesichtsfeld und Auflösung erfordert Innovationen aller Komponenten eines LiDAR-Sensors: eine hybride Laserquelle für kürzere und intensivere Pulse bei höherer Wiederholrate, ein neues Spiegel- und Package-Design mit größerer Fläche bei größeren Auslenkwinkeln, ein Empfänger mit größerem Detektorfeld und eine effizientere und gleichzeitig genauere Pulsdetektion und Zeitmessung.
Die resultierenden Punktwolken gehen in die 3D-Objektdetektion und –klassifikation ein. Die Objekte werden in einem sicheren, subsidiären Datenauswerteprozess segmentiert, mit Hilfe von Deep Learning-Algorithmen identifiziert und in Fahrzeuge, Fußgänger, Rad¬fahrer, stationäre Objekte usw. klassifiziert. Diese LiDAR-Daten werden in Folge mittels Sensor Fusion mit Radar- und Kameradaten kombiniert. Die Hardware für Daten¬auswertung und Sensor Fusion beinhaltet einen Rechner mit standardisierten Sensor¬schnittstellen für LiDAR, Radar und Ultraschallsensoren sowie Kameras und die Netzwerk¬konnektivität. Dies erlaubt eine umfassende Datensammlung von allen Sensoren während Testfahrten. Die Daten werden annotiert und für Training, Test und Evaluation der Objektklassifikatoren und Algorithmen verwendet. Es ist geplant, resultierende Datensätze öffentlich zur Verfügung zu stellen, um weitere Forschung zu unterstützen; ein Data Management Plan wird die Details für den Zugriff beschreiben. Des Weiteren soll die Sensorfusions-Hardware als Entwicklungsplattform für zukünftige Forschungsprojekte nutzbar sein. Neben einem geplanten Beitrag zu einem neuen ISO Standard in ISO TC22/SC31 „Road vehicles – data communi¬ca¬tion“ soll das Open Simulation Interface genutzt werden um die fusionierten Objekte, Freiflächen¬information usw. den Algorithmen zum Szenenverständnis weiterzureichen, wo die Objekte verfolgt und ihr Verhalten im Sinn einer prädiktiven Gefahrenbewertung vorausgesagt werden.
Für die hochrelevante Simulation und Validierung von Fahrerassistenz- und autonomen Systemen im urbanen Umfeld werden neue Test- und Referenzsysteme auf Basis des hochauflösenden LiDAR-Sensors entwickelt. Schließlich werden verschiedene ausgewählte Use Cases, u.a. für Straßen- und Schienenfahrzeuge im städtischen Bereich sowie landwirtschaftliche Anwendungen, umgesetzt, um die Relevanz und Leistungsfähigkeit des Ansatzes praktisch zu demonstrieren.
Abstract
Advanced Driver Assistance Systems are moving from the highway to more complex urban traffic scenarios. It is the goal of this project to enable this transition by developing LiDAR sensors with increased field of view and resolution. Towards this end new, innovative MEMS mirror designs will be explored, the timing accuracy of the driver ASIC will be improved and the channel count and data rates of the receiver will be significantly increased. Combined with the information from radar sensors and cameras object detection and classification will be performed to implement several selected use cases in complex urban traffic scenarios that were previously impossible to achieve.