Zum Inhalt

ZoneZ

Zonen ECU mit innovativer Steuergerätearchitektur und robuster 3D Umfeldsensorik

Programm / Ausschreibung Mobilität der Zukunft, Mobilität der Zukunft, MdZ - 15. Ausschreibung (2020) FT, PM, AM Status abgeschlossen
Projektstart 01.02.2021 Projektende 31.01.2024
Zeitraum 2021 - 2024 Projektlaufzeit 36 Monate
Keywords Elektronikarchitektur, Automotive, Steuergerät, 3D Sensorik, künstliche Intelligenz

Projektbeschreibung

Das kooperative Forschungsprojekt zoneZ erarbeitet die Grundlagen für eine neue Klasse von Steuergeräten in Straßenfahrzeugen (primär PKWs). Die Überlegungen diverser OEMs, die elektronische Fahrzeugarchitektur in der Zukunft auf Zonen (über geometrische Nähe definiert, im Gegensatz zu den funktional definierten Domänen) aufzubauen, bilden den Rahmen der Entwicklung. Die Erkenntnis, dass Umfeldsensorik und die Auswertung von Sensordaten enorm an Stellenwert gewinnt, dominiert seit Jahren den Bereich Assistenzsysteme und andere Aktivitäten am Weg zum (teil)autonomen Fahren. In diesem Spannungsfeld untersucht das Projekt welche Anforderungen an Steuergerät und Sensorsysteme sich daraus ableiten lassen und wie eine passende Steuergerätearchitektur aussehen kann. Die Schnittstellen zu Sensoren und die Auswertung von Sensordaten nimmt dabei eine zentrale Stellung in den Architektur- und den Designüberlegungen ein. Eine Betrachtung der Safety und Security Anforderungen runden die konzeptionellen Betrachtungen ab.
Darüber hinaus werden statische Labormuster aufgebaut anhand derer unterschiedliche Lösungsansätze mit simulierten und Echtwelt-Daten bewertet werden können. Abschließend wird ein mobiler Demonstrator erstellt, auf dem beispielhaft eine realitätsnahe Anwendung (Predictive Pedestrian Protection, P³) implementiert wird.

Abstract

The cooperative research project zoneZ is developing the basis for a new class of control units in road vehicles (primarily passenger cars). The considerations of various OEMs to build the electronic vehicle architecture in the future on zones (defined by geometric proximity, in contrast to the functionally defined domains) form the framework of the development. The realization that environmental sensors and the evaluation of sensor data are gaining in importance has dominated the area of assistance systems and other activities on the way to (partially) autonomous driving for years. In this tradeoff, the project examines which requirements for control units and sensor systems can be derived from them and what a suitable control unit architecture can look like. The interfaces to sensors and the evaluation of sensor data take a central position in the architecture and design considerations. A consideration of the safety and security requirements complete the conceptual considerations.
In addition, static laboratory samples are set up, which can be used to evaluate different approaches to solutions with simulated and real-world data. Finally, a mobile demonstrator is created on which a realistic application (Predictive Pedestrian Protection, P³) is implemented as an example.

Endberichtkurzfassung

Assistenzsysteme unterstützen Fahrer:innen und erhöhen die Verkehrssicherheit. Doch bei widrigen Wetterbedingungen und schlechter Sicht sind sie in ihrer Funktion eingeschränkt, denn die erforderlichen Sensoren, besonders Kameras, stoßen bei der Erfassung der Umgebung häufig an ihre Grenzen.

Ziel des Projektes war es, verschiedene Fahrzeugsensoren zur Umgebungserfassung wie Radar, Kamera und Lidar direkt über ein leistungsfähiges Steuergerät anzusprechen, um daraus in Echtzeit ein virtuelles Modell der Fahrzeugumgebung zu erstellen. Aber auch Aktuatoren wie Scheinwerfer und Displays werden von diesem Steuergerät angesteuert. Diese vielseitige Funktionalität des Steuergeräts bildet die Grundlage für verschiedene Anwendungen, wie etwa Fahrerassistenzfunktionen, Spotlight zum gezielten Ausleuchten gefährdeter Objekte, Parkassistenten oder Assistenten zum Schutz vulnerabler Verkehrsteilnehmer:innen.

Als Beispielapplikation einer solchen Funktionalität stand dabei das Thema Fußgängererkennung und Fußgängerschutz im Fokus. Damit konnten in diesem Projekt bereits wichtige Grundlagen für die herstellerspezifische Entwicklung von Assistenzsystemen geschaffen werden.



Im Projekt kamen moderne 3D-Sensoren für eine robuste Umgebungserfassung zum Einsatz, für deren Signale geeignete Auswertungsalgorithmen erforscht wurden. Unter anderem wurden auch Fusionskonzepte für robuste multimodale Sensorkonfigurationen untersucht. Die hier verwendeten sogenannten Imaging-3D-Radare und Lidar-Sensoren befanden sich zu dieser Zeit noch in der Erprobung und werden womöglich später für die Integration in Serienfahrzeugen verfügbar sein.



Um die Sensordaten im Fahrzeug schnell verarbeiten zu können, wurden diverse Funktionen, die bisher einzelne Steuergeräte innehatten, in definierten Zonen gebündelt.

Hier galt es besonders, die unterschiedlichen Entwicklungen und Anforderungen des Marktes im Zuge der Forschungsarbeit bestmöglich abzudecken und für potenzielle Serienentwicklungen vorzubereiten. Im Rahmen des Projektes wurde ein Demonstrator aufgebaut, welcher in der Zonenarchitektur integriert ist.



Die von den unterschiedlichen Sensoren erfassten und fusionierten Umgebungsdaten wurden mit Hilfe von Methoden der Künstlichen Intelligenz (KI) verarbeitet, um besonders gefährdete Verkehrsteilnehmer:innen, wie Kinder, Fußgänger:innen oder Radfahrer:innen zuverlässig zu erkennen. Für das Training der KI-Algorithmen wurden verschiedenste Szenarien in Computersimulationen nachgestellt und mit realen Messdaten, die bei Fahrten mit einem Versuchsfahrzeug aufgezeichnet wurden, zusammengeführt. Nach Abschluss der Trainingsphase standen unterschiedliche KI-Algorithmen für die Demoapplikation zum Fußgängerschutz zu Verfügung. Nachdem die Fußgängererkennung im Steuergerät autonom und in Echtzeit erfolgen muss, lag der Schwerpunkt der Entwicklung auf dem Einsatz von Verfahren, die in Bezug auf Rechenleistung und Energieverbrauch besonders effizient sind.