Zum Inhalt

ev.AI.luate

Evaluierung von KI-Methoden zur Schadensdetektion an Ingenieurbauwerken im Kontext von Bildqualität

Programm / Ausschreibung Mobilität der Zukunft, Mobilität der Zukunft - Transnational, DACH 2021 Status abgeschlossen
Projektstart 01.01.2022 Projektende 31.12.2023
Zeitraum 2022 - 2023 Projektlaufzeit 24 Monate
Keywords Bilddatenqualität, Schadensbibliothek, KI-Schadenserkennung, Ingenieurbauwerke, Qualitätssicherung

Projektbeschreibung

Mit modernen Verfahren der Künstlichen Intelligenz (KI) können in digitalen Bildern Muster erkannt werden, so dass diese zur automatisierten Detektion von Schadensmerkmalen in Bildern von Infrastrukturbauwerken eingesetzt werden können. Die Erkennungsqualität hängt dabei von Art und Repräsentation der Schäden sowie von einer Vielzahl von Bildeigenschaften ab. Dabei spielen Kamera- und Aufnahmeparameter sowie Belichtungs- und Umgebungseffekte eine Rolle. Ziel dieses Projektes ist es, eine Methodik und diesbezügliche Softwareimplementierung bereitzustellen, mit der die Leistungsfähigkeit konkreter Algorithmen zur KI-basierter Schadenserkennung im Kontext der Bildqualität bewertet werden kann.

Dazu werden zunächst die für Verkehrsinfrastrukturbauwerke wie Brücken, Tunnel und Stützwände typischen und für die Bauwerksprüfung relevanten Schäden kategorisiert und durch einen Schadenskatalog (annotierten Bilddatensatz) beschrieben. Wesentliche Bildqualitätseigenschaften werden bestimmt und ein Benchmark-Bilddatensatz erzeugt, der die Schadenstypen mit den Bildqualitätseinflüssen verschneidet und damit die Bandbreite unter verschiedenen Bedingungen zu erkennender Bilder abbildet.

Es wird eine Software erstellt, mit der über zu definierende Schnittstellen externe Softwareprodukte auf die Benchmark-Bilder angewendet und die Erkennungsqualität anhand der Konfusionsmatrix ermittelt werden kann. Die Software wird mit einer dafür prototypisch bereitgestellten und auf wichtige Schadensmerkmale vortrainierten KI-Lösung validiert.

Im Ergebnis wird es mit der bereitgestellten Software und den Benchmark-Bildern möglich, externe Schadenserkennungsprodukte und Dienstleistungen in Bezug auf ihre Qualität so zu bewerten, dass die Qualität der Bilddaten berücksichtigt wird. Dies erlaubt zum Beispiel die Auswahl von Verfahren, die bei schlechten Bildern noch ausreichend gut funktionieren, oder von jenen, die bei sehr guten Bildern die höchste Zuverlässigkeit erreichen.

Abstract

Modern artificial intelligence (AI) techniques can be employed for pattern recognition in digital images so that they can be used for the automated detection of damage features in images of structures. Here, the detection quality depends on the type and representation of the damage as well as on a variety of image properties. Camera and acquisition parameters as well as exposure and environmental effects play an important role. The goal of this project is to provide a methodology and a corresponding software implementation that can be used to evaluate the performance of methods for AI-based damage detection in the context of image quality.
For this purpose, damages typical for transportation infrastructures such as bridges, tunnels, and retaining walls and relevant for structural inspection is first categorized and described by a damage catalog (annotated image dataset). Essential image quality characteristics are determined and a benchmark image dataset is generated that intersects damage types with image quality influences to represent the range of damages that can be detected under different conditions.
An evaluation software will be created to rate external software products to the benchmark images via interfaces to be defined, and to quantitatively determine recognition quality based on the confusion matrix. The evaluation software will be validated with an AI-based damage detection solution prototype containing essential pre-trained damage detection features.
As a result, with the provided software and benchmark images, it will be possible to evaluate external damage detection products and services in terms of their quality in a way that takes into account the quality of the image data. This allows, for example, the selection of methods and solutions that still work sufficiently well with poor images or those that achieve the highest reliability with very good images.