impress

IT unterstützte Suche und Vergleich von Schuhspuren in einer Tatspurendatenbank und einem Schuhkatalog - impress

Programm / Ausschreibung KIRAS, Kooperative F&E-Projekte, KIRAS Kooperative F&E-Projekte 2017 Status laufend
Projektstart 03.09.2018 Projektende 31.12.2020
Zeitraum 2018 - 2020 Projektlaufzeit 28 Monate
Keywords

Projektbeschreibung

Schuhspuren treten an sehr vielen Tatorten unter den verschiedensten Tatumständen auf, sind relativ leicht zu finden und zu sichern, rasch auszuwerten, und daher für die Exekutive zur Aufklärung der unterschiedlichsten Verbrechen interessant. Sie können einerseits dabei helfen die Suche nach der Täterin oder dem Täter einzugrenzen, da sie Hinweise auf die Schuhgröße und, insbesondere bei markanten Profilen der Lauffläche, auch auf die Marke und das Modell und damit das Aussehen des Schuhs gibt. Andererseits stellen gleichartige Schuhspuren an verschiedenen Tatorten ein Indiz auf mögliche Tatserien dar. Werden wiederum die Schuhspuren sowie allenfalls vorhandene andere Beweismittel (z.B. DNA, Fingerabdrücke, Werkzeug- und Lackspuren) aus möglichen Tatserien kombiniert, steigt die Wahrscheinlichkeit einer Klärung deutlich an.
Für eine forensisch eindeutige Zuordnung des Schuhs zu einer Schuhspur müssen aus den asservierten Schuhspuren erst jene mühsam herausgefiltert werden, die ähnlich sind. Dann können die Variationen in der Produktion, individuelle Beschädigungen und die unvermeidlichen Abnützungspuren der Lauffläche untersucht und mit den korrespondierenden Merkmalen einer Schuhspur verglichen werden. Die bisher eingesetzten Systeme bieten für die Vorauswahl von ähnlichen Spuren nur eine begrenzte Unterstützung, da sie auf einer sehr einfachen Kategorisierung des Aussehens basieren und somit das personal- und zeitintensive manuelle Vergleichen von sehr vielen Bildern erfordern. Das Ziel dieses Projekts entspricht gerade diesem Wunsch der ErmittlerInnen bzw. forensischen ExpertInnen einerseits einen maschinelle Abgleich einer Schuhspur mit Referenzlaufflächen in einem Schuhkatalog zu ermöglichen, um die möglichen Schuhmodelle zu ermitteln. Andererseits wird der Abgleich zu älteren Schuhspuren in großen Datenbanken mit ungeklärten Delikten durch eine leistungsfähige automatische Vorselektion stark vereinfacht. Der wissenschaftlich-technische Fokus des Projekts liegt dabei einerseits auf der Entwicklung einer Methodik zum Vergleich von Schuhspuren, um eine rasche und effiziente Suche in einer großen Bilddatenbank mit Schuhspuren zu ermöglichen, und andererseits im automatisierten Aufbau eines stets aktuellen Schuhkatalogs mit Referenzlaufflächen verschiedener Schuhmodelle. Hier soll auf die große Anzahl von Schuhbildern, die im Internet frei verfügbar sind, zurückgegriffen werden, wobei es essentiell ist, den rechtlichen Rahmen der Verwendung dieser Bilder zu beleuchten.
Dieses Projekt stellt eine Wiedereinreichung dar. Dabei wurde unter anderem die Verbindung mit anderen Beweismitteln - wie Fingerabdrücken - eingearbeitet. Weiters werden nun zusätzlich zu den urheberrechtlichen auch die datenschutzrechtlichen Aspekte beleuchtet. Die Beschreibung der Arbeitspakete wurde von Grund auf überarbeitet um eine nachvollziehbarere Beschreibung der Ziele, Inhalte und Methoden zu erreichen. Zusätzlich wurde bei der Zusammenstellung des Projektteams auf ein ausgewogeneres Geschlechterverhältnis geachtet.

Abstract

Footwear impressions are frequently found at various crime scenes. They are easily detected, processed and interpreted, and are therefore a valuable source of evidence for criminal investigations. Especially the combination with other types of forensic evidence e.g. DNA, toolmarks, fingerprints offers a great potential for solving a crime. Additionally to an estimate of the shoe size, the unique patterns of footwear impressions contain clues to the model and brand of the footwear, which in turn help to limit the number of possible suspects. Further, similar footwear impressions at different crime scenes indicate that the crime was committed by the same suspect. This way criminal acts committed by serial offenders can be identified. For instance burglaries are a great unease for society and are mostly committed by serial offenders. Solving those cases is a crucial factor in improving the subjective sense of security of the people.
In case a suspect is apprehended, the individual features of the footwear can proof that a specific shoe made a footwear impression. For this, forensic experts investigate the individual wear, damages and manufacturing marks. If multiple matching features can be found, the forensic evidence can support the prosecution in court. However, for this investigation the actual shoe has to be retrieved, from either the suspect or the evidence locker, and compared to the footwear impression. Since this process is time consuming and cumbersome, a limitation of the number of necessary comparisons to the most similar footwear impressions is desired by the forensic experts. Therefore, an automatic system that helps searching through databases with thousands of footwear impression images is needed. However, the currently used software solution is ill equipped to solve this problem. The main problem is that the footwear impressions have to be classified by the forensic expert by hand. This is done by describing the unique patterns of the impressions using a set of predefined classes. However, this process is very subjective and therefore the resulting list of similar impressions is not able to accurately depict the footwear impressions that were made by the same shoe. To alleviate this problem the goal of the impress project is an automated system, which implements an efficient image comparison methodology to find similar footwear impressions in huge databases of images.
Further, to allow an identification of the shoe model and brand a footwear impression reference database, i.e. shoe catalog, is created using the huge amount of shoe sole images freely available in the internet. Since the usage of those images is restricted, the legal framework is investigated in detail.