Zum Inhalt

GENIUS Austria

Generative AI for the Software Development Life Cycle Austria?

Programm / Ausschreibung IWI 24/26, IWI 24/26, Basisprogramm Ausschreibung 2025 Status laufend
Projektstart 03.03.2025 Projektende 02.03.2026
Zeitraum 2025 - 2026 Projektlaufzeit 13 Monate
Keywords

Projektbeschreibung

Unsere Motivation für dieses Projekt liegt im stetigen Bedarf, die Qualität und Zuverlässigkeit unserer Hotelsoftware zu verbessern. Derzeit erfordert die manuelle Erstellung von Testfällen erheblichen Aufwand und technisches Wissen, was die Effizienz und schnelle Iteration einschränkt. Durch die Automatisierung dieses Prozesses mittels generativer KI-Technologien möchten wir den Aufwand und die Zeit für die Erstellung und Wartung von Testfällen signifikant reduzieren. Dies ermöglicht schnellere und häufigere Releases durch kontinuierliche Integration und Bereitstellung.
Unser Ziel ist die Implementierung eines KI-basierten Assistenten, der automatisch Testfälle basierend auf
unserem Domänenwissen und spezifizierten OpenAPI-Richtlinien erstellt und diese mittels einer Qualitätsloop,
der menschliche Assistenz durch NLP einbindet, automatisiert in die CI/CD-Pipeline zu integrieren.

Endberichtkurzfassung

Im Projektverlauf konnten die wesentlichen Zielsetzungen erfolgreich umgesetzt werden. Insbesondere wurden verschiedene Large Language Models systematisch evaluiert sowie ein erster funktionsfähiger Testfallgenerator inklusive Benutzeroberfläche entwickelt. Daraus entstand der Prototyp RESTifAI, ein LLM-basierter Workflow zur automatisierten Generierung wiederverwendbarer Tests für REST-Schnittstellen.

Ein zentraler Fortschritt liegt in der Entwicklung eines mehrstufigen, workflow-basierten Ansatzes, der gegenüber einfachen Zero-Shot-Methoden deutlich robustere und ausführbare Testergebnisse liefert. Die generierten Testfälle decken sowohl valide „Happy Paths" als auch abgeleitete Negativfälle ab und konnten erfolgreich in realitätsnahen Szenarien eingesetzt werden.

Besonders hervorzuheben ist, dass durch den Einsatz des Tools bereits konkrete Fehler in produktionsnahen CASABLANCA-Microservices identifiziert werden konnten, was den praktischen Mehrwert des Ansatzes eindrucksvoll belegt. Um den Prototypen in den produktiven Einsatz zu überführen, wurden zugleich konkrete Weiterentwicklungsbedarfe identifiziert: So fehlt bislang eine explizite Modellierung von Abhängigkeiten zwischen Microservices, eine Integration von Infrastructure-as-Code-Ansätzen zur Bereitstellung einer dedizierten Testinfrastruktur, eine automatische Evaluierung von Test-Oracles sowie eine systematische Erprobung an einer breiteren Palette von Anwendungsfällen.

Die wissenschaftliche und praktische Relevanz der Ergebnisse wurde durch die Annahme einer Publikation auf der renommierten ICSE 2026 Konferenz bestätigt. Darüber hinaus konnten internationale Kooperationen mit Partnern aus Forschung und Industrie (u. a. Universität Innsbruck, Diffblue, IBM, c.c.com) aufgebaut und weiter vertieft werden.

Insgesamt wurde ein innovativer und konkurrenzfähiger Ansatz zur KI-gestützten Testautomatisierung geschaffen, der sowohl wissenschaftlich anerkannt ist als auch großes Potenzial für den praktischen Einsatz in der Softwareentwicklung aufweist.