Automated Software Testing

Automated Software Testing

Software Engineering für datenintensive Anwendungen

Automated Software Testing

Das Kompetenzfeld des automatisierten Software-Testens umfasst die Erforschung neuester Testtechniken, um die Zuverlässigkeit und Abhängigkeit von datenintensiven Softwaresystemen zu verbessern, einschließlich tief neuronaler Netzwerk-getriebener cyber-physischer Systeme (CPS) wie autonome Fahrzeuge oder Lager- und Lieferroboter.

Die Wissenschaftler*innen entwickeln neue Tools und Frameworks für automatisiertes Testen, verbessern bestehende Testmethoden und erforschen neue Möglichkeiten, um das Testen in den Software-Entwicklungsprozess zu integrieren. Zum Beispiel wird die Mutationsprüfung verwendet, um die Qualität bestehender Softwaretests zu bewerten, und die Fuzz-Prüfung wird eingesetzt, um unerwartete Daten zu erzeugen, die die Korrektheit eines Computerprogramms unter Randbedingungen beurteilen.

fortiss treibt innerhalb des Kompetenzfeldes den Stand der Technik im Bereich des Softwaretests voran und konzentriert sich dabei sowohl auf die Verbesserung der Effizienz des Testprozesses als auch auf die Verbesserung der Genauigkeit und Vollständigkeit der Testergebnisse. Dafür arbeiten die Wissenschaftler*innen mit nationalen und internationalen Industriepartnern zusammen, um ihre Forschungsergebnisse in der Praxis anzuwenden. Bitte kontaktieren Sie uns, wenn Sie ebenfalls an einer Zusammenarbeit mit uns interessiert sind.

 

Ziel ist es, die Qualität und Zuverlässigkeit von Softwaresystemen zu verbessern, indem 

  • der Testprozess automatisiert,
  • der Bedarf an manuellen Tests verringert und
  • die Gesamteffizienz der Softwareentwicklung verbessert wird. 

Dabei zielen die Wissenschaftler*innen auf die Qualität von Softwaresystemen ab, um die Wahrscheinlichkeit von Softwarefehlern in datenintensiven Anwendungen zu verringern, darunter Webanwendungen und durch Künstliche Intelligenz (KI) unterstützte cyber-physische Systeme wie autonome Fahrzeuge.
 

    Forschungsschwerpunkt

    Die aktuellen Schwerpunkte konzentrieren sich auf drei Hauptpfeiler:

    • Nachproduktions-Tests, bei denen es um Methoden geht, um eine hohe Abhängigkeit von CPS in der Produktion sicherzustellen. Untersuchte Techniken umfassen Laufzeitüberwachung und -überwachung unter Verwendung von Unsicherheitsquantifizierung und -argumentation, um Fehlsicherheitsmechanismen und Selbstheilungsfähigkeiten bereitzustellen. Darüber hinaus untersuchen wir, wie Regressionstests von hochadaptiven Systemen durchgeführt werden können (z.B. solche, die auf kontinuierlichem oder Verstärkungslernen basieren).
       
    • Tests kollaborativer CPS, bei denen untersucht wird, wie kollaborative autonome und missionskritische CPS getestet werden können, die einheitliche Ziele erreichen. Aktuelle Herausforderungen beziehen sich auf die Begriffe Softwaredefekt und Software-Oracle, die überarbeitet werden müssen. Mögliche Anwendungsfälle sind autonome Fahrsysteme, Katastrophenhilfesysteme, autonome landwirtschaftliche Maschinen und Lager- und Lieferroboter.
       
    • KI-verbessertes Testen, bei dem die leistungsstärksten KI-Toolsets genutzt werden, um das Testen effektiver und effizienter zu gestalten. Wir nutzen generative und adversariale Techniken, konforme Vorhersagen und erklärbares KI-Testen, um die Lücke zwischen simulierten und realen Plattformen für CPS zu schließen. Anwendungsfälle beziehen sich auf personalisierte Testplattformen und digitale Zwillinge, hybride Simulationstechniken, die sowohl reale Daten als auch neuronale Techniken nutzen, um die Treue und Vertrauenswürdigkeit von simulationsbasierten Tests zu verbessern. Unser Framework berücksichtigt sowohl simulationsbasierte Tests als auch die Übertragbarkeit von Testergebnissen von simulierten auf reale Plattformen.
    Prof. Dr. Andrea Stocco

    Ihr Kontakt

    Prof. Dr. Andrea Stocco

    +49 89 3603522 271
    stocco@fortiss.org

    Publikationen

    • 2024 OpenSBT: A Modular Framework for Search-based Testing of Automated Driving Systems Lev Sorokin, Tiziano Munaro, Safin Damir, Brian Hsuan-Cheng Liao und Adam Molin volume , , , edition, 2024. , . Details URL DOI BIB
    • 2023 A Retrospective Analysis of Grey Literature for AI-Supported Test Automation Filippo Ricca, Alessandro Marchetto und Andrea Stocco In In Proceedings of the 16th International Conference on the Quality of Information and Communications Technology, pages 90–105, Springer Nature Switzerland. Details URL DOI BIB