FOCETA

FOCETA

Grundlagen für das kontinuierliche Engineering von vertrauenswürdiger Autonomie

FOCETA

Zukünftige autonome Systeme werden KI-basierte Komponenten zur Leistungssteigerung einsetzen. Um einen breiten Einsatz in sicherheitskritischen Umgebungen zu ermöglichen, müssen sie nach hohen Qualitätsstandards entwickelt werden. FOundations for Continuous Engineering of Trustworthy Autonomy (FOCETA) verfolgt einen integrierten Ansatz für die Entwicklung von vertrauenswürdigen, lernfähigen autonomen Systemen, der die Vorteile von datenbasierten und modellbasierten Techniken kombiniert.

Projektbeschreibung

Es werden zunehmend Anwendungen entwickelt, die auf komplexen autonomen Systemen basieren, die durch Künstliche Intelligenz (KI) gesteuert werden. Da intelligente Roboter beginnen, Menschen bei komplizierten oder gefährlichen Aufgaben im Straßenverkehr, in der Industrie oder im Krankenhaus zu ersetzen, sind ihre Sicherheit, Autonomie und Vertrauenswürdigkeit von besonderem Interesse. Dies liegt an der zunehmenden Komplexität der Einsätze, insbesondere bei lernfähigen Systemen, die durch kontinuierliches Engineering nicht einfach nachzuvollziehen sind.

Das FOCETA-Projekt wird die Grundlage für kontinuierliches Engineering von vertrauenswürdigen, lernfähigen autonomen Systemen entwickeln, indem es datengetriebenes und modellbasiertes Engineering integriert. Die neuen Techniken, die Open-Source-Tools und offene Datenaustauschstandards nutzen, werden durch industriell relevante, hoch anspruchsvolle Anwendungen wie die Automatisierung des städtischen Fahrens und intelligente medizinische Geräte erprobt, um die Machbarkeit, Skalierbarkeit und Sicherheit zu belegen.

Forschungsbeitrag

FOCETA adressiert die Konvergenz von "datengetriebenem" und "modellbasiertem" Engineering, wobei diese Konvergenz zusätzlich durch die Notwendigkeit erschwert wird, Verifikation und Validierung inkrementell anzuwenden und vollständige Neuverifikation und Neuvalidierung zu vermeiden.

Das Paradigma von FOCETA baut auf drei wissenschaftlichen Säulen auf:

  1. Integration von lernfähigen Komponenten & modellbasierten Komponenten über eine contract-basierte Methodik, die eine inkrementelle Modifikation von Systemen einschließlich Bedrohungsmodellen für die Cybersicherheit ermöglicht,
  2. Adaption von Verifikationstechniken, die während des modellgetriebenen Entwurfs angewandt werden, auf lernfähige Komponenten, um eine unvoreingenommene Entscheidungsfindung zu ermöglichen, und schließlich
  3. inkrementelle Synthesetechniken, die sowohl die Durchsetzung von sicherheitskritischen Eigenschaften als auch die Optimierung der Performance vereinen.

Das fortiss-Team wird Methoden für das Testen auf Systemebene entwickeln und dabei Ansätze des unüberwachten Lernens zum Clustern von Daten und zum Auffinden sicherheitsrelevanter Rand- oder Eckfälle anwenden. Darüber hinaus wird fortiss dazu beitragen, ein rigoroses und skalierbares verteiltes Framework zur Generierung von Safety- und Security-Workflows zu konstruieren und entsprechende Zuverlässigkeitsnachweise für die industriellen Anwendungsfälle von FOCETA kontinuierlich zu kuratieren.

Projektdauer

01.10.2020 – 30.09.2023

 Mojdeh Golagha

Ihr Kontakt

Mojdeh Golagha

+49 89 3603522 176
golagha@fortiss.org

Dr. Holger Pfeifer

Ihr Kontakt

Dr. Holger Pfeifer

+49 89 3603522 29
pfeifer@fortiss.org

Weitere Informationen