Showing: 1 - 10 of 15 RESULTS

Protos: Entwicklung von Hardware-in-the-Loop-Tests mit Modellen und KI

Beschleunigen Sie Ihre Entwicklung für Tests und Simulationen

Hardware-in-the-Loop-Tests (HIL) ermöglichen die Validierung komplexer Embedded Systeme unter realistischen Bedingungen, erfordern jedoch im Vergleich zu herkömmlichen Unit-Tests in der Regel mehr Fachwissen, Zeit und Ressourcen.

Dieser Vortrag untersucht, wie künstliche Intelligenz die Entwicklung von HIL-Umgebungen und Testszenarien beschleunigen und gleichzeitig die Einarbeitungszeit für Ingenieure, die neu in diesem Bereich sind, verkürzen kann. Wir werden praktische Anwendungen von KI zur Generierung von Modellen für Umgebungssimulationen und zur Automatisierung von Tests diskutieren – zusammen mit einem Blick auf die aktuellen Grenzen und die Bedeutung menschlichen Fachwissens.

Die Präsentation endet mit einer Live-Demonstration, die zeigt, wie KI-gestützte Techniken HIL-Tests vom Konzept bis zur Ausführung beschleunigen können.

Nutzen:
Praktisches Verständnis dafür, wie KI die Erstellung von HIL-Tests beschleunigen kann
Einblicke in den Einsatz von KI, um die Einarbeitung in HIL-Umgebungen zu beschleunigen
Beispiele dafür, wo KI einen Mehrwert bietet – und wo menschliches Fachwissen unverzichtbar bleibt

Thomas Schütz hat einen Abschluss in Luft- und Raumfahrttechnik der Universität München und ist Geschäftsführer und Berater von Protos Software, die er 1997 gegründet hat. Er war als Projektleiter oder Architekt in vielen Projekten mit dem Fokus auf modellbasierte Entwicklung und Test für komplexe Embedded Systeme tätig. Darüber hinaus ist er Product Owner der PROTOS miniHIL Testing Toolchain und Gründer des Eclipse Open Source Projekts eTrice.

BTC: Modellbasiertes Testen mit kollaborativem KI-Workflow mit Rhapsody TestConductor – Eine Fallstudie

Die Erstellung von Test Verpflichtungen und deren Verfeinerung zu ausführbaren TestCases erfordert intensive Zusammenarbeit zwischen Testingenieuren und Modellierungswerkzeugen. Anhand einer Fallstudie wird ein kollaborativer KI gestützter Workflow präsentiert, bei dem KI-Assistenz und menschliches Urteilsvermögen systematisch kombiniert werden.

Kernprinzip: Ausgehend von Requirements werden zunächst Test Verpflichtungen – sogenannte TestObligationSceanrios erstellt. Die KI analysiert die Requirements und stellt Fragen statt Annahmen zu treffen. An jeder Ambiguität in den Requirements – unklare SUT-Grenzen, fehlende Initialisierungsangaben, widersprüchliche Anforderungen – stoppt der Workflow und fordert Klärung ein. Jede Entscheidung wird als TestDecision-Requirement im Modell dokumentiert und über Dependencies mit den betroffenen Artefakten verknüpft.

Der Prozess durchläuft drei Phasen: (1) Requirements-Analyse und Erzeugung implementierungsunabhängiger TestObligationScenarios, (2) Verfeinerung zu TestObligationScenarioRefinements unter Verwendung von ArchitectureDetails, (3) automatisierte Erzeugung von TestScenarios mit Prüfung an Checkpoints.

Die Fallstudie demonstriert den Workflow an einem Fenster – Steuersystem. Besonderer Fokus liegt auf der Nachvollziehbarkeit: Jede Designentscheidung ist im Modell dokumentiert, mit Begründung, betrachteten Alternativen und betroffenen Artefakten. Dies ermöglicht Audits, Onboarding und Review-Prozesse.

Erkenntnisse: Der Ansatz reduziert Fehlannahmen signifikant, schafft vollständige Traceability-Ketten und bewahrt Domänenwissen im Modell. Die Balance zwischen KI-Automatisierung und menschlichem Urteil erweist sich als Schlüssel zu qualitativ hochwertigen Testarchitekturen.

AI Powered Engineering: Wo schafft KI im Engineering heute echten Mehrwert und was ist dafür in der Praxis erforderlich?

In diesem Workshop zeigen wir konkrete Einsatzmöglichkeiten von KI in der Produktentstehung und im Systems Engineering. Im Mittelpunkt stehen praxisnahe Demos vom KI-Marktplatz und von VPATH AI, die veranschaulichen, wie KI bei typischen Engineering-Aufgaben unterstützen kann — von der Arbeit mit Anforderungen und Spezifikationen bis hin zum Umgang mit komplexen Zusammenhängen über verschiedene Artefakte und Tools hinweg.

Neben den Demos diskutieren wir gemeinsam mit den Teilnehmenden, welche Use Cases in der Praxis besonders relevant sind, wo die größten Potenziale liegen und welche Risiken und Voraussetzungen beim Einsatz von KI berücksichtigt werden müssen. Dazu gehören unter anderem Datenqualität, Nachvollziehbarkeit, Integration in bestehende Prozesse und die sinnvolle Rolle des Menschen im Zusammenspiel mit KI.

IBM: KI‑unterstütztes MBSE – Mit intelligenter und bewährter Methodik zur Systemarchitektur

IBM Rhapsody Systems Engineering (Rhapsody SE) ist eine auf SysML v2 basierende, cloud-native, webbasierte Lösung und überzeugt insbesondere durch seine einfache intuitive Bedienung. Die über viele Jahre bewährte Harmony‑Methode wurde in Rhapsody SE integriert und ganz neu um die Möglichkeit KI‑unterstützt zu arbeiten erweitert. So können beispielsweise textuelle Anforderungen analysiert und passende Modellelemente generiert werden. Dies reduziert manuellen Aufwand und beschleunigt den Einstieg in die Modellierung.

Anhand eines praxisnahen Beispiels zeigen wir, wie mit Rhapsody SE in kurzer Zeit ein konsistentes Systemmodell entsteht. Durch die Kombination aus SysML v2, Harmony und KI‑Unterstützung erleichtert Rhapsody SE gerade neuen Anwendern den Zugang zur modellbasierten Systementwicklung und steigert zugleich Effizienz und Modellqualität.

oose: SysML v2 auf der Apollo-Mission

Was passiert, wenn ein SysML-v2-Modell nicht nur gelesen, sondern von Maschinen verstanden und simuliert werden soll?

Tim Weilkiens von oose wird gemeinsam mit Marco Bimbi von MathWorks ein SysML v2-Modell der Apollo-11-Mission nutzen, um Bemerkenswertes und Wissenswertes rund um SysML v2 aufzuzeigen. Das Apollo-Modell ist ein sehr umfangreiches Modell der Apollo-11-Mission, das von Airbus veröffentlicht und auf GitHub verfügbar ist: https://github.com/airbus/apollo-11-sysml-v2,

Tim wirft zunächst einen Blick auf das Modell. Es enthält noch ein paar häufig gemachte Fehler. Wir werden uns ein paar dieser Fehler anschauen und korrigieren. Danach wechseln wir den Blickwinkel und stellen uns vor, dass wir eine Maschine sind, die das Modell lesen möchte. Wir werden feststellen, dass wir im Modell mehr als die Semantik von SysML v2 benötigen. Wie finde ich als Maschine beispielsweise das Systemelement. Es ist als Part modelliert, wie viele andere Hunderte von Elementen auch. Das Modell enthält bereits eine Lösung dazu.

Nun haben wir ein SysML-v2-Modell der Mission und Marco wird es nutzen, um eine Simulation der Mondlandung zu zeigen. Spannenderweise ist eine der Ingenieur:innen, die den LunarLander mitentwickelt haben, später zu MathWorks gewechselt. Es kommt also fast vom Erfinder 🙂. Neben der spannenden Simulation wird aber auch deutlich, wie wertvoll ein maschinenlesbares SysML-v2-Modell ist, auf das leicht über die standardisierte SysML-v2-API zugegriffen werden kann.

Wir werden uns auch ansehen, wie wir Fehler ins Modell einspeisen können, und beobachten, was dann passiert … hoffentlich landen wir trotzdem und enden nicht mit dem berühmten … „Houston, wir haben ein Problem!“