Open Space Slot: Holistic Systems Engineering – ein modell-basierter Ansatz – Variantenbildung durch Parametrisierung
eingereicht von Manfred Sieber
The Modeling Conference
eingereicht von Manfred Sieber
Mit leistungsfähigen LLMs hört man zunehmend die These: „Warum soll ich mein System noch formal in SysML v2 modellieren? Die KI liest doch meine Anforderungsdokumente, Lastenhefte und Architekturbeschreibungen ohnehin und beantwortet meine Fragen dazu.“ Gleichzeitig bringt SysML v2 mit seiner textuellen, maschinenlesbaren Syntax genau die Struktur mit, die KI-Systeme besonders gut verarbeiten können. Ersetzt KI also die formale Modellierung, oder ist sie im Gegenteil der Katalysator, der SysML v2 endlich in der Breite nutzbar macht?
KI verspricht, typische Schmerzpunkte der Modellierung zu entschärfen: hohe Einstiegshürde, manueller Aufwand, Inkonsistenzen zwischen Artefakten, mühsames Reverse Engineering von Altsystemen. Gleichzeitig entstehen neue Risiken: halluzinierte Modellinhalte, schleichender Qualitätsverlust durch „gut aussehende, aber falsche“ Modelle, Deskilling von Ingenieur:innen, unklare Verantwortlichkeit und neue Abhängigkeiten von KI-Anbietern und Trainingsdaten.
In diesem Open Space wollen wir beides nüchtern nebeneinanderlegen: Welche konkreten Herausforderungen der SysML-v2-Modellierung lassen sich mit KI heute wirklich adressieren, und welche Risiken muss man dabei aktiv managen? Eng damit verknüpft ist die Frage nach der Rolle des Menschen im zukünftigen Systems Engineering mit SysML v2: Wo verschiebt sich die Arbeit vom Modellieren hin zum Kuratieren, Prüfen und Entscheiden, und welche Kompetenzen, Verantwortlichkeiten und Modellierungsdisziplin bleiben unverzichtbar? Ziel ist ein offener Austausch zwischen Praktiker:innen, Methodiker:innen und KI-Interessierten, der über Demo-Folien hinausgeht.
Leitfragen
Nutzen
Ruslan Bernijazov (AI Marketplace), Tim Weilkiens (oose)
The system has been fully designed with utmost care with respect to mechanical, fluid, electrical, software, and networking needs. Yet, the first prototype integration tests reveal subtle conflicts, such as the communication bus speed needing a higher level of shielding to function robustly in the given operational environment of electromagnetic disturbance. Sounds familiar? Come to our session and discover how to connect domain dots to detect and solve cross-domain conflicts early, and how to optimize globally instead of within each domain. Does it require full adoption of top-down MBSE? Not at all, as we’ll discuss in our session.
So, how do you bridge these gaps? For the hardware/software cross-domain example, our session unveils how the Siemens-Infineon partnership delivers a robust ECU platform, integrating Siemens‘ Capital Embedded ECU Software with Infineon’s AURIX™ MCUs and MCAL for seamless application deployment. This scalable solution powers everything from body electronics and battery management to domain/zone controllers and advanced powertrains. It’s already in production, empowering leading OEMs like BMW and global Tier 1s such as Aisin to achieve peak reliability. Plus, get an exclusive look at the future with upcoming AURIX™ RISC-V chips, promising even greater innovation. Join us to see how this collaboration is redefining embedded software development!

In an era where systems are increasingly complex and the pace of innovation continues to accelerate, enterprises must improve how analytical and digital engineering models are developed, validated, and delivered. Traditional, fragmented toolchains manual and model review processes slow progress, introduce risk, and increase costs — making it difficult to compete in today’s fast-moving engineering landscape.
This workshop introduces qAnalytics, a next-generation analytics platform that helps organizations deliver models faster, with higher quality and less effort, while embracing modern engineering practices that drive business value. By embedding continuous integration (CI) principles into model development and lifecycle workflows, qAnalytics enables early issue detection through automated quality checks and real-time change visibility—reducing rework and accelerating time to key milestones. Continuous integration is rapidly emerging as a foundational practice for model-based engineering, extending the CI/CD mindset from software to systems engineering to enable continuous verification, alignment, and execution across disciplines and lifecycle stages.
With qAnalytics, organizations can improve model creation with a predictable, measurable, and automated pipeline shortening iteration cycles, and improving collaboration across teams. Attendees will learn how qAnalytics not only improves operational efficiency and model reliability, but also on how qAnalytics helps organizations reduce time-to-milestone and lower development costs — turning models into high-value business assets.
Mit der zunehmenden Komplexität technischer Systeme und dem wachsenden Einsatz Künstlicher Intelligenz rückt die Frage nach tragfähiger Semantik erneut in den Mittelpunkt. Aktuelle KI-Systeme zeigen eindrücklich, dass Modelle ohne explizite Wirklichkeitsannahmen zu Inkonsistenzen und Halluzinationen neigen. Entsprechend gewinnen Ontologien im Kontext vertrauenswürdiger und erklärbarer KI wieder deutlich an Bedeutung.
Im Model-Based Systems Engineering stellt SysML eine leistungsfähige formale Syntax zur Beschreibung von Systemstrukturen und -verhalten bereit, über die Semantik ausgedrückt werden kann deren Vollständigkeit, Eindeutigkeit und formale Prüfbarkeit jedoch begrenzt ist. Die Diskussionsrunde greift diese Entwicklung auf und stellt die Frage, ob die in der KI beobachtete Notwendigkeit expliziter Ontologien auch für das MBSE relevant ist.
Diskutiert wird, ob implizite Semantik in Modellen ausreicht, um komplexe Systeme zu beherrschen, oder ob explizite Ontologien notwendig werden, um Bedeutungen, Annahmen und Randbedingungen konsistent und realitätsnah zu erfassen. Dabei wird beleuchtet, ob SysML und Ontologien als konkurrierende Ansätze zu verstehen sind – oder ob sie sich komplementär ergänzen, um komplexe Systeme, Digital Twins und KI-gestützte Engineering-Prozesse robust und nachvollziehbar zu modellieren.
Unklare oder unvollständige Anforderungen sind eine häufige Ursache für späte Designänderungen und kostspielige Integrationsprobleme. Dieser Vortrag zeigt, wie eine frühe Validierung von Anforderungen durch die Simulation von Systemarchitekturen – oder ausgewählter Teile davon – lange vor der physischen Integration erreicht werden kann. Durch die Kombination von Architekturmodellen mit verhaltensorientierten Formalismen wie Sequenzdiagrammen werden Interaktionen und Annahmen ausführbar, beobachtbar und testbar.
Die Präsentation veranschaulicht, wie Anforderungen anhand des simulierten Systemverhaltens validiert werden können, um Inkonsistenzen, fehlende Interaktionen und unrealistische Annahmen auf Systemebene aufzudecken. Über die frühe Validierung hinaus lassen sich dieselben Modelle für die virtuelle Integration wiederverwenden und ermöglichen so eine kontinuierliche Verifikation, während sich Architekturen weiterentwickeln und Subsysteme verfeinert werden. Diese Wiederverwendung überbrückt die Lücke zwischen Requirements Engineering, Architekturentwurf und Integration und unterstützt einen robusteren und besser nachvollziehbaren Entwicklungsprozess.
Es werden praxisnahe Einblicke vermittelt, wie simulationsbasierte Validierung das Vertrauen in Anforderungen stärkt, Integrationsrisiken reduziert und frühere, evidenzbasierte Designentscheidungen in der Entwicklung komplexer Systeme ermöglicht.
In der modernen Fahrzeugentwicklung steht die IT vor einer doppelten Herausforderung: Sie muss nicht nur eine hochkomplexe Tool-Landschaft bereitstellen, sondern auch die Engineering-Methoden der beteiligten Domänen so verzahnen, dass ein durchgängiger Informationsfluss als Basis für domänenübergreifende Workflows entsteht.
Um die Zusammenhänge der vielfältigen Engineering-Daten, z.B. Anforderungen und Architekturmodelle, besser zu verstehen, wurden diese bei Mercedes-Benz in einem UML-Modell modelliert und beschrieben. Daraus ist dann nach und nach ein umfangreiches, dreischichtiges Metamodell mit Ontologie-, Konzept- und Realisierungsebene entstanden, das heute eine zentrale Rolle in der Entwicklung und Wartung der Engineering-IT eingenommen hat.
Dieser Vortrag beleuchtet die Evolution des Ontologie- und Metamodells: Was als persönliches Hilfsmittel begann, um die Komplexität der Modellierungsmethodik fassbar zu machen, entwickelte sich schnell zu einem zentralen Metamodell für verschiedene Fachabteilungen von der Methodenentwicklung bis zum Qualitätsmanagement und Datenschema für AI-Modelle.
Hier könnte dein Thema stehen!
Workshops mit Anwenderthemen; mehr zum Thema Open Space findest du hier.