Die Erstellung von Test Verpflichtungen und deren Verfeinerung zu ausführbaren TestCases erfordert intensive Zusammenarbeit zwischen Testingenieuren und Modellierungswerkzeugen. Anhand einer Fallstudie wird ein kollaborativer KI gestützter Workflow präsentiert, bei dem KI-Assistenz und menschliches Urteilsvermögen systematisch kombiniert werden.
Kernprinzip: Ausgehend von Requirements werden zunächst Test Verpflichtungen – sogenannte TestObligationSceanrios erstellt. Die KI analysiert die Requirements und stellt Fragen statt Annahmen zu treffen. An jeder Ambiguität in den Requirements – unklare SUT-Grenzen, fehlende Initialisierungsangaben, widersprüchliche Anforderungen – stoppt der Workflow und fordert Klärung ein. Jede Entscheidung wird als TestDecision-Requirement im Modell dokumentiert und über Dependencies mit den betroffenen Artefakten verknüpft.
Der Prozess durchläuft drei Phasen: (1) Requirements-Analyse und Erzeugung implementierungsunabhängiger TestObligationScenarios, (2) Verfeinerung zu TestObligationScenarioRefinements unter Verwendung von ArchitectureDetails, (3) automatisierte Erzeugung von TestScenarios mit Prüfung an Checkpoints.
Die Fallstudie demonstriert den Workflow an einem Fenster – Steuersystem. Besonderer Fokus liegt auf der Nachvollziehbarkeit: Jede Designentscheidung ist im Modell dokumentiert, mit Begründung, betrachteten Alternativen und betroffenen Artefakten. Dies ermöglicht Audits, Onboarding und Review-Prozesse.
Erkenntnisse: Der Ansatz reduziert Fehlannahmen signifikant, schafft vollständige Traceability-Ketten und bewahrt Domänenwissen im Modell. Die Balance zwischen KI-Automatisierung und menschlichem Urteil erweist sich als Schlüssel zu qualitativ hochwertigen Testarchitekturen.
