Importer le système testé
Vous pouvez facilement importer le code du système testé en tant que composant FMI, soit entièrement généré par un outil de création de code (Simulink, Scade, ControlBuild, etc.), soit partiellement généré par STIMULUS pour incorporer votre code C. En phase d'intégration, vous pouvez également importer un fichier CSV pour réaliser une post-analyse du système en conditions réelles.
Créer des scénarios de test
Plusieurs cas d'utilisation peuvent être définis pour tester le système. STIMULUS génère ensuite automatiquement un grand nombre de vecteurs de test pour chaque cas d'utilisation, de façon à optimiser la couverture fonctionnelle de votre compagne de tests. Les exigences peuvent être facilement réutilisées en tant que critères d'observation pour détecter et signaler toute violation des spécifications.
Exécuter des campagnes de tests
La campagne de tests automatise l'exécution des nombreux vecteurs de test générés à partir des cas d'utilisation. STIMULUS fournit alors des indicateurs complets sur la couverture des exigences et les manquements relevés. Chaque test qui a échoué peut être réexécuté dans l'environnement de simulation, au sein duquel les manquements aux exigences peuvent être analysés.
Validation Requirement-In-The-Loop
Une fois le code développé, STIMULUS contrôle automatiquement la conformité du système aux exigences. Des diagrammes en bloc vous permettent de créer un environnement de test qui transforme les exigences en critères d'observation, et le système testé est importé en tant que DLL au moyen du protocole FMI standard. Vous pouvez alors générer et exécuter de nombreux vecteurs de test. STIMULUS vérifie ensuite automatiquement que le comportement du système testé correspond aux spécifications. Lors de la campagne de tests, STIMULUS mesure et signale des indicateurs complets sur la couverture fonctionnelle des exigences.
STIMULUS en action
La figure ci-dessous illustre une capture d'écran STIMULUS après l'exécution d'une campagne de tests. La fenêtre en haut à droite donne un aperçu global des tests réussis et échoués, tandis que la fenêtre du bas fournit des indicateurs précis sur les tests qui ont échoué et permet à l'utilisateur de les réexécuter dans l'environnement de simulation standard.