Télécharger le fichier pdf d’un mémoire de fin d’études
Correction d’une simulation
La correction d’un produit de simulation est le résultat de l’activité de vérificia-tion. Ce critère statue sur la conformité du simulateur par rapport à ses spécifica-tions sur la preuve que le simulateur est dégagé de toutes erreurs d’exécution (free of run-time error). Ce critère s’adresse aux modèles et à la plateforme d’exécution.
Au niveau des modèles, il s’agit de s’assurer que ceux-ci satisfont les contraintes héritées de la physique. Par exemple, s’assurer que la masse est toujours positive ou nulle. Ces règles sont plus ou moins simples et plus ou moins connues. Elles méritent d’être suscitées par les experts du domaine afin que les développeurs du modèle puissent les vérifier plus systématiquement.
Au niveau de la plateforme d’exécution, il s’agit de s’assurer que celle-ci n’in-troduit pas de biais dans l’observation des comportements qui sont encodés par les modèles. Cela signifie que la plateforme d’exécution doit respecter la sémantique opérationnelle des modèles. Par exemple, l’exécution d’un modèle peut être distri-buée sur diverses machines. Ces machines ne partagent pas la même horloge alors que le modèle fut conçu autour d’une horloge globale. Il s’agit donc de vérifier que les contraintes de temps entre les éléments du modèle sont préservées par l’implé-mentation. Cela signifie également que les calculs numériques doivent être réalisés avec une certaine exactitude en fonction des méthodes de résolution numérique uti-lisées dans le modèle. Enfin, cela signifie que la plateforme d’exécution doit être suffisamment robuste (pas de « crash » de division par zéro, dépassements,…).
Validité d’une simulation
La validité d’un produit de simulation est le résultat de l’activité de validation. Ce critère statue sur la capacité du simulateur et du cadre expérimental à répondre aux questions posées par l’utilisateur pour résoudre ses problèmes. Une attention particulière est portée sur la notion de fidélité qui permet de démontrer que le modèle et son comportement sont une représentation adequate du système réel et de son comportement à l’égard d’un objectif d’utilisation d’un produit de M&S [Brade 00].
Le premier aspect de ce critère est de déterminer si le simulateur (modèle exécutable et plateforme d’exécution) permet de réaliser les tests qui sont spéci-fiés pour atteindre un objectif. Nous parlons communément de cadre expérimental [Zeigler 00b]. Au regard des requêtes du cadre expérimental, cela revient à détermi-ner si le simulateur offre : (1) les moyens de contrôlabilité permettant de stimuler les modèles et (2) les moyens d’observabilité permettant l’observation des effets des stimuli d’entrée sur le système. Les problèmes de contrôlabilité et d’observabilité consistent à fournir au développeur des modèles d’environnement les spécifications des fonctions ou des cas d’utilisation requis par un cadre expérimental. Ces spé-cifications définissent les conditions d’interfaçage et les abstractions autorisées. La première difficulté est bien souvent inhérente aux spécifications trop vagues, no-tamment lorsque le cadre expérimental est peu connu. Nos études préliminaires ont montré que l’utilisateur de la simulation n’est pas capable de définir le cadre expéri-mental ; il préfèrera se replier sur la formulation « comme dans l’avion ». Nous voyons bien là la nécessité d’établir un guide méthodologique ou un cadre de travail facili-tant la spécification d’un cadre expérimental. La seconde difficulté est qu’un modèle d’environnement peut être utilisé dans différentes simulations avec des cadres expé-rimentaux différents. Par exemple, un même modèle peut être utilisé pour valider deux systèmes d’intérêt différents. Les conditions d’interfaçage ne peuvent pas être constamment imposées par chaque cadre expérimental spécifique. Donc, les déve-loppeurs des modèles d’environnement doivent spécifier le domaine d’usage de leur modèle. Le domaine d’usage décrit les capacités, les limitations d’un modèle de si-mulation. Il y a encore une fois un besoin de clarifier et d’homogénéiser cette notion de domaine d’usage d’un modèle.
Le deuxième aspect concerne la pertinence du choix du modèle au regard des objectifs à atteindre. Considérons que le simulateur permet la stimulation et l’ob-servation plannifié par le cadre expérimental tel que nous l’avons expliqué ci-dessus.
Certains modèles ne décrivent qu’une connaissance partielle du système à un mo-ment donné de son développement et d’autres sont délibéremment simplifiés pour satisfaire plus efficacement les objectifs d’utilisation. Pour chaque modèle simplifié, il faut vérifier la validité de l’abstraction : la simulation d’un modèle abstrait et la si-mulation d’un modèle de référence ou l’expérimentation du système réel conduisent au même jugement pour l’objectif considéré. De plus lorsque l’on compose des mo-dèles, il faut également vérifier si la composition des abstractions est valide. La pratique la plus commune pour gérer ce problème est de comparer les résultats de l’exécution du modèle abstrait avec ceux du modèle de référence. Ceci implique qu’il existe un modèle de référence. Il serait donc utile de caractériser les procédures d’abstraction valides indépendamment d’un modèle de référence.
Enfin, il faut s’assurer de l’efficacité du cadre expérimental à satisfaire les objec-tifs d’utilisation. Ceci se traduit par la vérification qu’un cadre expérimental assure une exploration suffisante du modèle. Si ce n’est pas le cas, cela peut signifier soit que les exécutions non explorées ne sont pas pertinentes et donc que le modèle est trop complexe pour l’objectif, soit que les hypothèses du cadre expérimental sont érronées.
Efficacité d’une simulation
L’efficacité d’une simulation est un problème othogonal à la validité et à la cor-rection. Les mesures d’efficacité sont des critères qui permettent de qualifier l’utili-sation d’un produit de simulation. Par exemple, ces critères peuvent être le temps nécessaire au développement et à l’utilisation du produit de simulation ou le coût et la criticité de cette activité de développement pour atteindre la réussite du projet. L’analyse d’efficacité peut permettre de comparer différents produits de simulation valides pour atteindre un objectif d’utilisation, mais ne peut en aucun cas remplacer les analyses précédentes de correction et de validité.
Les mesures qui peuvent permettre de caractériser plus finement les problèmes d’efficacité sont :
– Avoir un modèle à disposition : il est préférable d’avoir un modèle simplifié rapidement plutôt que d’avoir un modèle complexe trop tard. Cependant, réutiliser un modèle détaillé déjà existant peut dans certain cas être plus satisfaisant que de développer un nouveau modèle.
– Intégrer les modèles sur une plateforme d’exécution : l’intégration de modèles trop détaillés rend délicate leur intégration.
– Conception des scénarios de simulation : si la granularité des interfaces du produit de M&S ne sont pas adaptés, la conception des scénarios est com-plexifiée par l’affectation de valeurs à des variables sans intérêt pour l’objectif d’utilisation.
Conclusion sur les critères
La description d’une qualité d’un produit de simulation en trois méta-critères et les acteurs qui y ont été associés nous ont mené à positionner notre étude essentiel-lement sur le problème de validité. La correction n’est pas un critère spécifique à la M&S. C’est une activité classique d’ingénierie système ou de génie logiciel. L’effica-cité est souvent présentée comme un critère de consolidation de la validité pour une prise de décision argumentée sur l’utilisation d’un produit de simulation.
Démarche générale d’évaluation
Dans un grand nombre d’organisations, la documentation n’est pas considérée comme une partie de l’activité de conception mais plutôt comme une tâche addition-nelle, quelque peu désagréable, qui doit être remplie pour des raisons contractuelles ou pour répondre à des normes. Une partie de l’évaluation repose sur les constituants de la simulation et leurs relations. Les aspects des constituants sont variés, ce qui rend difficile l’évaluation de leur compatibilité. Et, parce que les produits de simu-lation sont des produits complexes, ils nécessitent un effort de documentation. Si le processus de validité implique la collecte d’information afin d’améliorer la documen-tation d’une simulation, il est impératif de réutiliser et d’adapter les documents ou formalismes existant et d’automatiser autant que possible le processus d’extraction d’information à partir des documents existants, plutôt que d’allourdir le processus de développement et introduire de nouveaux documents ou formalismes spécifiques à l’évaluation des produits de simulation. Puisque notre étude s’inscrit dans le cadre de l’ingénierie des systèmes, le processus d’évaluation doit s’intégrer dans ce cadre, et donc se servir des documents issus des standards d’ingénierie système pour la collecte d’information et la production des documents.
Le meilleur moyen de garder un certain degré d’automatisation est de travailler avec des concepts formels. Il est nécessaire de définir des formulaires de documen-tation, basés sur des formalismes pour décrire les constituants de M&S. Ces forma-lismes joueront le rôle de médiateur de la mise en correspondance des constituants supportant ainsi le processus de V&V de la M&S. Nous proposons la construction de formats standards de description des constituants d’une M&S et des critères d’accep-tation afin de clairement et structurellement spécifier les concepts liés à l’évaluation et sous-jacents à chaque constituant. Il s’agit ensuite de garnir ces fiches standards par extraction et/ou collecte d’information à partir de documents existants et de l’analyse des acteurs de la M&S.
La théorie de la M&S [Zeigler 00b] présente des concepts avancés sur les consti-tuants d’une simulation et leurs relations. Elle propose notamment une spécification formelle du cadre expérimental. Elle permet également de fournir une description d’un modèle tout en se demandant si ce modèle reproduit correctement le comporte-ment dynamique du système selon un point de vue donné offrant ainsi un cadre aux problèmes d’abstractions et de validité d’une abstraction. Ce cadre formel est sup-porté par le formalisme DEVS (Discrete Event System Specification) utilisé comme langage de spécification indépendant d’une plateforme d’exécution. Ainsi, nous pro-posons d’utiliser la théorie de la M&S pour la formalisation des constituants. Les critères de compatibilité seront établis sur les artefacts de ce formalisme.
État de l’art en matière de V&V de M&S
M&S : Une abstraction de la réalité
La problématique du sujet traité dans cette étude prend directement sa source dans le concept même de modélisation. En général, un modèle est défini comme étant une représentation (parmi d’autres) simplifiée de la réalité. Cette représentation est considérée comme une abstraction de la réalité. La notion de modèle que nous manipulons dans la communauté de M&S est tout à fait comparable à la notion de théorie telle qu’elle est définie dans la méthode scientifique [Godfrey-Smith 03]. Une théorie est une explication de la manière dont un ensemble de faits réels interagissent entre eux. Elle est capable de prédire les observations de ces mêmes faits et elle est capable d’être testée au travers des expérimentations ou autrement d’être falsifiée à travers des observations empiriques.
Donc un modèle prend sa source et vit au travers des évidences expérimentales.
À partir d’observations précédentes, et donc de par son expérience, le scientifique établit une théorie ou enrichit/corrige une théorie déjà existante, dans le but ul-time de généraliser/universaliser un ensemble de suppositions. Pour construire un modèle, les ingénieurs formulent des hypothèses spécifiques comme des représenta-tions d’un système réel, et conçoivent des expériences qui testent l’exactitude de ces hypothèses. Ces étapes sont répétées de manière à approcher le plus possible la réalité. L’abstraction est alors directement liée à la perception qu’a le modélisateur de la réalité, et de sa connaissance du monde réel. Ainsi, une modèlisation est un ensemble de théories formulées (ou raffinées) à partir d’observations du monde réel et d’hypothèses sur ce monde réel. La simulation est l’expérimentation du modèle dans le but de valider ou réfuter les théories formulées.
État de l’art en matière de V&V de M&S 25
Le point de vue de F.K. Frantz
Le concept d’abstraction de modèle est décrit par F.K. Frantz [Frantz 95] comme une méthode permettant de réduire la complexité d’un modèle tout en conservant la validité des résultats de simulation à l’égard des questions auxquelles la simulation est censée apporter des réponses. Un ensemble de techniques a été développé par les communautés de M&S et de l’intelligence artificielle pour simplifier un modèle. L’auteur propose une taxonomie de ces techniques que nous présentons dans le cha-pitre suivant. Donc, s’il existe des hypothèses liées à la perception et la connaissance qu’un développeur de modèle a de la réalité, il existe aussi des hypothèses qui per-mettent d’abstraire volontairement ce modèle afin de faciliter sa compréhension et diminuer le coût de son implémentation, pour un objectif d’utilisation donné. Pour l’auteur, une abstraction est valide si elle préserve la validité des résultats de la si-mulation, qui sont dépendants des questions posées. F.K. Frantz décrit le processus de construction d’une simulation sous forme de deux transformations successives (figure 2.1) :
– le passage du monde réel vers un modèle conceptuel par un mécanisme d’abs-traction,
– le passage du modèle conceptuel vers un modèle de simulation par un méca-nisme d’implémentation.
Le modèle conceptuel est vu comme la façon de représenter le système réel. C’est à travers le modèle conceptuel que sont définis les facteurs qui influencent le comportement du système, les comportements du système qui doivent être inclus dans le modèle, et la représentation de ces comportements en partant du principe que :
– un modèle est toujours construit afin d’être utilisé pour répondre à certaines questions à propos du monde réel,
– les données disponibles pour décrire le monde réel sont variées,
– les ressources de développement et d’implémentation disponibles pour construire, valider et utiliser le modéle doivent être prises en compte dans la modélisation.
La construction du modèle conceptuel est une abstraction puisque le modèle conceptuel est une représentation simplifiée du système du monde réel. Le processus qui détermine si le modèle conceptuel est une représentation exacte du système du monde réel est appelé validation. L’auteur souligne le fait que si l’abstraction est une mise en correspondance entre le modèle conceptuel et le système du monde réel, elle peut tout aussi bien mettre en correspondance deux modèles conceptuels différents. Le modèle conceptuel est ensuite transformé en un modèle exécutable, appelé mo-dèle de simulation, caractérisé par un ensemble d’instructions interprétables par une plateforme d’exécution. La vérification consiste à s’assurer que le modèle de simu-lation est une description correcte du modèle conceptuel. Notons que le passage du modèle conceptuel vers le modèle de simulation peut être l’objet de plusieurs trans-formations. Enfin les résultats de simulation sont obtenus par exécution du modèle de simulation. L’accréditation est l’activité qui permet de déterminer si les résultats de simulation doivent être utilisés par rapport à l’impact de cette utilisation (i.e. conséquences indésirables associées à des décisions erronées).
Le point de vue de R.G. Sargent
Le monde réel est constitué du système réel (problem entity) qui devient, par ex-périmentation une source de données observables (system data). Par un mécanisme d’abstraction sur le système et à partir d’hypothèses sur les données observables, un premier pas est mis dans le monde de simulation (system theories). A partir d’ob-jectifs d’utilisation et des théories du système, un modèle conceptuel est construit. Puis par des étapes successives de spécification et d’implémentation un modèle de simulation est produit. Par expérimentation/utilisation du modèle de simulation, des résultats de simulation sont produits. Conformément aux définitions données en section suivante, le passage d’une étape vers une autre est évalué par des activités de vérification. La validation a trois aspects : la validation du modèle conceptuel, la validation de la théorie et la validation opérationnelle.
La validation du modèle conceptuel est toujours liée à un objectif d’utilisation.
Elle consiste en une évaluation a priori de la « validité » du modèle conceptuel.
La validation opérationnelle est réalisée par comparaison entre les résultats de simulation et les données d’expérimentation du système réel. Elle n’est alors possible que lorsque le système réel est disponible. La technique qui consiste à comparer les données d’expérimentation du système réel aux résultats de simulation est commu-nément appelée « face validation » [DMSO 01].
La validation de la théorie consiste à valider ou réfuter un ensemble d’hypothèses à travers une expérimentation du système réel. C’est le principe de la méthode scien-tifique. De nombreux travaux plus philosophiques abordent ce problème comme ceux de Karl Popper. Des méthodes comme la méthode hypothético-déductive théorisée par Roger Bacon visent à déterminer la validité d’hypothèses formulées. Cet aspect de la validation est extrêmement important mais il est en dehors du périmètre de notre étude car comme la validation opérationnelle, la validation de la théorie se fait par rapport aux données réelles. Nous considérons tout au long de ce mémoire la validation du modèle conceptuel.
Vérification, Validation et Accréditation d’une M&S
Alors que le monde de l’ingénierie logiciel devenait une discipline à part en-tière, le besoin d’avoir des processus formels, cohérents, traçables de production de logiciel a été identifié pour des raisons évidentes de diminution des coûts et de détec-tion d’erreurs et d’incohérences au plus tôt. Des modèles de référence et de bonnes pratiques ont alors vu le jour comme le « Capability Maturity Model Integration » (CMMI) [SEI 06], l’EIA632 [EIA 99] et l’ISO 15288 [ISO 03]. L’émergence d’UML [Rumbaugh 99] a significativement accéléré l’apparition de tels processus. Le même besoin s’est fait ressentir en M&S. La VV&A, comparable à ces standards interna-tionaux dans le domaine de la simulation, a contribué à une évolution allant dans le même sens.
Rappelons que la V&V est un ensemble de techniques et d’actions appliquées à un produit et à tous les produits intermédiaires issus du cycle de développement afin de s’assurer qu’ils sont conformes à un ensemble de dispositions pré-établies. La validation système consiste à apporter la preuve que le système fonctionne comme attendu par le client dans son environnement opérationnel. La vérification consiste à s’assurer que le système est conforme à ses spécifications. La V&V a été très favorablement accueillie par les communautés de M&S aussi bien qu’en ingénierie système. Mais, dans le contexte présenté dans la section précédente, le besoin est quelque peu différent. L’objectif étant de construire un niveau de confiance dans une application de M&S, il faut que ces techniques et actions permettent de définir si une simulation peut être utilisée dans une situation donnée et que sa « credibilité » soit établie en évaluant son degré de « représentativité » par rapport au système réel pour un objectif d’utilisation donné. La décision d’utiliser une application de M&S dépendra donc de son domaine d’emploi, de sa correction, de sa précision, de son exactitude, et bien sûr, de son utilisabilité dans un contexte donné. La vérification, validation et accréditation d’une application de M&S sont trois processus distincts, mais non indépendants, pour collecter des évidences permettant d’évaluer de tels critères de « qualité » d’une application de M&S.
Il y a une variété de définitions formelles pour les termes VV&A [Brade 00] [ITOP 04] [REVVA 04]. En général, le sens qui leur est attribué est [USDoD 93] :
– Vérification : le processus permettant de déterminer si l’implémentation d’un modèle et les données qui lui sont associées sont conformes à la description conceptuel du développeur et à ses spécifications.
– Validation : le processus permettant de déterminer si un modèle et les données qui lui sont associées fournissent une représentation exacte du monde réel dans un contexte d’utilisation donné du modèle.
– Accréditation : la certification officielle qu’un modèle, une simulation, une fédération de modèles et de simulations et les données qui leur sont associées sont acceptables pour un objectif donné.
Ces définitions sont aisément retenues grâce aux questions suivantes : Vérification
– Ai-je construit le modèle correctement ?, validation – Ai-je construit le bon modèle ? et accréditation – Puis-je utiliser le modèle ?
Vérification
Le sens attribué au processus de vérification tel qu’il est défini par le DoD est le même que celui utilisé dans l’ingénierie système et l’ingénierie du logiciel. Ce processus vise à assurer que le produit final est conforme à sa spécification. Plus généralement, la vérification s’applique à chaque produit intermédiaire d’une phase spécifique du cycle de vie du produit. Ce dernier doit être conforme au référentiel de la phase précédente. La définition de D. Brade va dans ce sens et associe ex-plicitement l’activité de vérification à l’examination de la correction d’un modèle [Brade 00] : la vérification d’un modèle est le processus qui cherche à démontrer que le modèle est correctement représenté et a été transformé correctement d’une forme de représentation à une autre, selon toutes les règles de transformation et de repré-sentation, les exigences, et les contraintes. L’auteur décompose la correction en deux sous-critères, la cohérence – modèle correctement décrit sous toutes ses formes de représentation et la complétude – tout ce qui est décrit dans une forme de représen-tation l’est aussi celle issue de la transformation. Dans [REVVA 04] la vérification est le processus, utilisé pour construire, sous un ensemble de contraintes de temps et de coûts une preuve justifiée de la correction d’un modèle. Les développeurs d’une si-mulation se tournent typiquement vers les méthodologies de l’ingénierie logiciel pour guider la vérification d’une simulation. Ces méthodologies impliquent divers tests lo-giciel, tel que l’analyse logique, l’analyse des interfaces et l’analyse des contraintes des programmes [Whitner 89] [Oberkampf 04].
Validation
Alors que la validation définie par les communautés d’ingénierie système et du logiciel vise à s’assurer que le produit répond bien au besoin de l’utilisateur, la tradition des communautés de M&S associe la validation à l’activité qui cherche à assurer que le produit (de M&S) permettra d’atteindre l’objectif d’utilisation et que ce produit a un comportement suffisamment proche du système qu’il représente pour cet objectif d’utilisation. Ainsi, en plus du traditionnel concept de « satisfaction du besoin utilisateur », une notion de fidélité [DMSO 00a] a été introduite par la com-munauté de M&S. Cette notion de fidélité est largement discutée au sein de la com-munauté. Dans [Brade 00] l’auteur parle de « suitability », terme ensuite décomposé en « capability », « fidelity » et « accuracy » et définit la validation comme le processus de démontrer que le modèle et son comportement sont une représentation adequate (« suitable ») du système réel et de son comportement selon un objectif d’utilisation de la simulation. Le Simulation Interoperability Organisation Office [DMSO 00b] propose une liste de caractéristiques d’une simulation liées à la fidélité : accuracy, ca-pacity, error, fitness, precision, resolution, sensitivity, tolerance, validity. Les diverses techniques de validation de M&S sont listées dans [DMSO 00c], [Whitner 89].
Accréditation
L’accréditation quant à elle est une activité spécifique à la M&S et hautement normative. En plus des résultats de V&V produits par les activités précédentes, elle prend en compte des aspects de gestion de projet comme le coût et le risque associés à l’utilisation du produit de M&S, pour prendre la décision finale et officielle que ce produit peut être utilisé avec confiance et crédibilité.
Le modèle conceptuel
Le modèle conceptuel est le premier élément de conception de l’application de M&S. Il est, pour F.K. Frantz, directement issu du mécanisme d’abstraction de la réalité et prend en compte les objectifs d’utilisation de la simulation et les hypothèses de modélisation. Si nous nous reportons au paradigme développé par R.G. Sargent, il prend également en compte les théories du systèmes (algorithmes, équations…). Dans de nombreux travaux, le modèle conceptuel est vu comme le pont, l’élément de communication entre l’utilisateur et le développeur de la simulation. Il est le point d’entrée pour le développement du produit et doit être accrédité par chacun, utilisateur et développeur. Son développement et sa validation sont donc une étape très importante du développement de l’application de M&S. L’évaluation du modèle conceptuel porte sur l’adéquation entre le besoin exprimé par l’utilisateur et les possibilités du développeur de répondre à ce besoin, compte tenu des ressources de développement (disponibilité des données) et d’implémentation (contraintes liées à la plateforme d’exécution) dont il est tributaire. Nous parlerons communément d’exigences de M&S. Les exigences de M&S sont des exigences spécifiques exprimées par l’utilisateur. Ces exigences spécifiques ne sont pas des exigences systèmes mais des exigences plus détaillées, dérivées des exigences systèmes : les fonctionnalités, les conditions d’utilisation, les contraintes et hypothèses qui caractérisent l’objectif d’utilisation.
Alors en quoi consiste le modèle conceptuel ?
Le rôle du modèle conceptuel dans le développement d’une M&S tel qu’il est dé-crit dans le paradigme de R.G. Sargent ou F.K. Frantz est accepté par les standards de VV&A du DMSO et par la communauté y compris par D.K. Pace dont le travail traite du contenu du modèle conceptuel [Pace 99] d’une application de M&S.
Selon la figure 2.3, le modèle conceptuel transforme les exigences de M&S en une spécification du produit de M&S. D.K. Pace propose un modèle conceptuel en trois parties :
– le contexte de la M&S,
– le concept de la M&S,
– les éléments de la M&S.
Le contexte de la M&S définit le domaine du problème auquel l’utilisateur est confronté pour atteindre ses objectifs d’utilisation. Il décrit la nature du problème et l’ensemble des entités qui sont concernées par l’application de M&S. Suivant le niveau où l’on se place et le domaine, ces entités peuvent être des fonctionnalités, des algorithmes, des composants physiques ou logiques, des processus. Les exigences liées au niveau de fidélité nécessaire pour produire les résultats attendus doivent aussi être décrits dans le contexte de la simulation.
Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.
|
Table des matières
Introduction générale
1 Contexte et objectifs de l’étude
1.1 La simulation dans l’Ingénierie Système
1.1.1 Ingénierie Système
1.1.2 Utilisation de la M&S dans l’Ingénierie Système
1.2 Objectif de l’étude
1.2.1 Correction d’une simulation
1.2.2 Validité d’une simulation
1.2.3 Efficacité d’une simulation
1.2.4 Conclusion sur les critères
1.3 Démarche générale d’évaluation
2 Caractérisation du problème
2.1 État de l’art en matière de V&V de M&S
2.1.1 M&S : Une abstraction de la réalité
2.1.2 Vérification, Validation et Accréditation d’une M&S
2.1.3 Le modèle conceptuel
2.2 Cadre méthodologique d’élaboration de modèles et de simulations
2.2.1 Théorie de la M&S
2.3 Description du contexte industriel
2.3.1 Utilisation de la simulation dans le développement de l’avion
2.3.2 Périmètre de l’étude
2.4 Formulation du problème
2.4.1 Caractérisation d’une application de M&S
2.4.2 Caractérisation de la validité d’une M&S
3 Caractérisation de l’abstraction d’une M&S
3.1 État de l’art en matière d’abstraction
3.1.1 Taxonomie d’abstraction de D.S. Weld
3.1.2 Taxonomie des technique d’abstraction de B.P. Zeigler
3.1.3 Taxonomie des techniques d’abstraction de F.K. Frantz
3.2 Taxonomie pour le domaine des systèmes embarqués
3.2.1 Dimension architecture
3.2.2 Dimension donnée
3.2.3 Dimension calcul
3.2.4 Temps
3.2.5 Récapitulatif de la taxonomie
4 Propriétés et critères formels d’évaluation
4.1 État de l’art en vue d’une formalisation du problème
4.1.1 Ingénierie basée composant
4.1.2 Formalismes de spécification des systèmes
4.2 Formalisation des règles de compatibilité
4.2.1 Définition de la mise en correspondance entre un SOU et un SDU
4.2.2 Critères d’applicabilité
5 Méthodologie d’évaluation et illustration
5.1 Proposition d’une méthodologie d’évaluation
5.1.1 La démarche d’ingénierie système
5.1.2 La démarche de développement d’un modèle conceptuel
5.2 Cas d’application
5.2.1 Présentation du système
5.2.2 Spécification du SOU
5.2.3 Spécification du SDU
5.2.4 Validation de la structure et des données
5.2.5 Validation des calculs
Conclusion générale
Bibliographie
Télécharger le rapport complet