L’ÉVALUATION DES ENTREPRISES
Inventaire des modèles et normes d’évaluation en logiciel
Un système de mesure de la performance bien conçu fournit à une entreprise de l’information utile pour gérer, contrôler, planifier et améliorer toutes ses activités. De plus, cette information doit être précise, disponible et fournie au moment précis, pour qu’elle soit facilement accessible aux personnes qui en ont besoin. Il est donc nécessaire de bien concevoir le design d’un système de mesure et d’évaluation: pour cette raison cette recherche fera appel aux normes ISO, à des normes gouvernementales et aux meilleures pratiques industrielles pour être utilisées dans le développement du système. Une autre partie importante est le processus du « mesurage » (i.e. la prise de la mesure): il doit être facile de mesurer et le résultat de mesure doit être libre de biais de la part du mesureur et de la personne qui fournit cette mesure.
Démarche Design for Six Sigma (DFSS)
Six Sigma est fondamentalement une mesure de qualité. Six Sigma est aussi applicable au génie logiciel à travers des concepts comme la voix du client, des mesures critiques à la qualité. Les techniques Six Sigma peuvent assurer que les spécifications du client soient comprises, que l’impact de changements proposés puissent être mesurés et évalués et que le processus de développement soit plus fiable, ce qui est un bénéfice pour cette recherche.
L’objectif plus important pour DFSS est « design it right the first time », c’est-à-dire, faire un bon design dès la première fois. C’est justement ce que cette recherche veut accomplir: faire un bon design du système d’évaluation de la performance. Pour cela, le suivi des quatre (4) phases de DFSS a été fait; ces phases sont les suivantes :
•Identifier les requis des clients et établir les besoins les plus importants,
•Caractériser le design, c’est-à-dire, traduire les besoins du client en spécifications fonctionnelles de l’application,
•Optimiser le design, avec le développement et design des études de cas et protocoles de vérification,
•Valider le design, avec le test de prototypes fonctionnels du système en utilisant l’information préparée dans la phase antérieure, pour établir les améliorations à réaliser sur les prototypes.
Exploration de nouvelles voies d’utilisation
L’importante croissance des entreprises de services à tous les niveaux et dans toutes les industries suscite un besoin de modèles et d’outils d’évaluation de leur performance pour leur permettre de rester concurrentielles. C’est donc en profitant de la position de l’université comme facilitateur de services à l’industrie que cette recherche a choisi de convertir le modèle d’évaluation en un outil générique qui puisse être utilisé pour évaluer la performance d’autres industries. Cet outil vise aussi – à partir de l’utilisation des nouveaux contenus – à servir de modèle et logiciel de certification, surtout en génie logiciel, où il est des plus utiles du fait de l’augmentation des normes qui ont besoin de certification pour leur utilisation dans les entreprises.
Dans le cas de certification des logiciels, la majorité des méthodes actuelles pour ce faire sont basées sur les processus, c’est-à-dire que la certification doit donner lieu à un suivi des processus et standards de développement adoptés par l’entreprise qui met au point un logiciel quelconque. Il faut aussi produire des statistiques sur la performance de l’outil.
|
Table des matières
INTRODUCTION
CHAPITRE 1 L’ÉVALUATION DES ENTREPRISES : CONTEXTE
1.1 Introduction
1.2 L’évaluation des fournisseurs
1.3 Problématique du processus d’évaluation chez STIQ
1.4 Contexte de la problématique à explorer dans cette recherche
1.5 Organisation de la thèse
CHAPITRE 2 MOTIVATION, PROBLÉMATIQUE ET OBJECTIFS DE LA RECHERCHE
2.1 Motivation
2.2 Problématique
2.3 Objectifs de la recherche
CHAPITRE 3 REVUE DE LITÉRATURE
3.1 Introduction
3.2 Le contexte STIQ
3.3 Volet ‘affaires’ de l’évaluation de performance des entreprises
3.3.1 Introduction
3.3.2 Systèmes d’évaluation de la performance
3.3.3 Mesures de performance
3.4 Volet ‘logiciel’ de l’évaluation de performance des entreprises
3.4.1 Inventaire des modèles et normes d’évaluation en logiciel
3.4.2 Modèle de processus pour la mesure de logiciel (Jacquet et Abran)
3.4.3 Norme ISO 15939
3.4.4 Capability Maturity Model (CMMi)
3.4.5 Démarche Design for Six Sigma (DFSS)
3.5 Développement de systèmes de mesure pour l’évaluation de la performance
3.6 Résumé
CHAPITRE 4 MÉTHODOLOGIE DE RECHERCHE
4.1 Introduction
4.2 Les phases de la méthodologie de recherche
4.3 Méthodologie : démarche globale
4.4 Méthodologie détaillée: démarche à suivre
4.5 Intégration
4.5.1 Conception et développement des livrables technologiques
4.5.2 Conception et développement des alternatives de traitement de contenu en sciences de la gestion
4.5.3 Design des études de cas
4.6 Vérification et validation
CHAPITRE 5 ARCHITECTURE POUR LE SYSTÈME D’ÉVALUATION DES FOURNISSEURS
5.1 Introduction
5.2 Familiarisation
5.3 Cadres de référence utilisés pour la conception du système de mesure
5.4 Architecture initiale du système d’évaluation de la performance des entreprises
5.4.1 Objectifs primaires de l’architecture
5.5 Considérations pour la « maintenabilité » du logiciel à concevoir
5.6 Autres considérations pour la conception et développement du logiciel associé au modèle
CHAPITRE 6 DÉVELOPPEMENT DU LOGICIEL DE SOUTIEN DU PROCESSUS D’ÉVALUATION
6.1 Introduction
6.2 Démarches initiales
6.3 Processus de design des prototypes
6.4 Documentation en cours de projet
6.5 Planification des étapes suivantes
6.5.1 Types d’échelles
6.5.2 Visites sur le terrain
6.5.3 Définition des règles d’affaires pour le logiciel
6.5.4 Révision de documentation produite par l’équipe de génie mécanique
6.5.5 Traitement du questionnaire
6.5.6 Réunions de travail
6.6 Critères de comparaison des prototypes avec l’outil actuel
CHAPITRE 7 DÉVELOPPEMENT DU PROTOTYPE 1
7.1 Introduction
7.2 Présentation des fonctionnalités du prototype 1
7.3 Vérification et expérimentation du prototype 1
7.3.1 Vérification du prototype 1 par les étudiants chercheurs
7.3.2 Expérimentation auprès des évaluateurs avec le prototype 1
7.3.3 Observations sur la vérification avec l’étudiant chercheur de l’équipe de Génie mécanique de l’ETS et les expérimentations avec les évaluateurs débutants
7.4 Rapport de test en industrie par le chercheur de l’équipe de génie mécanique
7.4.1 Partie théorique ou contenu
7.4.2 Partie logiciel
7.5 Réalisations effectuées avec ce premier prototype
7.6 Rétroaction final
CHAPITRE 8 DÉVELOPPEMENT DU PROTOTYPE 2
8.1 Introduction
8.2 Présentation des fonctionnalités du prototype 2
8.3 Vérification et expérimentation du prototype 2
8.3.1 Vérification du prototype 2 par les étudiants chercheurs
8.3.2 Expérimentation auprès des évaluateurs avec le prototype 2
8.3.3 Observations sur la vérification par l’étudiant-chercheur de l’équipe de Génie mécanique de l’ETS et les expérimentations avec les évaluateurs débutants
8.4 Réalisations effectuées avec ce deuxième prototype
CHAPITRE 9 DÉVELOPPEMENT DU PROTOTYPE 3
9.1 Introduction
9.2 Les liens de cause à effet: d’où viennent-ils?
9.3 Présentation des fonctionnalités du prototype 3
9.4 Vérification et expérimentation du prototype 3
9.4.1 Vérification du prototype 3 par l’étudiant-chercheur
9.4.2 Expérimentation auprès des évaluateurs avec le prototype 3
9.4.3 Observations sur la vérification
9.5 Réalisations effectuées avec ce troisième prototype
CHAPITRE 10 DÉVELOPPEMENT D’UN LOGICIEL PLUS ROBUSTE À UTILISER LORS DE L’ÉVALUATION
10.1 Introduction
10.2 Objectifs du modèle plus robuste d’évaluation
10.3 Démarche détaillée du processus de développement du logiciel
10.3.1 Démarche Normes ISO
10.3.2 Utilisation des normes IEEE
10.4 Démarche de développement
10.4.1 Structure du logiciel
10.4.2 Échéancier du développement
10.4.3 Gestion de risque
10.4.4 Conception générale du logiciel
10.4.4.1 Contraintes et risques du design
10.4.5 Gestion de la qualité
10.4.5.1 Objectifs de qualité
10.4.5.2 Plan de revue et d’inspection
10.4.6 Gestion de la configuration
10.4.6.1 Configuration des éléments susceptibles d’être changés
10.4.6.2 Méthode d’identification
10.4.6.3 Processus de configuration
10.4.6.4 Traitement et approbation des demandes de changement
10.4.6.5 Comptes-rendus et audits de configuration
10.4.7 Plan des tests
10.4.7.1 Objectifs
10.4.7.2 Types de tests
10.4.7.3 Les conditions d’acceptabilité
10.5 Sommaire
CHAPITRE 11 AUTRES EXEMPLES D’UTILISATION DU MODÈLE ET LOGICIEL D’ÉVALUATION
11.1 Introduction
11.2 Exploration de nouvelles voies d’utilisation
11.3 Flexibilité de contenu
11.4 Laboratoires de certification
11.5 Configurations réalisées dans le logiciel d’évaluation
11.6 Résumé
CONCLUSION
Objectif de recherche 1
Objectif de recherche 2
Recherches futures
Exploration des nouvelles voies d’utilisation
Utilisation de la Logique Floue (Fuzzy Logic)
Limitations de la recherche
Télécharger le rapport complet