Généralités sur la vision

LA VISION ARTIFICIELLE 

La vision par ordinateur rend compte des relations associant la scène et les images par l‟emploi des capteurs visuels et des modèles mathématiques. Cette discipline s‟intéresse aux traitements des images, à l‟interprétation des informations visuelles et à leurs utilisations.

Généralités sur la vision

Composant d’un système de vision 

La chaine d’acquisition dans les applications de vision artificielle est constituée d’une caméra intégrant un capteur de vision CCD ou CMOS et un objectif, d’une interface de communication comportant éventuellement une carte d’acquisition et d’une unité de traitement. Lors du processus d’acquisition, la caméra intègre l’information visuelle grâce au capteur de vision puis transmet l’image à l’unité de traitement à travers l’interface de communication. Après la réception de l’image, la phase de traitement consiste à extraire et à exploiter l’information visuelle.

Les capteurs

Ce sont des dispositifs qui transforment l’état d’une grandeur physique observée en une grandeur utilisable. Les capteurs sont les éléments de base des systèmes d’acquisition de données. En fonction de la caractéristique de la grandeur de sortie, on classifie les capteurs en deux grandes familles: les capteurs passifs et les capteurs actifs [1].
❖ Les capteurs passifs se comportent en sortie comme un dipôle passif qui peut être résistif, capacitif ou inductif.
❖ Les capteurs actifs ont pour sortie équivalente à un générateur.

Les différents types de capteur

Nous allons voir deux types de capteur: le capteur CCD et le capteur CMOS .

a) Le capteur CCD :
« Charged-coupled devices » : c‟est une matrice de cellules photosensibles, chaque cellule accumule des charges en fonction de la lumière incidente qu‟elle reçoit. Les charges sont ensuite transportées sous forme de données numériques. Ses caractéristiques sont les suivantes :
● moins de distorsion géométrique ;
● signal vidéo plus linéaire par rapport à l‟intensité lumineuse ;
● résolution importante;
● très populaire.

b) Le capteur CMOS
Le principe est le même que pour les capteurs CCD. Il s‟agit d‟une matrice de cellules photosensibles. La différence principale est que chaque cellule peut être adressée individuellement, et l‟information transmise est la quantité de lumière instantanée et non accumulée. Ces caméras restent moins précises que les CCD et moins adaptées aux prises de vue en temps réel. Elles sont par contre moins chères que les CCD.

L’unité de traitement

L‟unité de traitement réalise l’ensemble des opérations sur les images numériques, qui transforment une image en une autre image, ou en une autre primitive formelle. Il a pour but d‟extraire les paramètres discriminants des images afin de déduire une description quantitative de l‟image ou une reconnaissance de forme. Les opérations s‟effectuent en plusieurs étapes qui sont : le prétraitement pour améliorer la qualité de l‟image, la simplification de l‟image et la décomposition de l‟image pour extraire les caractéristiques.

Le prétraitement 

Il s‟effectue sur une image brute, il permet de restaurer l‟image en supprimant un certain nombre de défauts tels que les bruits ou le flou de mise au point et d‟améliorer l‟image, par amélioration de l‟aspect visuel. Les outils du prétraitement sont l‟histogramme et les différentes phases d‟amélioration de l‟histogramme.

a) L‟histogramme
L‟histogramme d‟une image est la fonction qui associe à chaque valeur d‟intensité le nombre de pixels dans l‟image ayant cette valeur. Il donne simplement la répartition des pixels selon leur luminosité. Il les compte du sombre au clair, sur un total de 256 niveaux.

b) Etirement d‟histogramme
L‟étirement d‟histogramme a pour but d‟augmenter le contraste de l‟image. Pour cela, il convient d‟augmenter sur l‟histogramme l‟intervalle [min, max] de répartition des niveaux de l‟image d‟entrée « I ».

Après augmentation du contraste, les pixels de faible intensité en entrée sont saturés à 0 et qu‟inversement les pixels de forte intensité sont saturés à 255. Pour l‟intervalle des pixels non saturés, la répartition des niveaux s‟effectue sur l‟intervalle entier [0, 255] de manière linéaire. L‟histogramme est donc étiré, et présente deux pics de population de pixels : un pic de population de pixel à 0 qui correspond à la saturation des pixels de faible intensité, et un pic de population de pixel à 255 qui correspond à la saturation des pixels de forte intensité. En revanche, pour les autres niveaux, on a exploité linéairement la dynamique.

c) Le seuillage
Une image numérique, pour pouvoir être exploitée a généralement besoin d‟être simplifiée. Il a pour but de découper l‟histogramme en deux classes telles que la classe des pixels sombres et celle des pixels clairs. Le seuil peut être choisi de différentes façons. Il dépend de la position du pic dans l‟histogramme, afin d‟obtenir le classement des pixels selon leur luminosité. Le meilleur est de choisir ce qui minimise l‟erreur de classification.

d) Le filtrage
Le filtrage a pour but de réduire le bruit dans une image afin de rehausser son contour, le bruit peut être caractérisé comme la brusque variation d’un pixel isolé par rapport à ses voisins.

Le filtrage linéaire ou produit de convolution est l’un des outils les plus répandus permettant d’atténuer les effets du bruit. Il consiste à donner à un pixel les valeurs moyennes de ses voisins. Le principe est de construire à partir d‟une première image Ie, une seconde image Is généralement de la même taille. Chaque pixel Ps de l‟image de sortie Is est calculé à partir des pixels du voisinage du point Pe de l‟image Ie. Dans le cas le plus simple, la valeur du pixel Ps est obtenue par une combinaison linéaire des valeurs des pixels du voisinage du point Pe , on parle d‟opération de convolution. Après filtrage linéaire, l‟image est lissée.

Le traitement 

C‟est l’ensemble des techniques permettant de modifier une image numérique pour l’améliorer ou en extraire des informations. Le but est de faire réaliser par l’ordinateur l’enchaînement des raisonnements logiques de l’opérateur chargé d’interpréter visuellement les images. Les opérations à effectuer durant le traitement sont: la binarisation de l‟image, la dilatation et l‟érosion.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

INTRODUCTION
PARTIE I : GENERALITES
Chapitre I. LA VISION ARTIFICIELLE
I.1. Généralités sur la vision
I.1.1. Composant d‟un système de vision
I.1.2. Définition de l‟image
I.1.3. Les capteurs
I.1.4. Les différents types de capteur
I.2. L‟unité de traitement
I.2.1. Le prétraitement
I.2.2. Le traitement
I.2.3. Décomposition de l‟image
Chapitre II. La reconnaissance de forme
II.1. L‟acquisition d‟image
II.2. Le prétraitement
Chapitre III. NOTIONS D‟ASSERVISSEMENT ET DE MECANIQUE
III.1. Généralités sur les systèmes asservis linéaires
III.1.1. Définition
III.1.2. Classification des systèmes asservis
III.1.3. Modélisation des systèmes linéaires
III.2. Stabilité et précision d‟un système asservi
III.2.1. Stabilité des systèmes bouclés
III.2.2. Précision d‟un système asservi
III.3. Correction des systèmes asservis
III.4. Généralités sur les machines à courant continu
III.4.1. Constitution d‟une machine à courant continu
III.4.2. Expression de la force électromotrice et du couple électromagnétique
III.4.3. Les moteurs à courant continu
III.4.4. Mise en équation des machines à courant continu
III.4.5. Le PWM
III.4.6. Le pont en H
III.4.7. Utilisation du Pont en H par des PWM
Partie II : ETUDE ET CONCEPTION D‟UN SYSTEME DE DETECTION DE MOUVEMENT ET DE RECONNAISSANCE DE FORME
Chapitre IV. CONCEPTION
IV.1. Contexte et présentation du projet
IV.2. Objectif
IV.3. Cahier des charges
IV.4. Conception du système
IV.4.1. Architecture du système
IV.4.2. Utilité de chaque bloc
IV.5. Spécifications fonctionnelles
IV.6. Matériels et outils nécessaires
IV.6.1. La caméra
IV.6.2. Le Processing
IV.6.3. La carte arduino
IV.6.4. Le logiciel Arduino
IV.6.5. Le servomoteur
Chapitre V. MODELISATION
V.1. La détection de forme
V.2. La détection de visage
V.3. Modélisation de la détection de mouvement
V.4. La localisation
V.5. Extraction des caractéristiques
V.6. Suivi du mouvement
V.7. Asservissement du moteur
V.8. Conclusion du mouvement
Partie III : SIMULATIONS ET REALISATION
Chapitre VI. SIMULATIONS
VI.1. Simulation du modèle MCC
VI.2. Simulation de l‟asservissement PID du moteur
VI.2.1. Réglage des paramètres PID
VI.2.2. Conclusion de l‟expérimentation
VI.3. Simulation de la carte arduino avec le logiciel SimultorForArduino
Chapitre VII. REALISATION
VII.1. Le circuit du montage
VII.2. Fonctionnement du montage
VII.3. Matériels et Outils Utilisés
VII.3.1. Le langage web
VII.3.2. La caméra
VII.4. Le Logiciel Processing
VII.5. La carte Arduino et le servomoteur
VII.6. Résultats de la réalisation
VII.6.1. Détection de visage
VII.6.2. Détection de mouvement et de la forme d‟une personne
CONCLUSION
ANNEXE

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *