Définition du traitement d’images
Contraste
C’est l’opposition marquée entre deux régions d’une image, plus précisément entre les régions sombres et les régions claires de cette image. Le contraste est défini en fonction des luminances de deux zones d’images.
Le niveau de gris est la valeur de l’intensité lumineuse en un point. La couleur du pixel peut prendre des valeurs allant du noir au blanc en passant par un nombre fini de niveaux intermédiaires. Donc pour représenter les images à niveaux de gris, nous pouvons attribuer à chaque pixel de l’image une valeur correspondant à la quantité de lumière renvoyée. Cette valeur peut être comprise par exemple entre 0 et 255. Chaque pixel n’est donc plus représenté par un bit, mais par un octet. Pour cela, il faut que le matériel utilisé pour afficher l’image soit capable de produire les différents niveaux de gris correspondant. Le nombre de niveaux de gris dépend du nombre de bits utilisés pour décrire la « couleur » de chaque pixel de l’image. Plus ce nombre est important, plus les niveaux possibles sont nombreux.
Analyse d’image
Le but de l’analyse d’images est d’extraire et de mesurer certaines caractéristiques de l’image traitée en vue de son interprétation. Ces caractéristiques peuvent être des données statistiques sur des comptes numériques (moyenne, histogramme, etc.), ou sur des données dérivées (ex. dimensions, ou orientation d’objets présents dans l’image). En général, le type d’information recherché dépend du niveau de connaissance requis pour interpréter l’image. Les applications dans le domaine du guidage et de la télédétection nécessitent souvent des connaissances différentes et de plus haut niveau (ex., cartes 3-D) que dans les domaines du médical, de la géologie, du contrôle de qualité, etc. Ainsi, un robot en déplacement ne nécessite pas le même type d’information qu’un système utilisé pour détecter la présence de matériaux défectueux. Pour ce dernier, il faut prendre uniquement la décision « non défectueux ou défectueux ». Cette décision peut être prise à partir d’un « raisonnement » plus ou moins complexe (e.g. détection de la présence de raies d’absorption caractéristiques d’une impureté). Pour le robot, il faut simuler le processus décisionnel d’un individu en déplacement, ce qui nécessite au préalable de reconstituer une carte du lieu de déplacement en temps réel, avec les obstacles à éviter.
Types de données manipulée Le traiteur d’image dispose principalement d’images numériques, donc échantillonnées. Il dispose également de données intermédiaires de diverses natures : cartes de régions, listes de points connexes, tableaux de valeurs mesurées, etc. En ce qui concerne les images proprement dites, la représentation la plus utilisée est celle d’un tableau à 2 dimensions composé d’un ensemble de lignes et de colonnes. Chaque cellule du tableau, appelée pixel, contient une valeur quantifiée. Cette valeur est une sémantique dépendant du type de signal qu’elle code (intensité lumineuse du point, distance à un point de référence, ou numéro de la région d’appartenance par exemple).
Reconnaissance d’objets
La reconnaissance d’objets est une branche de la vision artificielle et un des piliers de la vision industrielle. Elle consiste à identifier des formes pré-décrites dans une image numérique, et par extension dans un flux vidéo numérique. Il ne faut pas confondre reconnaissance d’objets (en anglais : « object recognition » ou « shape recognition ») et reconnaissance de formes (« pattern recognition » en anglais). La première s’attache à reconnaître des formes géométriques dans une image, alors que la seconde cherche à identifier des motifs dans des données statistiques. La confusion vient du fait qu’on utilise souvent la reconnaissance de formes comme technique appliquée à la reconnaissance d’objets. Tout d’abord objet d’algorithmes dirigés par l’homme, jusqu’en 1995 (tentatives de reproduire par un algorithme un raisonnement humain d’identification, comme dans « un vélo possède deux roues, un cadre… »), la reconnaissance d’objets a fait l’objet de progrès importants par la suite au travers de la mise en oeuvre de techniques d’apprentissage, comme les séparateurs à vaste marge. Ces techniques visent à faire exploiter des bases d’exemples positifs et négatifs (contre-exemples) par un algorithme de recherche de critères discriminants, c’est-à-dire de critères permettant de séparer au mieux les exemples des contre-exemples. [9]
Conclusion générale
L’objectif de notre travail est de développer un système de détection et de reconnaissance de plaques minéralogiques ayant la capacité d’extraire les numéros d’immatriculation algérienne. Après avoir présenté un état de l’art sur les systèmes existants, nous avons présenté notre système LAPIA : Lecture Automatique de Plaques d’Immatriculation Algériennes où nous avons réussi à détecter avec une grande précision les chiffres formant le matricule de du véhicule. En plus, d’avoir atteint l’objectif final demandé, ce projet nous a été très bénéfique car il nous a permis de maîtriser plusieurs techniques et de manipuler des outils très complexes. Enfin, ce projet était une bonne occasion pour réaliser un travail très concret, avec des objectifs clairs et bien définis et de se familiariser avec un environnement de développement professionnel. Comme perspectives, nous souhaiterons améliorer les résultats obtenus en analysant les cas de défaillances et en spécifiant mieux l’OCR
|
Table des matières
Remerciements
Sommaire
Liste des figures
INTRODUCTION GENERALE
Introduction générale
1.Etat de l’art
1.1 Introduction
1.2 Lecture automatique de plaques d’immatriculation
1.2.1 Caractéristiques des plaques algériennes
1.2.2 La technique de la reconnaissance optique de caractères
1.3 Algorithmes du système LAPI
1.4 Difficultés des systèmes LAPI
1.5 Applications des systèmes LAPI
1.6 Les différents systèmes existants
1.6.1 AutoVu
1.6.2 Avantages d’AutoVu
1.6.3 LAPI ENGINE
1.6.4 SeeTec
1.6.5 Asia Vision Technology Limited (AVT)
1.6.6 AGL (Application de Gestion LAPI)
1.6.7 Système LAPI-Pryncar
1.7 Conclusion
2.Traitement d’images
2.1 Introduction
2.2 Définition du traitement d’images
2.3 Image
2.4 Représentation d’image
2.4.1 Image matricielle
2.4.2 Image vectorielle
2.5 Acquisition d’une image
2.6 Caractéristiques d’une image numérique
2.6.1 Dimension
2.6.2 Résolution
2.6.3 Bruit
2.6.4 Histogramme
2.6.5 Luminance
2.6.6 Contraste
2.6.7 Images à niveaux de gris
2.6.8 Image en couleurs
2.7 Principales étapes de traitement d’images
2.7.1 Prétraitements
2.7.2 Amélioration d’image
2.7.3 Analyse d’image
2.8 Types de données manipulée
2.9 Opérateurs de traitement d’image
2.9.1 Opérateurs locaux
2.9.2 Filtres linéaires
2.9.3 Opérateurs morphologiques
2.9.4 Construction d’une application de traitement d’images
2.10 Reconnaissance d’objets
2.11 Quelque exemples concrets de traitement d’image
2.12 Conclusion
3.Outils de développement du système LAPIA
3.1 Introduction
3.2 Outils de développement
3.2.1 Maven
3.2.2 Github
3.2.3 Swing
3.2.4 OpenCV
3.3 Techniques et outils de Reconnaissance Optique des Caractères (OCR)
3.3.1 Tess4j
3.4 Conclusion
4.IMPLEMENTATION DU SYSTEME LAPIA
4.1 Introduction
4.2 Architecture de notre système LAPIA
4.3 Les interfaces de l’application
4.3.1 Le formulaire principal
4.3.2 Phase de traitement d’image
4.3.3 Phase pour la détection des contours
4.3.4 Phase de lecture OCR
4.4 Conclusion
CONCLUSION GENERALE
Conclusion générale
Références Bibliographiques
Webographie
Résumé
Abstract
ملخص
Télécharger le rapport complet