Méthodes utilisées pour la modélisation de la cinétique de séchage

Au cours de ces dernières années, plusieurs travaux ont été entrepris dans le domaine du séchage, décrivant les multiples types de séchoirs solaires développés et réalisés pour des produits agricoles. Le développement scientifique et technologique d’un séchoir solaire fait appel à un calcul théorique et au procédé expérimental. L’un des problèmes à surmonter réside dans la modélisation de nombreux paramètres caractéristiques de séchage. Parmi ceux-ci figurent la vitesse de séchage en couche mince et les isothermes de désorption qui jouent un rôle essentiel. Les théories, qui ont vu le jour, depuis, montrent que la connaissance de la vitesse de séchage permet de contrôler le processus de séchage. Les isothermes de désorption indiquent les seuils de température maximale et les teneurs en eau finales qui servent à optimiser les conditions de séchage de manière à assurer sa stabilité physico-chimique durant le stockage [1, 2, 3]. La modélisation de ces paramètres fait souvent intervenir des coefficients qui ne sont pas connus et qui nécessitent le recours à des procédés expérimentaux très délicats. À ce titre, la modélisation de la vitesse de séchage en couche mince attire, depuis plusieurs décennies, l’attention de nombreux auteurs et fait l’objet de travaux aussi bien théoriques qu’expérimentaux. Ainsi, plusieurs modèles complexes traduisant mathématiquement ce paramètre physique de séchage ont été proposés : le modèle de transfert de Combes [4], le modèle de Troeger – Hukill [5], les modèles Kachru – Al [6], etc. Toutefois, l’utilisation de ces modèles est limitée car chacun d’eux est spécifique au type de produit ainsi qu’aux conditions expérimentales de son séchage. Les modèles ne sont donc pas extrapolables au delà des limites de l’expérience. Par ailleurs, plusieurs travaux plus récents ont été publiés par des scientifiques de l’Université à Madagascar sur l’application du modèle universel de RAMAMONJISOA associé à la loi d’ARRHÉNIUS [7, 8, 9, 10, 11], celui-ci constitue une méthode analytique universelle pour la détermination de la vitesse de séchage en couche mince. Ces scientifiques ont montré, que cette méthode permet de pallier l’inconvénient d’un modèle semi-empirique de la vitesse de séchage en couche mince et elle permet aussi d’obtenir des résultats indépendants des conditions expérimentales.

Étude à l’échelle du produit 

Méthode de l’intelligence artificielle

Intérêt de l’utilisation des réseaux de neurones artificiels

Le contrôle et l’optimisation du séchage d’un produit nécessitent la connaissance des isothermes de désorption et de la vitesse de séchage en couche mince du produit en fonction des conditions opératoires définies. Ces informations sont obtenues par la modélisation des phénomènes de transferts de chaleur et de matière impliqués dans le séchage. Une des particularités de la modélisation du séchage des produits en grains disposés en lit, comme le paddy, est la nécessité de représenter les phénomènes étudiés non seulement à l’échelle du lit (pour représenter l’hétérogénéité de la température et de l’humidité relative de l’air et des grains au sein de l’installation), mais aussi au niveau des grains (pour représenter la façon dont se déroulent les transferts de chaleur et de masse au sein des grains). Ainsi, les modèles de séchage en lit ont deux composantes : la première est le modèle au niveau du produit. Ce modèle permet de prévoir la façon dont la température et l’humidité absolue du produit évoluent en chaque point du lit en fonction des conditions locales de température et d’humidité. La deuxième composante est le modèle au niveau du lit en entier, qui décrit la façon dont la chaleur et l’humidité sont véhiculées par l’air de séchage à travers le lit. Les différentes stratégies de modélisation présentées dans ce chapitre permettent de combiner l’étude au niveau du lit et au niveau des grains.

L’emploi des réseaux de neurones plutôt que des techniques classiques pour l’approximation de fonction peut se justifier par les arguments suivants :
— simplicité de mise en œuvre (peu d’analyse mathématique préliminaire, moins de paramètres ajustables) que d’autres outils mathématiques couramment utilisés (par exemple les méthodes de régression classiques),
— capacité d’approximation universelle prouvée et capacité d’adaptation aux conditions imposées par un environnement quelconque,
— possibilité de prendre le point de vue « processus = boîte noire »,
— facilité de rechanger ses paramètres (poids, nombre de neurones cachés, nombre de couches cachées…).

Modèles et fonctionnement d’un neurone artificiel

Les réseaux de neurones sont une technique de traitement de données permettant de tirer le maximum d’informations pertinentes des données : faire des prévisions, élaborer des modèles, reconnaître des formes ou des signaux, etc. Le modèle de neurone artificiel (formel) proposé par W. S. Mc Culloch et W. E.Pitts en 1943 [18] est un modèle mathématique et informatique très simplifié inspiré du neurone biologique. C’est un neurone binaire qui fonctionne comme un automate capable de prendre deux états, 0 (inactif) ou 1 (actif).

Mise en œuvre du réseau de neurones MLP 

La mise en œuvre des réseaux de neurones comporte à la fois une partie conception, dont l’objectif est de permettre de choisir la meilleure architecture possible et une partie de calcul numérique pour réaliser l’apprentissage d’un réseau de neurones.

Conception d’un réseau de neurones

La procédure suivante a été adoptée pour concevoir le réseau de neurones perceptron multicouche [20] :
− Etape1 : la collecte d’une base de données
− Etape2 : la séparation de la base de données en trois sous-ensembles (base d’apprentissage, base de validation et base de test).
− Etape3 : le choix de l’architecture du réseau de neurones (nombre de couches cachée, nombre de neurones dans ces couches,…)
− Etape4 : l’entrainement du réseau de neurones sur les bases d’apprentissage et de validation
− Etape5 : la mesure des performances du réseau de neurone sur la base de test .

La base d’apprentissage sert à calculer les poids du réseau choisi. La base de validation (ou de généralisation) permet de vérifier que les performances du réseau obtenu peuvent se généraliser, il sert à vérifier qu’il n’y a pas sur-apprentissage, à déterminer si l’apprentissage est terminé. C’est les performances sur l’ensemble de validation qui permettent de définir l’architecture optimale du réseau, le nombre de neurones dans la couche cachée. La base de test ne doit pas intervenir dans la détermination du réseau de quelque manière que ce soit, ni pour la détermination des poids (apprentissage) ni pour la détermination de l’architecture (validation). Il sert à évaluer les performances du réseau final obtenu.

Le choix de l’architecture du réseau de neurones, consistant à déterminer le nombre de couches cachées et le nombre de neurones dans chaque couche cachées, ne répond à aucune loi, aucune règle ni aucun théorème. Cependant, deux méthodes sont souvent utilisées pour déterminer une architecture optimale au point de vue nombre de couche et nombre de neurones par couche d’un réseau de neurones :
− la méthode empirique, par approximations successives,
− l’utilisation d’algorithmes d’optimisation architecturale.

Dans notre travail, nous avons adopté la démarche empirique. Cette méthode consiste à comparer les performances obtenues pour différentes architectures, et à ne conserver ensuite que celle qui correspond au meilleur compromis performance/coût architectural . En effet, la structure neuronale optimale est obtenue en choisissant un nombre restreint de neurones dans la couche cachée et augmenter ce nombre jusqu’à l’obtention de la précision désirée lors du test, si le nombre de neurones est très grand, rajouter une couche cachée et recommencer avec un nombre de neurones restreint. Sans couche cachée, le réseau n’offre que de faibles possibilités d’adaptation ; avec une couche cachée, il est capable, avec un nombre suffisant de neurones, d’approximer toute fonction continue. Une seconde couche cachée prend en compte les discontinuités éventuelles.

Détermination de nombre de neurones par couches cachées

Chaque neurone supplémentaire permet de prendre en compte des profils spécifiques des neurones d’entrée. Un nombre plus important permet donc de mieux coller aux données présentées mais diminue la capacité de généralisation du réseau. Ici non plus il n’existe pas de règle générale mais des règles empiriques. La taille de la couche cachée doit être :
— soit égale à celle de la couche d’entrée (Wierenga et Kluytmans, 1994),
— soit égale à 75% de celle-ci (Venugopal et Baets, 1994),
— soit égale à la racine carrée du produit du nombre de neurones dans la couche d’entrée et de sortie (Shepard, 1990).

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction générale
Chapitre 1 – Méthodes utilisées pour la modélisation de la cinétique de séchage
1.1. Introduction
1.2. Méthode de l’intelligence artificielle
1.2.1. Intérêt de l’utilisation des réseaux de neurones artificiels
1.2.2. Modèles et fonctionnement d’un neurone artificiel
1.2.3. Réseau de neurones perceptrons multicouches
1.2.4. Modélisation mathématique du réseau perceptrons multicouches
1.2.5. Mise en œuvre du réseau de neurones MLP
1.2.6. Modélisation de la cinétique de séchage du paddy par réseaux de neurones MLP
1.3. Méthode analytique
1.3.1. Détermination des isothermes de désorption du paddy
1.3.2. Modèle de vitesse de séchage en couche mince d’un produit hygroscopique
1.3.3. Influence des paramètres de séchage sur la vitesse de séchage en couche mince
1.3.4. Validation du modèle de vitesse de séchage en couche mince
1.4. Méthode de la similitude hygroscopique
1.4.1. Description du modèle
1.4.2. Formulation mathématique
Chapitre 2 – Configuration du dispositif expérimental
2.1. Introduction
2.2. Description du dispositif expérimental
2.3. Principe de fonctionnement
2.3.1. Au niveau de l’enceinte climatique
2.3.2. Au niveau de l’interface de programme de l’ordinateur
2.4. Paramètres mesurés et relevés
2.4.1. Mesure des températures
2.4.2. Mesure de l’humidité relative
2.4.3. Mesure du débit
2.4.4. Mesure de la masse du produit
Chapitre 3 –Présentation et exploitation des résultats
3.1. Introduction
3.2. Protocole expérimental
3.3. Caractéristique du produit à sécher
3.4. Conditions opératoires
3.5. Modélisation de la cinétique de séchage par réseau de neurones
3.5.1. Variations temporelles de l’humidité absolue de paddy sous l’influence des différents paramètres de séchage
3.5.2. Nature du produit
3.5.3. Influence des différents paramètres de séchage sur les variations de la vitesse de séchage en couche mince
3.6. Courbe des isothermes de désorption de paddy
3.7. Modélisation mathématique de la vitesse de séchage en couche mince de paddy
3.7.1. Vitesse de séchage en couche mince en fonction de la température de séchage du produit
3.7.2. Vitesse de séchage en couche mince en fonction de l’humidité relative de l’air asséchant
3.7.3. Vitesse de séchage en couche mince en fonction de la vitesse de l’air asséchant
3.7.4. Vitesse de séchage en couche mince en fonction de l’humidité absolue du produit
3.7.5. Vitesse de séchage en couche mince en fonction de l’épaisseur du lit de produit
3.7.6. Récapitulation des résultats
3.8. Études de propriété hygroscopique de variétés de paddy
3.9. Validation des résultats
3.9.1. Validation des résultats du modèle de réseau de neurones
3.9.2. Validation du modèle de la vitesse de séchage en couche mince de paddy
3.9.3. Validation du modèle élaboré à partir de la similitude hygroscopique
Conclusion générale

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *