LA FIDELISATION RENTABLE : PROPOSITION D’UN MODELE COMPOSITE ENTRE LA VALEUR D’UN CLIENT A L’INSTANT T ET SA VALEUR A VIE
Recruter ou fidéliser ? Privilégier les médias de masse ou le hors média ? Ces dernières années, la part des investissements dans le hors média n’a cessé d’augmenter, jusqu’à atteindre 63% des dépenses en 2009. Pour justifier cette augmentation, les entreprises doivent être en mesure d’évaluer leurs rentabilités dans le mix marketing et cela passe par l’estimation de la valeur client. Notre première étude portait sur l’évaluation de la rentabilité de programmes de fidélisation et de CRM. Le but étant de définir une nouvelle modélisation de cette rentabilité, basée sur la complémentarité de deux approches : un modèle qui estime la valeur d’un client à un instant t. C’est ce modèle que nous avons appelé Objectif Fidélisation® et le calcul de la LTV : Life Time Value (Dwyer et al 1989, Jackson, 1989, Jambu, 1998, Magson, 1998, Kim et al, 1999) , qui estime la valeur client sur un continuum temporel : une durée de vie. Après avoir défini les concepts théoriques sur lesquels se basent les approches que nous venons de citer, nous avions appliqué empiriquement ces deux modèles, en utilisant des données portant sur de « vrais » produits.
L’étape ultime a consisté à créer un modèle composite, également testé sur un cas concret avec des estimations de la valeur client à court terme sur plusieurs périodes et un modèle global de LTV. Le concept de « Life Time Value (LTV) », qui se traduit par « la valeur du client à vie » et qui correspond à la somme des profits actualisés attendus sur la durée de vie du client, avait déjà été largement publié sous la formes de modèles plus ou moins proches pour déterminer la valeur client (Wayland et Cole 1997, Venturi et Lefebure 2000). Ces modèles utilisent les paramètres suivants : les quantités achetées sur la période, la marge par unité d’achat, la durée de la relation, les coûts d’acquisition et de rétention du client et la valeur capitalistique de l’investissement.
En fait, pour être rentable, la fidélisation doit valider différentes contraintes, qui seront les grandeurs clés des modèles décrits dans cette étude (Hallberg, 1995) :
– Atteindre la couverture d’un cœur de cible déterminé : le taux de couverture de cible est la part de la cible que l’on peut toucher via un programme de fidélisation. Par adhésion volontaire, on peut capter 30 % de la cible des clients d’une marque dans un programme de fidélisation classique, 50% pour la fidélisation d’une enseigne.
– Recruter au programme les clients les plus contributifs : le « Gros client » en CA est en général le plus contributif, c’est un gros consommateur de la marque (il dépense beaucoup en achats à la marque) mais son taux de nourriture est souvent faible. Il dépense aussi beaucoup ailleurs : 80% des achats annuels des Gros clients d’une marque sont faits à la concurrence (Hallberg, 1995). C’est le client qu’il ne faut pas perdre et qui a aussi le plus chance de passer à l’acte à la suite à une action de fidélisation.
– Atteindre un taux d’activation : cela correspond au taux de clients ayant réagi une seconde fois à une stimulation du programme de fidélisation. L’atteinte du taux d’activation souhaité s’obtient en faisant au consommateur des offres transactionnelles et des offres relationnelles, une fois son adhésion volontaire obtenue. Il faut que 50% des clients recrutés réagissent au moins une seconde fois au programme pour avoir une activité significative en termes d’achats.
– Accroitre le taux de captation : Accroissement du taux de nourriture par une prise de part des achats faits à la concurrence. En pratique, on ne peut capter par la fidélisation, sur un grand nombre de clients, « que » 20 % en moyenne des quantités faites à la concurrence. Ce taux de « captation » de 20% n’est possible que si le taux de nourriture est inférieur ou égal à 50%. Au-delà de 20 % de captation, l’acheteur commencerait à percevoir un effort (une modification de ses habitudes de consommation). Cette affirmation partait à l’époque sur l’hypothèse non démontrée que le taux de nourriture d’un consommateur est contraint.
– Obtenir une baisse puis un maintien des coûts unitaires de fidélisation : le coût unitaire de fidélisation est déterminé une fois l’objectif de couverture de cible et la taille de base atteints. Ce coût doit s’amortir sur la marge des achats supplémentaires atteints par la captation sur le taux de nourriture. Il est donc stratégique de déterminer ce taux de part captable à priori : le taux de captation.
– L’atteinte aux 5 objectifs ci-dessus, doit se faire dans une dimension temporelle également déterminée à priori.
L’étape suivante de notre recherche avait consisté à appliquer à un cas de figure réel une approche empirique de la modélisation du ROI (Return On Investment/Retour Sur Investissement) de la fidélisation à court terme : application du modèle Objectif Fidélisation® pour utiliser et vérifier les concepts ci-dessus. Par l’utilisation de ce modèle, on est capable de calculer les ROI du programme de fidélisation compte tenu des coûts et des gains et selon les hypothèses retenues par année : on identifie donc en quelle année le ROI est atteint.
Cette modélisation permet également de suivre les 5 grands objectifs de pilotage du programme par année en fonction des objectifs initiaux définis par le modèle. La difficulté « marketing » est d’atteindre ces objectifs de façon simultanée afin d’obtenir la rentabilité du programme. Si le modèle montre que la marque ne peut pas les atteindre, il n’est pas recommander de se lancer dans un programme de fidélisation/CRM qui passerait par du marketing direct sortant. Il est donc primordial de bien modéliser ces objectifs en amont et d’en mesurer leurs réalisations sur le long terme. Le second modèle étudié est le modèle de LTV. Il utilise, dans ses paramètres, les mêmes indicateurs qu’Objectif Fidélisation® et ces derniers s’appliquent de la même manière, mais sur des périodes beaucoup plus longues. Le concept de VTC (Valeur Totale Client) est défini : il correspond à la marge totale dégagée sur toute la vie d’un client. On le calcule de la manière suivante : VTC = VP (Valeur du produit) x TR (taux de renouvellement) x PDMvaleur. La PDMvaleur (Part De Marché valeur) est la somme de la marge réalisée par la marque étudiée vs la somme de la marge totale de tous les individus. Sur le delta fait à la concurrence on applique alors un taux de captation. La somme de la valeur actuelle plus celle de la valeur captée sur la durée de vie, donne alors une VTC précise.
Ce modèle permet de créer un tableau de synthèse (comme c’était le cas pour Objectif Fidélisation® ) qui croise les coûts inhérents au programme avec les gains espérés sur la durée de vie des clients par segment PMG (Division des clients en Petits, Moyen et Gros en fonction de leur chiffre d’affaires). Le taux de couverture de cible et la réactivité ne sont pas présents de manière explicite mais ces deux notions sont implicitement incluses dans la LTV par la durée de vie des clients, l’attrition et la réaction aux actions marketing. En créant en dernier lieu un modèle composite des deux approches, la recherche additionne une somme de modèles courts-termes montrant la cohérence avec l’approche par le LTV (Blattberg 1986, 1998, Carguillo, 1999, Bolton et al, 2000). On perçoit donc bien la complémentarité méthodologique des deux démarches et l’intérêt managérial :
– une prévision de la rentabilité de la fidélisation sur une période assez courte va être déterminante de la LTV
– la LTV est la mesure ultime des actions de fidélisation.
En pratique, ce qui a été fait dans cette étude s’applique à des cas concrets : en entreprise, avant de se lancer dans un programme de fidélisation, il est primordial d’en estimer la rentabilité. Les trois études de cas développées dans notre recherche démontrent que c’est applicable pour différents secteurs et que les données pour le faire sont disponibles. En fonction du cas de figure (du produit, du marché, etc.), le modèle à appliquer pour évaluer la rentabilité du programme pourra être Objectif Fidélisation® pour un calcul à un instant t (bien adapté pour tous les produits de grande consommation) ou le modèle de la LTV pour un calcul sur toute la durée de vie du client.
Finalement, on retiendra de cette recherche les points suivants :
1. La rentabilité d’un programme de fidélisation doit être toujours évaluée avant d’être lancé,
2. Il y a plusieurs modèles utilisables pour l’évaluer et on privilégiera le modèle sur un instant t car il est prédictif du modèle sur la durée de vie. Le modèle court terme est plus facile à mettre en place.
3. Ces modèles se basent sur des indicateurs communs qui serviront à piloter le programme (couverture de cibles, structure PMG (Petit, Moyen, Gros clients en CA), réactivité, captation, marge allouable, coût unitaire).
Depuis la publication de la recherche, le modèle a été utilisé par un grand nombre de sociétés et on retrouve plus ou moins l’approche composite dans certains travaux (Blattberg, 1986, 1998, Allard, 2002).
ESTIMATION DU POTENTIEL INDIVIDUEL DE CHIFFRE D’AFFAIRES EN UTILISANT LES DONNEES ISSUES D’UNE BASE DE DONNEES CLIENTS
Dans cette seconde recherche nous tendions à déterminer « un potentiel client ». Le potentiel client dans notre acception correspond à évaluer le chiffre d’affaires incrémental qu’une entreprise donnée pourrait atteindre avec ses clients actuels. C’est un indicateur stratégique pour toute entreprise, quel que soit son secteur d’activités. Notre recherche concevait et mettait en application une méthode de détermination de ce potentiel client, en se basant uniquement sur des données classiquement présentes dans des bases de données de quasi-totalité des entreprises (variables sociodémographiques ou descriptives d’entreprises et enregistrements de leurs transactions). Ce point est très important pour la généralisation de la méthode. Afin de calculer ce potentiel, les clients « qui se ressemblent » (des « clones ») vont être regroupés par utilisation d’une technique de classification automatique : les réseaux de Kohonen (Kohonen, 1998). L’hypothèse étant que les individus considérés comme des clones sont supposés avoir les mêmes caractéristiques et donc le même potentiel. Les SOM de Kohonen sont des techniques de classification très puissantes qui permettent d’avoir un regroupement sur de grandes populations en minimisant le plus les différences. Dans notre recherche, nous avons validé la classification de Kohonen par plusieurs techniques de classification confirmatoire et nous avons césuré le chiffre d’affaires de chaque groupe de clones pour nous permettre d’obtenir un potentiel « atteignable » pour chaque client. Les données utilisées dans le test empirique décrit dans ce document, correspondent à la base de données de 5 millions de clients d’un des principaux distributeurs alimentaire français. Les étapes de la méthodologie sont les suivantes : application de la méthode de classification par les réseaux de Kohonen et validation de la technique puis calcul des niveaux d’évolution dans les segments et enfin calcul du potentiel individuel. Nous allons à présent décrire succinctement ces trois étapes, en commençant par la classification par les réseaux de Kohonen. Ce type de réseaux est le plus utilisé parmi les réseaux à apprentissage non supervisé. Il permet d’obtenir des groupes très homogènes et très stables avec de multiples individus et variables, avec la faculté de bien prendre en compte les valeurs manquantes, et autorise des relations non linéaires complexes entre beaucoup de variables et beaucoup d’individus. En tant que réseau de neurones, il se décompose en couches de nœuds connectées entre elles. Il convertit un signal d’entrée avec de nombreuses dimensions en une simple carte discrète, avec peu de dimensions : cela en fait un outil bien adapté à notre problématique.
En pratique, on obtient une cartographie qui permet d’identifier la similarité entre les groupes (deux groupes proches sur le graphique ont des caractéristiques proches). Après avoir défini des classes par application de la technique décrite, plusieurs méthodes ont été testées afin de valider la précision et la robustesse de l’approche. Dans un premier temps et afin de déterminer les convergences entre les classes de Kohonen, la population a été divisée en sous populations pour vérifier la cohérence d’allocation des classes de clones : les classes de Kohonen se retrouvent bien aux mêmes poids entre deux échantillons. Les classes de clones ont ensuite été croisées avec la PMG et la RFM (classement des clients selon la Récence du dernier achat, la Fréquence d’achat et le Montant d’achat) et globalement, les clients appartenant aux mêmes segments PMG/RFM se retrouvent majoritairement dans les mêmes classes de Kohonen (c’est très clair visuellement sur la PMG). La convergence de la méthode avec d’autres a également été vérifiée : deux types de modèles supervisés ont été testés (C5.0, Réseaux Bayésiens (Larose et Vallaud 2005, 2012)) et la réaffectation des groupes par ces modèles montre que les classes de Kohonen peuvent être reproduites : cela valide la robustesse de notre classification. Enfin, la connectivité des super classes a été vérifiée (c’est un critère de qualité des cartes de Kohonen) et la forme de la classification obtenue satisfait aux critères de stabilité et de reproductibilité attendus. L’étape suivante correspond au calcul des niveaux « d’évolution ». On définit l’évolution de la manière suivante : c’est le « petit saut » de chiffre d’affaires qu’un consommateur doit atteindre pour être regroupé avec les clients qui lui ressemblent le plus, sur toutes les variables sélectionnées par le modèle, mais qui ont un chiffre d’affaires plus élevé que lui. Le « saut » à franchir ne doit pas être trop important afin que l’estimation du potentiel reste la plus réaliste possible. En pratique, cela consiste à diviser le chiffre d’affaires annuel en déciles et à calculer la médiane de chaque décile.
Une valeur du CA potentiel (déduite du calcul des taux de potentiel d’accroissement entre les médianes et les déciles) est allouée à chacun des groupes de la classification de Kohonen. A chaque client est donc attribué un taux d’évolution, qui multiplié par le chiffre d’affaires du client, nous permet d’estimer son chiffre d’affaires potentiel. Ce césurage des potentiels par groupe est une des originalités de la méthode, le delta (le saut) correspondant à l’élasticité du taux de nourriture, la partie de potentiel captable. Finalement, l’application de la méthode précédemment décrite sur les données étudiées, a permis de dégager les observations suivantes : les 5 373 026 clients génèrent en pratique un chiffre d’affaires annuel de 7.46 milliards d’euros mais représentent en fait un chiffre d’affaires potentiel de 953.2 millions d’euros. Le distributeur peut donc gagner presque 12.77% de chiffre d’affaires sur les clients déjà présents dans sa base de données.
L’ELASTICITE DU TAUX DE NOURRITURE EST-ELLE CONTRAINTE ?
Dans notre dernière recherche, nous étudions l’élasticité du taux de nourriture. Le taux de nourriture correspond à la part de marché d’une marque chez les consommateurs de cette marque (Sharp et Sharp, 1992) : en cela, il représente donc un des principaux indicateurs de la fidélité à la marque. L’objet de cette nouvelle étude consiste à montrer que l’élasticité de cet indicateur est une donnée « bornée » indépendamment de la catégorie de produits et que le taux de nourriture, en lui-même, est un indicateur prévisible sur la durée de consommation d’un individu. Pour cela, nous avons considéré l’élasticité du taux de nourriture par l’écart type comme étant un indicateur capable de revenir à son état initial, ce qui revient à étudier déjà l’écart du taux de nourriture sur lui-même. Cette amplitude a été modélisée au niveau agrégé (marque, semaine, mois, année) et désagrégé (individu, marque, semaine, mois). Les données utilisées en entrée sont des données de panel de home scanning de Nielsen sur un historique long (24 mois) et sur 6 marchés à cycles d’achats/rachats courts à longs (eau plate, café, plats surgelés, dentifrice, déodorisant et brosse à dent). Cet ensemble représente un très gros volume de données. Pour chaque marché, ont été calculées les élasticités du taux de nourriture sur des dimensions individuelles et temporelles différentes. Les variables sociodémographiques, de segmentations clients (PMG, typologie) ainsi que quelques variables relatives au produit (prix, place sur son marché, etc) ont été utilisées en tant que variables explicatives.
Différentes techniques statistiques ont été mises en œuvre afin de modéliser l’élasticité du taux de nourriture. Dans un premier temps, une simple analyse descriptive des données a été menée en débutant par le calcul des indicateurs de base permettant de suivre les différents marchés étudiés (le nombre d’acheteurs, le nombre d’achats, la quantité vendue, le chiffre d’affaires généré, le taux de nourriture et les parts de marché sur plusieurs périodes). Cette analyse descriptive montre que le nombre de marques achetées et l’élasticité du taux de nourriture sont contraints dans des amplitudes « faibles » (sur 12 mois entre 24,4% et 29,2%): dans l’ensemble des cas étudiés, l’écart type du taux de nourriture est donc réellement « borné ». Ensuite des méthodes agrégées ont été développées afin de tenter de prédire le taux de nourriture : un modèle ARIMA et un perceptron multicouche. Le modèle ARIMA (Auto Regressive Integrated Moving Average) est un modèle de prévision supervisé permettant de traiter des séries non stationnaires. Nous l’avons utilisé sur un historique de 104 semaines (90 d’apprentissage et 14 de test) afin de prédire le taux de nourriture de deux marques étudiées à la semaine. Nous avons obtenu une bonne prédiction du taux de nourriture pour ces deux marques (peu de différences entre le réel et le prédit par ARIMA). Le perceptron multicouches a été testé dans les mêmes conditions que l’ARIMA (mêmes marques, même historique) et a fourni des résultats équivalents en terme de prévision : le modèle est robuste et stable et prédit bien le taux de nourriture et ses écarts .
Des méthodes désagrégées d’analyse du panier de la ménagère ont ensuite été mises en œuvre. Il s’agit des techniques « Apriori » et « Sequence », qui utilisent des règles d’association dans le but d’identifier les cooccurrences d’achats. L’algorithme « Apriori » sert à reconnaitre des propriétés qui reviennent fréquemment dans un ensemble de données et sait en déduire une hiérarchie d’occurence. La technique « Séquence » est similaire mais prend en compte la notion d’ordre dans le temps. Cette dernière a finalement fourni beaucoup plus de règles significatives que l’algorythme « Apriori ». Il est donc possible de prédire par des modèles de cooccurrence d’achats les enième achats d’une marque, et ce de manière très fiable pour les règles les plus occurrentes. Ces algorithmes ont permis de démontrer que les consommateurs rachètent principalement la même marque, validant l’idée d’entropie du rachat et donc de stabilité du taux de nourriture.
|
Table des matières
1. Introduction
Introduction générale
2. Synthèse de nos travaux
2.1 LA FIDELISATION RENTABLE : PROPOSITION D’UN MODELE COMPOSITE ENTRE LA VALEUR D’UN CLIENT A L’INSTANT T ET SA VALEUR A VIE
2.2 ESTIMATION DU POTENTIEL INDIVIDUEL DE CHIFFRE D’AFFAIRES EN UTILISANT LES DONNEES ISSUES D’UNE BASE DE DONNEES CLIENTS
2.3 L’ELASTICITE DU TAUX DE NOURRITURE EST-ELLE CONTRAINTE ?
3. L’analyse de la littérature
3.1 Définitions de quelques concepts
3.1.1 La fidélisation
3.1.2 La fidélité
3.1.3 Le potentiel client
3.1.4 Le taux de captation
3.1.5 Le taux de nourriture
3.2 L’importance de la fidélité pour les marques
3.3 Ensemble de considération/ensemble évoqué/ensemble déterminant
3.4 L’intensité des préférences
3.5 Les comportements de remplacements (« switching behaviour »)
3.6 La recherche de variété
3.7 Les effets de satiété
3.8 Les effets promotionnels
3.9 Les actions marketing de toutes les marques d’un marché
3.10 Le « double jeopardy » d’Erenberg et Uncles
3.11 La prise en compte de la dimension temporelle
3.12 La prise en compte des facteurs socio démographiques
1. Recherche 1 : L’élasticité du taux de nourriture est-elle contrainte ?
Introduction
1.1 Les questions de recherche
1.2 La méthodologie
1.2.1 Les données
1.2.2 Les données de panel
1.3 L’analyse préalable et les modélisations utilisées
1.3.1 L’analyse descriptive des données
1.3.2 Les modèles ARIMA
1.3.3 Le perceptron multicouche
1.3.4 Les techniques d’analyse du panier de la ménagère
1.3.5 Séquence
1.3.6 La modélisation de données de panel
1.4 Le processus de validation des modèles
1.5 Résultats de la recherche
1.5.1 L’analyse descriptive de données issues d’un panel de consommateurs
1.6 Les principaux BPM (Brand Performance Measurement) étudiés
1.7 Les évolutions par année
1.8 L’évolution par année sur différentes périodes inter achats
1.9 Prévoir le taux de nourriture
1.10 Deux approches agrégées directes
1.11 Une approche désagrégée indirecte
1.11.1 Les approches agrégées
1.11.2 Les approches désagrégées
1.11.1 La cooccurrence d’achat
1.11.2 La technique d’analyse de panel
1.12 Le taux de nourriture selon le niveau de revenu
1.13 Discussion et conclusions
1.13.1 Réponse aux questions de recherche
1.13.2 Peut-on prévoir le taux de nourriture sur différentes durées de consommation ?
1.13.3 L’élasticité du taux de nourriture varie t’elle d’une catégorie de produit à l’autre
1.13.4 L’élasticité bornée du taux de nourriture est-elle socialement explicable ?
1.14 Contribution et limites de notre recherche
1.14.1 Les contributions
1.14.2 Les limites
1.15 Conclusions
2. Recherche 2 : La fidélisation rentable : proposition d’un modèle composite entre la valeur d’un client à l’instant T et sa valeur à vie
Avant-propos
Introduction
2.1 Contexte managérial et problématique de recherche
2.1.1 Importance de la fidélisation et du CRM
2.1.2 Les présupposés de la rentabilité de la fidélisation
2.1.3 Le client et ses différentes valeurs
2.2 La durée de vie du client
2.3 Les modèles composites
2.4 Définition de nos questions de recherche
2.5 Modélisation du roi de la fidélisation à court terme (Objectif fidélisation®)
2.6 L’analyse structurelle du marché
2.7 La part de marché de la Marque X (en valeur)
2.8 La notoriété de la Marque X
2.9 Les cibles à fidéliser
2.9.1 Le nombre d’actes d’achat par acheteur
2.9.2 Les quantités achetées de produits d’Hygiène Beauté par acheteur
2.9.3 Les sommes dépensées pour les produits d’hygiène beauté par acheteur
2.10 Le taux de nourriture
2.11 Le nombre d’acheteurs
2.12 La quantité achetée par acte d’achat
2.13 Les marques « clef d’entrée »
2.14 Taille de la cible
2.15 Tableaux de simulation
2.16 ROI
2.17 Tableau de pilotage
2.18 Conclusion
2.19 Modélisation du roi de la fidélisation à long terme (la détermination de la LTV)
2.20 Durée de vie du consommateur
2.21 Captation à la marque et total marché
2.22 Calcul des élasticités
2.23 Conclusion
2.24 Convergence et complémentarité des modèles
2.24.1 Mise en évidence des convergences
2.24.2 La valorisation du client
2.24.3 Calcul de la VTC
2.24.4 Une cible très identifiable
2.24.5 Rappel sur le taux de couverture de cible d’Objectif Fidélisation
2.24.6 Elasticité et interprétation
2.24.7 Part de la marge allouable au CRM
2.24.8 Mise en perspective des coûts et des gains
2.24.9 Choix définitif des cibles à potentiel
2.24.10 Conclusion
2.25 Réponses nos questions de recherche
2.25.1 Tests et validation des questions
2.26 Mise en évidence des lois sous-jacentes
2.27 Interprétation des aspects complémentaires des approches sur un plan managérial
2.28 Conclusion
3. Recherche 3 : Estimation du potentiel individuel de chiffre d’affaires en utilisant des données issues d’une base de données clients
3.1 Le contexte
3.2 Notre sujet de thèse
3.3 L’application précise du modèle
3.4 Les questions de recherche
3.5 Le processus de data mining utilisé
3.6 La compréhension des données
3.7 La préparation des données
3.8 Les modèles de classification et la détermination du potentiel client
3.8.1 Méthode des réseaux de Kohonen
3.9 Le développement du modèle
3.9.1 Les objectifs et la méthodologie
3.9.2 La fiabilité de la méthode de Kohonen
3.9.3 LA ROBUSTESSE DE LA CLASSIFICATION DE KOHONEN
3.9.4 Calcul des potentiels
3.9.5 Principaux résultats
3.9.6 Résumé des résultats
3.10 Les procédures de validation de nos modèles
3.11 Conclusions
3.11.1 Discussion des résultats de l’étude
3.11.2 Les limites et la contribution de notre étude
3.11.3 Pistes de recherche
4. Conclusion générale
ANNEXES