TARIFICATION DES TRAITES RC en XS
Les principales composantes pour déterminer la prime chez un réassureur restent la fréquence et la sévérité. Cette tâche n’est pas si simple quand il faut introduire toutes les variables des traités à savoir la capacité, la priorité et les différentes clauses du contrat. En plus si on veut tenir compte des prix proposés sur le marché de la réassurance pour des profils de risque comparable, la tache peut s’avérer très compliqué.
Expérience
La méthode de tarification par expérience se fonde sur les sinistres survenus dans le passé. Après correction, les sinistres antérieurs permettent au réassureur de se faire une idée de la charge de sinistres attendus.
De manière plus simple, cette méthode repose sur les informations passées des portefeuilles et des sinistres dans le cas où le réassureur dispose d’une bonne expérience antérieure.
Mise en AS-IF
L’une des difficultés essentielles en tarification est de prendre correctement en compte l’environnement socio-économique, c’est-à-dire l’inflation et l’hyperinflation (complément d’inflation lié à plusieurs facteurs, ce qu’on appelle dans ce mémoire « inflation sociale »).
Dans un fichier on a mis tous les sinistres depuis 2003, avec les données observées des sinistres à la part de la cédante.
Outils de revalorisation
Avant toutes études sur les données des portefeuilles historiques, on doit escompter toutes les données des sinistres afin de les actualiser à la date d’aujourd’hui.
La question : si le sinistre survenu dans le passé à l’année i, survient aujourd’hui, c’est-à-dire en 2013, qu’elle serait sa valeur ?
La valeur de la revalorisation à la date d’aujourd’hui des montants globaux des sinistres va être la somme de deux indices :
-l’indice de salaire à savoir l’inflation. C’est un indice récupéré sur les sites du Fond Monétaire International (FMI).
-l’indice de l’inflation sociale. C’est un indice d’ajustement.
On n’a pas fait le choix d’une discrimination des deux indices, c’est-à-dire qu’on va faire la somme pure et simple des deux indices précités sans pondérer le poids d’aucun des deux.
On appelle l’indice de revalorisation intégrant les deux indices, indice FMI et indice de l’inflation social, le Total Index.
Extrapolation des sinistres individuels à l’ultime
Calcul des IBNER
Une incertitude est liée au sinistres déclaré mais non suffisamment provisionnés (en anglais : Incurred But Not Enough Reserved)
On s’intéresse aux montants de sinistres à la part de la cédante qui dépassent un certain seuil et qui sont susceptibles de se développer. On applique la méthode Loss Development Factor.
De manière générale après avoir développé les montants de sinistres à la part brut pour chaque portefeuille et revalorisés ce développement à la date d’aujourd’hui (2013) par année de souscription, on va détailler le développement par année de survenance de sinistres avec la méthode de « triangles des IBNR avec chain Ladder, à partir d’un seuil » ou ce qu’on appelle aussi « Loss Development Factor ou LDF ». On ne prend en compte dans notre construction des triangles des IBNR que les montants de sinistres dépassants .
Application des facteurs pour développer les sinistres
L’idée principale est de passer d’un développement des sinistres jusqu’en 2013 à un développement des sinistres qui commence en 2013.
Fit par une loi de probabilité
Afin d’utiliser la méthode de Monte Carlo pour la modélisation de la sévérité, il nous faut déterminer les paramètres de de chaque loi utilisé. Pareto, LogNormal, Exponentiel, Weibull, Pareto Généralisé, Gamma.
Pour cela, on a recours à des tests d’ajustement de loi. Above 1.100
L’ajustement d’une loi de distribution à un échantillon de données consiste, une fois le type de loi choisi, à estimer les paramètres de la loi de telle sorte que l’échantillon soit le plus vraisemblable possible (au sens du maximum de vraisemblance) ou qu’au moins certaines statistiques de l’échantillon (moyenne, variance par exemple) correspondent le mieux possible à celles de la loi.
Les deux méthodes d’ajustement sont :
Moments
Cette méthode simple utilise la définition des moments de la loi en fonction des paramètres afin de déterminer ces derniers. Pour la plupart des lois, l’utilisation de la moyenne et de la variance est suffisante. Cependant, pour certaines lois la moyenne suffit (par exemple, la loi de Poisson), ou, au contraire, le coefficient d’asymétrie est aussi nécessaire (loi de Weibull par exemple).
Vraisemblance
Les paramètres de la loi sont estimés en maximisant la vraisemblance de l’échantillon. Cette méthode, plus complexe, présente l’avantage d’être rigoureuse pour toutes les lois, et de permettre d’obtenir des écart-types approximatifs pour les estimateurs des paramètres.
On a estimé à l’aide d’un outil interne les paramètres des différentes Lois : Pareto, Exponentielle, LogNormale, Weibull et Pareto Généralisé. Après on va réaliser un test Kolmogorov-Smirnov pour savoir laquelle de nos lois correspond le mieux au données observées.
La méthode par exposition
S’il ne dispose pas de statistiques adéquates sur les sinistres, le réassureur essaie de trouver un portefeuille comparable, pour lequel il dispose d’expérience sur le sinistre suffisante. Il peut alors estimer la charge de sinistre attendu en quantifiant les différences entre le portefeuille à tarifer et le portefeuille de référence. S’il ne s’intéresse plus au premier lieu aux sinistres qui sont effectivement survenus, mais à ceux qui sont envisageables compte tenu des informations disponible sur les portefeuilles.
Généralement la méthode par exposition intervint lorsque le réassureur ne dispose pas d’une bonne expérience passée sur l portefeuille qu’il veut tarifer.
La méthode par exposition tient compte uniquement des informations disponibles dans le portefeuille actuel à tarifer. Cette méthode est un excellent complément dans le processus de tarification d’un portefeuille dans la mesure où elle peut conforter, remplacer ou même parachever la tarification par la méthode d’expérience.
Le profil de risque du portefeuille va être découpé en plusieurs bandes de sommes assurées. Dans cette étape, on fait l’hypothèse que chaque bande contienne des sommes assurées homogènes, c’est-à-dire de même ordre de grandeur. Cette hypothèse va nous permettre de travailler avec une seule distribution de sinistres individuels pour chaque bande. C’est donc une hypothèse de simplification, car il est très difficile de modéliser risque par risque dans un grand portefeuille.
Après le découpage du profil de risque du portefeuille, il est nécessaire de connaitre les ratios de sinistres (Loss Ratio) et les allocations de la prime à de l’assurance pour chaque tranche. Les données précitées vont nous permettre d’avoir une prime pure pour chaque bande comme espérance des sinistres annuels de la bande en question.
Soit un découpage du profil de risque de n bandes.
Tentative d’une nouvelle approche
Le principe de la nouvelle méthode de tarification
L’objectif est de trouver une nouvelle méthode de tarification qui soit un mélange des méthodes de tarification habituelle à savoir l’exposition et l’expérience.
Depuis plusieurs années, on remarque une grande différence entre les résultats des méthodes de tarification citées auparavant, car il est difficile de réaliser un AS IF sur les sinistres historiques pour la méthode par expérience, et les courbes d’exposition dont on dispose sont des courbes adaptées au marché américain donc pas du tout représentatifs de la sinistralité européenne. Un problème qui soulève des interrogations sur la crédibilité et l’efficacité de notre tarification. Seul un travail mathématique et stochastique basé sur les données historiques des portefeuilles en RC est capable de donner une vision panoramique sur la tarification, notamment l’estimation des paramètres tels que la fréquence et la sévérité. Pour rappel, la fréquence est associée à la distribution du nombre de sinistres ultimes dépassant un certain seuil pour la période de couverture et l’exposition en question. La sévérité du montant des sinistres ultimes est la distribution définie au-delà de ce même seuil. Un esprit d’initiative et un goût de la recherche demeurent néanmoins primordiaux pour le traitement d’un tel sujet afin d’apporter des réponses proches de la réalité qui tiennent compte du peu de données dont on dispose.
Face au manque d’information fournie par les courtiers sur la sinistralité qui touche les programmes des portefeuilles, une intuition fait surface et se positionne comme la plus plausible pour engager notre processus de simulation et d’estimation. Cette dernière consiste à créer de « nouveaux échantillons » obtenus par tirage avec remise à partir de l’échantillon initial (on parle de rééchantillonnage) ne nécessitant donc pas d’informations supplémentaires que celles disponibles dans l’échantillon initial.
Mais avant tout, où peut-on constituer cet échantillon initial ? À partir des portefeuilles historiques existants ? Ou bien la sinistralité historique ? Et pourquoi pas par les informations obtenues à travers les courtiers et les collaborateurs ? Sont-elles fiables et complètes ?
Ces questions posées, une tâche de traitement de données se manifeste soulevant des incertitudes sur la nature des hypothèses que l’on va retenir. En effet, la cédante ou le courtier ne fournissent les montants de sinistres qu’à partir du seuil. Donc on n’aura aucune idée sur les sinistres qui se sont produits en dessous de ce seuil. Par exemple, dans certains traités la cédante ou le courtier va faire connaitre à la compagnie de réassurance l’ensemble des sinistres dépassant la priorité sans pour autant nous donner des indications sur les petits sinistres survenus en dessous de ce seuil contractuel. Dès lors, nous disposons des sinistres à la part supérieurs à un seuil, néanmoins ceux-ci ne donnent pas d’indication sur les sinistres à 100%. D’autres difficultés qui vont être décrites au fur et à mesure de cette étude.
L’idée
La première étape
Est de reprendre tous les sinistres de la cédante depuis 2008 jusqu’à 2012 et de reconstituer les sinistres FGU, le nombre au-delà d’un certain seuil, une fréquence moyenne et un cout moyen. Cela va nous permettre d’ajuster une loi sur les sinistres FGU.
La difficulté ici va être la manière d’estimer un seuil à partir duquel on a tous les sinistres FGU.
L’objectif est d’avoir plus d’informations concernant les sinistres non déclarés et qui sont inférieurs au seuil (les sinistres qui nous manquent).
La deuxième étape
On va faire une simulation dans le sens inverse pour le portefeuille actuel. Après avoir ajusté la loi sur les sinistres FGU historiques. On va simuler des sinistres FGU sur les polices afin de calculer les sinistres à la part correspondants à chaque police.
Analyse statistique du portefeuille
Comme précité, on remarque qu’à partir de 2005 le cout moyen des sinistres, hors un gros sinistre récurent chaque année, est relativement stable. Cette hypothèse va être confirmée par le paragraphe suivant.
La fonction de distribution des sinistres à la part de la cédante
On trace les courbes de la distribution empirique des sinistres à la part de la cédante, à partir de 2003, à partir de 2005 et à partir de 2008.
Simulation (Pareto/LogNormal) pour calculer les sinistres à 100%
Maintenant on va générer des montants de sinistre à la part qui obéissent à une loi de Pareto/LogNormal. Le nombre de sinistres généré va être régi par la loi de Poisson comme cité auparavant.
Donc pour avoir nos échantillons et faire des études de fréquence et de sévérité, on sélectionne les polices dont la limite à la part est supérieure au sinistre à la part simulé. On attribue une nouvelle probabilité conditionnelle à ces programmes avec une fonction de répartition empirique ou proportionnelle des polices.
Par la suite, on va faire un tirage aléatoire sur ces polices sélectionnées pour leur affecter les sinistres aux parts simulés et calculer les sinistres FGU correspondant.
Une fois cette opération terminée, on va transposer ces données simulées dans un autre fichier pour faire des études de fréquence et de sévérité qui suivent le même principe que les études de fréquence et de sévérité sur les données observées. Et on va ajuster des lois de probabilité sur les sinistres à 100% et assurer le test de Kolmogorov-Smirnov.
Cette opération de simulation va se poursuivre pour chaque seuil, par conséquent pour chaque Lambda et chaque nombre de sinistre. Aussi pour chaque Alpha utilisé pour le tirage sur la loi de Pareto.
Le but est d’avoir un maximum de simulation pour avoir le maximum d’études sur la sévérité et la fréquence pour avoir des résultats stables pour chaque portefeuille, et comparer ces résultats avec les données observées.
Conclusion Générale
Traditionnellement en réassurance Non -Vie, on utilise deux principales méthodes pour tarifer des traités en excédant de sinistres : La méthode par expérience, qui utilise les sinistres historiques, et la méthode d’exposition qui tient compte du profil du portefeuille actuel du réassureur.
D’où notre motivation pour trouver une nouvelle méthode de tarification alternative.
Grace à notre étude sur les portefeuilles historiques, on a pu s’affranchir des contraintes liées au manque de données observées de sinistralité. Avec la méthode Monte Carlo, on a pu simuler des sinistres qui reflètent le comportement du portefeuille et avoir le maximum d’information sur les sinistres complets.
Nos simulations permettent de prendre en compte l’information du profil du risque du portefeuille. Ceci est important dans la branche de responsabilité civile générale.
Après avoir tiré une fréquence basée sur les sinistres historiques, et une courbe de sévérité, on a pu affecter au portefeuille actuel le comportement des sinistres observés du passé en simulant des sinistres FGU, et ainsi reconstituer les sinistres à la charge du réassureur et calculer la prime pure.
L’étude réalisée ci-avant permet d’aboutir à une méthode de tarification relativement adaptée à notre portefeuille de la branche de RC. On a obtenu des résultats comparables à ceux obtenus par les méthodes classiques. On déduit que la loi LogNormal est la mieux adaptée pour tarifer nos tranches hautes du programme de réassurance. Par contre il est difficile de dégager une tendance sur les tranches basses, c’est-à-dire les tranches travaillantes car on n’a pas réussi à trouver une seule distribution avec un seul nombre de sinistres (Lambda) qui soient valables pour tout le programme.
Au travers des exemples de ce mémoire, nous avons vu à quel point l’incertitude des paramètres de fréquence et de sévérité peuvent avoir un impact sur le résultat de la prime pure. A cela s’ajoute le manque de données observées dont disposent généralement les actuaires sur ce type de traité.
Il serait intéressant dans une prochaine étape de traiter indépendamment les sinistres observés sur chaque année et chaque portefeuille au lieu de les rassembler tous dans une seule étude. Il serait également intéressant de réaliser un meilleur ajustement de lois sur les sinistres FGU simulés en prenant une distribution mélangée avec deux seuils différents, afin de mieux ajuster les tranches hautes.
|
Table des matières
I. Introduction
II. Contexte de l’étude et présentation des données
A. Transatlantic Reinsurance Company
B. La réassurance
1. L’esprit de la réassurance
2. Les formes non-proportionnelles
3. Les Facultatives
4. Méthodes de tarification en réassurance
5. Réassurance
6. Clause de limitation
i. Exemple
ii. La corrélation entre la prime pure d’un traité en XS sinistres et l’AAL et l’AAD (approche probabiliste)
iii. La prime pure d’un contrat en excédent de sinistres
7. Les sinistres à développement long
i. Les sinistres Payés (SP ou Paid Loss) et les Provisions Restant à Payer
i. Sinistres IBNER (Incurred But not Enough Reserved)
ii. Sinistres IBNR (Incurred But Not Reported)
C. Chaîne de production
1. Le souscripteur
2. Le Risk Manager
3. Gestionnaire de sinistre
4. L’Actuaire
5. Comptabilité
6. Le courtage
D. Le contexte actuel de la réassurance
E. Responsabilité Civile
1. Définition générale
2. Législation de la RC
i. Principe
ii. Code civil
iii. Lois spéciales
iv. Un aperçu sur la fiscalité des compagnies de réassurance
F. Présentation de données
1. Données de la cédantes
i. Présentation des données du portefeuille
ii. Les données des sinistres
3. Modèle et lien entre les sinistres et le portefeuille
i. Complément
Explication de lien entre sinistres et portefeuille
Exemple de lien entre le sinistre à la part de la cédante et le sinistre complet
Problème des sinistres à 100%
3. Analyse des données
4. Motivation
III. TARIFICATION DES TRAITES RC en XS
A. Expérience
1. Mise en AS-IF
i. Outils de revalorisation
ii. Escompter des données des sinistres à la part de la cédante au-delà du seuil S1
2. Extrapolation des sinistres individuels à l’ultime
i. Calcul des IBNER
ii. Application des facteurs pour développer les sinistres
7. Fit par une loi de probabilité
i. Moments
ii. Vraisemblance
iii. Le test sur les paramètres : Kolmogorov-Smirnov
iv. Autres ajustements des lois
v. La Mean excess fonction
vi. QQ Plot
8. La cadence de paiement
9. L’estimation du nombre de sinistres à l’ultime
B. Calcul de la Prime Pure
1. Le Burning Cost
2. Modèles mathématiques : méthode de simulation
3. Cash-flow
5. Application de la tarification avec la méthode de simulation
i. Modélisation des montants de sinistres
ii. Modélisation de la loi de fréquence
iii. Tarification avec les clauses du traité
C. La méthode par exposition
1. L’approche ILF
i. Formalisation mathématique
ii. Application sur un traité C XS D
iii. Exemple numérique
IV. Tentative d’une nouvelle approche
A. Le principe de la nouvelle méthode de tarification
B. Simulation de Monte Carlo
C. Distribution des polices
D. Analyse statistique du portefeuille
E. Sélection d’une distribution des sinistres à la part observés
F. Simulation
1. Simulation du nombre de sinistre dans l’année
2. Simulation du sinistre à la part moyen en fonction du seuil
i. Simulation (Pareto/LogNormal) pour calculer les sinistres à 100%
ii. Formalisation
Une seule simulation
Pour M simulation
G. Résultats
1. Pour le seuil
i. Distribution des polices à la part de la cédante uniforme
ii. Distribution des polices proportionnelle à la part de la cédante
2. Pour le seuil
3. Pour les seuils
4. Fit des sinistres FGU
5. Pour le seuil
H. Problème de seuil : on va descendre à
1. Le nombre de sinistre pour le nouveau seuil
1. Les paramètres de la simulation des sinistres à la part pour le nouveau seuil
2. Résultats de la simulation avec le nouveau seuil
I. Les portefeuilles 2010 et 2011
1. Portefeuille 2010
2. Portefeuille 2011
I. Conclusion
1. La fréquence
2. La sévérité
K. Simulation sur le portefeuille de 2012
1. L’idée
2. La clause de stabilisation
L. Résultats et comparaison avec les données d’avant
1. Résultats de la prime pure
1. Ecart type
2. Conclusion
V. Conclusion Générale
VI. Bibliographie
VII. Annexe : Définition des lois
Télécharger le rapport complet