Pourquoi assureurs et mutuelles devraient s’intéresser de très près à l’internet de demain ? Episode 3 : l’internet de demain va modifier le marketing des assureurs.

Dans le troisième article de cette série, je voudrais évoquer comment l’internet de demain tel que je l’ai décrit dans le premier article de la série va impacter la manière dont les assureurs et les mutuelles peuvent définir et conduire leur stratégie et leurs actions marketing.

Sur ce plan, le métier des assurances n’est pas très différent des autres, l’internet de demain modifiant en effet le marketing dans son ensemble. Quels seront donc ces impacts ? Ils tournent notamment selon moi autour d’approches telles que le marketing prédictif et le marketing en temps réel.

Je note au passage que ce sujet est justement à l’honneur de l’édition 2013 du salon emarketing Paris, qui a lieu en ce moment.

Il était aussi à l’honneur de l’événement The CMO+CIO Leadership Exchange organisé par IBM à Paris en octobre 2012 et dont est issue la vidéo ci-dessous.

 

 

Mais revenons à nos moutons…

Le marketing prédictif, de quoi s’agit-il ?

Sur cette question je ne serai pas original et je me contenterai de citer le site Définitions Marketing, sur lequel on peut lire que “le marketing prédictif regroupe les techniques de traitement et de modélisation des comportements clients qui permettent d’anticiper leurs actions futures à partir du comportement présent.” Il peut être définit “comme l’analyse des données historiques et actuelles disponibles sur le client afin de créer des prévisions sur ses comportements, préférences et besoins futurs. Il débouche le plus souvent sur la création de scores liés à la probabilité qu’un client ou prospect réalise une action donnée (achat, résiliation, réponse, etc..). Il permet d’optimiser le ciblage et les déroulements (moment, canal, offre,..) des actions marketing. Il repose sur la création de modèles prédictifs”, qui sont des “modèles mathématiques qui permettent de probabiliser l’action future d’un client ou prospect. (…) Un modèle destiné à identifier les clients risquant de résilier un abonnement est par exemple établi à partir des caractéristiques et comportements passés des clients ayant déjà résilié leur contrat.

Et le site de rappeler qu’IBM aurait recensé “7 types de modèles prédictifs :

  • Les modèles d’acquisition qui prévoient la probabilité de conversion d’un prospect en client.
  • Les modèles de vente croisée qui prévoient la probabilité qu’un client existant achète un produit ou un service additionnel.
  • Les modèles de vente additionnelle.
  • Les modèles d’attrition
  • Les modèles de valeur qui sont utilisés pour prévoir les différentes mesures de valeur telle que la durée de vie d’une relation client ou la valeur générée si le client achète un produit spécifique.
  • Les modèles de tonalité pour prévoir quel type message sera le mieux adapté à chaque client.
  • Les modèles de risque qui estiment la probabilité d’activité frauduleuse ou de problèmes au niveau des crédits.

De l’analyse prédictive du risque au marketing prédictif

L’analyse prédictive n’est pas nouvelle pour les assureurs. C’est même le coeur de leur travail d’analyse du risque ! Mais il s’agit ici de l’appliquer au marketing et non à l’analyse du risque ! Cet usage est sans doute nouveau pour beaucoup d’entre eux comme pour n’importe quelle autre entreprise. Et pour ceux qui l’utiliseraient déjà, les développements d’internet dont je parle depuis le début de cette série d’articles vont apporter de profondes modifications, notamment en modifiant aussi bien la masse et l’origine des données à analyser que la puissance des moteurs d’analyse.

Désormais, les données à analyser ne sont plus seulement celles du CRM de l’assureur mais aussi celles des médias sociaux, celles issues de l’analytique web, celles publiées par les collectivités et services publics via Open Data, et à l’avenir sans doute toutes celles issues de l’internet des données dont je parle depuis le début de cette série.

A quoi cela va-t-il servir ?

  • pour mieux identifier les risques de perdre un client ou leur probable fidélité,
  • pour calculer la valeur d’un client tout au long de sa relation avec l’assureur,
  • pour mieux cibler les opérations promotionnelles : savoir quel produit proposer à quel client avec quel argumentaire; voire travailler en temps réel : certains moteurs peuvent en effet calculer un nouveau scoring tous les jours donc s’adapter quasiment en temps réel au comportement des clients,
  • etc.

A titre d’exemple, je citerai Daniel Makanda, directeur du marketing et de la communication du comparateur santiane.fr, qui a expliqué à L’Argus de l’Assurance : “Nous avons développé en interne notre propre outil d’analytique pour analyser toutes les données relatives à nos clients ainsi qu’aux prospects qui consultent notre comparateur. Cet outil se fonde sur l’historique pour prédire quels prospects seront les plus rentables. Cela nous permet de prioriser les appels. Ainsi, lorsque la demande est forte, les conseillers se concentrent sur les prospects pour lesquels ils anticipent une prime plus élevée. Cet outil est l’un des éléments qui expliquent notre forte rentabilité.” Pour info, il faut savoir que sur les deux dernières années, le Groupe Santiane a été classé parmi les entreprises les plus rentables de France par le magazine L’Entreprise (21ème en 2011, 22ème en 2012).

On trouvera d’ailleurs une présentation intéressante de cette nouvelle approche prédictive dans le marketing des Assurances dans l’article de L’Argus de l’Assurance intitulé “Savoir, c’est prévoir”, dont est issue la citation ci-dessus.

En vrac, voici d’autres sources d’informations sur le sujet :

Dans sa Lettre des Services Financiers de mars 2012, Deloitte consacre également un article à cette question de l’analytique et des logiciels prédictifs. J’en citerai juste un passage qui rappelle le constat qui est le mien depuis le début de cette série : “Le volume de données collectées et stockées aujourd’hui est gigantesque… et ce volume devrait continuer à croître par ailleurs de façon exponentielle en raison des possibilités grandissantes à capter désormais toute une série d’informations au travers des objets eux-mêmes : vêtements, smartphones, automobiles… Les objets auront de plus en plus la capacité à produire des traces, qui viendront renforcer la masse de données exploitables. A titre d’exemple, aux États-Unis en 2009, les téléphones mobiles produisaient déjà plus de 600 milliards de « traces géospatiales » par jour. Aujourd’hui, un « Internet des objets » commence à prendre forme au travers des 9 milliards d’objets connectés et producteurs de traces, un chiffre qui devrait dépasser les 24 milliards avant 2020, créant une opportunité immense pour une meilleure compréhension des comportements et des activités.” La suite de l’article évoque les mêmes usages de l’analyse prédictive que ceux que je viens d’évoquer. A noter aussi dans cette publication un autre article sur le “web de demain”. Tiens, tiens…

Analyse des fraudes et optimisation des coûts de gestion des sinistres

Parmi les usages que peuvent faire de ces technologies les assureurs et les mutuelles, il y a l’analyse des fraudes à l’assurance. Aux Etats-Unis, le système public d’assurance-santé a mis en place un tel dispositif. Le site InsuranceTech précise d’ailleurs que dans ce contexte, la performance des outils d’analyse est plus importante que la masse de données analysées. Le même site consacre également un article à l’usage que font les assureurs canadiens de ces outils pour lutter contre les fraudes.

Enfin, un autre usage semble être l’optimisation des coûts de gestion de sinistres à travers notamment l’accélération des délais de traitement, comme le signale cet article.

Si vous voulez en savoir plus sur l’analyse prédictive en général, aussi bien pour le marketing prédictif (c’était le sujet de cet article) que pour l’analyse des risques (c’était le sujet du précédent article de cette série), je vous invite à consulter les sites AnalysePredictive.fr (en français) ou PredictiveAnalytics.org (en anglais).

Enfin, puisque je parle beaucoup des autres, je vais également citer le dernier livre blanc publié par l’agence où je travaille, Valtech, intitulé Cross data marketing et téléchargeable sur cette page. N’hésitez pas ! 😉

Bon, nous approchons de la fin de cette série. Dans le prochain article, nous verrons comment l’internet de demain devrait également modifier l’offre et le business model des assureurs et des mutuelles. Allez, courage, on en voit le bout ! 😉

Publicités

Pourquoi assureurs et mutuelles devraient s’intéresser de très près à l’internet de demain ? Episode 2 : Evaluation des risques et des dommages

Dans le premier article de cette série, j’ai décrit ce que j’entendais par “internet de demain” en évoquant notamment comment il va modifier la manière dont les données sont générées, partagées, puis analysées. Dans le présent article, nous allons voir le premier impact que l’internet de demain devrait avoir sur les mutuelles et les assurances. En l’occurrence, il pourrait modifier fortement la manière dont ils évaluent les risques et les dommages, que ce soit ceux qu’ils couvrent ou ceux qu’ils pourraient subir.

Précaution préalable : N’étant pas un spécialiste du métier des assurances et mutuelles, je serai ici prudent sur tout ce que je dit. J’espère ne pas dire trop de bêtises. N’hésitez surtout pas à faire vos remarques en commentaires !

Le métier des assurances & mutuelles

Le métier de l’assurance consiste à évaluer les risques et leur impact financier pour pouvoir les couvrir. “Connaître les risques pour mieux les anticiper, les maîtriser et les tarifer au plus juste, tel est, ni plus ni moins, le coeur du métier de l’assurance”, pouvait-on lire dans un article récent de l’Argus de l’Assurance consacré à l’innovation (n°7294, p.56).

Pour faire cela, les assureurs s’appuient sur différents métiers, internes ou externes à l’entreprise : statisticiens, prévisionnistes, actuaires

Sur le portail pédagogique lesmetiers.net, le métier d’actuaire est ainsi décrit : “Prévoir l’imprévisible, telle est la mission principale de l’actuaire ! Dans les banques et les sociétés d’assurance, l’actuaire analyse des données statistiques et effectue des calculs de probabilités. A partir de ces éléments, il établit le montant des versements et des taux d’intérêts pour chaque contrat (plan d’épargne retraite, assurance vie, etc.) et estime les réserves d’argent dont la banque a besoin pour faire face aux engagements financiers pris vis-à-vis des clients.” Pour l’anecdote, le métier d’actuaire est régulièrement classé parmi les 3 “meilleurs métiers” aux Etats-Unis par CarrerCast et le Wall Street Journal (voir 2010, 2011, 2012).

Ainsi donc, le métier d’actuaire consiste à analyser et modéliser le taux de risque d’un côté (de manière statistique et historique) et à construire l’équation économique de l’autre entre ce que peut et doit payer chacun pour être couvert (la prime d’assurance) et ce que peuvent et doivent recevoir les victimes. Pour cela, l’assureur doit savoir quelles situations sont à risques et doit pouvoir évaluer dans quelle situation se trouve un assuré. Si l’assuré est dans une situation à risque, sa prime d’assurance sera plus élevée que s’il ne l’est pas.

Je cite l’article “Prime d’assurance” de Wikipedia : “La partie risque constitue le coût probable de sinistre que représente le risque à assurer. Concrètement, l’assureur va modéliser le risque que représente l’objet à assurer, en comparant son profil avec l’historique qu’il possède sur d’autres profils similaires. L’évaluation du risque est donc liée à la connaissance historique de risques similaires (ou à la capacité de modélisation). C’est la raison pour laquelle, les assureurs proposent des primes d’assurance différentes, puisqu’ils n’ont pas le même historique, la même expérience, la même base de clientèle. Ils évaluent donc différemment les risques.”

Cette différence repose en partie sur le choix de ce que l’on appelle les “variables explicatives”, comme l’explique l’article “Calcul de la prime d’assurance”, de Wikipédia : “Le choix des variables explicatives obéit à de nombreux critères qui vont au-delà de la pertinence statistique des variables considérées :

  • Disponibilité et fiabilité de l’information : les variables doivent être connues de l’assureur, et récoltées de façon fiable auprès de l’assuré. Ainsi, il est interdit en France de récolter des données raciales. En assurance auto, la variable explicative la plus pertinente est le kilométrage parcouru. Cette donnée est utilisée dans certains pays du nord de l’Europe, mais n’est pas utilisable dans les pays d’Europe du sud.
  • Segmentation interdite a priori par la compagnie d’assurances : une compagnie d’assurance peut décider de ne discriminer les prix qu’en fonction de critères précis, en en excluant délibérément certains. Cependant, si des concurrents utilisent une segmentation plus fine, la compagnie d’assurance risque de ne se retrouver qu’avec les plus mauvais risques, les bons risques étant captés par la concurrence grâce à des tarifs plus avantageux.”

L’explosion du nombre de données

Or, c’est ce paysage qui, selon moi, pourrait bien être modifié en profondeur par l’internet de demain. De quelle manière ? Non pas en invalidant les actuels modes de calcul (les modèles statistiques, prédictifs, stochastiques, etc.), mais plutôt en faisant exploser le registre des données sur lesquelles se fondent les assureurs pour effectuer ces calculs. Nous aurons en effet sans cesse plus de données à disposition, sans cesse plus récentes, issues de sources sans cesse plus variées, analysées par des puissances de calcul sans cesse plus grandes pouvant travailler à la fois sur un plus grand nombre de données, d’une plus grande variété et dans un plus court laps de temps.

Cette explosion du nombre de données, c’est ce que l’on appelle le big data. Voici donc un sujet qu’il me paraît crucial de mettre au coeur des débats et des attentions dans le monde de l’assurance. Signe d’ailleurs de l’importance de cette question pour ce secteur, le 16 février prochain, le LAB (Laboratoire Assurance Banque), organise une conférence sur le thème “Big Data : quels usages pour l’assurance ?”. Ce sera notamment l’occasion d’aborder des questions telles que (je cite le programme de l’événement) : “Comment utiliser concrètement le Big Data  pour anticiper et prédire des sinistres en santé ? Pour fournir des services inédits grâce à la géolocalisation ? Pour améliorer le ciblage publicitaire sur internet ?” et également “Quel doit être le rôle des actuaires dans l’analyse de ces informations ?”

Une plus grande diversité de données exploitables

Savoir traiter le volume sans cesse croissant des données est donc clé. Mais le big data en volume n’est possible que parce qu’il s’accompagne d’une explosion de la variété des données. Pour ne citer que 2 exemples (les plus parlants en matière de digital), les médias sociaux et le nombre croissant de capteurs, comme je l’ai déjà dit dans le premier article de cette série, multiplient les données. Et toutes ces données supplémentaires sont autant de matière nouvelle à analyser par les actuaires, statisticiens et autres prévisionnistes pour rendre plus précise leur évaluation du risque. L’évaluation des risques utilise en effet le plus souvent des données statistiques et historiques de survenue des risques. Elles vont progressivement se multiplier et se diversifier avec l’internet des objets, les médias sociaux ou l’usage des smartphones, comme on peut le lire dans cet article. C’est aussi ce qu’indique l’Argus de l’assurance, quelques lignes après celles citées plus haut : “les spécialistes estiment cruciale (pour la modélisation des risques) l’exploitation des smartphones comme capteurs d’informations sociales et comportementales.” (L’Argus de l’assurance, n°7294, p.56)

Depuis quelques années déjà, le cabinet Deloitte promeut un nouveau modèle d’analyse prédictive, fondé sur l’utilisation de données comportementales par opposition à l’usage des données classiquement recueillies et utilisées par les assureurs. On trouvera une description de ce modèle dans cette étude et cette présentation. Plusieurs sociétés, dont Aviva, ont utilisé ce modèle comme en témoigne cet article du Wall Street Journal.

On peut aussi citer à ce sujet cet autre article de l’Argus de l’assurance : “Aviva, aux États-Unis, pour ouvrir son assurance décès à un plus grand nombre, cherchait à baisser les coûts de souscription (des tests médicaux qui lui coûtaient en moyenne 125 $ par dossier). En 2010, il a testé un modèle prédictif comportemental, en récupérant sur les réseaux sociaux des données pour décrire des comportements alimentaires, culturels…, et 99,3 % des prévisions du modèle ont concordé avec le résultat des tests médicaux. Le tout avec un coût unitaire bien inférieur, une fois le modèle prédictif mis en place.”

Contrairement à ce que dit cet extrait, je ne suis pas sûr qu’Aviva et Deloitte aient utilisé dès 2010 des données issues des réseaux sociaux… Par contre, comme l’indique cet article, je pense que la question de l’usage de telles données devrait se poser rapidement, qu’il s’agisse des données issues des médias sociaux, des objets connectés, des capteurs, bref de toutes ces données issues de l‘internet de demain.

Évidemment, j’ai bien conscience que de multiples règles de droit et d’éthique encadrent et encadreront longtemps le travail des assureurs, et heureusement ! Je ne me prononce pas sur ce qu’il est possible et souhaitable de faire légalement, juste sur ce que permet la technologie et les usages numériques, et sur ce qui offre des opportunités business. Ensuite, il y a évidemment un débat à avoir sur la question de la faisabilité légale de mise en oeuvre (faisabilité qui varie d’ailleurs et variera sans doute longtemps d’un pays à l’autre). Dans un article paru en Juin 2012, The economist s’inquiétait d’ailleurs des dérives possibles de telles pratiques. Forbes avait également relayé ce questionnement dans un autre article.

Open Data, API et crowdsourcing apportent de nouvelles opportunités

Quoi qu’il en soit de l’issue de ce débat, je constate que dès aujourd’hui des pratiques innovantes se mettent en place chez les assureurs qui tentent de tirer parti de ces nouvelles opportunités qu’offre l’internet de demain, aussi bien à travers l’augmentation exponentielle des données qui sont et seront disponibles, qu’à travers les nouveaux usages qu’il initie. Parmi ces usages : le partage des données, que ce soit le partage des données publiques via le principe de l’Open Data, ou l’usage des API.

L’Argus de l’assurance a récemment consacré un article à l’Open Data : “L’open data, un nouveau gisement à exploiter”. Dans cet article, le journal explique également que l’assureur américain Aetna a initié une démarche de partage de ses données aux autres assureurs et développeurs d’applications sous forme d’API via sa plateforme CarePass. On peut retrouver d’autres articles soulevant l’intérêt et les questionnements de l’Open Data et des API pour les assurances et les mutuelles ici, ici, ici ou encore ici.

C’est aussi dans ce contexte de l’Open Data qu’est né en France l’initiative transparence santé, qui est ainsi décrite sur son site web : “A l’heure de l’Open data, nous, représentants d’usagers de santé, chercheurs, assureurs, entrepreneurs, consultants et journalistes, soucieux d’une meilleure information sur le fonctionnement de notre système de soins, réclamons la possibilité pour la société civile d’accéder en toute transparence aux données publiques de santé. Notre initiative – l’Initiative transparence santé – vise à porter ce débat auprès de l’opinion et des décideurs pour qu’enfin les verrous sautent.” L’UFC-Que Choisir milite également dans ce sens.

Cette ouverture des données est sans doute attirante, mais elle n’est pas sans poser des défis, notamment en termes de qualité des données, comme le rappelle Optimind dans son dossier technique La qualité des données. Car la quantité ni même la transparence ne sont pas un gage automatique de qualité, de validité et de performance ou de pertinence dans l’exploitation. La capacité à trier, sélectionner et segmenter les données est donc fondamentale, tout autant que la capacité à les analyser ensuite.

Or, là encore, les réserves d’innovation des assureurs pour répondre à de tels défis sont énormes. La démarche la plus innovante et audacieuse en la matière dont j’ai entendu parler est celle de l’assureur américain Allstate à travers son usage de Kaggle, une plateforme de crowdsourcing spécialisée dans l’organisation de concours autour des BigData. L’assureur organise sur cette plateforme des concours d’analyse prédictive :

  • Will I stay or Will I go?” visait à prédire quels clients de l’assureur vont lui rester fidèle : “Predict which of our current customers will stay insured with us for an entire policy term.”
  • Give me some credit” est un concours visant à analyser les probabilités de défaut d’un emprunteur.
  • L’assureur a aussi lancé un concours pour prédire au mieux les coûts des sinistres (blessures et décès) en fonction des caractéristiques du véhicule de l’assuré.

Comme le formule judicieusement le blog “C’est pas mon idée !” dans un article éponyme, à travers ce projet, “Allstate teste l’actuariat en crowdsourcing !”

Pour conclure sur cette partie, je vous invite à consulter le compte-rendu de la journée de conférences organisée par l’Enass (Ecole Nationale d’Assurance) le 22 juin 2011 sur le thème « Des faits aux données ». L’ensemble des sujets évoqués dans cet article y sont débattus par des spécialistes.

L’internet de demain va également modifier l’analyse des risques et dommages que les assureurs et les mutuelles pourraient subir.

Si le métier des assurances et mutuelles consiste à couvrir les risques de leurs assurés, ils ne sont pas eux-mêmes exempts de tous risques ! Et comme charité bien ordonnée commence par soi-même, il est donc crucial qu’ils s’appliquent également à eux-mêmes leur propre évaluation !

Je comprends cette question comme celle de l’analyse des risques opérationnels, une analyse qui peut s’appliquer à n’importe quelle entreprise à travers l’ERM (Enterprise Risk Management). Je vais être très bref sur ce sujet qui est loin d’être ma spécialité si vous voyez ce que je veux dire. Pour ceux que ça intéresse, je vous suggère de lire le dossier technique d’Optimind sur le sujet. Quoi qu’il en soit, sur cette question comme pour l’analyse de n’importe quel autre risque, l’internet de demain devrait jouer un rôle aussi bien dans la nature des informations à analyser que des algorithmes capables de les analyser. Ici encore, les capacités de captation et d’analyse des big data seront mises à contribution, ainsi que les outils d’analyse prédictive. On trouvera de nombreux points d’entrée sur ce sujet (ainsi que sur tous ceux évoqués dans cet article) dans le blog Business-Analytics-Info.fr de l’éditeur SAS : Gestion du risque : anticiper l’inattendu, L’analyse prédictive pour une gestion « intelligente » du risque, etc. Et pour qu’on ne m’accuse pas de favoriser un éditeur au dépend d’un autre, je vous oriente également vers cette page de loffre d’IBM, qui intègre la gestion des risques opérationnels.

Voilà. Cet article touche enfin à sa fin. J’ai été long… et rapide à la fois tant le sujet mériterait d’être approfondi. J’espère en tous cas vous avoir convaincu que l’internet de demain pourrait offrir toute une palette d’outils et de données inédits qui pourraient intéresser au plus haut point assureurs et mutuelles dans leur travail d’évaluation des risques.

Mais l’internet de demain pourrait également modifier le marketing et la relation client des assureurs et des mutuelles. C’est ce que nous verrons dans le prochain article de cette série.