Pourquoi assureurs et mutuelles devraient s’intéresser de très près à l’internet de demain ? Episode 2 : Evaluation des risques et des dommages

Dans le premier article de cette série, j’ai décrit ce que j’entendais par “internet de demain” en évoquant notamment comment il va modifier la manière dont les données sont générées, partagées, puis analysées. Dans le présent article, nous allons voir le premier impact que l’internet de demain devrait avoir sur les mutuelles et les assurances. En l’occurrence, il pourrait modifier fortement la manière dont ils évaluent les risques et les dommages, que ce soit ceux qu’ils couvrent ou ceux qu’ils pourraient subir.

Précaution préalable : N’étant pas un spécialiste du métier des assurances et mutuelles, je serai ici prudent sur tout ce que je dit. J’espère ne pas dire trop de bêtises. N’hésitez surtout pas à faire vos remarques en commentaires !

Le métier des assurances & mutuelles

Le métier de l’assurance consiste à évaluer les risques et leur impact financier pour pouvoir les couvrir. “Connaître les risques pour mieux les anticiper, les maîtriser et les tarifer au plus juste, tel est, ni plus ni moins, le coeur du métier de l’assurance”, pouvait-on lire dans un article récent de l’Argus de l’Assurance consacré à l’innovation (n°7294, p.56).

Pour faire cela, les assureurs s’appuient sur différents métiers, internes ou externes à l’entreprise : statisticiens, prévisionnistes, actuaires

Sur le portail pédagogique lesmetiers.net, le métier d’actuaire est ainsi décrit : “Prévoir l’imprévisible, telle est la mission principale de l’actuaire ! Dans les banques et les sociétés d’assurance, l’actuaire analyse des données statistiques et effectue des calculs de probabilités. A partir de ces éléments, il établit le montant des versements et des taux d’intérêts pour chaque contrat (plan d’épargne retraite, assurance vie, etc.) et estime les réserves d’argent dont la banque a besoin pour faire face aux engagements financiers pris vis-à-vis des clients.” Pour l’anecdote, le métier d’actuaire est régulièrement classé parmi les 3 “meilleurs métiers” aux Etats-Unis par CarrerCast et le Wall Street Journal (voir 2010, 2011, 2012).

Ainsi donc, le métier d’actuaire consiste à analyser et modéliser le taux de risque d’un côté (de manière statistique et historique) et à construire l’équation économique de l’autre entre ce que peut et doit payer chacun pour être couvert (la prime d’assurance) et ce que peuvent et doivent recevoir les victimes. Pour cela, l’assureur doit savoir quelles situations sont à risques et doit pouvoir évaluer dans quelle situation se trouve un assuré. Si l’assuré est dans une situation à risque, sa prime d’assurance sera plus élevée que s’il ne l’est pas.

Je cite l’article “Prime d’assurance” de Wikipedia : “La partie risque constitue le coût probable de sinistre que représente le risque à assurer. Concrètement, l’assureur va modéliser le risque que représente l’objet à assurer, en comparant son profil avec l’historique qu’il possède sur d’autres profils similaires. L’évaluation du risque est donc liée à la connaissance historique de risques similaires (ou à la capacité de modélisation). C’est la raison pour laquelle, les assureurs proposent des primes d’assurance différentes, puisqu’ils n’ont pas le même historique, la même expérience, la même base de clientèle. Ils évaluent donc différemment les risques.”

Cette différence repose en partie sur le choix de ce que l’on appelle les “variables explicatives”, comme l’explique l’article “Calcul de la prime d’assurance”, de Wikipédia : “Le choix des variables explicatives obéit à de nombreux critères qui vont au-delà de la pertinence statistique des variables considérées :

  • Disponibilité et fiabilité de l’information : les variables doivent être connues de l’assureur, et récoltées de façon fiable auprès de l’assuré. Ainsi, il est interdit en France de récolter des données raciales. En assurance auto, la variable explicative la plus pertinente est le kilométrage parcouru. Cette donnée est utilisée dans certains pays du nord de l’Europe, mais n’est pas utilisable dans les pays d’Europe du sud.
  • Segmentation interdite a priori par la compagnie d’assurances : une compagnie d’assurance peut décider de ne discriminer les prix qu’en fonction de critères précis, en en excluant délibérément certains. Cependant, si des concurrents utilisent une segmentation plus fine, la compagnie d’assurance risque de ne se retrouver qu’avec les plus mauvais risques, les bons risques étant captés par la concurrence grâce à des tarifs plus avantageux.”

L’explosion du nombre de données

Or, c’est ce paysage qui, selon moi, pourrait bien être modifié en profondeur par l’internet de demain. De quelle manière ? Non pas en invalidant les actuels modes de calcul (les modèles statistiques, prédictifs, stochastiques, etc.), mais plutôt en faisant exploser le registre des données sur lesquelles se fondent les assureurs pour effectuer ces calculs. Nous aurons en effet sans cesse plus de données à disposition, sans cesse plus récentes, issues de sources sans cesse plus variées, analysées par des puissances de calcul sans cesse plus grandes pouvant travailler à la fois sur un plus grand nombre de données, d’une plus grande variété et dans un plus court laps de temps.

Cette explosion du nombre de données, c’est ce que l’on appelle le big data. Voici donc un sujet qu’il me paraît crucial de mettre au coeur des débats et des attentions dans le monde de l’assurance. Signe d’ailleurs de l’importance de cette question pour ce secteur, le 16 février prochain, le LAB (Laboratoire Assurance Banque), organise une conférence sur le thème “Big Data : quels usages pour l’assurance ?”. Ce sera notamment l’occasion d’aborder des questions telles que (je cite le programme de l’événement) : “Comment utiliser concrètement le Big Data  pour anticiper et prédire des sinistres en santé ? Pour fournir des services inédits grâce à la géolocalisation ? Pour améliorer le ciblage publicitaire sur internet ?” et également “Quel doit être le rôle des actuaires dans l’analyse de ces informations ?”

Une plus grande diversité de données exploitables

Savoir traiter le volume sans cesse croissant des données est donc clé. Mais le big data en volume n’est possible que parce qu’il s’accompagne d’une explosion de la variété des données. Pour ne citer que 2 exemples (les plus parlants en matière de digital), les médias sociaux et le nombre croissant de capteurs, comme je l’ai déjà dit dans le premier article de cette série, multiplient les données. Et toutes ces données supplémentaires sont autant de matière nouvelle à analyser par les actuaires, statisticiens et autres prévisionnistes pour rendre plus précise leur évaluation du risque. L’évaluation des risques utilise en effet le plus souvent des données statistiques et historiques de survenue des risques. Elles vont progressivement se multiplier et se diversifier avec l’internet des objets, les médias sociaux ou l’usage des smartphones, comme on peut le lire dans cet article. C’est aussi ce qu’indique l’Argus de l’assurance, quelques lignes après celles citées plus haut : “les spécialistes estiment cruciale (pour la modélisation des risques) l’exploitation des smartphones comme capteurs d’informations sociales et comportementales.” (L’Argus de l’assurance, n°7294, p.56)

Depuis quelques années déjà, le cabinet Deloitte promeut un nouveau modèle d’analyse prédictive, fondé sur l’utilisation de données comportementales par opposition à l’usage des données classiquement recueillies et utilisées par les assureurs. On trouvera une description de ce modèle dans cette étude et cette présentation. Plusieurs sociétés, dont Aviva, ont utilisé ce modèle comme en témoigne cet article du Wall Street Journal.

On peut aussi citer à ce sujet cet autre article de l’Argus de l’assurance : “Aviva, aux États-Unis, pour ouvrir son assurance décès à un plus grand nombre, cherchait à baisser les coûts de souscription (des tests médicaux qui lui coûtaient en moyenne 125 $ par dossier). En 2010, il a testé un modèle prédictif comportemental, en récupérant sur les réseaux sociaux des données pour décrire des comportements alimentaires, culturels…, et 99,3 % des prévisions du modèle ont concordé avec le résultat des tests médicaux. Le tout avec un coût unitaire bien inférieur, une fois le modèle prédictif mis en place.”

Contrairement à ce que dit cet extrait, je ne suis pas sûr qu’Aviva et Deloitte aient utilisé dès 2010 des données issues des réseaux sociaux… Par contre, comme l’indique cet article, je pense que la question de l’usage de telles données devrait se poser rapidement, qu’il s’agisse des données issues des médias sociaux, des objets connectés, des capteurs, bref de toutes ces données issues de l‘internet de demain.

Évidemment, j’ai bien conscience que de multiples règles de droit et d’éthique encadrent et encadreront longtemps le travail des assureurs, et heureusement ! Je ne me prononce pas sur ce qu’il est possible et souhaitable de faire légalement, juste sur ce que permet la technologie et les usages numériques, et sur ce qui offre des opportunités business. Ensuite, il y a évidemment un débat à avoir sur la question de la faisabilité légale de mise en oeuvre (faisabilité qui varie d’ailleurs et variera sans doute longtemps d’un pays à l’autre). Dans un article paru en Juin 2012, The economist s’inquiétait d’ailleurs des dérives possibles de telles pratiques. Forbes avait également relayé ce questionnement dans un autre article.

Open Data, API et crowdsourcing apportent de nouvelles opportunités

Quoi qu’il en soit de l’issue de ce débat, je constate que dès aujourd’hui des pratiques innovantes se mettent en place chez les assureurs qui tentent de tirer parti de ces nouvelles opportunités qu’offre l’internet de demain, aussi bien à travers l’augmentation exponentielle des données qui sont et seront disponibles, qu’à travers les nouveaux usages qu’il initie. Parmi ces usages : le partage des données, que ce soit le partage des données publiques via le principe de l’Open Data, ou l’usage des API.

L’Argus de l’assurance a récemment consacré un article à l’Open Data : “L’open data, un nouveau gisement à exploiter”. Dans cet article, le journal explique également que l’assureur américain Aetna a initié une démarche de partage de ses données aux autres assureurs et développeurs d’applications sous forme d’API via sa plateforme CarePass. On peut retrouver d’autres articles soulevant l’intérêt et les questionnements de l’Open Data et des API pour les assurances et les mutuelles ici, ici, ici ou encore ici.

C’est aussi dans ce contexte de l’Open Data qu’est né en France l’initiative transparence santé, qui est ainsi décrite sur son site web : “A l’heure de l’Open data, nous, représentants d’usagers de santé, chercheurs, assureurs, entrepreneurs, consultants et journalistes, soucieux d’une meilleure information sur le fonctionnement de notre système de soins, réclamons la possibilité pour la société civile d’accéder en toute transparence aux données publiques de santé. Notre initiative – l’Initiative transparence santé – vise à porter ce débat auprès de l’opinion et des décideurs pour qu’enfin les verrous sautent.” L’UFC-Que Choisir milite également dans ce sens.

Cette ouverture des données est sans doute attirante, mais elle n’est pas sans poser des défis, notamment en termes de qualité des données, comme le rappelle Optimind dans son dossier technique La qualité des données. Car la quantité ni même la transparence ne sont pas un gage automatique de qualité, de validité et de performance ou de pertinence dans l’exploitation. La capacité à trier, sélectionner et segmenter les données est donc fondamentale, tout autant que la capacité à les analyser ensuite.

Or, là encore, les réserves d’innovation des assureurs pour répondre à de tels défis sont énormes. La démarche la plus innovante et audacieuse en la matière dont j’ai entendu parler est celle de l’assureur américain Allstate à travers son usage de Kaggle, une plateforme de crowdsourcing spécialisée dans l’organisation de concours autour des BigData. L’assureur organise sur cette plateforme des concours d’analyse prédictive :

  • Will I stay or Will I go?” visait à prédire quels clients de l’assureur vont lui rester fidèle : “Predict which of our current customers will stay insured with us for an entire policy term.”
  • Give me some credit” est un concours visant à analyser les probabilités de défaut d’un emprunteur.
  • L’assureur a aussi lancé un concours pour prédire au mieux les coûts des sinistres (blessures et décès) en fonction des caractéristiques du véhicule de l’assuré.

Comme le formule judicieusement le blog “C’est pas mon idée !” dans un article éponyme, à travers ce projet, “Allstate teste l’actuariat en crowdsourcing !”

Pour conclure sur cette partie, je vous invite à consulter le compte-rendu de la journée de conférences organisée par l’Enass (Ecole Nationale d’Assurance) le 22 juin 2011 sur le thème « Des faits aux données ». L’ensemble des sujets évoqués dans cet article y sont débattus par des spécialistes.

L’internet de demain va également modifier l’analyse des risques et dommages que les assureurs et les mutuelles pourraient subir.

Si le métier des assurances et mutuelles consiste à couvrir les risques de leurs assurés, ils ne sont pas eux-mêmes exempts de tous risques ! Et comme charité bien ordonnée commence par soi-même, il est donc crucial qu’ils s’appliquent également à eux-mêmes leur propre évaluation !

Je comprends cette question comme celle de l’analyse des risques opérationnels, une analyse qui peut s’appliquer à n’importe quelle entreprise à travers l’ERM (Enterprise Risk Management). Je vais être très bref sur ce sujet qui est loin d’être ma spécialité si vous voyez ce que je veux dire. Pour ceux que ça intéresse, je vous suggère de lire le dossier technique d’Optimind sur le sujet. Quoi qu’il en soit, sur cette question comme pour l’analyse de n’importe quel autre risque, l’internet de demain devrait jouer un rôle aussi bien dans la nature des informations à analyser que des algorithmes capables de les analyser. Ici encore, les capacités de captation et d’analyse des big data seront mises à contribution, ainsi que les outils d’analyse prédictive. On trouvera de nombreux points d’entrée sur ce sujet (ainsi que sur tous ceux évoqués dans cet article) dans le blog Business-Analytics-Info.fr de l’éditeur SAS : Gestion du risque : anticiper l’inattendu, L’analyse prédictive pour une gestion « intelligente » du risque, etc. Et pour qu’on ne m’accuse pas de favoriser un éditeur au dépend d’un autre, je vous oriente également vers cette page de loffre d’IBM, qui intègre la gestion des risques opérationnels.

Voilà. Cet article touche enfin à sa fin. J’ai été long… et rapide à la fois tant le sujet mériterait d’être approfondi. J’espère en tous cas vous avoir convaincu que l’internet de demain pourrait offrir toute une palette d’outils et de données inédits qui pourraient intéresser au plus haut point assureurs et mutuelles dans leur travail d’évaluation des risques.

Mais l’internet de demain pourrait également modifier le marketing et la relation client des assureurs et des mutuelles. C’est ce que nous verrons dans le prochain article de cette série.

Une réflexion sur “Pourquoi assureurs et mutuelles devraient s’intéresser de très près à l’internet de demain ? Episode 2 : Evaluation des risques et des dommages

  1. Pingback: Data mining is watching you | IE étudiants

Laisser un commentaire