Objets connectés : comment motiver les consommateurs ? – Partie 3 : Motiver au partage des données

J’aborde maintenant le 3ème et dernier article de cette série consacrée à la nécessité de motiver les utilisateurs des objets connectés. Après la motivation à acheter, puis la motivation à utiliser au quotidien, cet article aborde la nécessité de motiver les utilisateurs à partager leurs données.

Que peut-on partager ?

Les objets connectés et les services qui leurs sont associés produisent une multitude de données concernant leurs utilisateurs. Toutes ne sont évidemment pas partageables, et encore moins avec n’importe qui !

Les données d’authentification (identifiants et mots de passe) sont évidemment les moins partageables et celles qu’il faut absolument protéger, car elles suscitent une forte convoitise de la part des pirates d’une part, et parce que leur piratage est celui qui peut avoir les conséquences les plus dommageables pour l’utilisateur (perte totale des données, privation de l’accès, vol des données, publication des données, altération des données, etc.).

Les données d’identité (nom, prénom, age, sexe, etc.) sont plus ou moins partageables selon les cas. Il revient bien évidemment à l’utilisateur d’en décider de la publicité. Mais dans certains cas, ou pour certains utilisateurs, et vis-à-vis de certains destinataires, il n’est pas forcément gênant, et il est même parfois utile, de les partager. C’est le grand combat des marques et des entreprises de collecter le maximum d’informations sur leurs utilisateurs. C’est le jeu du chat et de la souris.

Les données d’activité, enfin, peuvent être plus ou moins partageables selon les cas. Là encore, il doit revenir à l’utilisateur de décider s’il accepte de diffuser ces données et à qui. Mais il y a là un enjeu très fort pour les marques impliquées par les objets connectés car du recueil de ces informations peut dépendre une grande partie de leur business model. J’y reviendrai.

Comment peuvent être partagées ces données ?

Elles peuvent être partagées de manière nominative (elles sont explicitement associées à leur utilisateur d’origine) ou anonyme (elles sont dissociées de leur utilisateur d’origine). L’anonymisation peut être réversible ou irréversible.

Elles peuvent être partagées à l’unité par un acte délibéré de l’utilisateur, ou par lots à l’initiative de l’utilisateur, ou encore de manière automatique en flux temps-réel si l’utilisateur a donné son accord initialement pour un tel partage.

Enfin, il est important pour un utilisateur de vérifier la situation par défaut : est-ce la publicité, ce qui requiert ensuite de l’utilisateur des actions de restriction de celle-ci ? Ou est-ce la confidentialité, ce qui requiert ensuite des actions délibérées de partage ?

Avec qui partager ces données ?

Plusieurs destinataires possibles peuvent être identifiés :

  • L’utilisateur ou le propriétaire de l’objet
  • Le fabricant de l’objet
  • Le fournisseur du service
  • L’hébergeur des données
  • Des tiers qui achètent ou recueillent les données « anonymisées » pour les analyser
  • Des destinataires particuliers avec qui l’utilisateur choisit de partager ses données (proches, médecin, assureur, employeur…)
  • Tout le monde : données publiques

Dans tous les cas, il faut pouvoir vérifier la manière dont les données sont échangées (voir point précédent) : anonymes ou nominatives ? automatiquement, par lot ou à l’unité ?

L’enjeu est ici celui de la confiance dans chacun des destinataires possibles :

  • Envers le fabricant et le fournisseur de service : ne vont-ils utiliser que les données que l’utilisateur a accepté de partager et de la manière dont il a accepté de le faire ?
  • Envers le fabricant, le fournisseur et les destinataires particuliers : vont-ils faire l’usage des données que le destinataire a accepté de faire ? Cela peut vouloir dire : ne pas diffuser à leur tour ces données en dehors de l’accord de l’utilisateur, respect de l’anonymisation si elle est demandée, ne pas exploiter commercialement ces données en dehors d’un accord spécifique en ce sens, etc.

Pourquoi ce partage est-il important pour les fabricants et les fournisseurs du service ?

Dans les points précédents, nous avons utilisé le point de vue de l’utilisateur qui cherche à garder la maîtrise de ses données. Abordons maintenant le point de vue du fabricant de l’objet et du fournisseur de service. Pour ces deux acteurs, le partage de l’information par les utilisateurs est fondamentale. C’est même parfois au coeur du business model du service fourni. Et ceci de plusieurs manières possibles :

Dans le cas du partage sur les médias sociaux, il est important car il contribue au succès du service en rendant visible son usage et en suscitant chez les destinataires des messages l’envie de l’utiliser à leur tour. C’est le bon vieux mécanisme du buzz, du marketing viral. Ce partage est également une source de valeur pour des acteurs tiers tels que les sites de médias sociaux (Facebook en tête), qui en tirent l’opportunité de business lucratifs (publicité, analyse de données…) puisque les données sont ici nominatives.

Dans le cas du partage entre utilisateurs au sein du service, c’est le gage de l’émulation entre eux, ce qui peut avoir de nombreuses répercussions positives : progression des utilisateurs dans l’atteinte de leurs objectifs, gage de succès du service en termes de nombre d’utilisateurs, gage de succès du service en termes de fréquence d’usage par les utilisateurs… Les vêtements connectés Tracky proposent ainsi un système de compétition et de challenges entre amis ou sportifs.

De nombreux business model reposent évidemment sur l’acceptation a minima de l’utilisation de données anonymisées par le fabricant et/ou le fournisseur du service. Cela est nécessaire lorsqu’un service doit par exemple établir une moyenne des données de plusieurs utilisateurs afin de positionner chaque utilisateur par rapport à cette moyenne.

Le cas du fabricant français Withings est intéressant à étudier dans ce contexte. D’une part, l’entreprise affirme le plus clairement possible qu’elle se veut irréprochable sur la protection des données personnelles. Elle publie pour cela un document expliquant de manière très détaillée et pédagogique sa politique de confidentialité et les actions mises en oeuvre pour la servir (pdf). On y découvre notamment dans quelles conditions les données sont collectées par Withings et ce qu’elle en fait. Withings explique que l’utilisateur a la maîtrise totale de l’utilisation de ses données : « Nous avons conçu et développé un tableau de bord qui indique de manière simple avec qui vous avez partagé vos données. Nous avons mis cet outil en place afin de vous permettre de maîtriser et interrompre le partage de vos données avec nos partenaires ou avec d’autres utilisateurs. » Car Withings réaffirme également l’intérêt de partager ces données, tout en affirmant qu’elles ne les vend jamais : « Nous nous engageons à ne jamais vendre vos données personnelles sans votre accord. Chez Withings, nous sommes persuadés que les données peuvent aussi servir l’intérêt collectif. Nous pouvons être amenés à réaliser des statistiques et des analyses au moyen de données préalablement anonymisées et agrégées. Ceci permettant de protéger votre vie privée. » Et effectivement, Withings communique beaucoup autour d’études qu’ils réalisent à partir de données utilisateurs anonymisées : « Nous offrons au grand public, sur le portail du « Withings Health Institute » des analyses conduites à partir de données anonymisées. » L’entreprise a ainsi réalisé une étude sur les habitudes de sommeil, une autre sur l’impact de l’activité physique sur le sommeil et un livre blanc de la santé connectée. Elle publie également un Observatoire de l’activité physique en France, ainsi que de nombreuses micro-études sur son blog, Health boosters. En 2014, à l’occasion des élections municipale, Withings avait fait parler d’elle en publiant une étude sur l’obésité intitulée Surcharge municipale. Bref, Withings incarne à merveille ce positionnement qui consiste, d’un côté, à vouloir tout faire pour préserver la confidentialité des données personnelles et de l’autre à exploiter au maximum les données personnelles anonymisées. On le retrouve notamment exprimé dans cette interview.

Enfin, de nombreux business model reposent explicitement sur la collecte de données éparses et le partage à des tiers. C’est le cas de Santé, HealthKit et ResearchKit, les services de santé connectée d’Apple. L’application Santé est destinée à collecter dans une même application les données issues des différents appareils connectés d’un même utilisateur. HealthKit est le programme pour développeur destiné à permettre cette collecte. ResearchKit est le programme de mise à disposition des chercheurs des données médicales de certains patients. A travers ces deux programmes, bien que la marque à la pomme se disculpe d’en faire commerce, elle bâtit un écosystème d’usages autour des données de santé.

C’est évidemment parce que l’analyse de toutes ces données connectées est une source de business majeur que le partage des données par les utilisateurs est fondamental pour les entreprises.

Pourquoi ce partage est-il un défi pour les fabricants et fournisseurs de services ?

Parce que les utilisateurs ne font pas confiance aux acteurs concernés pour garantir le respect de leurs engagements dans la protection des données personnelles. Selon l’étude menée par l’IFOP pour l’Atelier BNP Paribas fin 2013 (pdf), le 3ème frein à l’achat des objets connectés de santé serait la peur de l’utilisation inadéquate des données (par des tiers non autorisés, comme l’Etat, les assurances, les groupes… (24% des sondés) !

La question de la confiance a pris une importance croissante dans notre économie de plus en plus numérique. Les articles se multiplient sur ce sujet sur lequel je reviendrai plus longuement dans de prochains articles. En voici quelques uns :

Je précise également que La Poste et TNS Sofres publient le Baromètre de la confiance en France.

A noter enfin que le 19 mai prochain, l’ACSEL organise une conférence intitulée Objets connectés, enjeux et confiance.

Quel est l’intérêt de ce partage pour les utilisateurs ?

C’est un gage de réussite dans les changements qu’ils recherchent en utilisant les objets connectés. Les études semblent effectivement montrer que le partage social des données issues de l’usage des objets connecté est efficace pour le succès du changement recherché par les utilisateurs. C’est par exemple ce qui semble ressortir de l’étude MySantéMobile, comme le précise le médecin qui a suivi l’étude, interrogé par 20 MinutesLes volontaires ayant partagé leurs données ont plus marché que les autres. Dès le départ, on constate un écart qui s’agrandit au fil du temps. «Ils étaient volontaires donc c’est encourageant, mais ça ne veut pas dire que cet effet positif est applicable pour tout le monde », estime le médecin. A la fin de l’étude, la différence est de 2.500 pas par jour entre ceux qui partagent et les autres.”

Comment créer les conditions de la confiance ?

Ce sujet est très complexe et je l’aborderai dans de prochains articles. Disons, pour faire vite ici, qu’on peut retrouver :

Publicités

Pourquoi assureurs et mutuelles devraient s’intéresser de très près à l’internet de demain ? Episode 3 : l’internet de demain va modifier le marketing des assureurs.

Dans le troisième article de cette série, je voudrais évoquer comment l’internet de demain tel que je l’ai décrit dans le premier article de la série va impacter la manière dont les assureurs et les mutuelles peuvent définir et conduire leur stratégie et leurs actions marketing.

Sur ce plan, le métier des assurances n’est pas très différent des autres, l’internet de demain modifiant en effet le marketing dans son ensemble. Quels seront donc ces impacts ? Ils tournent notamment selon moi autour d’approches telles que le marketing prédictif et le marketing en temps réel.

Je note au passage que ce sujet est justement à l’honneur de l’édition 2013 du salon emarketing Paris, qui a lieu en ce moment.

Il était aussi à l’honneur de l’événement The CMO+CIO Leadership Exchange organisé par IBM à Paris en octobre 2012 et dont est issue la vidéo ci-dessous.

 

 

Mais revenons à nos moutons…

Le marketing prédictif, de quoi s’agit-il ?

Sur cette question je ne serai pas original et je me contenterai de citer le site Définitions Marketing, sur lequel on peut lire que “le marketing prédictif regroupe les techniques de traitement et de modélisation des comportements clients qui permettent d’anticiper leurs actions futures à partir du comportement présent.” Il peut être définit “comme l’analyse des données historiques et actuelles disponibles sur le client afin de créer des prévisions sur ses comportements, préférences et besoins futurs. Il débouche le plus souvent sur la création de scores liés à la probabilité qu’un client ou prospect réalise une action donnée (achat, résiliation, réponse, etc..). Il permet d’optimiser le ciblage et les déroulements (moment, canal, offre,..) des actions marketing. Il repose sur la création de modèles prédictifs”, qui sont des “modèles mathématiques qui permettent de probabiliser l’action future d’un client ou prospect. (…) Un modèle destiné à identifier les clients risquant de résilier un abonnement est par exemple établi à partir des caractéristiques et comportements passés des clients ayant déjà résilié leur contrat.

Et le site de rappeler qu’IBM aurait recensé “7 types de modèles prédictifs :

  • Les modèles d’acquisition qui prévoient la probabilité de conversion d’un prospect en client.
  • Les modèles de vente croisée qui prévoient la probabilité qu’un client existant achète un produit ou un service additionnel.
  • Les modèles de vente additionnelle.
  • Les modèles d’attrition
  • Les modèles de valeur qui sont utilisés pour prévoir les différentes mesures de valeur telle que la durée de vie d’une relation client ou la valeur générée si le client achète un produit spécifique.
  • Les modèles de tonalité pour prévoir quel type message sera le mieux adapté à chaque client.
  • Les modèles de risque qui estiment la probabilité d’activité frauduleuse ou de problèmes au niveau des crédits.

De l’analyse prédictive du risque au marketing prédictif

L’analyse prédictive n’est pas nouvelle pour les assureurs. C’est même le coeur de leur travail d’analyse du risque ! Mais il s’agit ici de l’appliquer au marketing et non à l’analyse du risque ! Cet usage est sans doute nouveau pour beaucoup d’entre eux comme pour n’importe quelle autre entreprise. Et pour ceux qui l’utiliseraient déjà, les développements d’internet dont je parle depuis le début de cette série d’articles vont apporter de profondes modifications, notamment en modifiant aussi bien la masse et l’origine des données à analyser que la puissance des moteurs d’analyse.

Désormais, les données à analyser ne sont plus seulement celles du CRM de l’assureur mais aussi celles des médias sociaux, celles issues de l’analytique web, celles publiées par les collectivités et services publics via Open Data, et à l’avenir sans doute toutes celles issues de l’internet des données dont je parle depuis le début de cette série.

A quoi cela va-t-il servir ?

  • pour mieux identifier les risques de perdre un client ou leur probable fidélité,
  • pour calculer la valeur d’un client tout au long de sa relation avec l’assureur,
  • pour mieux cibler les opérations promotionnelles : savoir quel produit proposer à quel client avec quel argumentaire; voire travailler en temps réel : certains moteurs peuvent en effet calculer un nouveau scoring tous les jours donc s’adapter quasiment en temps réel au comportement des clients,
  • etc.

A titre d’exemple, je citerai Daniel Makanda, directeur du marketing et de la communication du comparateur santiane.fr, qui a expliqué à L’Argus de l’Assurance : “Nous avons développé en interne notre propre outil d’analytique pour analyser toutes les données relatives à nos clients ainsi qu’aux prospects qui consultent notre comparateur. Cet outil se fonde sur l’historique pour prédire quels prospects seront les plus rentables. Cela nous permet de prioriser les appels. Ainsi, lorsque la demande est forte, les conseillers se concentrent sur les prospects pour lesquels ils anticipent une prime plus élevée. Cet outil est l’un des éléments qui expliquent notre forte rentabilité.” Pour info, il faut savoir que sur les deux dernières années, le Groupe Santiane a été classé parmi les entreprises les plus rentables de France par le magazine L’Entreprise (21ème en 2011, 22ème en 2012).

On trouvera d’ailleurs une présentation intéressante de cette nouvelle approche prédictive dans le marketing des Assurances dans l’article de L’Argus de l’Assurance intitulé “Savoir, c’est prévoir”, dont est issue la citation ci-dessus.

En vrac, voici d’autres sources d’informations sur le sujet :

Dans sa Lettre des Services Financiers de mars 2012, Deloitte consacre également un article à cette question de l’analytique et des logiciels prédictifs. J’en citerai juste un passage qui rappelle le constat qui est le mien depuis le début de cette série : “Le volume de données collectées et stockées aujourd’hui est gigantesque… et ce volume devrait continuer à croître par ailleurs de façon exponentielle en raison des possibilités grandissantes à capter désormais toute une série d’informations au travers des objets eux-mêmes : vêtements, smartphones, automobiles… Les objets auront de plus en plus la capacité à produire des traces, qui viendront renforcer la masse de données exploitables. A titre d’exemple, aux États-Unis en 2009, les téléphones mobiles produisaient déjà plus de 600 milliards de « traces géospatiales » par jour. Aujourd’hui, un « Internet des objets » commence à prendre forme au travers des 9 milliards d’objets connectés et producteurs de traces, un chiffre qui devrait dépasser les 24 milliards avant 2020, créant une opportunité immense pour une meilleure compréhension des comportements et des activités.” La suite de l’article évoque les mêmes usages de l’analyse prédictive que ceux que je viens d’évoquer. A noter aussi dans cette publication un autre article sur le “web de demain”. Tiens, tiens…

Analyse des fraudes et optimisation des coûts de gestion des sinistres

Parmi les usages que peuvent faire de ces technologies les assureurs et les mutuelles, il y a l’analyse des fraudes à l’assurance. Aux Etats-Unis, le système public d’assurance-santé a mis en place un tel dispositif. Le site InsuranceTech précise d’ailleurs que dans ce contexte, la performance des outils d’analyse est plus importante que la masse de données analysées. Le même site consacre également un article à l’usage que font les assureurs canadiens de ces outils pour lutter contre les fraudes.

Enfin, un autre usage semble être l’optimisation des coûts de gestion de sinistres à travers notamment l’accélération des délais de traitement, comme le signale cet article.

Si vous voulez en savoir plus sur l’analyse prédictive en général, aussi bien pour le marketing prédictif (c’était le sujet de cet article) que pour l’analyse des risques (c’était le sujet du précédent article de cette série), je vous invite à consulter les sites AnalysePredictive.fr (en français) ou PredictiveAnalytics.org (en anglais).

Enfin, puisque je parle beaucoup des autres, je vais également citer le dernier livre blanc publié par l’agence où je travaille, Valtech, intitulé Cross data marketing et téléchargeable sur cette page. N’hésitez pas ! 😉

Bon, nous approchons de la fin de cette série. Dans le prochain article, nous verrons comment l’internet de demain devrait également modifier l’offre et le business model des assureurs et des mutuelles. Allez, courage, on en voit le bout ! 😉

Pourquoi assureurs et mutuelles devraient s’intéresser de très près à l’internet de demain ? Episode 2 : Evaluation des risques et des dommages

Dans le premier article de cette série, j’ai décrit ce que j’entendais par “internet de demain” en évoquant notamment comment il va modifier la manière dont les données sont générées, partagées, puis analysées. Dans le présent article, nous allons voir le premier impact que l’internet de demain devrait avoir sur les mutuelles et les assurances. En l’occurrence, il pourrait modifier fortement la manière dont ils évaluent les risques et les dommages, que ce soit ceux qu’ils couvrent ou ceux qu’ils pourraient subir.

Précaution préalable : N’étant pas un spécialiste du métier des assurances et mutuelles, je serai ici prudent sur tout ce que je dit. J’espère ne pas dire trop de bêtises. N’hésitez surtout pas à faire vos remarques en commentaires !

Le métier des assurances & mutuelles

Le métier de l’assurance consiste à évaluer les risques et leur impact financier pour pouvoir les couvrir. “Connaître les risques pour mieux les anticiper, les maîtriser et les tarifer au plus juste, tel est, ni plus ni moins, le coeur du métier de l’assurance”, pouvait-on lire dans un article récent de l’Argus de l’Assurance consacré à l’innovation (n°7294, p.56).

Pour faire cela, les assureurs s’appuient sur différents métiers, internes ou externes à l’entreprise : statisticiens, prévisionnistes, actuaires

Sur le portail pédagogique lesmetiers.net, le métier d’actuaire est ainsi décrit : “Prévoir l’imprévisible, telle est la mission principale de l’actuaire ! Dans les banques et les sociétés d’assurance, l’actuaire analyse des données statistiques et effectue des calculs de probabilités. A partir de ces éléments, il établit le montant des versements et des taux d’intérêts pour chaque contrat (plan d’épargne retraite, assurance vie, etc.) et estime les réserves d’argent dont la banque a besoin pour faire face aux engagements financiers pris vis-à-vis des clients.” Pour l’anecdote, le métier d’actuaire est régulièrement classé parmi les 3 “meilleurs métiers” aux Etats-Unis par CarrerCast et le Wall Street Journal (voir 2010, 2011, 2012).

Ainsi donc, le métier d’actuaire consiste à analyser et modéliser le taux de risque d’un côté (de manière statistique et historique) et à construire l’équation économique de l’autre entre ce que peut et doit payer chacun pour être couvert (la prime d’assurance) et ce que peuvent et doivent recevoir les victimes. Pour cela, l’assureur doit savoir quelles situations sont à risques et doit pouvoir évaluer dans quelle situation se trouve un assuré. Si l’assuré est dans une situation à risque, sa prime d’assurance sera plus élevée que s’il ne l’est pas.

Je cite l’article “Prime d’assurance” de Wikipedia : “La partie risque constitue le coût probable de sinistre que représente le risque à assurer. Concrètement, l’assureur va modéliser le risque que représente l’objet à assurer, en comparant son profil avec l’historique qu’il possède sur d’autres profils similaires. L’évaluation du risque est donc liée à la connaissance historique de risques similaires (ou à la capacité de modélisation). C’est la raison pour laquelle, les assureurs proposent des primes d’assurance différentes, puisqu’ils n’ont pas le même historique, la même expérience, la même base de clientèle. Ils évaluent donc différemment les risques.”

Cette différence repose en partie sur le choix de ce que l’on appelle les “variables explicatives”, comme l’explique l’article “Calcul de la prime d’assurance”, de Wikipédia : “Le choix des variables explicatives obéit à de nombreux critères qui vont au-delà de la pertinence statistique des variables considérées :

  • Disponibilité et fiabilité de l’information : les variables doivent être connues de l’assureur, et récoltées de façon fiable auprès de l’assuré. Ainsi, il est interdit en France de récolter des données raciales. En assurance auto, la variable explicative la plus pertinente est le kilométrage parcouru. Cette donnée est utilisée dans certains pays du nord de l’Europe, mais n’est pas utilisable dans les pays d’Europe du sud.
  • Segmentation interdite a priori par la compagnie d’assurances : une compagnie d’assurance peut décider de ne discriminer les prix qu’en fonction de critères précis, en en excluant délibérément certains. Cependant, si des concurrents utilisent une segmentation plus fine, la compagnie d’assurance risque de ne se retrouver qu’avec les plus mauvais risques, les bons risques étant captés par la concurrence grâce à des tarifs plus avantageux.”

L’explosion du nombre de données

Or, c’est ce paysage qui, selon moi, pourrait bien être modifié en profondeur par l’internet de demain. De quelle manière ? Non pas en invalidant les actuels modes de calcul (les modèles statistiques, prédictifs, stochastiques, etc.), mais plutôt en faisant exploser le registre des données sur lesquelles se fondent les assureurs pour effectuer ces calculs. Nous aurons en effet sans cesse plus de données à disposition, sans cesse plus récentes, issues de sources sans cesse plus variées, analysées par des puissances de calcul sans cesse plus grandes pouvant travailler à la fois sur un plus grand nombre de données, d’une plus grande variété et dans un plus court laps de temps.

Cette explosion du nombre de données, c’est ce que l’on appelle le big data. Voici donc un sujet qu’il me paraît crucial de mettre au coeur des débats et des attentions dans le monde de l’assurance. Signe d’ailleurs de l’importance de cette question pour ce secteur, le 16 février prochain, le LAB (Laboratoire Assurance Banque), organise une conférence sur le thème “Big Data : quels usages pour l’assurance ?”. Ce sera notamment l’occasion d’aborder des questions telles que (je cite le programme de l’événement) : “Comment utiliser concrètement le Big Data  pour anticiper et prédire des sinistres en santé ? Pour fournir des services inédits grâce à la géolocalisation ? Pour améliorer le ciblage publicitaire sur internet ?” et également “Quel doit être le rôle des actuaires dans l’analyse de ces informations ?”

Une plus grande diversité de données exploitables

Savoir traiter le volume sans cesse croissant des données est donc clé. Mais le big data en volume n’est possible que parce qu’il s’accompagne d’une explosion de la variété des données. Pour ne citer que 2 exemples (les plus parlants en matière de digital), les médias sociaux et le nombre croissant de capteurs, comme je l’ai déjà dit dans le premier article de cette série, multiplient les données. Et toutes ces données supplémentaires sont autant de matière nouvelle à analyser par les actuaires, statisticiens et autres prévisionnistes pour rendre plus précise leur évaluation du risque. L’évaluation des risques utilise en effet le plus souvent des données statistiques et historiques de survenue des risques. Elles vont progressivement se multiplier et se diversifier avec l’internet des objets, les médias sociaux ou l’usage des smartphones, comme on peut le lire dans cet article. C’est aussi ce qu’indique l’Argus de l’assurance, quelques lignes après celles citées plus haut : “les spécialistes estiment cruciale (pour la modélisation des risques) l’exploitation des smartphones comme capteurs d’informations sociales et comportementales.” (L’Argus de l’assurance, n°7294, p.56)

Depuis quelques années déjà, le cabinet Deloitte promeut un nouveau modèle d’analyse prédictive, fondé sur l’utilisation de données comportementales par opposition à l’usage des données classiquement recueillies et utilisées par les assureurs. On trouvera une description de ce modèle dans cette étude et cette présentation. Plusieurs sociétés, dont Aviva, ont utilisé ce modèle comme en témoigne cet article du Wall Street Journal.

On peut aussi citer à ce sujet cet autre article de l’Argus de l’assurance : “Aviva, aux États-Unis, pour ouvrir son assurance décès à un plus grand nombre, cherchait à baisser les coûts de souscription (des tests médicaux qui lui coûtaient en moyenne 125 $ par dossier). En 2010, il a testé un modèle prédictif comportemental, en récupérant sur les réseaux sociaux des données pour décrire des comportements alimentaires, culturels…, et 99,3 % des prévisions du modèle ont concordé avec le résultat des tests médicaux. Le tout avec un coût unitaire bien inférieur, une fois le modèle prédictif mis en place.”

Contrairement à ce que dit cet extrait, je ne suis pas sûr qu’Aviva et Deloitte aient utilisé dès 2010 des données issues des réseaux sociaux… Par contre, comme l’indique cet article, je pense que la question de l’usage de telles données devrait se poser rapidement, qu’il s’agisse des données issues des médias sociaux, des objets connectés, des capteurs, bref de toutes ces données issues de l‘internet de demain.

Évidemment, j’ai bien conscience que de multiples règles de droit et d’éthique encadrent et encadreront longtemps le travail des assureurs, et heureusement ! Je ne me prononce pas sur ce qu’il est possible et souhaitable de faire légalement, juste sur ce que permet la technologie et les usages numériques, et sur ce qui offre des opportunités business. Ensuite, il y a évidemment un débat à avoir sur la question de la faisabilité légale de mise en oeuvre (faisabilité qui varie d’ailleurs et variera sans doute longtemps d’un pays à l’autre). Dans un article paru en Juin 2012, The economist s’inquiétait d’ailleurs des dérives possibles de telles pratiques. Forbes avait également relayé ce questionnement dans un autre article.

Open Data, API et crowdsourcing apportent de nouvelles opportunités

Quoi qu’il en soit de l’issue de ce débat, je constate que dès aujourd’hui des pratiques innovantes se mettent en place chez les assureurs qui tentent de tirer parti de ces nouvelles opportunités qu’offre l’internet de demain, aussi bien à travers l’augmentation exponentielle des données qui sont et seront disponibles, qu’à travers les nouveaux usages qu’il initie. Parmi ces usages : le partage des données, que ce soit le partage des données publiques via le principe de l’Open Data, ou l’usage des API.

L’Argus de l’assurance a récemment consacré un article à l’Open Data : “L’open data, un nouveau gisement à exploiter”. Dans cet article, le journal explique également que l’assureur américain Aetna a initié une démarche de partage de ses données aux autres assureurs et développeurs d’applications sous forme d’API via sa plateforme CarePass. On peut retrouver d’autres articles soulevant l’intérêt et les questionnements de l’Open Data et des API pour les assurances et les mutuelles ici, ici, ici ou encore ici.

C’est aussi dans ce contexte de l’Open Data qu’est né en France l’initiative transparence santé, qui est ainsi décrite sur son site web : “A l’heure de l’Open data, nous, représentants d’usagers de santé, chercheurs, assureurs, entrepreneurs, consultants et journalistes, soucieux d’une meilleure information sur le fonctionnement de notre système de soins, réclamons la possibilité pour la société civile d’accéder en toute transparence aux données publiques de santé. Notre initiative – l’Initiative transparence santé – vise à porter ce débat auprès de l’opinion et des décideurs pour qu’enfin les verrous sautent.” L’UFC-Que Choisir milite également dans ce sens.

Cette ouverture des données est sans doute attirante, mais elle n’est pas sans poser des défis, notamment en termes de qualité des données, comme le rappelle Optimind dans son dossier technique La qualité des données. Car la quantité ni même la transparence ne sont pas un gage automatique de qualité, de validité et de performance ou de pertinence dans l’exploitation. La capacité à trier, sélectionner et segmenter les données est donc fondamentale, tout autant que la capacité à les analyser ensuite.

Or, là encore, les réserves d’innovation des assureurs pour répondre à de tels défis sont énormes. La démarche la plus innovante et audacieuse en la matière dont j’ai entendu parler est celle de l’assureur américain Allstate à travers son usage de Kaggle, une plateforme de crowdsourcing spécialisée dans l’organisation de concours autour des BigData. L’assureur organise sur cette plateforme des concours d’analyse prédictive :

  • Will I stay or Will I go?” visait à prédire quels clients de l’assureur vont lui rester fidèle : “Predict which of our current customers will stay insured with us for an entire policy term.”
  • Give me some credit” est un concours visant à analyser les probabilités de défaut d’un emprunteur.
  • L’assureur a aussi lancé un concours pour prédire au mieux les coûts des sinistres (blessures et décès) en fonction des caractéristiques du véhicule de l’assuré.

Comme le formule judicieusement le blog “C’est pas mon idée !” dans un article éponyme, à travers ce projet, “Allstate teste l’actuariat en crowdsourcing !”

Pour conclure sur cette partie, je vous invite à consulter le compte-rendu de la journée de conférences organisée par l’Enass (Ecole Nationale d’Assurance) le 22 juin 2011 sur le thème « Des faits aux données ». L’ensemble des sujets évoqués dans cet article y sont débattus par des spécialistes.

L’internet de demain va également modifier l’analyse des risques et dommages que les assureurs et les mutuelles pourraient subir.

Si le métier des assurances et mutuelles consiste à couvrir les risques de leurs assurés, ils ne sont pas eux-mêmes exempts de tous risques ! Et comme charité bien ordonnée commence par soi-même, il est donc crucial qu’ils s’appliquent également à eux-mêmes leur propre évaluation !

Je comprends cette question comme celle de l’analyse des risques opérationnels, une analyse qui peut s’appliquer à n’importe quelle entreprise à travers l’ERM (Enterprise Risk Management). Je vais être très bref sur ce sujet qui est loin d’être ma spécialité si vous voyez ce que je veux dire. Pour ceux que ça intéresse, je vous suggère de lire le dossier technique d’Optimind sur le sujet. Quoi qu’il en soit, sur cette question comme pour l’analyse de n’importe quel autre risque, l’internet de demain devrait jouer un rôle aussi bien dans la nature des informations à analyser que des algorithmes capables de les analyser. Ici encore, les capacités de captation et d’analyse des big data seront mises à contribution, ainsi que les outils d’analyse prédictive. On trouvera de nombreux points d’entrée sur ce sujet (ainsi que sur tous ceux évoqués dans cet article) dans le blog Business-Analytics-Info.fr de l’éditeur SAS : Gestion du risque : anticiper l’inattendu, L’analyse prédictive pour une gestion « intelligente » du risque, etc. Et pour qu’on ne m’accuse pas de favoriser un éditeur au dépend d’un autre, je vous oriente également vers cette page de loffre d’IBM, qui intègre la gestion des risques opérationnels.

Voilà. Cet article touche enfin à sa fin. J’ai été long… et rapide à la fois tant le sujet mériterait d’être approfondi. J’espère en tous cas vous avoir convaincu que l’internet de demain pourrait offrir toute une palette d’outils et de données inédits qui pourraient intéresser au plus haut point assureurs et mutuelles dans leur travail d’évaluation des risques.

Mais l’internet de demain pourrait également modifier le marketing et la relation client des assureurs et des mutuelles. C’est ce que nous verrons dans le prochain article de cette série.

Pourquoi assureurs et mutuelles devraient s’intéresser de très près à l’internet de demain ? (Episode 1 : L’internet de demain ?)

Le moins que l’on puisse dire, c’est que les assurances et les mutuelles n’ont pas toujours été très à l’aise avec les différentes révolutions digitales, tout au moins dans leur usage marketing. La première vague d’internet, celle du “web 1.0” ou de l’internet de communication, est sans doute celle qu’ils ont su le mieux négocier car elle ne modifiait pas en profondeur leur modèle ni leur mode de relation avec les assurés. Mais dès que l’on aborde la question du e-commerce, du mobile, ou pire, des médias sociaux, c’est une toute autre affaire ! Assureurs et mutuelles avancent dans ces registres à pas comptés.

En sera-t-il toujours ainsi des relations entre ce secteur et les innovations digitales ? Je ne saurai le dire. Mais une chose me paraît évidente : à l’inverse de l’attitude qu’ils ont trop souvent eu jusqu’à présent, les assureurs devraient dès aujourd’hui s’intéresser de très près à l’Internet de demain !

L’Internet de demain, de quoi s’agit-il ?

Tout d’abord, l’internet de demain est déjà un peu l’internet d’aujourd’hui (comme nous le verrons dans la suite de cet article), mais pas encore mature ou seulement en émergence pour l’instant.

Sur le fond de la question, loin de moi l’idée de donner ici une définition “scientifique” ou de faire des prédictions. A travers cette expression d’internet de demain, je voudrai juste désigner un ensemble de nouveautés technologiques et d’usages qui devraient, selon moi, être au coeur de ce que sera internet durant les prochaines années. Ce sont des sujets qui par ailleurs concernent directement mon propos dans cet article.

Je les classerai en 2 catégories :

  • des technologies d’une part, telles que l’internet des objets (IoT), l’analytique des big data, le web prédictif, le M2M, les réseaux sans fil bas débit ou les technologies ubiquitaires (QR Codes, puces RFID, NFC, Bluetooth, geo-localisation…),
  • et des usages d’autre part, tels que le Quantified Self, le “self data management”, l’Open Data, le crowdsourcing ou les communautés privées.

Sans doute l’internet de demain sera-t-il également marqué par d’autres mouvements de fond. Mais je crois en tous cas que les tendances citées ci-dessus seront très importantes. Avec elles, on pourrait dire qu’après l’internet des contenus et de la communication (le web 1.0”), puis l’internet des conversations et de la participation (le web 2.0, les médias sociaux), apparaît l’internet des données. A moins qu’il ne s’agisse de l’internet des actions, le Fabernet, comme l’appelle Henri Verdier, ou bien tout simplement de l’internet des objets (IoT, Internet of Things), voire encore de l’internet of everything (IoE), comme le promeut Cisco ? Côté usages, François Verron parle lui d’internet compagnon. Quant à l’importance des données liée à cette tendance, Fred Cavazza en parle dans un de ses derniers articles.

Enfin, que le sujet soit à la mode et interpelle tout le monde en ce moment, c’est bien ce qu’ont montré la conférence LeWeb’12 Paris, qui était consacré à l’internet des objets, ainsi que le récent CES 2013, qui a également été marqué par la même tendance de fond (Cf. encore le même article de Fred Cavazza ou encore ceux d’Olivier Ezratty).

Bref, nous verrons bien ce qu’il en adviendra… Quoi qu’il en soit, la question que vous vous posez sans doute à cet instant est : Pourquoi diable ces sujets devraient-ils intéresser les assurances et les mutuelles ? C’est ce que j’aimerai expliquer dans cette série d’articles.

Mais pour pouvoir le faire clairement, je crois qu’il peut être utile de préciser dans un premier temps comment fonctionne cet internet des données et quels sont ses impacts en général. Je pense qu’il faut les envisager à 3 niveaux (j’irai vite, en mode liste à puces, sans volonté d’être exhaustif mais plutôt pédagogique) :

Tout d’abord, l’internet de demain modifie la manière dont les données sont et seront générées et captées :

  • Comment sont-elles générés ou captées ?
    • par des capteurs (internet des objets, objets connectés…)
    • par les médias sociaux, qui génèrent des conversations et de l’activité sociale (post, share, like, follow…; textes et photos…)
    • via l’usage des mobiles et des applications mobiles
    • Cf. schéma ci-dessous :
Source : Informatica

Source : Informatica

 

  • Par qui sont-elles générées ou captées ?
    • par les individus eux-mêmes, via leur usage des médias sociaux ou des applications mobiles utilisant des capteurs et permettant le partage social
    • par les entreprises et les collectivités, qui vont installer des capteurs et des plateformes sociales (smart grid, ville 2.0, business analytics…)
  • Quelles conséquences ?
    • multiplication des données (cf. graphique ci-dessous) = BigData = nouveau gisement de données = nouvelles opportunités = mais nécessite des outils adaptés pour le stockage et le traitement
    • plus grande fréquence de mise à jour = impact plus grand du temps réel = nouvelles opportunités = nécessite des outils adaptés pour le traitement
    • hétérogénéité des canaux et des formats = nécessité de convergence & coordination des canaux (sources des données (captation) + stockage des données (bases)) et des formats (normes)
Le digital entraîne une explosion du volume d'informations

Le digital entraîne une explosion du volume d’informations

 

Ensuite, l’internet de demain modifie la manière dont les données sont et seront stockées et partagées :

  • stockées en grande partie dans le cloud
  • partagées :
    • via Open Data, notamment par les collectivités et les services publics
    • via API et ouverture des données, notamment par les entreprises


Enfin, il modifie la manière dont les données sont et seront analysées et interprétées :

  • Comment ?
    • BigData analytics
    • Décisionnel / BI
    • Analyse prédictive
  • Pour en faire quoi ? (j’anticipe sur les articles suivants de cette série consacrée aux assurances)
    • meilleure connaissance des clients
    • meilleure connaissance des phénomènes (analyse des risques)
    • optimisation des offres & promotions en temps réel
    • personnalisation des offres & promotions
    • création de nouvelles offres avec services associés
    • utilisation de nouveaux mécanismes de gamification

Ceci étant dit (et très vite dit, je le reconnais), revenons à notre sujet sectoriel.

Selon moi, cet internet de demain est susceptible d’impacter assurances et mutuelles à trois niveaux au moins (certainement plus en fait, mais je me contenterai de ces trois là pour l’instant !) :

  1. dans leur travail d’analyse et d’évaluation des risques et des dommages (que ce soit ceux qu’ils couvrent ou ceux qu’ils pourraient subir)
  2. dans leur marketing et leur gestion de la relation client
  3. enfin, dans la création et l’adaptation de leur offre

Je consacrerai donc les prochains articles de cette série à ces sujets (suspens ! … ;-)…).