Des vidéos innovantes pour la promotion touristique : détournements et crowdsourcing

Comme vous l’avez sans doute remarqué, la plupart des exemples que j’ai retenu dans les deux premiers articles de cette série (1 et 2) sont des réalisations d’amateurs ou des initiatives individuelles et non des commandes institutionnelles. C’est justement le but de ce troisième article : montrer qu’aujourd’hui, les amateurs produisent plus d’images (photos ou vidéos) et plus originales sur n’importe quel lieu que l’institution représentative du lieu ne peut en produire elle-même. Et le désir du public d’aller sur le lieu naît de plus en plus, aujourd’hui, de ces images que des images officielles du lieu.

Face à ce phénomène, les institutions représentatives d’un lieu ont donc tout intérêt à avoir une stratégie de crowdsourcing de contenus, c’est-à-dire qu’elles doivent s’intéresser à la manière d’assurer leur promotion via ces contenus produits par les individus, ou contenus dits UGC (user generated content). Une telle stratégie peut prendre différentes formes. Voici quelques exemples ou suggestions pour vous inspirer :

1. Organisez ou sponsorisez un concours de vidéos

C’est l’idée la plus évidente et la plus répandue. Le concours peut consister à filmer le lieu concerné ou bien être juste organisé par l’organisme responsable du lieu et porter sur un thème associé.

Le premier de ces deux scénarios a été choisi en 2012 par la Commission canadienne du tourisme pour son concours 35 millions de regards. L’organisme a invité les canadiens à poster des photos ou des vidéos clamant l’amour de leur pays. Résultat : plus de 8000 participations, 65 heures d’images reçues, 82 gagnants et finalement une vidéo de 2 min composée d’une sélection des films reçus :

Quelques mois plus tôt, la ville de Savannah, dans le sud des Etats-Unis (Etat de Géorgie) avait organisé un concours similaire où elle demandait au public de réaliser cette fois-ci un clip entier. La vidéo gagnante, You’ve Gotta come to Savannah, est un film humoristique qui passe en revue toutes les raisons de venir visiter la ville.

Un autre exemple sympathique nous est fourni par l’Office Australien du Tourisme et la ville de Sydney dans le cadre de leur partenariat pour promouvoir la ville de Sydney comme destination privilégiée pour passer le réveillon du Nouvel An (et ainsi passer à la nouvelle année avant tout le monde !) A l’occasion du Nouvel An 2012, les deux institutions ont donc invité des personnes qui avaient choisi de venir passer les fêtes à Sydney à raconter leur voyage en vidéo et à le poster via une application iPhone créée par la ville qui permettait de poster des vidéos de 12 secondes seulement. Un avant goût de Vine et Viddy en quelques sorte !! Bref, une vidéo a ensuite été créée très rapidement à partir de ces envois et diffusée sur les médias sociaux avant que le reste du monde n’ait à son tour basculé dans la nouvelle année !

Le second des deux scénarios cités ci-dessus a été choisi par l’hôtel The Cavendish London en début d’année 2013, lorsqu’il a organisé le concours #Valentinevine qui permettait de gagner un séjour dans l’établissement à l’occasion de la Saint Valentin. Le défi pour les participants : réaliser la vidéo Vine la plus romantique possible ! (Pour en savoir plus, lire cet article)

L’Office du tourisme de Norvège s’est lui aussi prêté à cet exercice avec un concours intitulé The scream, à l’occasion du 150ème anniversaire de la naissance d’Edvard Munch, le peintre norvégien du célèbre tableau “Le Cri”. Le concours demandait au public de se filmer en faisant un cri (!) et de partager la vidéo sur le site. Autant dire qu’il y a eu du bon et du moins bon dans les envois. Mais quoi qu’il en soit, les vidéos gagnantes ont été rassemblées dans une seule vidéo visible actuellement sur le site. Et la campagne a même été plébiscitée par les professionnels du tourisme !

Quel que soit le scénario retenu, ce type de démarche fait évidemment penser au film participatif Life in a day initié par Ridley Scott en 2010-2011. Il avait alors demandé au public de filmer leur journée du 24 juillet 2010 et de poster la vidéo sur YouTube. Il a reçu 4500 heures de vidéos en provenance de 192 pays. En montant les meilleures séquences, il a réalisé un film d’une heure trente, qui a été présenté le 27 janvier 2011 au festival de Sundance.

Dans le même registre, on peut aussi citer le projet One day on earth piloté par Kyle Ruddick, qui fonctionne exactement de la même manière mais qui est peut être plus ambitieux encore dans la mesure où il s’est déroulé sur 3 années (1 jour par an, le 10/10/10, le 11/11/11 et le 12/12/12.)

Pour l’anecdote, cette démarche de crowdsourcing video est également celle qu’à choisi,  dans un secteur d’activité différent que le tourisme, la marque de sport Décathlon qui propose à ses fans sur sa page Facebook un concours de vidéo intitulé Nos champions de tous les jours, avec pour objectif final de réaliser une vidéo composée des meilleurs extraits des vidéos postées.

Dans le même registre que les concours, on peut citer le Festival du film de vacances, dont plusieurs institutions touristiques sont sponsors, tel que le Comité Régional du Tourisme Poitou-Charentes, dont j’ai déjà parlé dans le premier article de cette série à propos du film Ile de Ré réalisé avec une caméra GoPro.

2. Créez un site de curation de vidéos de visiteurs

Pour capter une partie de la valeur issue de la multitude de contenus créés par les internautes sur votre ville, votre pays, votre monument, votre entreprise ou votre site, quoi de mieux que de créer un site de curation ou de social-bookmarking dédié ?

Vous pouvez pour cela créer votre propre média et/ou utiliser les sites, applications et réseaux sociaux de vidéos tels que Vine, Instagram, Youtube, Viddy…

C’est ce que fait notamment le voyagiste Marmara qui joue sur les deux tableaux en proposant à la fois une rubrique vidéo participative au sein de son réseau social maison Marmarafit et en relayant ces vidéos ou d’autres sur sa chaîne YouTube.

Le Comité du Tourisme de Nouvelle Zélande ouvre également sa chaîne YouTube aux vidéos de voyageurs à travers la rubrique Traveller’s video ou encore à des organismes partenaires tels que des offices de tourisme locaux ou des médias grand public (la BBC par exemple).

L’Office de Tourisme de Grèce fait la même chose, avec une mise en scène soignée sur sa chaîne YouTube Visit Greece et une présence étendue à des réseaux sociaux tels que Pinterest, qui permet également de partager des vidéos et Instagram, qui permet de partager des micro-vidéos.

A l’image de ces institutions, pour rassembler ces contenus, plusieurs stratégies sont possibles : vous pouvez aller les chercher par vous même (curation), vous pouvez inviter les internautes à les poster sur votre site ou bien vous pouvez aussi proposer un hastag (ou mot-clé) qui vous permettra de rassembler automatiquement tous les médias publiés avec ce hashtag. C’est ce que propose par exemple l’Office de tourisme d’Anjou avec le hashtag #jaimelanjou, qui lui permet de regrouper photos et vidéos publiées avec ce hashtag sur sa page Facebook ou Pinterest ou sur la plateforme Statigr.am.

Tous les formats de vidéos évoqués dans les articles précédents et ci-dessus sont de parfaits boosters de l’activité et de l’audience de votre page Facebook ou Google+, de vos compte Twitter ou Instagram, de votre chaîne YouTube, etc. Pourquoi ne pas les utiliser pour féliciter leur auteur et promouvoir votre site ?

3. Aidez vos visiteurs à se filmer pendant leur visite ou leur présence sur place en mettant des dispositifs de captation vidéo à leur disposition avec fonction de partage social

C’est ce que propose la société Trinum avec ses vidéozones SnapMyRide pour les stations de ski. Il s’agit de zones dédiées où les skieurs peuvent être filmés et partager les vidéos sur les médias sociaux.

Cela me semble assez proche de ce qui se passe dans les magasins connectés où des dispositifs tels que des miroirs digitaux permettent aux clients de se filmer ou photographier pendant leur essayage pour partager le résultat sur les médias sociaux.

Une autre initiative me paraît particulièrement intéressante sur ce point : c’est Znappit, une application pour smartphone qui permet aux participants d’un événement de mettre en commun les vidéos de l’événement qu’ils font avec leur smartphone pour les réunir dans un seul et même film final. Vous pouvez voir ci-dessous un exemple de « znapping » réalisé à l’occasion ou OuiShareFest, une manifestation organisée par OuiShare :

Une telle démarche est d’ailleurs à mettre en relation avec la nouvelle fonctionnalité d’album collaboratif en cours de déploiement sur Facebook.

4. Invitez des artistes en résidence

Les vidéastes professionnels peuvent aussi travailler pour vous non seulement de manière directe dans le cadre d’une commande, mais aussi de manière indirecte. Ainsi, de son passage en résidence à l’Abbaye de Fontevraud, Francis Cuter à non seulement tiré une vidéo de promotion de l’abbaye, mais aussi la source d’inspiration d’autres films, comme par exemple le video-clip du titre Fuya, du groupe C2C, filmé à l’abbaye et primé d’une Victoire de la musique 2013.

5. Mobilisez des artistes pour détourner leurs créations originales dans un style « crowdsourcing »

Pour relancer le tourisme en Islande après l’épisode du volcan Eyjafjallajökull, le Comité du tourisme islandais a lancé la campagne Inspired by iceland, pour laquelle il a détourné le clip original de la chanson Jungle Drum d’Emiliana Torrini en créant, avec le concours de la chanteuse, une version qui se donne l’allure d’un patchwork de vidéos d’amateurs dans le style de Where the hell is Matt?. Je trouve le résultat fort sympathique…

Voilà qui me paraît une belle fin pour cette série d’articles consacrée aux innovations en matière de vidéo pour la promotion touristique. N’hésitez pas à me faire part de vos remarques ou de vos découvertes pour compléter ou amender ce tour d’horizon très subjectif…

Pourquoi assureurs et mutuelles devraient s’intéresser de très près à l’internet de demain ? Episode 2 : Evaluation des risques et des dommages

Dans le premier article de cette série, j’ai décrit ce que j’entendais par “internet de demain” en évoquant notamment comment il va modifier la manière dont les données sont générées, partagées, puis analysées. Dans le présent article, nous allons voir le premier impact que l’internet de demain devrait avoir sur les mutuelles et les assurances. En l’occurrence, il pourrait modifier fortement la manière dont ils évaluent les risques et les dommages, que ce soit ceux qu’ils couvrent ou ceux qu’ils pourraient subir.

Précaution préalable : N’étant pas un spécialiste du métier des assurances et mutuelles, je serai ici prudent sur tout ce que je dit. J’espère ne pas dire trop de bêtises. N’hésitez surtout pas à faire vos remarques en commentaires !

Le métier des assurances & mutuelles

Le métier de l’assurance consiste à évaluer les risques et leur impact financier pour pouvoir les couvrir. “Connaître les risques pour mieux les anticiper, les maîtriser et les tarifer au plus juste, tel est, ni plus ni moins, le coeur du métier de l’assurance”, pouvait-on lire dans un article récent de l’Argus de l’Assurance consacré à l’innovation (n°7294, p.56).

Pour faire cela, les assureurs s’appuient sur différents métiers, internes ou externes à l’entreprise : statisticiens, prévisionnistes, actuaires

Sur le portail pédagogique lesmetiers.net, le métier d’actuaire est ainsi décrit : “Prévoir l’imprévisible, telle est la mission principale de l’actuaire ! Dans les banques et les sociétés d’assurance, l’actuaire analyse des données statistiques et effectue des calculs de probabilités. A partir de ces éléments, il établit le montant des versements et des taux d’intérêts pour chaque contrat (plan d’épargne retraite, assurance vie, etc.) et estime les réserves d’argent dont la banque a besoin pour faire face aux engagements financiers pris vis-à-vis des clients.” Pour l’anecdote, le métier d’actuaire est régulièrement classé parmi les 3 “meilleurs métiers” aux Etats-Unis par CarrerCast et le Wall Street Journal (voir 2010, 2011, 2012).

Ainsi donc, le métier d’actuaire consiste à analyser et modéliser le taux de risque d’un côté (de manière statistique et historique) et à construire l’équation économique de l’autre entre ce que peut et doit payer chacun pour être couvert (la prime d’assurance) et ce que peuvent et doivent recevoir les victimes. Pour cela, l’assureur doit savoir quelles situations sont à risques et doit pouvoir évaluer dans quelle situation se trouve un assuré. Si l’assuré est dans une situation à risque, sa prime d’assurance sera plus élevée que s’il ne l’est pas.

Je cite l’article “Prime d’assurance” de Wikipedia : “La partie risque constitue le coût probable de sinistre que représente le risque à assurer. Concrètement, l’assureur va modéliser le risque que représente l’objet à assurer, en comparant son profil avec l’historique qu’il possède sur d’autres profils similaires. L’évaluation du risque est donc liée à la connaissance historique de risques similaires (ou à la capacité de modélisation). C’est la raison pour laquelle, les assureurs proposent des primes d’assurance différentes, puisqu’ils n’ont pas le même historique, la même expérience, la même base de clientèle. Ils évaluent donc différemment les risques.”

Cette différence repose en partie sur le choix de ce que l’on appelle les “variables explicatives”, comme l’explique l’article “Calcul de la prime d’assurance”, de Wikipédia : “Le choix des variables explicatives obéit à de nombreux critères qui vont au-delà de la pertinence statistique des variables considérées :

  • Disponibilité et fiabilité de l’information : les variables doivent être connues de l’assureur, et récoltées de façon fiable auprès de l’assuré. Ainsi, il est interdit en France de récolter des données raciales. En assurance auto, la variable explicative la plus pertinente est le kilométrage parcouru. Cette donnée est utilisée dans certains pays du nord de l’Europe, mais n’est pas utilisable dans les pays d’Europe du sud.
  • Segmentation interdite a priori par la compagnie d’assurances : une compagnie d’assurance peut décider de ne discriminer les prix qu’en fonction de critères précis, en en excluant délibérément certains. Cependant, si des concurrents utilisent une segmentation plus fine, la compagnie d’assurance risque de ne se retrouver qu’avec les plus mauvais risques, les bons risques étant captés par la concurrence grâce à des tarifs plus avantageux.”

L’explosion du nombre de données

Or, c’est ce paysage qui, selon moi, pourrait bien être modifié en profondeur par l’internet de demain. De quelle manière ? Non pas en invalidant les actuels modes de calcul (les modèles statistiques, prédictifs, stochastiques, etc.), mais plutôt en faisant exploser le registre des données sur lesquelles se fondent les assureurs pour effectuer ces calculs. Nous aurons en effet sans cesse plus de données à disposition, sans cesse plus récentes, issues de sources sans cesse plus variées, analysées par des puissances de calcul sans cesse plus grandes pouvant travailler à la fois sur un plus grand nombre de données, d’une plus grande variété et dans un plus court laps de temps.

Cette explosion du nombre de données, c’est ce que l’on appelle le big data. Voici donc un sujet qu’il me paraît crucial de mettre au coeur des débats et des attentions dans le monde de l’assurance. Signe d’ailleurs de l’importance de cette question pour ce secteur, le 16 février prochain, le LAB (Laboratoire Assurance Banque), organise une conférence sur le thème “Big Data : quels usages pour l’assurance ?”. Ce sera notamment l’occasion d’aborder des questions telles que (je cite le programme de l’événement) : “Comment utiliser concrètement le Big Data  pour anticiper et prédire des sinistres en santé ? Pour fournir des services inédits grâce à la géolocalisation ? Pour améliorer le ciblage publicitaire sur internet ?” et également “Quel doit être le rôle des actuaires dans l’analyse de ces informations ?”

Une plus grande diversité de données exploitables

Savoir traiter le volume sans cesse croissant des données est donc clé. Mais le big data en volume n’est possible que parce qu’il s’accompagne d’une explosion de la variété des données. Pour ne citer que 2 exemples (les plus parlants en matière de digital), les médias sociaux et le nombre croissant de capteurs, comme je l’ai déjà dit dans le premier article de cette série, multiplient les données. Et toutes ces données supplémentaires sont autant de matière nouvelle à analyser par les actuaires, statisticiens et autres prévisionnistes pour rendre plus précise leur évaluation du risque. L’évaluation des risques utilise en effet le plus souvent des données statistiques et historiques de survenue des risques. Elles vont progressivement se multiplier et se diversifier avec l’internet des objets, les médias sociaux ou l’usage des smartphones, comme on peut le lire dans cet article. C’est aussi ce qu’indique l’Argus de l’assurance, quelques lignes après celles citées plus haut : “les spécialistes estiment cruciale (pour la modélisation des risques) l’exploitation des smartphones comme capteurs d’informations sociales et comportementales.” (L’Argus de l’assurance, n°7294, p.56)

Depuis quelques années déjà, le cabinet Deloitte promeut un nouveau modèle d’analyse prédictive, fondé sur l’utilisation de données comportementales par opposition à l’usage des données classiquement recueillies et utilisées par les assureurs. On trouvera une description de ce modèle dans cette étude et cette présentation. Plusieurs sociétés, dont Aviva, ont utilisé ce modèle comme en témoigne cet article du Wall Street Journal.

On peut aussi citer à ce sujet cet autre article de l’Argus de l’assurance : “Aviva, aux États-Unis, pour ouvrir son assurance décès à un plus grand nombre, cherchait à baisser les coûts de souscription (des tests médicaux qui lui coûtaient en moyenne 125 $ par dossier). En 2010, il a testé un modèle prédictif comportemental, en récupérant sur les réseaux sociaux des données pour décrire des comportements alimentaires, culturels…, et 99,3 % des prévisions du modèle ont concordé avec le résultat des tests médicaux. Le tout avec un coût unitaire bien inférieur, une fois le modèle prédictif mis en place.”

Contrairement à ce que dit cet extrait, je ne suis pas sûr qu’Aviva et Deloitte aient utilisé dès 2010 des données issues des réseaux sociaux… Par contre, comme l’indique cet article, je pense que la question de l’usage de telles données devrait se poser rapidement, qu’il s’agisse des données issues des médias sociaux, des objets connectés, des capteurs, bref de toutes ces données issues de l‘internet de demain.

Évidemment, j’ai bien conscience que de multiples règles de droit et d’éthique encadrent et encadreront longtemps le travail des assureurs, et heureusement ! Je ne me prononce pas sur ce qu’il est possible et souhaitable de faire légalement, juste sur ce que permet la technologie et les usages numériques, et sur ce qui offre des opportunités business. Ensuite, il y a évidemment un débat à avoir sur la question de la faisabilité légale de mise en oeuvre (faisabilité qui varie d’ailleurs et variera sans doute longtemps d’un pays à l’autre). Dans un article paru en Juin 2012, The economist s’inquiétait d’ailleurs des dérives possibles de telles pratiques. Forbes avait également relayé ce questionnement dans un autre article.

Open Data, API et crowdsourcing apportent de nouvelles opportunités

Quoi qu’il en soit de l’issue de ce débat, je constate que dès aujourd’hui des pratiques innovantes se mettent en place chez les assureurs qui tentent de tirer parti de ces nouvelles opportunités qu’offre l’internet de demain, aussi bien à travers l’augmentation exponentielle des données qui sont et seront disponibles, qu’à travers les nouveaux usages qu’il initie. Parmi ces usages : le partage des données, que ce soit le partage des données publiques via le principe de l’Open Data, ou l’usage des API.

L’Argus de l’assurance a récemment consacré un article à l’Open Data : “L’open data, un nouveau gisement à exploiter”. Dans cet article, le journal explique également que l’assureur américain Aetna a initié une démarche de partage de ses données aux autres assureurs et développeurs d’applications sous forme d’API via sa plateforme CarePass. On peut retrouver d’autres articles soulevant l’intérêt et les questionnements de l’Open Data et des API pour les assurances et les mutuelles ici, ici, ici ou encore ici.

C’est aussi dans ce contexte de l’Open Data qu’est né en France l’initiative transparence santé, qui est ainsi décrite sur son site web : “A l’heure de l’Open data, nous, représentants d’usagers de santé, chercheurs, assureurs, entrepreneurs, consultants et journalistes, soucieux d’une meilleure information sur le fonctionnement de notre système de soins, réclamons la possibilité pour la société civile d’accéder en toute transparence aux données publiques de santé. Notre initiative – l’Initiative transparence santé – vise à porter ce débat auprès de l’opinion et des décideurs pour qu’enfin les verrous sautent.” L’UFC-Que Choisir milite également dans ce sens.

Cette ouverture des données est sans doute attirante, mais elle n’est pas sans poser des défis, notamment en termes de qualité des données, comme le rappelle Optimind dans son dossier technique La qualité des données. Car la quantité ni même la transparence ne sont pas un gage automatique de qualité, de validité et de performance ou de pertinence dans l’exploitation. La capacité à trier, sélectionner et segmenter les données est donc fondamentale, tout autant que la capacité à les analyser ensuite.

Or, là encore, les réserves d’innovation des assureurs pour répondre à de tels défis sont énormes. La démarche la plus innovante et audacieuse en la matière dont j’ai entendu parler est celle de l’assureur américain Allstate à travers son usage de Kaggle, une plateforme de crowdsourcing spécialisée dans l’organisation de concours autour des BigData. L’assureur organise sur cette plateforme des concours d’analyse prédictive :

  • Will I stay or Will I go?” visait à prédire quels clients de l’assureur vont lui rester fidèle : “Predict which of our current customers will stay insured with us for an entire policy term.”
  • Give me some credit” est un concours visant à analyser les probabilités de défaut d’un emprunteur.
  • L’assureur a aussi lancé un concours pour prédire au mieux les coûts des sinistres (blessures et décès) en fonction des caractéristiques du véhicule de l’assuré.

Comme le formule judicieusement le blog “C’est pas mon idée !” dans un article éponyme, à travers ce projet, “Allstate teste l’actuariat en crowdsourcing !”

Pour conclure sur cette partie, je vous invite à consulter le compte-rendu de la journée de conférences organisée par l’Enass (Ecole Nationale d’Assurance) le 22 juin 2011 sur le thème « Des faits aux données ». L’ensemble des sujets évoqués dans cet article y sont débattus par des spécialistes.

L’internet de demain va également modifier l’analyse des risques et dommages que les assureurs et les mutuelles pourraient subir.

Si le métier des assurances et mutuelles consiste à couvrir les risques de leurs assurés, ils ne sont pas eux-mêmes exempts de tous risques ! Et comme charité bien ordonnée commence par soi-même, il est donc crucial qu’ils s’appliquent également à eux-mêmes leur propre évaluation !

Je comprends cette question comme celle de l’analyse des risques opérationnels, une analyse qui peut s’appliquer à n’importe quelle entreprise à travers l’ERM (Enterprise Risk Management). Je vais être très bref sur ce sujet qui est loin d’être ma spécialité si vous voyez ce que je veux dire. Pour ceux que ça intéresse, je vous suggère de lire le dossier technique d’Optimind sur le sujet. Quoi qu’il en soit, sur cette question comme pour l’analyse de n’importe quel autre risque, l’internet de demain devrait jouer un rôle aussi bien dans la nature des informations à analyser que des algorithmes capables de les analyser. Ici encore, les capacités de captation et d’analyse des big data seront mises à contribution, ainsi que les outils d’analyse prédictive. On trouvera de nombreux points d’entrée sur ce sujet (ainsi que sur tous ceux évoqués dans cet article) dans le blog Business-Analytics-Info.fr de l’éditeur SAS : Gestion du risque : anticiper l’inattendu, L’analyse prédictive pour une gestion « intelligente » du risque, etc. Et pour qu’on ne m’accuse pas de favoriser un éditeur au dépend d’un autre, je vous oriente également vers cette page de loffre d’IBM, qui intègre la gestion des risques opérationnels.

Voilà. Cet article touche enfin à sa fin. J’ai été long… et rapide à la fois tant le sujet mériterait d’être approfondi. J’espère en tous cas vous avoir convaincu que l’internet de demain pourrait offrir toute une palette d’outils et de données inédits qui pourraient intéresser au plus haut point assureurs et mutuelles dans leur travail d’évaluation des risques.

Mais l’internet de demain pourrait également modifier le marketing et la relation client des assureurs et des mutuelles. C’est ce que nous verrons dans le prochain article de cette série.