Du big data au smart data | Le nouvel Economiste.
La donnée consommateur au coeur de la transformation de lentreprise
Lexpression big data ferait presque fuir tant elle est utilisée à tort et à travers. Ce qui camoufle assez bien ses enjeux cruciaux : les données sont devenues la colonne vertébrale de lentreprise, structurant au passage son activité, remodelant son modèle économique au gré de transformations induites par le nouvel ukaze : lentreprise est résolument consumer centric et se doit donc dutiliser cette masse exponentielle de données produites par ses clients et prospects sur Internet, les réseaux sociaux, les forums. Données non structurées quil lui faut distiller, raffiner pour lui donner, avec la plus prompte réactivité, du sens, de la pertinence. Bref, transformer la big data en smart data. Seul hic, de taille : le peu denthousiasme ou de prise de conscience des dirigeants français se conjugue avec la pénurie en data scientists pour freiner une dynamique qui aurait bien besoin daccélérer.
Usée jusquà la corde sans avoir vraiment été beaucoup utilisée : lexpression-valise big data ne doit cependant pas dissimuler ses enjeux grands formats : une rupture obligée avec les classiques modèles économiques de nombre dentreprises. Cela a peut-être encore la rareté dune étude de cas à Harvard, mais lentreprise de demain sera délibérément consumer centric. Au passage, ce nouveau tropisme consacre le glissement du consommateur vers le rôle de conso-acteur.
Certes, jusquà présent les discours et autres rapports annuels ont abondamment précédé la mise en uvre. Pourtant cette révolution copernicienne est en marche. Elle ne serait possible sans une masse de données orientée efficacité, donc opérationnelle et affûtée pour laction. Faisant au passage voler en éclats les classiques organisations en silo et autres organigrammes verticaux, les exigences de ces nouveaux modèles économiques imposent donc la transversalité.
Lexploitation du déluge informationnel
En effet, lexploitation de ces fameuses données, en temps accéléré, impacte simultanément la plupart des grandes fonctions : commerciales, marketing mais aussi conception, R&R, production, logistique, dont lorganisation actuelle en silo peu partageur va bien vite apparaître comme un archaïsme. Un obstacle surtout aux impératifs de réactivité calés sur ces précieuses infos partagées. On va assister à une logique de recomposition des différentes directions autour de la donnée. Conséquence logique de cette révolution de linfobésité provoquée par la Toile qui induit un nouveau mode dinteraction entre lentreprise et son marché, bouleversant au passage les fondamentaux du marketing.
Et ses techniques dépassées.Tant le traitement avec de nouveaux algorithmes permet de découvrir des corrélations qui ne sont pas perceptibles pour le cerveau humain. Jusquà présent, cette science opérationnelle pratiquée par les as du marketing ne concernait que les données structurées de lentreprise (stats de consommation). Il leur faut maintenant intégrer des données externes non structurées extrêmement riches et abondantes pour en déduire le comportement futur.
Depuis très longtemps, on a pris lhabitude de mouliner des quantités de données souvent très structurées, quantitatives, à lintérieur de lentreprise jusquà une rupture récente avec lirruption des données déstructurées venant des réseaux sociaux, des mobiles ou plus simplement des consultations Internet des consommateurs en situation, explique Nicolas Glady, responsable de la chaire big data Accenture-lEssec. Et voici donc lUGC, (User Generated Content), produisant à toute vitesse des milliards dinformations qui en disent long sur les comportements et intentions du client. Souvent, en dehors des systèmes informatiques classiques.
Le big data a donc un impact déterminant sur la transformation des modèles économiques de nombre dentreprises dans la mesure où il joue le rôle de véritable colonne vertébrale et donc induit des changements importants dans toutes les facettes de lorganisation : production, logistique, finances, etc. Dans ces entreprises consumer centric, la plupart des fonctions sont impactées de façon transverse. Le big data oblige donc de casser les organisations en silo, mais transforme aussi les processus de décision puisque le pilotage de lentreprise se nourrit de nouveaux indicateurs.
Le retard des entreprises françaises
A ce jeu, les entreprises françaises accusent un certain retard sur leurs concurrentes étrangères, comme le constate Mouloud Dey, directeur solutions et marchés émergents de SAS : Il y a un vrai décalage : je constate plusieurs années de retard sur les entreprises américaines alors quil sagit dune opportunité de business. De plus, elles ne semblent pas vraiment pressées de le combler puisque selon le sondage pour le cabinet EMC, 74 % des entreprises consultées se déclarent convaincues quil sagit dune amélioration de la prise de décision, mais 41% précisent quelles nont prévu cette année aucun investissement budgétaire ! 6% des décideurs auraient conduit des projets en 2012. La difficulté à identifier concrètement le ROI, donc à débloquer des budgets, explique ce retard parfois aussi justifié par lévaluation délicate de limpact sur le système dinformation et donc la timidité de certains DSI pour ces novations.
Pourtant le recours au classement de cibles pour connaître leur solvabilité, leur capacité demprunt, les risques quelles représentent sur le plan de la sécurité automobile, la santé et autres données personnelles vous font classer sur tous les aspects de votre vie quotidienne. Afin de limiter lexposition aux mauvais payeurs, aux fraudes ou optimiser une promotion. Le scoring, omniprésent, na pas dit son dernier mot.
Les ruptures
Certes le traitement de données nest pas un exercice nouveau. Voilà des années que leur exploitation est une pratique bien connue de quelques métiers banques, assurances, opérateurs de télécoms. De tous temps, certaines entreprises ont employé des statisticiens afin de bâtir des modèles sur, par exemple, lévolution de la consommation. Mais depuis peu, comme la mis en lumière un rapport McKinsey de 2012 (Big Data : The Next Frontier for Innovation, Competition, and Productivity), prévoyant que ce dernier permettrait aux distributeurs daugmenter leur marge opérationnelle de plus de 60 %, deux facteurs, deux fractures, ont provoqué une véritable rupture :
1/ La croissance exponentielle provoquée par la fabrication dinformation par le consommateur lorsquil utilise son mobile et Internet (vidéos, photos).
2/ La sophistication des outils pour transformer ces big data en smart data notamment dans deux domaines clés du marketing : lanalyse prédictive permettant de prévoir des comportements dachat et le scoring. Méthode consistant à affecter une note à chaque client ou prospect dune base de données afin de cibler et prospecter avec une meilleure efficacité. La traçabilité des consommateurs est facilitée par ses activités, le mobile comme lInternet en racontent beaucoup sur ses goûts, envies et habitudes. En outre, hier on travaillait sur des panels figésquand aujourdhui, les réactions en vraie grandeur sobservent dans la dynamique des achats. Le chaland passe devant une vitrine de chaussures, regarde, hésite puis passe son chemin. Quelques secondes plus loin, un texto affiche une tentation alléchante : 10 % de réduction sur la paire convoitée. Comme dans le souk, le digital en plus. La traçabilité de la cible est passée par là.
Et actuellement, aucune réglementation ne borne ni ne régule ce métier du scoring qui, comme on le verra plus loin, pourrait bien donner lieu à de vastes commercialisations des données.
Chaque consommateur est désormais noté
Si chaque entreprise, chaque pays fait lobjet de notations validant sa sécurité financière, chaque consommateur est noté de façon très élaborée une centaine de paramètres en fonction de ses comportements de consommation. La fidélité des consommateurs ainsi mise en équation permet dimaginer toutes les parades aux comportements peu favorables à la marque, comme des coupons de réduction ciblés, en temps réel. Les points négatifs exprimés sont immédiatement remontés pour être corrigés. Les principales avancées en modélisation prédictive résultent de lexplosion de données non structurées, documents écrits, vidéos et images, et des techniques danalyse évoluant à un rythme effréné.
Les boîtes à outils sont désormais disponibles, les plate-formes dexploitation à maturité car la qualité de raffinage de ce flot hyper-inflationniste dinformations tient à un mot : lalgorithme qui saura en extraire de la pertinence. Et là aussi, la science a rapidement évolué.
Nous sommes passés du traitement des données quantitatives à celui des données qualitatives dont il faut rendre le résultat intelligible puisquil sagit de donner du sens à cette masse de données, ce qui passe désormais par la technique de la data visualisation. Or les grands groupes ont à peine entamé leur mutation digitale, assimilant la grammaire des réseaux sociaux, mettant à mal par son diktat transversal leurs directions en silo, quils doivent affronter cette révolution des data qui bouscule tant la donne. Opposant même parfois le DSI au directeur marketing !, note Bruno Teboul, directeur scientifique du cabinet conseil Keyrus et auteur dun ouvrage sur le sujet (LAbsolu Marketing).
Leurs outils sont de plus en plus performants. Les plus récentes innovations dans le domaine de la visualisation permettent aujourdhui aux métiers, non plus seulement daccéder à des rapports statiques sur des données du passé, mais de procéder eux-mêmes à des analyses prédictives, en temps réel, et de naviguer dans ces infos sur une simple tablette. La prévisibilité de la consommation se fait de plus en plus affûtée. Ainsi, dans le domaine de la santé, la coïncidence de multiples interrogations sur Internet pour telle maladie laisse augurer le démarrage dune possible économie.
Le mécontentement diffus mais partagé pour tel type de pneu ou de lave-vaisselle qui se manifeste de façon croissante sur Facebook pourrait bien signifier un prochain sinistre du côté des ventes si des contre-feux ne sont pas rapidement mis en uvre. Ce qui donne une bonne image du traitement des flux de données. Ceux que lon traite aujourdhui nont rien de comparable avec ceux dil y a 5 à 7 ans. Actuellement 1,2 milliard dinternautes utilisent Facebook pour stocker photos et vidéos en exigeant un temps de réponse quasi instantané. Multitude de signaux faibles à conséquences fortes à décrypter avec une forte réactivité. A condition davoir désigné un responsable.
Le Chief Data Officer
Aussi, dans quelques grands groupes, les plus évolués sur le plan des données, irruption dun chef dorchestre, un nouveau responsable sest imposé entre le classique DSI et le non moins traditionnel directeur de marketing, le CDO traduisez : Chief Data Officer. Grand manitou en connexion avec la direction générale pour cette conception toute transversale, ayant barre sur toutes les transformations induites par ce déluge informationnel, plutôt son exploitation la plus raffinée qui va impacter aussi bien la logistique que la R&D, ou toutes les autres fonctions.
Avec une compréhension vraiment très orientée business des changements à opérer. Et une mission prioritaire : casser lorganisation en silo faisant travailler en parallèle chaque fonction.
Il existe certes depuis longtemps de très importants gisements de données accumulés en interne, structurés et non exploités dans les entreprises 70 à 80 %. Maintenant sy surajoute une quantité impressionnante de données externes supplémentaires. Faut-il investir pour les exploiter ? Comment vraiment optimiser cette mine dinformations suscitée par la consommation omnicanal ? Ce sont les grandes questions stratégiques du moment.
Réalité mais cruel constat : actuellement, Google ou Facebook en savent infiniment plus que les banques, compagnies dassurance ou opérateurs de télécoms sur les clients attentes, désirs, comportement, intentions dachat, etc. Non seulement les GAFA (Google, Apple, Facebook, Amazon) disposent dune masse de données autrement plus conséquente mais leurs algorithmes permettent une granulométrie des informations très opérationnelle pour mener des offensives commerciales ciblées. Smart, ces données complexes ont surtout besoin dêtre lisibles dans leur dynamique. Cest tout lenjeu des outils de visualisation permettant, grâce à une interface dexploration conviviale extrêmement graphique, de valoriser rapidement de gigantesques quantités de données.
Ces données complexes méritent pédagogie si lon veut quelles soient exploitables ; il ne sagit pas seulement de parvenir à des résultats éclairants pour les experts, encore faut-il faire partager ces enseignements avec les opérationnels. La moitié du travail qui réclame des digital architectes ayant une bonne vue densemble. Avec un cahier des charges bien précis : rendre ergonomique et lisible cette nouvelle complexité. Extraction, data mining et autres plate-formes et algorithmes sont les nouveaux outils susceptibles de donner du sens à des tombereaux de peta-octets. Ainsi, grâce à une analyse sémantique des contenus de message, Google est parvenu avec son application Google Flue à prévoir le périmètre et limportance dépidémies tandis que les algorithmes de la start-up américaine Target lui permettaient, par lanalyse des dépenses constatées sur le Net, de prévoir et surtout didentifier le comportement des parturientes
Le VRM ( Vendor relationship Management )
Après le CRM, il faut désormais compter avec lincontournable VRM (Vendor Relationship Management). Les techniques damélioration de la connaissance, et surtout de la prévisibilité des clients passe par la gestion de méga bases de données. Ainsi, Catalina Marketing recense en 600 milliards de lignes le comportement sur 3 ans de 200 millions de consommateurs dans 60 000 points de vente. Travaillant notamment sur la fidélisation des clients des enseignes de la grande distribution grâce à des coupons ciblés distribués en caisse. Quelques as du neuro-marketing font tourner des modèles prédictifs en fonction des données relevées. Tout un art. La solution la meilleure pour élever le niveau dexpertise dans ces domaines passe par des centres dexcellence favorisant lapprentissage en marchant
de façon collective, conseille Christine Removille, responsable dAccenture Analytics.
Mais de très sérieuses bagarres paraissent en filigrane de cette jonglerie autour des flux de métadonnées. Comme pourrait bien lillustrer la généralisation invasive des objets connectés, en premier lieu et plus particulièrement la voiture, car qui a linfo mènera le jeu. Le constructeur auto, lassureur, Google ? Celui qui saura orienter le conducteur vers tel hôtel, restaurant, garage, grande surface, bref, susciter le business, tirera les marrons du feu. Les jeux sont loin dêtre faits mais cette logique de service sera structurante dans les années à venir.
Le data scientist
Les enjeux sont énormes mais les experts manquent car ils doivent réunir trois types de compétences distincts : des maths appliquées, de linformatique avancée et du management, observe Bruno Teboul. Las, un goulot détranglement rétrécit singulièrement lexpansion de ces techniques, une dramatique pénurie de compétences, dans le monde entier. Plus particulièrement en France.
Certains chiffres circulent, il manquerait 120 000 data scientists de par le monde. Il est vrai que ces experts doivent tout à une alchimie peu commune, celle qui réunit une spécialisation en sciences dures maths poussées, analyse quantique, informatique avec les sciences molles que sont le management, les sciences humaines, etc. Les délais de mise en place de ce type de formation sont très longs deux à trois ans alors que le marché est en appétit aigu de cette spécialisation rare. En outre, les écoles distillent par rares dizaines ce genre dexperts.
La concurrence est rude à léchelle internationale, les meilleurs talents séduits par les perspectives de ces nouveaux domaines filent à Berkeley, Stanford ou Cambridge. Quelques grandes écoles françaises sy sont mises très récemment chaires Essec/Accenture, et AXA Stratégie digitale, cette dernière étudiera particulièrement limpact du big data sur la stratégie et la transformation du modèle économique des entreprises mais ce déficit dexperts obère dores et déjà la croissance de certains groupes de e-commerce ne parvenant pas à recruter ces talents affûtés.
Prochaine grande vague, la data monétisation
Prochaine grande vague annoncée après le big data : la monétisation des données. Ou comment transformer ces dernières en mine dor pour les entreprises qui sauront exploiter, comprendre et analyser ces immenses volumes dinformation afin de prédire avec pertinence le comportement des utilisateurs dune telle manière que les campagnes marketing deviennent intelligentes, personnalisées, rentables. De belles batailles en perspective risquent de voir saffronter les détenteurs-exploiteurs de ces enjeux cruciaux pour le business. Une fois linvestissement réalisé au profit de ses propres ventes, lentreprise pourra encore amortir ses dépenses grâce à la data monétisation.
Ces ressources rares sont en effet valorisables, comme lont déjà constaté quelques opérateurs télécoms. A tel point que les deux plus importants acteurs britanniques, des plus concurrents Telephonica UK, Vodaphone ont créé une filiale commune dédiée à la commercialisation, Weve, afin de vendre aux entreprises de la distribution, par exemple, les données recueillies auprès de plus de 20 millions dabonnés. Du pur BtoB. On en parle depuis longtemps mais en fait, ce qui est valorisable, ce sont les insights, ces enseignements précieux issus des traitements des données. Les sociétés de télécoms peuvent ainsi vendre à des commerçants ces informations très élaborées permettant didentifier des typologies de consommateurs.
Les infos de géolocalisation sajoutent à la traçabilité des achats, de léventuelle valse hésitation sur des sites de e-commerce pour livrer une mine denseignements dont cette start-up jeune de six mois à peine compte tirer parti. Car la matière première brute y sera raffinée à la demande. A loré du gisement, le filon parrît prometteur. En avance de quelques solides algorithmes innovant larme essentielle de cette nouvelle bataille -, les Facebook et autres Google pilotent actuellement des architectures Big Data qui devraient leur données quelques coudées davance dans cette course à la performance marketing. Elle tient à la capacité de traitement, lévolutivité et la capacité dajuster les ressources par rapport aux besoins
Le public après le privé
La data révolution ne devrait pas épargner le secteur non profit; la gestion des villes, des hôpitaux, des transports, des grandes infrastructures aurait, elle aussi, tout à gagner à fabriquer un smart management grâce à lexploitation de ces méta-données. Cest le pari des smart-cities que lon voit poindre ça et là.