Big data : une révolution en marche ?
L’émergence du big data & analytics est directement liée au développement du digital et à la multiplication des interactions fondées sur l’échange de données : au travers de plus de canaux de contact, via des messageries électroniques, sur les réseaux sociaux, ou encore à partir d’objets connectés, etc.
La conséquence de cette évolution est d’abord une explosion des données, les fameux big data : il se produit en une journée de 2015 dix fois plus de données que sur toute l’année 1997. Ainsi, 90 % des données actuelles ont été créées ces deux dernières années. Et ce volume double tous les deux ans1…
Ces données sont de natures de plus en plus diverses : elles peuvent être structurées (comme des données de profil client ou de transaction) ou non (la voix, la vidéo, le texte, l’image, etc.).
La richesse d’information sur les comportements des individus dans les différentes facettes de leur vie n’a jamais été aussi importante, ni aussi accessible.
En parallèle, une combinaison d’évolutions technologiques importantes fait tomber les barrières à l’utilisation de ces données grâce à des capacités d’analyse et de prédiction démultipliées (advanced analytics). Les champs d’application deviennent beaucoup plus larges, dépassant le seul cadre des données structurées à l’intérieur de l’entreprise. Les corrélations sont ainsi détectées sur un panel d’informations beaucoup plus important. Plus innovant encore, des modèles sont également capables d’auto-apprentissage statistique (machine learning).
Mais les barrières s’effacent aussi face à des capacités d’accès de stockage et de traitement quasiment illimitées (grâce en particulier à Hadoop). L’augmentation de puissance des calculateurs et la réduction drastique des temps de traitement se font à des coûts très significativement inférieurs aux technologies traditionnelles (rapport de 1 à 1 000 en moyenne). Théoriquement, ces nouvelles technologies complètent les systèmes existants sans les remettre fondamentalement en cause.
Enfin, par l’apport d’outils de visualisation de toutes ces données (data visualisation), la culture du chiffre revient sur le devant de la scène et les décisions sont facilitées.
Il existe aujourd’hui un foisonnement d’initiatives mêlant différents écosystèmes dans une recherche commune pour tirer de nouveaux types de valeurs : la communauté scientifique travaille en réseau de manière permanente et à l’échelle mondiale (exemple des technologies open source « R »).
La maîtrise des données et leur exploitation pertinente deviennent ainsi des avantages concurrentiels clés des entreprises à l’ère du digital. Une multitude d’entrepreneurs développent des usages nouveaux, avec parfois pour conséquence l’émergence de modèles économiques qui percutent les chaînes de valeur traditionnelles. Ces prochaines années, une entreprise leader tirera probablement sa domination de la conjonction de la puissance de ses réseaux de distribution avec sa capacité à exploiter les données dont elle dispose.
Nous voyons sous nos yeux chaque jour un peu plus que le couple big data et advanced analytics fait émerger de nouvelles opportunités.
L’optimisation des modèles économiques existants concomitamment sur les leviers coûts et revenus
Il est ici question de perfectionner le mode d’exercice de métiers traditionnels en étant plus efficaces pour conquérir des clients, les servir ou encore maîtriser les risques. Ces outils peuvent d’abord nous aider à améliorer l’expérience client par une hyperpersonnalisation des interactions sur tous les canaux, nourrie par l’enrichissement du CRM (customer relationship management) avec une vue client à 360°. L’efficacité des ciblages marketing serait ainsi multipliée par sept grâce à l’utilisation de modèles prédictifs permettant d’anticiper des moments de vie d’un client, comme le départ à la retraite ou le renouvellement du véhicule. Autre terrain, celui d’une meilleure efficacité opérationnelle, en sachant, par exemple, mieux prévoir la demande et les ventes ou optimiser, comme l’a fait le transporteur UPS, les parcours de ses véhicules par l’analyse de leurs données en temps réel. En matière de gestion du risque et de la fraude, la capacité à multiplier les types et les sources de données et les traiter en peu de temps, voire en temps réel, constitue un atout en permettant de passer d’un processus a posteriori à un système de détection de la fraude en quelques secondes. Enfin, le big data & analytics permet de décloisonner les données existantes et de produire de manière visuelle et intelligible des rapports ad hoc dans des délais très ramassés avec une profondeur inédite.
La rupture des chaînes de valeur existantes
L’exploitation des données a permis à des acteurs de se positionner en périphérie voire au cœur de la chaîne de valeur d’acteurs économiques préexistants. Ces ruptures se traduisent souvent par l’intermédiation des clients finals. Ainsi, la plate-forme de réservation de Booking.com lui permet de s’interposer entre le client et les hôteliers, réduisant ces derniers au statut de producteurs à faible valeur ajoutée portant les coûts. Les effets constatés sont de trois ordres : captation de la relation client, prélèvement d’une commission et prise de contrôle de la politique tarifaire des hôteliers.
Par ailleurs, les partenariats stratégiques fondés sur l’exploitation des données tendent à se développer. Par exemple, deux acteurs mondiaux de l’aviation et de l’hôtellerie se sont accordés sur le partage de leurs données afin d’enrichir leurs offres et de permettre un parcours client unifié sur l’ensemble de son voyage. Le cloisonnement des chaînes de valeur tombe et de nouveaux espaces de création de valeur émergent.
Les services financiers sont un secteur privilégié d’innovation à partir du big data & analytics. De nombreuses start-up développent des modèles originaux sur l’ensemble des métiers et de la chaîne de valeur : des start-up comme OnDeck, Zest Finance ou KrediTech ont créé des moteurs de scoring fondés sur des données totalement différentes de celles utilisées traditionnellement dans les banques (réseau relationnel sur Facebook, etc.).
La génération de nouveaux modèles économiques
De nouveaux modèles de services autour de l’analyse des données sur l’usage commencent à se faire jour. Les données, plutôt leurs valeurs intrinsèques, donnent même des idées à certains qui réfléchissent à comment les monétiser pour augmenter leurs revenus. Les possibilités sont théoriquement nombreuses.
Pourquoi faut-il agir ?
La première raison d’agir est que l’émergence d’une économie fondée sur les données est devenue inéluctable et s’impose avec violence dans le paysage économique et financier. Les capitalisations boursières atteintes par les géants du digital, dont le modèle repose sur les technologies du big data & analytics (réseaux sociaux, moteurs de recherche, moteurs de recommandation, etc.), en sont une expression flagrante. De même, l’explosion des solutions technologiques orientées sur le traitement des données (Qlickview, Tableau, R, Pivotal, etc.) illustre la montée fulgurante des besoins et des attentes dans ce domaine.
Ensuite parce que l’avantage compétitif dans ce domaine s’appuie sur les notions d’historique et de vitesse d’exécution.
L’historique d’abord : l’historique des données disponibles et leur profondeur d’historisation permettent d’identifier des schémas statistiquement pertinents sur un cycle de vie client entier, notamment dans les services financiers qui ont un véritable enjeu à accompagner l’évolution des besoins financiers de leurs clients dans le temps. Les banquiers disposent dans ce domaine d’un atout majeur. Par ailleurs, les nouveaux modèles mathématiques déployés sont « auto-apprenants », c’est-à-dire que les algorithmes développés s’affinent avec l’utilisation. Par exemple, un moteur de recommandation se perfectionne en fonction de l’analyse des recommandations suivies d’une vente ou non. Plus un modèle a d’historique, plus il est performant.
La vitesse d’exécution ensuite : elle s’exprime par la capacité à porter cette puissance de calcul au service du client, qui ne supporte plus l’attente lors du lancement de son ordinateur personnel, qui ne veut plus des temps de calcul sur un site d’achat en ligne et à qui l’idée même d’une réponse différée semble inconcevable.
Elle s’exprime aussi dans la nécessité de revoir les approches projets plus agiles, privilégiant la multiplicité des expérimentations quitte à n’en industrialiser qu’une partie, mais à les mettre en œuvre ou les abandonner rapidement.
La menace que le big data & analytics fait peser sur les modèles économiques actuels des services financiers est de trois ordres :
- d’abord une menace de contournement des barrières à l’entrée, de nouveaux acteurs se fondant uniquement sur des maillons spécifiques de la chaîne de valeur (l’entrée en relation, la comparaison, etc.), sans avoir à réaliser les investissements nécessaires pour devenir un acteur au sens propre du secteur (appliquer la réglementation bancaire, concevoir des produits, construire des usines de production, etc.) ;
- ensuite, une menace liée à la réduction de l’asymétrie d’information. La détention et le partage des données, autrefois administrés par la banque dans des conditions extrêmement restrictives, deviennent l’apanage du client, qui décide souverainement qui peut avoir accès ou non à tout ou partie de ses données personnelles. Dans une économie de la donnée, la fin de cette asymétrie d’information représenterait pour le secteur bancaire la perte d’un avantage compétitif ;
- enfin, une menace liée au développement d’usages à caractère addictif : chercher une information (Google), développer ses relations sociales (Facebook, Twitter) ou professionnelles (LinkedIn), consommer (Amazon) sont autant d’usages sur lesquels des acteurs se sont focalisés au point d’acquérir des positions monopolistiques à l’échelle globale.
Dans l’univers des services financiers, le développement d’un personal finance management de nouvelle génération présenterait une menace crédible pour les banques car il combine ces trois menaces : en agrégeant les données des différents comptes bancaires du client (fin de l’asymétrie d’information), ils deviennent l’interface première de consultation des comptes (usage addictif), peuvent développer une proposition de valeur qui empiète sur le conseil et la distribution (capacité à proposer un crédit en fonction de la situation financière du client, benchmark des coûts bancaires supportés par le client, etc.), sans toutefois avoir à construire les offres ou les usines bancaires (contournement des barrières à l’entrée).
Quid du big data dans la banque de détail ?
Les clients se distancient de plus en plus de l’agence bancaire pour de bonnes raisons (il est plus simple et facile d’effectuer une transaction comme un virement avec un smartphone ou un ordinateur) ou de moins bonnes, comme un parcours client encombré d’embûches plus ou moins saillantes ou encore la perception que l’entretien avec un conseiller n’a pas su apporter une réponse personnalisée et pertinente à une difficulté rencontrée ou un projet en construction. La réponse à proposer doit gérer un paradoxe : des clients voulant plus d’autonomie tout en attendant de l’expertise, du conseil, de l’accompagnement, de préférence sur un mode proactif, de la part de leur banque.
Après les années du 100 % physique, puis le développement de réponses par des 100 % pure players, nous entrons maintenant dans une phase où le « digital entre dans le physique ». L’enjeu ici est de construire un modèle relationnel hybride (digital et physique), sans couture, puissant, où le digital est notamment un moyen de faciliter les usages et la vie des clients, mais aussi de renforcer l’humain, celui qui, pour encore quelque temps sur les sujets de finances personnelles et familiales, portera la valeur par le conseil et l’accompagnement.
Une banque doit mieux savoir identifier et connaître à distance le client et ses besoins pour lui faire, via le conseiller et les canaux à distance, de façon proactive, une proposition pertinente et vraiment personnalisée. Face à ce changement de paradigme, l’appui du CRM et du big data sera capital.
Dans cette course, une banque ne part pas démunie. Elle dispose généralement d’actifs propres de grande valeur :
- la richesse et la profondeur des données détenues, et cela est encore plus vrai dans le cas d’une grande banque de détail couvrant la palette des métiers et bénéficiant d’une grande part de marché, notamment dans les métiers des services financiers aux particuliers : la quantité d’information sur ses clients – leurs besoins, leurs habitudes de consommation, leurs comportements, etc. – est unique et lui permet même de disposer d’une représentation fidèle et représentative de la population française ;
- l’historique : les informations dont dispose une banque ont généralement une profondeur historique rare qui permet de reconstituer sur un cycle de vie client complet les caractéristiques de leurs besoins bancaires, d’en mesurer l’évolution dans le temps et, ainsi, de réaliser des anticipations fiables ;
- la certification : compte tenu des exigences réglementaires et de leur nature propre, les données disponibles sont fiables et avérées ;
- la sécurité : les banques bénéficient encore, pour l’ensemble de la population, d’un capital de confiance fort et d’un a priori de protection qui leur permet de jouer à plein sur le registre du tiers de confiance.
Ces atouts, certaines entreprises leader du big data & analytics rêveraient de pouvoir en disposer. Dans la réalité, si elles brassent un volume important de données, ce sont rarement des informations aussi fiables et complètes que celles dont disposent les banques.
Mais le chemin vers l’exploitation performante des données ne se tracera pas sans embûches. De nombreuses autres questions devront trouver leur réponse.
D’abord, parce que le niveau d’acculturation est souvent très inégal au sein des entreprises, tant sur le contenu du sujet (compréhension de ce qu’est le big data & analytics) que sur celui des menaces et des opportunités associées. Et cette hétérogénéité peut être perceptible tant au sein d’un métier qu’au sein de lignes managériales.
Par ailleurs, les compétences clés (data scientists, etc.), lorsqu’elles existent, sont encore rares, dispersées et pas toujours organisées de manière optimale. Quels investissements dans les talents nécessaires ? Quelles filières de recrutement et de gestion ? Qu’en est-il des autres profils moins pointus, mais tout aussi nécessaires ? Comment insuffler plus encore la culture de la donnée au sein de l’entreprise ?
De même, la stratégie informatique et la doctrine technologique peuvent être encore en maturation avec des questions structurantes restant à traiter. Comment accueillir et traiter des données provenant de différentes entités ou de l’extérieur ? Quelles règles communes et partagées de gestion et de gouvernance des données ? Quelles procédures pour garantir la sécurité des données ?
Quel modèle opérationnel adopter ? Certaines entreprises, en France et à l’étranger, construisent des data labs, offrant un environnement technique et humain dédié au lancement et à l’industrialisation d’expérimentations en matière de big data & analytics avec la bonne taille critique tout en favorisant les synergies. Est-ce la bonne approche ?
Quels programmes d’expérimentations prioritaires ? Quels taux d’échecs sommes-nous prêts à accepter dans les expérimentations ?
Quelles interactions entre les fonctions d’études et d’analyses marketing avec celles d’exploitation des données et de big data ? Pour une connaissance client plus exhaustive, un enjeu de mise en place de solutions permettant d’exploiter la richesse des informations contenues dans les bases de données tout en l’associant à la pertinence d’une étude marketing, le tout confrontant ainsi :
- ce que sont les clients, ce qu’ils font avec l’entreprise (données fichiers clients et open data) ;
- ce qu’ils pensent, comprennent, ressentent et attendent (données d’études qualitatives et quantitatives).
Comment rester à l’affût et gérer les relations avec l’écosystème innovant : start-up, partenaires technologiques, monde académique ?
Enfin, et c’est même par-là que la réflexion doit commencer, pour pouvoir aborder efficacement les enjeux liés à l’exploitation massive des données, il est essentiel d’avoir une vision clairement formulée et des moyens ordonnés à cette vision. Dans quelle perspective une telle approche s’inscrit-elle ? Quels objectifs stratégiques et/ou métiers doivent-ils servir prioritairement ? Quelles sont les possibilités et les règles à respecter pour la mise en œuvre de ces nouveaux moyens ? Quelle ambition et quels investissements ? Quels sont les retours attendus ? Quelles interactions avec les chaînes CRM existantes ?
L’absence de réponses à ces nombreuses questions pourrait générer des risques majeurs :
- la dispersion des efforts et, in fine, des investissements, sans impact majeur sur la performance des métiers ;
- le risque de réputation lié à des expérimentations non encadrées sur des sujets hautement sensibles, et qui le seront de plus en plus, et à fort impact sur la confiance des clients ;
- la faible lisibilité en interne comme externe des objectifs poursuivis, se traduisant par une sensibilisation insuffisante des équipes et une attractivité réduite pour les talents externes ;
- la tentation de rester dans une logique expérimentale sans traiter efficacement les problématiques de fond susceptibles de faire du big data & analytics un véritable levier de transformation.
En conclusion, il reste malgré tout une question majeure : l’usage des données personnelles
Sujet nouveau, complexe et à fort enjeu, le big data & analytics ne réglera pas instantanément tous les problèmes, mais nous aidera à mieux faire l’existant, tracer une courbe d’expérience, monter en compétences sur les données et surtout améliorer sensiblement la connaissance client, notamment comportementale.
Mais ces nouvelles approches et outils nous posent, collectivement, des questions dépassant le cadre d’un simple usage par une entreprise. Lorsqu’un nouvel acteur financier proposera des prêts ou des assurances qu’aux contreparties avec les meilleurs risques, aidé en cela par l’analyse de données, il remettra en cause le principe de la mutualisation du risque. La question transcende la banque, l’assureur, elle touche à nos choix et modèles de sociétés.
Une nouvelle approche du législateur ?
Confronté à cette évolution rapide, le régulateur remet en cause les modèles législatifs hérités du développement de l’informatique des années 1970. En France, le principe de finalité posé par la loi informatique et liberté de 1978 est antinomique avec l’approche big data. La Commission nationale de l’informatique et des libertés (CNIL) réfléchit, en lien avec l’Union européenne, à une évolution de son approche.
Au-delà de la législation, l’usage des données devient un sujet de préoccupation croissante chez nos concitoyens
Le développement d’Internet génère une profusion de données personnelles. À ce titre, les Français, de plus en plus inquiets, expriment des attentes fortes envers les institutions et les entreprises pour qu’elles assurent la protection de leurs données2. Cette nécessité de protection est naturellement exacerbée pour une banque : l’utilisation des données personnelles doit être envisagée à l’aune du statut de tiers de confiance dont elle dispose aux yeux de ses clients.
La façon dont la banque va travailler sur les données est donc centrale. Quelles données ? Quelles utilisations ? La clarté et la cohérence du positionnement seront clé. Car si les Français ne sont pas formellement opposés à l’exploitation de leurs données en échange de bénéfices concrets, ils ne sont pour autant pas prêts à tout accepter. Les données concernées (internes ou externes), l’utilisation faite et la finalité (interne ou externe) et le renvoi ou non à l’identité du client peuvent alimenter ou au contraire apaiser les réticences.
L’enjeu est de conjuguer ce qui a priori est irréconciliable : l’exploitation des données et leur protection. Cette contradiction porte une exigence forte de cohérence de l’action d’une banque en matière de traitement de ses données : elle doit porter le bénéfice au client, en transparence, en lui donnant la maîtrise de ses données et en toute sécurité.
Notre conviction est qu’après une phase de candeur sur le sujet, l’extrême inverse est à venir. L’effet de balancier, comme le qualifie Pierre Bellanger3, va probablement projeter un fort mécontentement dans la société quant à l’utilisation des données personnelles.
Pour une banque comme le Crédit agricole, la question de l’usage des données personnelles est primordiale en ce sens qu’elle doit être cohérente avec ses valeurs de solidarité et d’éthique. L’usage qui en est et sera fait doit rendre service aux gens, les aider à être plus forts, et non servir à les manipuler à leur insu. Le terrain de jeu doit donc être équitable entre tous les acteurs pour permettre à chacun de fonctionner selon ses valeurs. In fine, il ne s’agira donc pas de se contenter d’appliquer la loi, qui de toute façon va devoir évoluer sur la notion même de « données personnelles », leur lien dynamique entre elles et les droits attachés, mais de savoir se fixer des limites, même si elles réduisent le champ des applications et donc du business dérivés du big data & analytics.