Par Alicia Tang, Direction de la Prospective, France Télévisions
Pour les auteurs du livre Datanomics, les nouveaux business models des données, Louis-David Benyayer et Simon Chignard, il n'existe pour l'instant pas de réflexions et discours exhaustifs sur les données : la pensée reste fractionnée, en silots. Il devient donc crucial d'avoir une vision plus large et transversale de la donnée, qui s'impose de plus en plus dans nos sociétés comme un nouvel eldorado. Pour cela, plusieurs clés de lecture de la data peuvent être proposées : technique et technologique, juridique, ou encore économique.
L'ouvrage, présenté à l'occasion d'une rencontre organisée par Renaissance Numérique, s'attache à penser la data du point de vue de sa valeur, car cet angle permet de faire dialoguer les autres composantes de lecture qui sont interconnectées, entremêlées. Si la donnée est le nouveau pétrole de notre économie, le combustible d'un nouveau système, il faut alors mieux la connaître pour l'exploiter, la partager et la protéger.
La triple valeur de la donnée
Selon les auteurs, il y a bien trois types de valeur de la donnée :
- une valeur marchande : la data comme une matière première, c'est une vision marketing.
- une valeur de levier : les organisations qui ont de la data l'agrègent et la collectent afin de réduire leur coût ou encore améliorer leur pricing, c'est le point de vue de la distribution.
- une valeur d'actif stratégique : les organisations qui détiennent des données peuvent prendre ou défendre une position grâce à celles-ci. On peut citer l'exemple de Nest, thermostat connecté racheté par Google qui produit en continue de la donnée sur les foyers et qui construit donc un actif stratégique pour le géant américain, dont elle complète les données produites sur ses plateformes numériques par exemple. On assiste donc à un renforcement du stock de data, qui permet de défendre la position de leader de Google.
Cependant, au-delà du stock, c'est aujourd'hui la circulation de la donnée qui augmente sa valeur, et non sa thésaurisation, même s'il reste important d'avoir un stock massif qui s'alimente de manière continue.
La méta-donnée, la recomposition des chaînes de valeurs
Pour expliquer le rôle des méta-données, Simon Chignard prend l'exemple de la disparition du vol MH370 de la Malaysia Airlines. Personne n'arrive à savoir où il est, et c'est finalement le fabriquant d'un sous-ensemble du moteur qui va informer que celui-ci peut envoyer des messages de maintenance. C'est là qu'advient la puissance des méta-données.
« Maintenant, le moindre fabriquant d'un sous-ensemble est capable de produire des données. Les méta-données c'est déjà du contenu. Tout le monde dans la chaîne peut avoir une idée plus précise de ce qui est en train de se passer » souligne Simon Chignard.
Louis-David Benyayer de son côté précise que l'essor de nouvelles plateformes collaboratives de type Airbnb ou Blablacar insère un nouvel entrant dans la chaîne de production de la valeur des données : l'utilisateur lui-même, à travers ses notes, ses commentaires ou encore ses recommandations. En effet, ces données produisent de la confiance, ce qui est « un bon carburant aux échanges » affirme t-il. Ce type de plateformes ont permis de générer de la confiance sur des services qui ne sont pas naturels, comme le fait de prêter sa maison. Ainsi, les méta-données produisent de la valeur d'un point de vue industriel et les données deviennent une arme de négociation entre industriels.
Les data lake et la protection des données
De plus en plus d'entreprises, notamment Orange, veulent créer des lacs de données ou data lake, pour croiser et augmenter la valeur des données. Mais de nombreux auteurs commencent à s’élever pour défendre la protection des données, notamment dans le but de préserver la vie privée. Une des propositions défend le cloisonnement et la limitation de l'utilisation des données dans le secteur dans lequel elles ont été produites, pour éviter la création de conglomérat de données.
Pour Simon Chignard, le fait de se demander si la data doit rester cloisonner à son secteur de production est une question très américaine. En Europe il existe une approche selon des grands principes, qui est ensuite déclinée en règle. Aux Etats-Unis, il existe une approche sectorielle et les règles du secteur du crédit par exemple sont différentes de celles qui s'appliquent au domaine de la santé par exemple.
Cependant, le big data et l'apparition d'entreprises spécialisées dans la collecte et la revente de données, comme l'entreprise américaine Acxiom (700 millions d'individus répertoriés selon presque 300 variables par individu) remet en question ce découpage. Alors qu'une société comme Acxiom vend des profils de type « jeune couple ayant du mal à finir la fin de mois » à une entreprise de crédit, elle n'est pas soumise à la régulation qui s'applique aux entreprises de crédit, ce qui pose bien évidement problème, notamment sur cette question de croisement de nos données et leur réutilisation.
L'open data, une stratégie du gouvernement nord-américain pour ouvrir la donnée ?
L'ouverture de la donnée, c'est affaiblir sa valeur, mais c'est aussi permettre d'avoir les moyens nécessaire à son exploitation. Pour les deux auteurs, il s'agit actuellement du moins mauvais moyen trouvé pour favoriser l'exploitation de cette ressource.
Cependant, quand on sait par exemple que les supports financiers des politiques --comme Barack Obama-- sont de plus en plus des entreprises de la Sillicon Valley et autres plateformes numériques, il convient de s'interroger sur la stratégie du gouvernement nord-américain de vouloir ouvrir ces données, car cela bénéficierait bien évidemment à ces entreprises.
Il semblerait que les données soient de plus en plus utilisées comme armes géo-stratégiques et de politiques nationales pour renforcer la domination des Etats-Unis. Concernant le leadership institutionnel normatif, c'est la Grande-Bretagne qui a un temps d'avance en Europe.
L'algorithme, la condition essentielle pour donner de la valeur à la donnée
Il est très difficile de savoir ce qui relève de la donnée ou de son traitement. Les algorithmes mangent de la données et produisent une autre donnée, il existe donc une relation ambivalente. Louis-David Benyayer précise qu'il s'agit en effet d'une réalité indissociable. Avoir des données colossales sans avoir de capacité de traitement ne permet que de vendre de la donnée au poids, d'être data broker. L'algorithme et le traitement de la données sont des coefficients multiplicateurs, voir des exposants des données. Inversement, avoir un algorithme parfait, très puissant, sans utiliser des données massives n'a pas beaucoup de valeur.
Notons que réduire la création de la valeur à un robinet et à la capacité algorithmique de les traiter est une vision très technicienne. Il convient de ne pas oublier qu'il faut toujours de bons stratèges, commerçants, analystes de dynamiques sociales liées aux consommateur, pour valoriser ces données et réussir à les utiliser pour renforcer une position concurrentielle. Ainsi, Amazon classe ses clients selon deux catégories : ceux qui sont sensibles au prix, et ceux qui le sont moins. De ce fait, ceux qui sont moins sensibles aux prix se voient toujours proposer le même produit un peu plus cher. Grâce aux données et aux algorithmes qui font émerger des patterns, Amazon devient en mesure d'analyser ensuite les seuils commerciaux pour rentabiliser ces tendances.
Qu'en est-il des business models ?
Il existe trois types de business model :
- le modèle bi-face, exclusivement numérique qui consiste en une mise en relation vendeur/acheteur
- le modèle des plateformes économiques collaboratives, qui utilisent la donnée pour produire de la confiance, améliorer la relation et booster les échanges
- le modèle qui s'applique principalement aux entreprises industrielles. On passe du produit au service (maintenance, dépannage, amélioration continue, meilleure performance). On peut citer l'exemple de Michelin qui propose un objet connecté pour poids lourd dont la vocation est de réduire la facture de carburant.