“Devenir propriétaire de ses données et se faire payer”. Vraiment ? Pas simple…
Cette troisième et dernière partie de l’article poursuit l’exploration des enjeux de la proposition “se faire payer pour aller sur Facebook” émise par le Think Tank Génération Libre.
Si vous n’avez pas lu la seconde partie détaillant les protections offertes par le Régime Général de Protection des Données (RGPD). C’est ici. Si vous avez manqué la première partie et le début. C’est ici.
Dans cette dernière partie, nous déterminons quel serait l’impact de la mesure sur le modèle d’affaires des plateformes ? Nous verrons comment le micro-travail payé au clic permet d’anticiper l’issue du rapport de forces qui se noue entre un internaute et une plateforme numérique. Enfin, nous examinons en quoi l’éthique peut nous aider à trancher ce débat.
Commençons par déterminer comment le modèle d’affaires des plateformes serait bouleversé par la patrimonialisation.
Propriété des données. Quel impact pour les GAFA ?
Que signifieraient un like, un commentaire, un post, une remarque, une conversation dans un contexte de marchandisation des données ?
En effet, c’est du lien symbolique que l’on échange sur les plateformes sociales.
Si on me paie pour produire indistinctement de la data il deviendra rationnel de réagir sous n’importe quelle forme (partage, commentaire, re-tweet, etc) à tout contenu quel qu’il soit.
Il ne s’agirait plus que de poster le plus de contenu possible (vidéos, commentaires, emoji, etc) afin d’en retirer le gain monétaire revenant aux producteurs de données.
Vers un affaiblissement des plateformes ?
Dans l’optique des plateformes, cette production, motivée par un gain monétaire, serait probablement un argument de poids en défaveur de la mesure.
En effet,
le succès des plateformes repose sur la qualité et le contrôle des données qui y circulent.
Tout le modèle d’affaires de ces acteurs s’articule autour d’un contrôle maniaque et obsessionnel de la qualité des données de leurs usagers. C’est la base du modèle d’affaire du numérique.
Les données captées lors de nos interactions avec les objets numériques sont agrégées par les algorithmes du Big Data, raffinées et enrichies par les algorithmes d’Intelligence Artificielle et enfin sont vendues sous forme de profils aux annonceurs publicitaires.
Nul doute que les algorithmes nichés au coeur des plateformes seraient affaiblis. Il deviendrait alors difficile pour ces calculateurs de catégoriser chaque internaute en vue de lui afficher le contenu le plus pertinent. C’est pourtant ce que les annonceurs publicitaires paient.
Le bruit rend inopérant ces procédés de calcul de profils.
Au contraire, ce qui fait le miel de ces algorithmes est l’identification de structures fortes et récurrentes au sein des données afin de produire des profils marketing robustes. Les algorithmes vous ont identifié comme appréciant les publicités vidéos ? Très bien ! On vous l’affiche !
Dans son ouvrage, A quoi rêvent les algorithmes ?, le sociologue Dominique Cardon nous décrit comment la structure sociale construit la prédictibilité (l’inverse du bruit en quelque sorte) de nos comportements, désirs et actions. Ce sont ces comportements qui vont, par la suite, se retrouver enfouis dans les données du Big Data.
Les schémas cachés extraient par les algorithmes sont la conséquence d’un tissu de relations sociologiques subtiles.
Ainsi, une vidéo sera appréciée très différemment selon le degré de popularité de celui qui la publie. Elle sera peu partagée lorsqu’elle émane d’un internaute ayant un réseau social peu dense. Au contraire, elle sera abondamment partagée dans le cas inverse.
Ce sont précisément ces relations cachées qui sont mises en lumière par les algorithmiques qui nous scrutent sur les plateformes numériques.
En d’autres termes,
les algorithmes sont d’autant plus fiables qu’ils s’appuient sur une réalité sociale sous-jacente forte
En régime de sur-production de la donnée cette structure sociale s’effrite et devient plus diffuse.
une mesure contraire à l’intérêt des plateformes numériques
Les géants de l’internet ne trouveraient probablement qu’un intérêt limité dans cette mesure. En effet, le bruit généré par la sur-production des internautes viendrait contre-carrer leur politique de contrôle de la qualité.
En poursuivant la logique, un modèle d’affaire fragilisé génère un revenu moindre. On peut postuler que “les 100.05/clic. La rémunération moyenne est de 2$/h. “La moitié des travailleurs des plateformes gagnent moins”.
Les montants proposés pour produire ces données sont dérisoires.
L’issue du rapport de force qui se noue, sous nos yeux, entre une plateforme et un internaute ne devrait pas manquer d’inquiéter ceux qui militent pour le commerce de leurs données personnelles.
En résumé, on nous suggère qu’abandonner droits et protections constitue un progrès. Force est de constater qu’en échange les montants payés sont peu convaincants.
Examinons dans cette dernière partie comment l’éthique peut trancher la question qui nous préoccupe.
Propriété des données. Que dit l’éthique ?
L’éthique aussi bien des algorithmes que des données constitue un cadre d’analyse riche et fécond.
Qu’est-ce que l’éthique ?
La racine grecque du mot “éthique” est ethos. L’éthique est “l’étude du comportement”.
Pour sa part, le philosophe André Comte-Sponville définit l’éthique par la question “comment dois-je faire ?”.
C’est précisément ce qui distingue l’éthique de la morale. Cette dernière répond à la question “que dois-je faire ?“.
Le rapport “CIGREF, Éthique et Numérique : une éthique à inventer ?” nous précise que l’éthique du Numérique interroge, à la fois, le comportement des usagers, mais aussi celui de la technologie.
Ce point est important. L’éthique a une visée opératoire concrète. C’est pourquoi, les interrogations liées à la conception et aux usages des procédés d’Intelligence Artificielle peuvent être appréhendées et résolues par l’éthique.
C’est la piste suivie par le gouvernement allemand et sa “Commission Éthique des Données” chargée d’encadrer l’usage des systèmes de décisions automatisées.
Les préconisations de cette commission vont de l’absence de réglementation pour les systèmes relativement anodins du quotidien (distributeurs de boissons par exemple) à l’interdiction pure et simple pour les dispositifs militaires autonomes. Néanmoins, l’éthique ne se cantonne pas aux usages des données et des algorithmes de l’Intelligence Artificielle. Elle questionne également leur statut juridique.
Que nous enseigne l’éthique ? Est-elle d’une quelconque utilité face à notre dilemne ?
L’éthique déontologique, la plus exigeante des formes d’éthique, s’oppose à l’éthique conséquentialiste et de l’éthique minimaliste d’Ogien, et rejette clairement l’attribution du droit de propriété aux données personnelles.
C’est dans la lignée des décisions mettant en jeu l’Homme, son corps et sa vie.
Nous l’avons déjà mentionné, l’éthique médical nous dit que “L’Homme n’est que l’usufruitier, non le possesseur indépendant et le propriétaire de son corps, de sa vie”. (Association Médicale Mondiale).
De son côté, la Commission Européenne n’est pas en reste. Dans son rapport “Lignes directrices en matière d’éthique pour une IA digne de confiance”, la Commission Européenne stipule accorder “une importance particulière aux situations caractérisées par des asymétries de pouvoir ou d’information”.
En clair,
face aux plateformes numériques mondiales l’internaute ne pèsera rien dans la négociation de ses données
La réponse apportée par l’éthique est sans équivoque. L’Homme n’est ni un moyen, ni un instrument. l’Homme ne peut faire commerce de ses données personnelles.
Conclusion
L’art des plateformes consiste à raffiner nos données personnelles afin de nous rendre transparents et prédictibles. C’est pourquoi les annonceurs publicitaires se ruent sur les acteurs du digital pouvant cartographier et identifier leur audience.
La chaîne de valeur des géants du digital repose sur ce paradigme.
Tout le raisonnement exposé par les tenants de la mesure – devenir propriétaire de ses données afin de les revendre – est comme dans les bons vieux manuels d’économie ceteris paribus “toute chose égale par ailleurs”.
Dis autrement, on examine une cause et sa conséquence sans se soucier que la conséquence influence également la cause en retour. Donner un droit de propriété aux données incite à produire des données pour les monétiser. Cette production modifiera la chaîne de valeur de l’industrie numérique. Les plateformes de micro-travail nous en donne un avant-goût.
– Sur le plan économique, la mesure n’est ni favorable à l’internaute ni même aux plateformes
– Pour l’internaute, abandonner la protection du RGPD lors de la cession de ses droits est absurde
– Sur le plan éthique, cette mesure est rejetée sans appel
J’ai cherché longtemps un point qu’il soit juridique, économique ou encore éthique favorable à cette mesure. En vain. Si vous en voyez un faites m’en part.
Toute cette mesure n’est tournée que vers la marchandisation de nos données. Elle vise à nous accoutumer à un régime de négociation permanent et généralisé.
Au profit de qui ?