La nouvelle servitude volontaire. Enquête sur le projet politique de la Silicon Valley
« Enquête sur les écosystèmes de manipulation qui nous poussent au consumérisme et orientent tous nos choix, mêmes politiques »
N°1 des ventes sur les dérives de la Silicon Valley et la gouvernance numérique
La nouvelle servitude volontaire. Enquête sur le projet politique de la Silicon Valley de Philippe Vion-Dury
Avec comme crédo la volonté de changer le monde, c’est au coeur de la Silicon Valley que se façonne la société numérique.
Portées par une spectaculaire réussite économique, les entreprises de haute technologie veulent dessiner un monde meilleur en prenant en main la majorité des aspects de notre quotidien, en généralisant la prédiction algorithmique.
L’homme devient intégralement transparent, immatériel. La liberté de choisir, la créativité et l’émancipation sont désormais remplacées par l’anticipation, la prédiction et la régulation. C’est bien plus qu’une révolution numérique ; c’est un véritable projet politique qui est à l’oeuvre.
Avec rigueur et précision, Philippe Vion-Dury révèle que les technologies sont porteuses d’une idéologie et d’un projet de civilisation. Il démontre que les modèles prédictifs, les algorithmes et les objets connectés instaurent une société du contrôle dans laquelle l’individu, comme le collectif, abandonne la maîtrise de son destin. Il explique comment la peur de se confronter à la solitude, à l’altérité et à l’échec nous conduit à une nouvelle servitude volontaire.
Philippe Vion-Dury est essayiste, journaliste, chroniqueur, spécialiste des questions de société, des nouveaux modèles économiques et des technologies.
Broché : 256 pages
Prix public TTC : 20 euros
Collection QS – Questions de Société
EAN 13 : 978-2-36405-145-4
Sommaire :
Introduction : La société de l’anticipation
Chapitre I : Une réalité intégralement personnalisée
1— Le secret du succès des GAFA
2— La course à la personnalisation
3— Un monde sans surprise
Chapitre II : Les écosystèmes de manipulation
1— Tous cobayes
2— Gagner les élections : une affaire de technologie ?
3— La main invisible des assureurs
4— Le nudge : un écosystème de manipulation
Chapitre III : La machine à gouverner
1— La gestion de la menace : un parfum de Minority Report
2— Le scoring : l’évaluation qui ne cesse jamais
3— La société en mode autopilote
Chapitre IV : La société de contrôle intégral
1— Le monde selon la Silicon Valley
2— La société de contrôle
Conclusion
Extrait :
Introduction La société de l’anticipation
Penser la société numérique : l’impératif de lisibilité
En une poignée de siècles puis de décennies, continents et pays se sont mis à communiquer toujours plus rapidement, s’affranchissant des distances physiques et des contraintes temporelles. Ce fut ensuite au tour des machines d’être mises en réseaux, avant que les humains ne subissent le même sort. L’instantanéité forme le nouvel idéal : la compression du temps et l’optimisation des activités ne semblent pas devoir connaître de limites. L’individu acceptetout — avec plus ou moins d’enthousiasme —, car il faut se maintenir dans le flux, désespérément. Le reflux, le refus, c’est la sortie de piste, l’isolement qui mène à la marginalité. Au lieu d’une « nouvelle frontière électronique » à conquérir, le numérique a plutôt tracé de nouvelles frontières à l’intérieur du corps social. Le grand village global, le cyberespace de « pur esprit » tant annoncé, ressemble surtout à un supermarché planétaire. La maîtrise de l’information et des flux devient un enjeu de réussite sociale. La maîtrise des outils aussi, pour se protéger de l’ingérence quotidienne des entreprises, des États ou des pirates. Tout se meut à un rythme inédit : sur quel réseau social faut-il être ? Quel outil faut-il savoir manier ? Quelle profession menace de disparaître ? Quel métier a le vent en poupe ? Quel équipement acheter ? Dois-je prendre un Uber plutôt qu’un taxi ? Acheter chez Amazon ou chez mon libraire ?…
Face à cette accélération, à cette fusion du réel et du virtuel, l’analyse manque de repères et la critique reste en souffrance. Big data, économie collaborative, économie du partage, digital labor, ubérisation… Le labyrinthe des néologismes n’aide en rien la compréhension et contribue à isoler les problèmes les uns des autres. Ceux-ci sont généralement servis avec beaucoup d’optimisme et peu de réflexion. Le discours relatif au numérique se calque sur l’air du temps, celui de la mondialisation heureuse, du progrès invariable, de la nécessaire adaptation. Tout au plus s’attache-t-on à dénoncer certains abus (la surveillance des États et des entreprises) ou à analyser des mutations spécifiques (le travail, les relations sociales, la mise en scène de soi). Derrière la personnalisation de nos environnements numériques, on peine à anticiper l’appauvrissement de notre rapport au monde. Au-delà du ciblage publicitaire, on a du mal à percevoir l’apparition de dispositifs de manipulation et d’influence. À travers l’automatisation des services publics, on tarde à voir poindre la mort du politique. Malgré les scansions sur la révolution numérique, on refuse de considérer l’émergence de nouvelles formes de pouvoir et de domination.
C’est donc à un impératif de lisibilité que répondra en priorité cet ouvrage. Il est urgent de redonner de la signification aux mots et du sens aux technologies qui peuplent notre quotidien. Mais il ne s’agit pas pour autant de se limiter à un travail didactique et typologique. La lisibilité passe avant tout par le souci de proposer une cohérence, de rassembler des éléments disparates au sein d’une même structure analytique. Des sujets en apparence aussi étrangers que la ville intelligente et le ciblage publicitaire, ou la police prédictive et Spotify, ne sont pourtant pas des phénomènes disjoints avec des interactions contingentes. Au contraire, ils surgissent d’une matrice commune, ils font système, répondent à une logique identique et participent d’une même transformation de la société. Il est vital de saisir à leur aurore les mutations qui s’annoncent et de poser la question : quel est le projet politique qui sous-tend ces évolutions ? Quel monde nous préparent les hérauts de la Silicon Valley, centre de gravité de cette nouvelle idéologie qui aimerait corriger les imperfections humaines de la même manière que l’on mettrait à jour un logiciel ? En interrogeant le présent pour esquisser l’avenir, on découvre peu à peu que bien loin d’une émancipation toujours plus étendue, c’est la perspective d’une nouvelle servitude volontaire qui s’avère la plus probable.
Le monde selon la cybernétique
La genèse des technologies de l’information et de la communication modernes permet d’introduire leur matrice idéologique, philosophique, et renseigne sur le projet de société dont elles sont vectrices. La mythologie californienne voudrait que des bricoleurs de génie aient inventé ex nihilodes technologies dans leur garage et soient les pères fondateurs de la société contemporaine. Celle-ci est en réalité le fruit d’un long processus modelé par les réflexions et les travaux de technologues, médiologues, ingénieurs, scientifiques, idéologues et militants politiques[1]. Parmi les premiers d’entre eux se dessine la figure imposante, quoique quelque peu éclipsée, du mathématicien Norbert Wiener. Au début des années 1950, il fut l’initiateur et l’animateur d’un champ de recherche expérimental qu’il baptisa cybernétique, défini comme « une théorie générale des messages ». Écœuré par la guerre et le rôle que les scientifiques y avaient joué, exaspéré par l’encadrement paternaliste et martial de la recherche exercé par le complexe militaro-industriel américain, il entendit faire sauter les cloisons entre les différentes disciplines et les unifier dans l’idée de communication. Fluidité, transparence, horizontalité, rétroactivité devinrent des principes directeurs. Tout peut dès lors être perçu au travers de ce prisme, de la gestion de la société aux comportements de l’individu, du fonctionnement du corps humain aux mécanismes subtils de la pensée. Tout n’est qu’échange d’information qu’il faut comprendre et surtout organiser. Dans ses ouvrages consacrés à la cybernétique, Norbert Wiener décrit l’avènement prochain d’un monde de messages, où tout ne serait qu’information exploitable pour comprendre l’homme et la société, et où ceux-ci seraient gouvernés par ces messages. Il propose une vision très déterministe de l’être humain, dont les comportements, le caractère, la psychologie sont le fruit de sa machine biologique qui apprend de ses expériences et évolue par rétroactions. Cette société serait transparente, fluide, communicante, et tout y serait peu à peu affranchi des contraintes physiques. Cybernétique vient du grec kubernetes, pilote, également à la racine du mot gouverner. L’homme est résumé à une machine particulièrement sophistiquée, réagissant aux stimuli et exécutant les actions dictées par le cerveau. Ses décisions sont prises en fonction des décisions prises dans le passé et ne sont d’ailleurs guère plus qu’une « excitation des fibres au niveau des synapses ». « Dans les deux cas, machine ou nerf, il y a un système qui fait dépendre les décisions futures de celles qui ont été prises antérieurement[2] ». Et si le comportement de l’homme est mécanique, déterminé, il devient logiquement prévisible. Wiener reconnaît toutefois l’existence du hasard comme notion scientifique, faisant partie de la « nature de la Nature », et raye les mots certitude et loi de son dictionnaire. Se revendiquant du physicien Willard Gibbs, il développe une approche probabiliste afin de ne s’attacher « non plus à ce qui se produira toujours, mais plutôt à ce qui surviendra avec la plus grande probabilité[3] ».
Wiener souligne encore l’importance de l’approche probabiliste : dans ce monde informationnel, nous aurons accumulé tant de savoir sur un si grand nombre de pans de nos existences individuelles et collectives qu’il sera possible d’émettre des probabilités sur à peu près tout. Les secrets et incertitudes de l’avenir s’effaceront peu à peu. Cette idée selon laquelle tout serait prévisible grâce à la loi des probabilités est centrale dans la pensée de Wiener, et elle ressurgit dans les mutations qui s’opèrent aujourd’hui. Wiener s’était même attelé à concevoir une machine capable d’apprendre et prédire. À l’instar de nombre de ses pairs, il fut mobilisé dès le début des années 1940 par le gouvernement américain pour lequel il se pencha sur les faiblesses des systèmes antiaériens. Tirer sur une cible mouvante et véloce à des distances allant jusqu’à plusieurs centaines de mètres s’avérait hasardeux. Wiener fit alors un pari que seul un mathématicien spécialiste des probabilités pouvait oser. Selon lui, il serait théoriquement possible de prédire les mouvements de la cible pour mieux l’abattre. Les limites mécaniques des avions, les virages maximums que peuvent endurer leurs pilotes avant de tomber inconscients et certains réflexes liés à l’entraînement sont identifiables, calculables. Puisque rien n’est arbitraire, alors une trajectoire de vol dépendra toujours de facteurs technologiques (la machine) et psychologiques (l’homme). En étudiant une grande quantité de trajectoires de vols sur différents modèles et avec différents pilotes, on devrait donc être capable de repérer des régularités, des schémas qui se répètent. Il suffirait ensuite d’identifier en une fraction de seconde, lorsqu’une cible entame un mouvement, les signes annonciateurs de la trajectoire qu’elle va prendre. Malheureusement, une telle compétence demanderait à un homme de pouvoir suspendre le temps afin de pouvoir analyser tous ces paramètres. Wiener s’attela alors, avec son collègue ingénieur Julian Bigelow, à automatiser le processus en mettant au point une machine à calculer, le « prédicteur », capable d’assister le tireur dans sa tâche. Pas question d’infaillibilité ou de certitudes, une grande probabilité suffit. Le duo de scientifiques entend même construire un canon antiaérien entièrement automatisé, qui adapterait de lui-même son tir à chaque cible et apprendrait de ses observations au fur et à mesure. « Le problème qui consiste à déterminer les caractéristiques du vol d’un avion d’après une observation effective de sa trajectoire, et ensuite à transformer celles-ci en règles de commandes de tir, est lui-même un problème parfaitement défini, mathématique[4]. » Trop en avance sur son temps ou trop ambitieuse, sa machine n’a jamais vu le jour faute de puissance de calcul, de capacité de stockage des informations et de connaissances en intelligence artificielle.
Mais aujourd’hui, ce monde est en train d’émerger. Les messages sont dans les data, données couvrant toujours plus de pans du réel, de la ville intelligente à l’homme ultraconnecté.
Le rêve de Wiener a ressurgi sous une autre forme à la faveur et au cœur de ce que l’on appelle le big data(les mégadonnées ou données massives en français). Ce phénomène est souvent présenté sous son seul aspect quantitatif et dynamique, une approche qui repose sur la règle des trois V : volume, variété, vélocité. Si la collecte et l’échange de données de toutes sortes préexistent à l’âge numérique, il s’est opéré depuis une dizaine d’années un changement d’échelle quant au volume de données produites et collectées, à leur variété (achat, navigation web, discussions, biométrie, etc.) et à la vitesse de leurs échanges, quasi instantanés et ubiquitaires depuis que l’Internet haut débit et le smartphone ont été largement adoptés par le grand public. On ne se prive pas d’emphase pour décrire ce phénomène. « Voici venir l’âge du zettabyte », titrait le journal américain Wiredil y a quelques années[5]. Un zettabyte représente l’espace de stockage d’un milliard de nos ordinateurs personnels actuels. C’est encore l’équivalent de l’espace sur des disques durs de mille milliards de DVD, ou d’un million de milliards de photos de très bonne qualité. On estime qu’en 2013, quatre zettabytes ont été générés en photos, vidéos, tweets, statuts Facebook, mails, pages web, etc. Chaque minute, l’humanité produit 2,5 millions de contenus sur Facebook, près de 300 000 tweets, 220 000 nouvelles photos sur Instagram, 72 heures de vidéo sur YouTube ou encore 200 millions de courriels[6]. Un gros volume d’une grande variété de types de données échangées avec une grande vélocité… La règle des trois V est confirmée, mais elle ne dit pas grand-chose. Ces chiffres donnent le tournis, mais la véritable rupture est qualitative et non quantitative. Qu’est-il possible de tirer comme information, bénéfice personnel, avantage compétitif, profit, de cette masse de données ? Seule une évaluation des modalités d’exploitation de ces données, des possibilités qu’elles offrent et des ambitions qu’elles servent permet de se faire une idée critique sur l’impact qu’elles auront sur la société et l’individu. Car le big data incarne bien plus qu’une simple innovation technique, mais constitue bien un bouleversement sociopolitique profond.
La société de l’anticipation
Parmi les techniques généralement labellisées big data, l’analyse prédictive est certainement celle qui a reçu le plus de publicité. De la même manière que Norbert Wiener souhaitait anticiper les manœuvres des pilotes de chasse, entreprises et États s’intéressent aujourd’hui à notre personnalité et à nos comportements pour décoder nos intentions et potentiels positifs ou négatifs. Il n’est pas question de machines à tuer ou d’oracle mécanique capable de tout anticiper, mais d’une foule de petits prédicteurs appliqués à une multitude d’aspects de nos vies. Par facilité, on emploie souvent le terme impropre d’algorithme. On retrouve partout des algorithmes : de Facebook à YouTube en passant par Google, dans la finance comme dans la santé ou la police, appliqués à percer les mystères du génome ou à identifier nos désirs de consommation. Que va-t-on aimer ? Acheter ? Va-t-on rembourser ce prêt ? Contractera-t-on cette maladie ? Présentera-t-on une menace pour la sécurité publique ? L’âge numérique permet de dresser des probabilités sur toutes nos actions futures, dans presque tous les aspects de l’existence. Eric Siegel, spécialiste de la question, vulgarise l’analyse prédictive en la qualifiant de « mécanisme qui prédit le comportement d’un individu, tel que cliquer, acheter, mentir ou mourir[7] ». Comment ? On traite les données relatives à l’individu et l’on produit un score prédictif. Plus celui-ci est élevé, plus l’individu a de chance de manifester le comportement prédit. Ces algorithmes exécutent un travail similaire à ce que les humains réalisent de manière intuitive lorsqu’ils mettent en relation (corréler) des éléments et en déduisent quelque chose, telle la probabilité de survenance d’un événement. Un exemple : si vous rencontrez une personne portant une croix autour du cou et en train d’attendre devant une église dix minutes avant la messe, vous savez qu’il y a de fortes chances que cette personne soit chrétienne et qu’elle entre très prochainement dans l’église. Un système prédictif est conçu pour réaliser automatiquement la même procédure. Deux étapes sont nécessaires.
On commence par collecter une grande quantité de données pour procéder à du machine learning(apprentissage automatique) qui va permettre d’effectuer une classification et tisser des liens entre ces données. Des sommes d’argent colossales sont investies par des acteurs privés dans ce domaine jugé très prometteur. Ces algorithmes apprenant vont explorer ces masses de données pour faire émerger des schémas comportementaux récurrents (patterns), des régularités statistiques. Lorsque Google veut développer des programmes capables de reconnaître dans ses immenses banques d’images quelles sont les photographies où figure un oiseau, deux choix s’offrent à lui : apprendre au logiciel ce qu’est un oiseau (forme, caractéristiques des plumes, deux pâtes, un bec, des ailes…) ou bien rassembler toutes les images d’oiseaux à sa disposition et demander à un algorithme de trouver des ressemblances entre tous ces échantillons. L’apprentissage automatique, c’est la seconde option : l’algorithme va identifier les dénominateurs communs entre ces oiseaux, réduisant drastiquement la marge d’erreur en comparaison des anciennes méthodes qui pouvaient aisément confondre le Concorde avec une mouette. Ce procédé peut être généralisé à des comportements et des caractéristiques individuels. Par exemple, on recherchera quel est le profil socioculturel des personnes qui ont acheté Cinquante nuances de Grey[8], leur âge, leurs commandes précédentes et leur historique de recherche sur Internet pour tenter de dégager un modèle d’intention d’achat. Puis, on regarde qui au contraire n’a pas acheté le livre, en suivant la même méthode. C’est ce que l’on appelle plus largement du data mining, du forage de données, c’est-à-dire un processus permettant de découvrir des tendances ou de la connaissance à partir de grandes quantités de données.
Ce modèle établi, la deuxième phase peut débuter. On procède alors à une application de ce modèle prédictif en temps réel. Il ne s’agit plus de savoir quelles sont les ressemblances entre deux oiseaux ou quelles sont les caractéristiques d’un lecteur de romans érotiques, mais de deviner si une image est ou non un oiseau, si telle personne est ou non susceptible de lire ce genre de littérature. Chaque cas particulier est passé au tamis du modèle préétabli, puis un score est produit, un potentiel statistique. Une entreprise comme Amazon pourra appliquer ce modèle à tous ses clients en temps réel pour savoir quel internaute n’a que 20 % de chances de passer à la caisse pour tel livre et qui a une probabilité autrement plus alléchante de 80 %. Des couches supplémentaires peuvent venir s’ajouter : si une personne est en passe d’acheter cet ouvrage, quel autre livre lui recommander en étant presque certain qu’elle l’achète également ? Doit-on lui proposer ces ouvrages sur le site web ou dans sa boîte mail ? Ces modèles seront systématiquement appliqués, puis modifiés, enrichis, afin d’établir des probabilités sur nos intentions, nos potentiels, nos comportements et désirs futurs. Voici un dernier exemple qui souligne le caractère mathématique de la méthode : « SI l’individu est toujours au lycée ET devrait être diplômé dans trois ans ET manifeste un certain intérêt pour l’Armée ET n’a pas déjà vu la publicité de l’Institut des Arts ALORS la probabilité qu’il clique sur cette publicité de l’Institut des Arts est de : 13,5 %[9]. » Avec cet exemple fictif de la mise en relation entre un intérêt pour l’armée et le désintérêt pour les arts, Eric Siegel montre qu’analyser de grandes quantités de comportements et profils permet parfois de faire surgir des liens entre des caractéristiques. Des liens qui peuvent ne pas être évidents au premier abord, mais qui se confirment sur une base empirique, statistique.
Le champ de l’analyse prédictive, malgré les ténébreux anglicismes dont on le pare, présente une grande clarté conceptuelle. Si les facteurs A, B et C sont réunis, alors l’événement X aura de fortes (ou de faibles) chances de se produire. À première vue, ces analyses ne semblent donc pas différer fondamentalement des méthodes statistiques et probabilistes classiques. Pourtant, parce qu’elles viennent se loger au cœur du big data, elles acquièrent un pouvoir d’ores et déjà phénoménal alors qu’elles n’en sont qu’à leurs balbutiements. Avec les méthodes probabilistes classiques, reposant sur une faible quantité de données, on était au mieux capable de produire des modèles approximatifs sur des phénomènes socio-économiques concernant des masses d’individus, techniques statistiques et probabilistes capables d’influer sur la société par le biais des politiques publiques ou des agents privés, comme les publicitaires, les banques ou les assurances. En décuplant la quantité et la nature des données, c’est l’essence même des méthodes qui a changé, en permettant d’étudier avec une plus grande précision des phénomènes collectifs, mais surtout individuels. De nouveaux acteurs se sont ainsi vu conférer un pouvoir d’influence sur une multitude d’aspects de nos vies et au sein d’espaces numériques que nous fréquentons au quotidien. De statistiques de masses et probabilités grossières, on passe à un tout autre régime : individualisé, précis, invisible et omniprésent, capable de refaçonner la société.
La brique élémentaire de ce nouvel édifice calculatoire est la donnée. On a souvent présenté la donnée comme l’or noir du xxie siècle. En réalité, la donnée brute est de peu de valeur. Ce n’est qu’une fois nettoyée, classifiée puis corrélée que la donnée devient utile et précieuse. Le raffinage de cette nouvelle ressource est surnommé, fort à propos, forage des données. Les modèles comportementaux et prédictifs, le data mining en général, permettent de faire émerger l’or de la boue, le signal dans le bruit. Et l’on peut trouver cet or partout. Les nouveaux gisements sont les lieux et les outils où les individus laissent des traces de leur passage et de leurs activités, disséminent des données : réseaux sociaux, recherches et sites internet, téléphones portables, applications, GPS ou appareils connectés. La numérisation d’un nombre croissant de nos activités a accouché d’un monde de signaux, d’une société informationnelle. Nos activités, nos préférences, nos relations sociales, nos achats, nos désirs deviennent des données qu’il est possible et aisé de collecter. Leur croisement permet ensuite de dresser une connaissance complète de notre être — passé, présent et futur — afin de mieux exploiter toutes les opportunités que nous offrons, gérer tous les risques que nous présentons. Et nos actions, nos comportements, nos décisions disent énormément de nous. Des choses aussi banales qu’une recherche sur Internet, une relation sociale ou une localisation GPS peuvent révéler nos goûts, notre personnalité, nos préoccupations, ambitions ou croyances.
[1]. Fred Turner analyse très bien les différentes tendances sociopolitiques et leurs relations avec les milieux académiques et technologiques. Lire From Counterculture to Cyberculture, The University of Chicago Press, 2006, publié en français sous le titre Aux sources de l’utopie numérique : De la contre-culture à la cyberculture, C & F éditions, 2013.
[2]. Norbert Wiener, Cybernétique et société,Points, 2014, pp. 65-66.
[3]. Norbert Wiener, ibid., p. 44.
[4]. Norbert Wiener, ibid., p. 93.
[5]. Dylan Tweney, « Here Comes the Zettabyte Age », Wired, 30 avril 2010.
[6]. Susan Gunelius, « The Data Explosion in 2014 Minute by Minute », ACI, 12 juillet 2014.
[7]. Eric Siegel, Predictive Analytics: The Power to Predict Who Will Click, Buy, Lie or Die, John Wiley & Sons Inc., 2013, p. 26.
[8]. E. L. James, Cinquante nuances de Grey(éd. originale Fifty Shades of Grey), J-C Lattès, 2012.
[9]. Eric Siegel, op. cit., p. 26.
Quelques médias parmi les très nombreux qui parlent du livre :
Une enquête de référence et minutieuse qui explore l’envers du projet de la Silicon Valley, cette région qui abrite les grandes entreprises technologiques américaines. Loin du discours prônant un monde meilleur grâce au progrès technologique, on découvre comment ces compagnies à l’insolente réussite économique ont toutes pour objectif stratégique de prendre en main la majorité des aspects de notre quotidien, de les analyser à notre insu grâce à de puissants algorithmes, pour finalement mieux nous orienter, voire nous manipuler.
L’auteur Philippe Vion-Dury nous dévoile entre autre:
- Comment les entreprises comme Google bâtissent des écosystèmes incontournables et opaques permettant de récolter les données personnelles les plus précises de tous les internautes mondiaux
- Comment Facebook mène, sans l’accord de ses utilisateurs, des expériences scientifiques poussées pour comprendre et prédire leurs comportements sociaux, et à terme mieux les contrôler
- Comment des entreprises comme Spotify et Netflix sont aujourd’hui capables de prédire avec une précision effarante les succès musicaux ou cinématographiques dans le but de mieux orienter les goûts de leurs utilisateurs
- Comment les assurances utilisent les objets connectés pour contrôler l’hygiène de vie et la santé de leurs clients avec un objectif de réduction des risques, et évidemment de rentabilité
- Comment les politiciens font appel à des start-ups de big data pour influencer le choix des électeurs
Au cœur du système décrit dans cet ouvrage, l’homme devient intégralement transparent, immatériel. La liberté de choisir, la créativité et l’émancipation sont désormais remplacées par l’anticipation, la prédiction et la régulation. C’est bien plus qu’une révolution numérique ; c’est un véritable projet politique et de civilisation qui est à l’œuvre.
Philippe Vion-Dury démontre que les modèles prédictifs, les algorithmes et les objets connectés instaurent une société du contrôle dans laquelle l’individu, comme le collectif, abandonne la maîtrise de son destin. Il explique comment la peur de se confronter à la solitude, à l’altérité et à l’échec nous conduit à une nouvelle servitude volontaire.
Dans les médias :
En s’appuyant sur une documentation sans faille, Philippe Vion-Dury nous décrit la progression de ce pouvoir algorithmique dans les différents champs de notre existence. Après les biens culturels, il nous emmène dans les domaines de l’assurance (facturation des primes au plus près des risques prévisibles) et de la santé (choix des protocoles en fonction du potentiel du malade), avant d’aborder ceux de la sécurité (prévention du crime avant qu’il soit commis), de la banque, du recrutement, de l’éducation ou du marketing électoral. L’exemple des entreprises qui ont supprimé les entretiens d’embauche pour les remplacer par des tests numériques illustre la puissance du mouvement. À chaque fois, le processus commence par une amélioration effective du service rendu et aboutit à une mise sous tutelle des comportements. Celle-ci est si douce et progressive qu’elle passe presque inaperçue. Ce n’est plus, comme dans Le Meilleur des mondes, un terrible Big Brother qui nous surveille ; c’est une souriante Big Mother à la voix suave. Quel est le projet politique ? Les ténors de la Silicon Valley, s’ils lisent ce livre, seront sans doute surpris d’apprendre qu’ils en ont un. Ils partagent en effet, pour la plupart, la vision libérale d’une fonction politique minimaliste selon laquelle « le destin des individus et des peuples doit être retiré du champ de leur libre arbitre pour être confié à des instances technocratiques agissant selon les modèles et les lois dont elles font respecter l’orthodoxie ». La seule nouveauté qu’ils proposent, et elle est de taille, c’est de remplacer progressivement la régulation technocratique par des algorithmes, bien plus efficaces. Or, selon l’auteur, il ne fait aucun doute que ces algorithmes ne sont pas seulement techniques. Ils sont porteurs d’une « idéologie siliconnienne » très puissante, qu’il nous décrit comme un mélange détonnant de libéralisme, de libertarisme, d’évangélisme et de technicisme. Cet atterrissage philosophique justifie le titre, emprunté au célèbre Discours de la servitude volontaire écrit par La Boétie en 1574. L’ami de Montaigne voulait comprendre « comment il se peut que tant d’hommes, tant de bourgs, tant de villes, tant de nations supportent quelquefois un tyran seul qui n’a de puissance que celle qu’ils lui donnent ». Philippe Vion-Dury se pose cette même question à propos des tyrans potentiels qu’il voit grandir autour de Palo Alto. Pour brosser sa réponse, il n’hésite pas à forcer le trait à l’encre très noire. Peu importe. En éclairant les dérives possibles du bonheur numérique, il nous aide à les comprendre et à nous en protéger.
Jean Haëntjens Futuribles, août 2017
[huge_it_video_player id= »1″]
Révolution numérique : faut-il avoir peur de la Silicon Valley ?
INTERVIEW/VIDÉO – Philippe Vion-Dury est l’auteur de La nouvelle servitude volontaire, une enquête sur les dessous de la Silicon Valley, l’eldorado californien des géants du numérique. Il met en garde contre les dérives de la révolution numérique, qui fabrique un monde entièrement prédictible.
Philippe Vion-Dury est journaliste et essayiste. Il publie La servitude volontaire (Fyp), une enquête passionnante sur les dessous de la Silicon Valley, l’eldorado technologique des géants du numérique (Google, Apple, Facebook, Amazon, etc.). Derrière la mythologie californienne des bricoleurs de génies qui changent le monde depuis leur garage, se cache une véritable idéologie politique, mélange de capitalisme financier et de libertarisme culturel, qui masque d’un vernis «cool» un projet d’une «société de contrôle» qui anticipe et dirige en douceur les désirs des individus.
À ces débuts, Internet était pensé comme un espace de liberté absolue, l’utopie libertaire d’une horizontalité complète. Aujourd’hui, alors que Google occupe 90 % du marché du moteur de recherche en France, on se rend
compte qu’Internet est devenu un espace d’aliénation, où les algorithmes sont les nouveaux maîtres. Grâce aux nouvelles technologies et au «forage de données», on est ainsi capable d’anticiper les comportements individuels, voire de les commander. Publicité ciblée, assurance taillée sur mesure, police prédictive, prévisions électorales: avec le «big data», les probabilités envahissent tous les aspects de l’existence, créant peu à peu un «monde sans surprises».
Dans ce livre documenté, Philippe Vion-Dury nous fait découvrir des «écosystèmes de manipulation», qui nous poussent au consumérisme, voire orientent nos choix politiques. Une invitation salutaire à la critique d’une aliénation insidieuse dont nous n’avons pas forcément conscience.
Big Data, algorithmes… « L’esprit porté par la Silicon Valley est totalitaire »
Par Raphaële Karayan, publié le
Dans son livre La nouvelle servitude volontaire, Philippe Vion-Dury démontre comment, progressivement, chacun délègue son libre-arbitre aux algorithmes. Pour l’auteur, il est temps d’acquérir un réflexe critique.
« Les entreprises de technologies n’ont de cesse de se présenter comme les sauveurs du monde », écrit Philippe Vion-Dury. Mais l’enfer est pavé de bonne intentions. Pour l’essayiste, auteur de La nouvelle servitude volontaire publié mercredi (aux éditions FYP), les entreprises de la Silicon Valley sont porteuses d’un véritable projet politique.
Leurs algorithmes mettent sous leur coupe ceux qui s’y soumettent, volontairement. Aveuglant les consommateurs et les Etats par l’éclat de leur spectaculaire réussite économique, ces entreprises sont en train d’accumuler des sommes incalculables de données, grâce auxquelles elles ambitionnent de tout mesurer, tout contrôler, tout prévoir. Ou quand les mathématiques deviennent totalitaires.
Il est très difficile aujourd’hui de critiquer la Silicon Valley, qui se présente comme le « sauveur du monde ». Cependant vous affirmez que la réalité de ces multinationales est « bien plus crue ». Quelle est-elle?
Il est très compliqué de s’opposer à la logique de progrès de ces entreprises sans passer pour un réactionnaire. Les ingénieurs de la Silicon Valley portent l’idée que leurs technologies peuvent résoudre tous les problèmes. Evgeny Morozov parle de « solutionnisme ».
La Silicon Valley, c’est la culture protestante évangélique de l’Amérique: l’homme est le maître de la Création et ses outils ont pour mission divine de transformer la Terre en paradis. Mais derrière l’apparence salvatrice, il existe des enjeux plus pragmatiques et prédateurs de domination de marché.
La masse de données que ces entreprises collectent sur leurs utilisateurs est pour vous la porte ouverte aux manipulations. C’est particulièrement préoccupant, en période d’élections. Il suffit de constater le pic d’inscriptions sur les listes électorales aux Etats-Unis provoqué par un simple rappel de Facebook.
Derrière, Facebook étudie comment on peut créer des comportements chez les gens. En 2012 il avait mené une expérience psychologique en changeant le fil d’actualités de 690 000 personnes sans les en avertir. Cette année, on a découvert son pouvoir d’influence avec le scandale autour de son module d’actualités.
Le chercheur Robert Epstein a montré que dans un pays où un moteur de recherche est quasi en situation de monopole, des résultats de recherche biaisés pourraient influencer sensiblement une élection.
Certains détails sont révélateurs, comme lorsque vous soulignez que Microsoft est le deuxième employeur des anthropologues aux Etats-Unis.
Pour les GAFA, l’homme devient le produit. Ces postes deviennent clés, surtout avec le développement de l’intelligence artificielle. Un des domaines de recherche est l’écologie de l’attention. Actuellement, des équipes avec des moyens énormes travaillent sur quelque chose qui paraît tout bête: les notifications. Le but est de créer des comportements addictifs et des accoutumances, pour ramener les utilisateurs dans l’enceinte des applications.
Vous décrivez les modèles prédictifs, utilisés notamment par les assurances, comme des outils de normalisation et de surveillance. N’est-ce pas culpabilisant?
La culpabilité marche de pair avec le néolibéralisme. On doit intérioriser les objectifs de son entreprise, et quand on ne les remplit pas, on se sent coupable. Si on ne fait pas son jogging un jour sur deux et qu’on mange trop gras, un bracelet connecté va se charger de nous culpabiliser.
On est passé d’un pouvoir de type patriarcal avec des interdits à un pouvoir plus soft et pernicieux, visant à obtenir des gens qu’ils s’adaptent à certaines normes. C’est ce que j’appelle Big Mother.
Derrière la transparence, y-a-t-il forcément la surveillance?
Ce n’est pas tant la transparence qui est problématique que son asymétrie. Plus les individus deviennent transparents, plus les instances de pouvoir – les entreprises – deviennent opaques. Personne ne peut forcer Google à révéler comment fonctionne son algorithme. Les Etats eux-mêmes sont plus transparents.
Ainsi, en France, la Commission d’accès aux documents administratifs a recommandé en septembre que l’Education nationale dévoile le code source d’Admission post-bac (APB).
Vous parlez de « servitude volontaire ». Mais a-t-on encore le choix?
On a l’illusion d’avoir le choix. Au début de l’automobile, les gens n’en voulaient pas, ils trouvaient cela bruyant. Et puis, peu à peu, les villes se sont construites autour de la voiture, les passants ont été relégués sur des trottoirs. La voiture s’est imposée à tous.
Aujourd’hui, si on refuse ces technologies, si on utilise pas Facebook, Tinder, etc., on risque de se couper du lien social.
Vous évoquez « l’ambition totalisante » des approches prédictives et probabilistes, qui colonisent tous les domaines. « Totalisante », c’est pour éviter de dire « totalitaire »?
L’esprit porté par ces entreprises de la Silicon Valley est pour moi totalitaire, mais pas les entreprises elles-mêmes. Seul un Etat peut devenir totalitaire. Là où cela devient vraiment inquiétant, c’est quand ces pratiques touchent l’Etat lui-même, par exemple via des algorithmes prédictifs à la Minority Report pour prévenir la criminalité.
La logique de « scoring » fait que nous avons tous des notes un peu partout qui nous définissent en termes de potentiel et de risque. Vous expliquez que cette approche individualisée tend à légitimer les inégalités.
Kate Crawford, qui travaille chez Microsoft et au MIT, a montré par A+B que les algorithmes sont un moyen de perpétuation des inégalités sociales. Les algorithmes ne sont pas neutres comme on veut nous le faire croire. Ce qui est inquiétant, c’est que de plus en plus de services publics utilisent ces techniques-là. Comme Pôle Emploi qui veut s’en servir pour réduire le chômage.
Pourquoi pensez-vous que les politiques s’en remettent aux algorithmes?
Il existe une alliance de fait entre la volonté des entreprises de la Silicon Valley de prendre en main des services qui appartiennent au collectif, et la volonté des politiques de s’en décharger. Remplacer des conseillers Pôle Emploi ou des policiers par des algorithmes quand les caisses sont vides, c’est de l’opportunisme.
C’est aussi la question du vide de la pensée politique, qui n’a plus d’autre idéologie que le libéralisme. On en arrive à un idéal d’administration de toutes choses. On fait appel à une classe de gestionnaires.