La nouvelle servitude volontaire. Enquête sur le projet politique de la Silicon Valley

La nouvelle servitude volontaire. Enquête sur le projet politique de la Silicon Valley de Philippe Vion-Dury

servitude-volontaire_couv

Avec comme crédo la volonté de changer le monde, c’est au coeur de la Silicon Valley que se façonne la société numérique.

Portées par une spectaculaire réussite économique, les entreprises de haute technologie veulent dessiner un monde meilleur en prenant en main la majorité des aspects de notre quotidien, en généralisant la prédiction algorithmique.

L’homme devient intégralement transparent, immatériel. La liberté de choisir, la créativité et l’émancipation sont désormais remplacées par l’anticipation, la prédiction et la régulation. C’est bien plus qu’une révolution numérique ; c’est un véritable projet politique qui est à l’oeuvre.

Avec rigueur et précision, Philippe Vion-Dury révèle que les technologies sont porteuses d’une idéologie et d’un projet de civilisation. Il démontre que les modèles prédictifs, les algorithmes et les objets connectés instaurent une société du contrôle dans laquelle l’individu, comme le collectif, abandonne la maîtrise de son destin. Il explique comment la peur de se confronter à la solitude, à l’altérité et à l’échec nous conduit à une nouvelle servitude volontaire.

 

 

Philippe Vion-Dury est essayiste, journaliste, chroniqueur, spécialiste des questions de société, des nouveaux modèles économiques et des technologies.

 

 

 

amazon

 

 

 

 

Broché : 256 pages

Éditeur : FYP Éditions

Collection : Présence

Prix public TTC : 20

Langue : Français.

EAN 13 : 978-2-36405-145-4

 

Dans les médias :

 

loading
Big Buck Bunny
00:00
--
/
--
youtube play
vimeo play

Le Figaro ; interview de Philippe Vion-Dury

  • Le Figaro : Interview de Philippe Vion-Dury, La nouvelle servitude volontaire
    Le Figaro : Interview de Philippe Vion-Dury, La nouvelle servitude volontaire

Révolution numérique : faut-il avoir peur de la Silicon Valley ?

  • Par Eugénie Bastié
  • Mis à jour 
  • Publié 

INTERVIEW/VIDÉO – Philippe Vion-Dury est l’auteur de La nouvelle servitude volontaire, une enquête sur les dessous de la Silicon Valley, l’eldorado californien des géants du numérique. Il met en garde contre les dérives de la révolution numérique, qui fabrique un monde entièrement prédictible.

Philippe Vion-Dury est journaliste et essayiste. Il publie La servitude volontaire (Fyp), une enquête passionnante sur les dessous de la Silicon Valley, l’eldorado technologique des géants du numérique (Google, Apple, Facebook, Amazon, etc.). Derrière la mythologie californienne des bricoleurs de génies qui changent le monde depuis leur garage, se cache une véritable idéologie politique, mélange de capitalisme financier et de libertarisme culturel, qui masque d’un vernis «cool» un projet d’une «société de contrôle» qui anticipe et dirige en douceur les désirs des individus.

À ces débuts, Internet était pensé comme un espace de liberté absolue, l’utopie libertaire d’une horizontalité complète. Aujourd’hui, alors que Google occupe 90 % du marché du moteur de recherche en France, on se rend

compte qu’Internet est devenu un espace d’aliénation, où les algorithmes sont les nouveaux maîtres. Grâce aux nouvelles technologies et au «forage de données», on est ainsi capable d’anticiper les comportements individuels, voire de les commander. Publicité ciblée, assurance taillée sur mesure, police prédictive, prévisions électorales: avec le «big data», les probabilités envahissent tous les aspects de l’existence, créant peu à peu un «monde sans surprises».

Dans ce livre documenté, Philippe Vion-Dury nous fait découvrir des «écosystèmes de manipulation», qui nous poussent au consumérisme, voire orientent nos choix politiques. Une invitation salutaire à la critique d’une aliénation insidieuse dont nous n’avons pas forcément conscience.

 

Economie - Actualité économique, conjoncture, entreprises, expansion

Big Data, algorithmes… « L’esprit porté par la Silicon Valley est totalitaire »

 Par , publié le 

Dans son livre La nouvelle servitude volontaire, Philippe Vion-Dury démontre comment, progressivement, chacun délègue son libre-arbitre aux algorithmes. Pour l’auteur, il est temps d’acquérir un réflexe critique.

« Les entreprises de technologies n’ont de cesse de se présenter comme les sauveurs du monde« , écrit Philippe Vion-Dury. Mais l’enfer est pavé de bonne intentions. Pour l’essayiste, auteur de La nouvelle servitude volontaire publié mercredi (aux éditions FYP), les entreprises de la Silicon Valley sont porteuses d’un véritable projet politique. 

Leurs algorithmes mettent sous leur coupe ceux qui s’y soumettent, volontairement. Aveuglant les consommateurs et les Etats par l’éclat de leur spectaculaire réussite économique, ces entreprises sont en train d’accumuler des sommes incalculables de données, grâce auxquelles elles ambitionnent de tout mesurer, tout contrôler, tout prévoir. Ou quand les mathématiques deviennent totalitaires. 

Il est très difficile aujourd’hui de critiquer la Silicon Valley, qui se présente comme le « sauveur du monde ». Cependant vous affirmez que la réalité de ces multinationales est « bien plus crue ». Quelle est-elle?

Il est très compliqué de s’opposer à la logique de progrès de ces entreprises sans passer pour un réactionnaire. Les ingénieurs de la Silicon Valley portent l’idée que leurs technologies peuvent résoudre tous les problèmes. Evgeny Morozov parle de « solutionnisme ».

La Silicon Valley, c’est la culture protestante évangélique de l’Amérique: l’homme est le maître de la Création et ses outils ont pour mission divine de transformer la Terre en paradis. Mais derrière l’apparence salvatrice, il existe des enjeux plus pragmatiques et prédateurs de domination de marché.

La masse de données que ces entreprises collectent sur leurs utilisateurs est pour vous la porte ouverte aux manipulations. C’est particulièrement préoccupant, en période d’élections. Il suffit de constater le pic d’inscriptions sur les listes électorales aux Etats-Unis provoqué par un simple rappel de Facebook.

Derrière, Facebook étudie comment on peut créer des comportements chez les gens. En 2012 il avait mené une expérience psychologique en changeant le fil d’actualités de 690 000 personnes sans les en avertir. Cette année, on a découvert son pouvoir d’influence avec le scandale autour de son module d’actualités.

Le chercheur Robert Epstein a montré que dans un pays où un moteur de recherche est quasi en situation de monopole, des résultats de recherche biaisés pourraient influencer sensiblement une élection.

Certains détails sont révélateurs, comme lorsque vous soulignez que Microsoft est le deuxième employeur des anthropologues aux Etats-Unis.

Pour les GAFA, l’homme devient le produit. Ces postes deviennent clés, surtout avec le développement de l’intelligence artificielle. Un des domaines de recherche est l’écologie de l’attention. Actuellement, des équipes avec des moyens énormes travaillent sur quelque chose qui paraît tout bête: les notifications. Le but est de créer des comportements addictifs et des accoutumances, pour ramener les utilisateurs dans l’enceinte des applications.

Vous décrivez les modèles prédictifs, utilisés notamment par les assurances, comme des outils de normalisation et de surveillance. N’est-ce pas culpabilisant?

La culpabilité marche de pair avec le néolibéralisme. On doit intérioriser les objectifs de son entreprise, et quand on ne les remplit pas, on se sent coupable. Si on ne fait pas son jogging un jour sur deux et qu’on mange trop gras, un bracelet connecté va se charger de nous culpabiliser.

On est passé d’un pouvoir de type patriarcal avec des interdits à un pouvoir plus soft et pernicieux, visant à obtenir des gens qu’ils s’adaptent à certaines normes. C’est ce que j’appelle Big Mother.

Derrière la transparence, y-a-t-il forcément la surveillance?

Ce n’est pas tant la transparence qui est problématique que son asymétrie. Plus les individus deviennent transparents, plus les instances de pouvoir – les entreprises – deviennent opaques. Personne ne peut forcer Google à révéler comment fonctionne son algorithme. Les Etats eux-mêmes sont plus transparents.

Ainsi, en France, la Commission d’accès aux documents administratifs a recommandé en septembre que l’Education nationale dévoile le code source d’Admission post-bac (APB).

Vous parlez de « servitude volontaire ». Mais a-t-on encore le choix?

On a l’illusion d’avoir le choix. Au début de l’automobile, les gens n’en voulaient pas, ils trouvaient cela bruyant. Et puis, peu à peu, les villes se sont construites autour de la voiture, les passants ont été relégués sur des trottoirs. La voiture s’est imposée à tous.

Aujourd’hui, si on refuse ces technologies, si on utilise pas Facebook, Tinder, etc., on risque de se couper du lien social.

Vous évoquez « l’ambition totalisante » des approches prédictives et probabilistes, qui colonisent tous les domaines. « Totalisante », c’est pour éviter de dire « totalitaire »?

L’esprit porté par ces entreprises de la Silicon Valley est pour moi totalitaire, mais pas les entreprises elles-mêmes. Seul un Etat peut devenir totalitaire. Là où cela devient vraiment inquiétant, c’est quand ces pratiques touchent l’Etat lui-même, par exemple via des algorithmes prédictifs à la Minority Report pour prévenir la criminalité.

La logique de « scoring » fait que nous avons tous des notes un peu partout qui nous définissent en termes de potentiel et de risque. Vous expliquez que cette approche individualisée tend à légitimer les inégalités.

Kate Crawford, qui travaille chez Microsoft et au MIT, a montré par A+B que les algorithmes sont un moyen de perpétuation des inégalités sociales. Les algorithmes ne sont pas neutres comme on veut nous le faire croire. Ce qui est inquiétant, c’est que de plus en plus de services publics utilisent ces techniques-là. Comme Pôle Emploi par exemple, qui veut s’en servir pour réduire le chômage.

Pourquoi pensez-vous que les politiques s’en remettent aux algorithmes?

Il existe une alliance de fait entre la volonté des entreprises de la Silicon Valley de prendre en main des services qui appartiennent au collectif, et la volonté des politiques de s’en décharger. Remplacer des conseillers Pôle Emploi ou des policiers par des algorithmes quand les caisses sont vides, c’est de l’opportunisme.

C’est aussi la question du vide de la pensée politique, qui n’a plus d’autre idéologie que le libéralisme. On en arrive à un idéal d’administration de toutes choses. On fait appel à une classe de gestionnaires.

Comment les algos nous rendent tous débiles

Le journaliste Philippe Vion-Dury nous parle d’algorithme, mais ce n’est pas chiant.ù

N’avez-vous jamais eu l’impression de tourner en rond sur le Net ? Un peu comme un poisson rouge à qui on aurait filé l’océan et qui ne voudrait pas quitter son bocal. Chaque jour, je me rends sur les mêmes sites, réseaux sociaux, les mêmes apps… bien conscient, pourtant, de l’immensité de la Toile et ses services connexes connectés.

Un poisson rouge pas heureux

Un poisson rouge pas heureux – Flickr/Michael Gil/CC

Un phénomène encore plus insidieux s’est installé dans mon bocal : je tourne dans le même sens. J’écoute la même musique sur Spotify, je mate des vidéos qui se ressemblent sur YouTube, mon fil d’actu Facebook est l’antithèse même de la notion de surprise…

On aurait vite fait de jeter la faute à une curiosité paresseuse. Pas seulement. Les services cités plus haut utilisent tous des algorithmes me proposant du contenu adapté à mes goûts. Et petit à petit, ils me rendent débile.

C’est l’une des thématiques abordées par Philippe Vion-Dury dans son ouvrage « La nouvelle servitude volontaire. Enquête sur le projet politique de la Silicon Valley » (éd. FYP).

">
Vous aimez cet article ?Inscrivez-vous à la Newsletter de l’Obs

Philippe Vion-Dury est un journaliste et chroniqueur spécialisé dans les questions politiques et numériques. Son livre « La Nouvelle Servitude volontaire » est le résultat de deux années de recherches. Il y explique comment les algorithmes s’immiscent dans nos quotidiens pour répondre aux logiques, souvent économiques, de leurs concepteurs.

Note importante
Philippe Vion-Dury est un journaliste passé par Rue89. L’auteur de ce papier – Benoit Le Corre – est cité dans les remerciements qui figurent en fin d’ouvrage, mais il n’a pas participé à son élaboration. Rue89

Rue89 : « Algorithme », on utilise souvent ce mot sans comprendre à quoi cela correspond. Pouvez-vous nous citer des services du quotidien qui utilisent des algorithmes ?

Chaque semaine, Spotify sort sa playlist « Découvertes de la semaine » composée par un algorithme qui a calculé nos goûts musicaux en fonction de nos écoutes précédentes.

Sur Netflix, 75% des vidéos regardées par les utilisateurs le sont suite à la proposition de leur algorithme de recommandation.

Dans le « monde social », il y a bien évidemment Facebook. Chaque jour, notre fil d’actualités devrait afficher plusieurs dizaines de milliers de contenus provenant de nos amis. Pour nous « éviter » de passer des heures à tout regarder, leurs équipes ont élaboré un algorithme capable de calculer nos goûts, de repérer les amis qui compte à nos yeux… Le résultat de ce tri s’affiche sur notre fil d’actualités.

Il est inquiétant de se rendre compte, qu’aux Etats-Unis, deux tiers des Américains n’ont pas conscience que Facebook trie ce qu’il voit.

Ces algorithmes, ils sont conçus pour moi, l’utilisateur. Ils me recommandent, ils me servent. En quoi est-ce négatif ça ?

Il n’y a pas que vos intérêts qui rentrent en jeu, il y a surtout ceux de l’entreprise. Le but d’une entreprise comme YouTube consiste à aligner tes goûts à ses objectifs. Prenons deux vidéos, l’une produite par un youtubeur, l’autre par un studio indépendant.

L’algorithme de recommandation de la plateforme a déterminé que ces deux vidéos vous plairont. Laquelle favorisera-t-il, à ton avis ? Celle du youtubeur, de la maison mère. Il faut se poser la question : à quel moment ce service te sert, à toi, et à quel moment il sert à l’entreprise ?

En novembre 2015, Facebook a lancé des nouveaux émoticônes : « en colère », « surpris », « cœur » etc. Les internautes l’ont vu comme un moyen de diversifier leurs réactions. Pour le géant américain, l’habituel « like », le pouce bleu en l’air, n’était pas assez subtil pour comprendre l’intention des gens. Avec ces nouveaux « smileys », Facebook peut affiner la compréhension de vos goûts et vos intérêts en analysant les données générées quand vous réagissez sous un post.

Il ne faut jamais oublier qu’il s’agit d’une entreprise commerciale dont le but est de nous garder le plus possible sur sa plateforme afin de nous proposer de la publicité ciblée. Ils doivent donc nous connaître, le mieux possible. Pareil pour Youtube, Spotify etc.

C’est pour cette raison qu’ils nous enferment, en quelque sorte, dans ce qu’on aime déjà ?

Oui, une personne aux goûts prévisibles est plus rentable qu’une personne aux goûts imprévisibles. Les recommandations des algorithmes qu’ils utilisent vont vous maintenir dans un « endroit clos ».

« Les temps modernes », de Charlie Chaplin

Cela a déjà été théorisé : ça s’appelle la « bulle filtrante ». Autour de vous, un cocon se constitue, filtrant tout ce qui n’est pas censé vous correspondre. Vous ne serez plus amené à découvrir de nouvelles musiques, de nouveaux courants culturels, de personnes loin de votre milieu social etc.

Est-ce un horizon souhaitable pour le développement d’un individu que d’être maintenu dans une bulle de confort, où tout ce qu’il voit et tout ce qu’il sait viennent confirmer ses opinions et ses goûts ?

Les algorithmes tuent la sérendipité ?

La sérendipité vient d’un conte persan : « Les Trois Princes de Serendip ». Ils sont envoyés par leur père en voyage. Au cours de leurs aventures, ils se rendent compte que la vraie richesse, le vrai enseignement, proviennent du hasard des rencontres et des évènements imprévisibles.

Oui, c’est complètement contraire à la logique des algorithmes qui serait : votre désir, votre objectif, on va vous l’obtenir le plus facilement et rapidement possible. Réduire tous les hasards, tous les risques, c’est une logique de machine…

Réduire les marges d’erreur… vous citez la création, particulière, de la série US « House of Cards ».

A la base, c’est un remake d’une série britannique. Elle a été adaptée par Netflix après un travail d’analyse des données sur sa base d’utilisateurs. Netflix a voulu faire « d’une pierre trois coups » : rassembler autour d’une même série trois publics différents.

Pour résumer, disons qu’ils se sont rendus compte que les gens qui aimaient les films de David Fincher appréciaient l’acteur Kevin Spacey, que ceux qui aimaient Kevin Spacey regardaient souvent des séries politiques, et qu’enfin les fans de ce type de séries regardaient aussi les films de Fincher… Ils ont donc décidé de créer la série politique « House of Cards » réalisée par David Fincher avec Kevin Spacey.

Aucun algorithme n’a écrit le scénario. Mais cette éventualité n’est pas à proscrire dans notre avenir proche. Il existe déjà des sociétés pouvant prévoir si un scénario plaira ou non au public.

L’implication des algorithmes dans le processus créatif, on le retrouve aussi dans l’industrie musicale. L’entreprise Shazam (l’application qui permet de trouver le titre d’une musique) analyse les données de ses utilisateurs pour voir ce qu’ils aiment, quels sons ont retenu leur attention, quelles ressemblances peut-on dresser entre des morceaux qui plaisent… pour prévoir quel titre deviendra un hit. Ils vendent leurs services auprès de studios de productions et de labels pour booster la viralité de leurs musiques.

La surprise n’existe plus du tout, là.

Prenons le travail d’un DJ d’antenne de radio ou d’un rédacteur en chef. Aujourd’hui, leur travail fait part à l’arbitraire. Le DJ passe une musique qu’il juge bonne et le rédacteur en chef publie un contenu qui pense intéresser les gens ou qu’il juge important de sortir.

Demain, dans la logique simplificatrice des algorithmes, le DJ analysera le morceau à l’aide d’un logiciel. Ce logiciel lui dira « Ce morceau a 98% de faire un hit » et il le passera sur ses platines. Idem pour le rédacteur en chef. Il regardera en amont les sujets « Trendy », tendances, pour publier des sujets viraux qui amèneront le plus de lecteurs sur son média.

Le Washington Post possède déjà un logiciel lui permettant de guetter les sujets viraux.

Que devrait faire l’internaute ? Entrer en résistance ?

Oui, il faut se rendre compte, à son échelle, dans sa vie, l’influence, la manipulation et la délégation de son propre libre arbitre aux algorithmes.

Si on partage ce constat, la réaction saine serait d’éviter au possible les traitements réalisés en amont pour « soi », c’est-à-dire les propositions, les suggestions, les recommandations etc.

Concrètement, ça veut dire privilégier l’écoute d’un album sur Spotify pas de leur « Weekly Suggest », choisir ses propres vidéos sur Netflix, c’est éviter d’aller sur Facebook et aller chercher soi-même l’information ailleurs… En faisant ça, on entretient tout simplement son libre arbitre et on se place comme un internaute actif.

C’est très difficile car la logique des algorithmes est pernicieuse. Elle repose sur le confort de vivre et sa praticité (aller à un point A à un point B grâce à Uber sans perdre de temps, rencontrer la personne qui va te plaire sur OKCupid, écouter toujours une musique que l’on va aimer etc.) C’est dur de lutter contre le confort et le pratique qui sont profondément humains.

Ensuite, il faut souligner que la lutte individuelle ne peut pas se suffire à elle-même. Nous parlons pour l’instant uniquement des algorithmes utilisés par des sociétés commerciales. Mais ils sont utilisés dans de nombreux autres secteurs.

Pouvez-vous citer des exemples ?

Dans l’éducation, le service APB utilise un algorithme pour réparer les étudiants dans les écoles de l’enseignement supérieur. Ils sont beaucoup plus avancés aux Etats-Unis : plusieurs universités essaient de mettre en place des systèmes capables de détecter les signes avant-coureurs de décrochage scolaire : consultez-vous bien les documents envoyés, rendez-vous bien les travaux à temps, manquez-vous régulièrement les classes… On est dans le domaine de la prédiction : on prédit un décrochage scolaire.

Aux Etats-Unis, toujours, plusieurs villes se servent d’algorithmes prédictifs pour localiser où les probabilités qu’un crime/délit survienne sont les plus fortes. Leurs calculs prennent en compte de nombreux paramètres : météo, éclairage public, proximité d’une station de métro, niveau de vie des habitants etc. L’année dernière, Mediapart avait révélé l’existence d’un organisme similaire en France.

Viser les lieux est une chose, viser les personnes en est une autre. Une enquête livrée par le Washington Post narrait l’histoire d’un jeune père de famille. Un matin, on toque à la porte, il ouvre et se trouve nez à nez avec un commandant de police qui lui dit « On vous a à l’oeil, tenez-vous à carreau ». Il est choqué par ce qui vient de se passer : ses voisins pensent désormais que c’est une taupe, son regard sur lui-même change ostensiblement…

Il apprendra plus tard les raisons de cette visite. Un homme qu’il connaissait a été tué quelques jours plus tôt. Plus jeunes, ils s’étaient fait prendre ensemble pour détention de marijuana. Pour l’algorithme utilisé par la police de Chicago, son potentiel criminogène, d’être un criminel, a grimpé d’un seul coup.

N’est-ce pas dangereux de céder notre pouvoir décisionnaire comme ça aux algorithmes ?

Prenons par exemple une entreprise utilisant un algorithme pour affiner ses recrutements. Les candidats se voient affecter une note – un score – d’employabilité. L’une des données concerne le lieu de résidence du candidat. C’est démontré : un candidat qui habite loin de son lieu de travail a plus de risque de faire un burn-out.

Dans ce cas, l’algorithme va lui attribuer une note moindre car il n’est pas dans l’intérêt de l’entreprise d’avoir un employé à risque. Dans une économie servicielle qui est la nôtre, où les activités se situent souvent dans le centre des villes, qui a plus de chances d’habiter loin ? Ceux qui n’ont pas les moyens d’habiter près. L’algorithme va attribuer des moins à des populations défavorisées et plus fragiles.

Ceci est un exemple théorique pour montrer qu’un système apparemment rationnel peut être source d’inégalités sociales. Or, puisque conçus mathématiquement, on a tendance à attribuer la « vérité absolue » aux résultats mathématiques de l’algorithme.

L’autre problème, c’est l’opacité. De plus en plus d’institutions publiques font appel à des sociétés privées pour développer des solutions techniques plus efficaces (et moins coûteuses que recruter des êtres humains). Prenons comme exemple Pôle Emploi. L’établissement travaille conjointement avec Paul Duan pour réduire, grâce aux algorithmes, le taux de chômage d’au moins 10%.

Mon conseiller Pôle Emploi risque donc d’être un algorithme. Que se passera-t-il le jour où on me dira « Voici les trois choix de métier possibles adaptés à vos compétences ? », que je refuserais et que je devrais sortir de Pôle Emploi ? On aura envie de dire « Sur quelle(s) base(s) me proposez-vous ça ? ». On obtiendra certainement pas de réponse, car même pour les institutions publiques, les algorithmes restent opaques.

Devrions-nous accorder à ceux qui les conçoivent – les ingénieurs, chercheurs, data scientists etc. – notre confiance de créer des algorithmes « justes » ?

On ne peut pas mettre tous les œufs dans le même panier. A chacun son rôle. Un ingénieur n’a pas forcément à être aussi un garde-fou éthique.

Les politiques peuvent-ils réglementer ça ?

Quand vous voyez la dynamique néo-libérale dans laquelle on est, on aperçoit qu’on a tendance à remettre des pans entiers de la société à des organismes privés. Pourquoi ? Cela rencontre le désir politique qui ne parle qu’en termes d’économie, de déficit et de coupe budgétaire.

Je trouve ça vraiment inquiétant.

Ensuite, il faut souligner la lenteur des institutions. Prenons un exemple très connu : Hadopi. On met longtemps à créer un semblant d’institution capable d’endiguer le phénomène (qu’on soit pour ou contre) du téléchargement illégal. Au moment où la solution est effective, les gens sont déjà passés au streaming, une grosse zone grise.

Vu que les internautes ne téléchargent plus sur leur PC, la loi ne s’applique pas. C’est un énorme coup d’épée dans l’eau.

Cette lenteur peine aussi à encadrer les activités des sociétés. Des entreprises pratiquent des stratégies du « fait accompli » (certains disent la « disruption »). Via leur développement technologique et des lobbys, ils font tout pour retarder la création de lois plus adaptées. Au moment où les institutions commencent à débattre du problème, l’entreprise est déjà à l’étape suivante. L’exemple le plus illustratif aujourd’hui, c’est Uber.

Benoit Le Corre

Benoit Le Corre

Journaliste

Philippe Vion-Dury : « Le vrai visage de la Silicon Valley, c’est celui du capitalisme prédateur »

 

PAR  LE 

 

Phillipe Vion-Dury est journaliste, spécialiste des questions de société, des nouveaux modèles économiques et des technologies. Il vient de sortir aux éditions Fyp son premier essai intitulé « La nouvelle servitude volontaire ». Il y analyse la nouvelle société numérique qui est en train d’être érigée par les startups de la Silicon Valley, en Californie.

Le Comptoir : Le numérique est souvent vu comme démocratique et porteur de nouvelles libertés. Pour vous, il est cependant responsable d’une « nouvelle servitude volontaire » en édifiant un modèle sécuritaire, sans surprise, et où les individus sont à la fois normalisés et isolés les uns des autres. Sur quels arguments s’appuient ces critiques ? Les nouvelles technologies sont-elles mauvaises en soi, ou bien est-ce leur utilisation qui est mauvaise ?

phillipePhilippe Vion-Dury : Peut-être faut-il commencer par expliciter l’expression « nouvelle servitude volontaire » dans ce contexte. Il y a servitude, car de grandes multinationales des nouvelles technologies numériques font tout pour prédire nos désirs, comportements et potentiels afin de mieux les contrôler, les orienter ou les dicter – se rendre maîtres de nous. Cette servitude est volontaire dans la mesure où ce contrôle, ce pouvoir, s’exerce par la médiation d’outils et de plateformes que nous utilisons volontairement et quotidiennement comme Facebook, Netflix, Uber, Spotify ou Google. Ce sont les algorithmes de ces entreprises qui construisent notre monde social (le fil d’actualités), nos recherches (les résultats après requête), définissent le trajet le plus court, le partenaire idéal, la prochaine chanson à écouter ou vidéo à visionner. Enfin, cette servitude volontaire est “nouvelle”, car ce pouvoir qui émerge n’est pas une domination à l’ancienne, où l’on nous dit quoi faire ou ne pas faire avec des ordres et des interdits, – patriarcale et disciplinaire –, mais une domination infiniment plus soft, insidieuse, bienveillante, immanente au champ social, agissant par la multiplication des suggestions, incitations, conseils, recommandations… J’essaie de ramasser cette idée à la fin du livre en opposant la figure très actuelle de Big Mother à celle, selon moi révolue, de Big Brother.

Les critiques que je formule contre ces nouvelles technologies s’appuient sur un double constat. Le premier a été la découverte du pouvoir d’influence des algorithmes et des modèles comportementaux sur nos décisions. Ils peuvent anticiper nos désirs, nos comportements, nos vices, percer l’intimité de nos opinions ou le secret de nos préférences, ou encore établir des profils “à risque” dans la santé ou la sécurité, ou au contraire “prometteurs” dans le recrutement et les études. Si vous connaissez par cœur une personne et savez comment elle peut réagir, vous pouvez être tenté de faire en sorte qu’elle se comporte conformément à votre propre intérêt. C’est ce qu’on appelle ni plus ni moins de la manipulation. Ce pouvoir-là existe déjà, bien qu’il soit encore largement imparfait, et se trouve dans les mains d’acteurs économiques. Le deuxième constat a été celui de la diffusion de ces techniques initialement employées dans le marketing et la publicité à des pans entiers de la société : assurances, villes, élections, antiterrorisme, police, journaux, culture, management… autant de secteurs qui tentent de mettre à profit ces techniques.

Les critiques de l’ouvrage portent donc tant sur la nature de ces technologies, c’est-à-dire le pouvoir qu’elles offrent, que sur la volonté totalisatrice (pour ne pas dire totalitaire) des acteurs qui les développent et les diffusent. Peut-être sortira-t-il du bon de ces technologies, mais ce qui m’intéresse ici, ce sont leurs effets prévisibles. Et si on les situe dans le système actuel, les effets me paraissent essentiellement négatifs.

« 1984 ne peut pas être invoqué pour analyser le “projet politique de la Silicon Valley” car, dans l’univers orwellien, tout est interdit. Notre monde est plutôt placé sous le signe d’un contrôle “permissif”, résumé par cette superbe expression de Clouscard : tout est permis, mais rien n’est possible. »

Vous dites que la personnification tend à créer un monde où l’individu « est appelé à être un simple spectateur halluciné d’un environnement où tout est calibré pour lui » et où, selon la formule de Guy Debord« plus il contemple, moins il vit ». Vous montrez en même temps que le numérique rend possible et acceptable un monde de surveillance généralisé. Le « projet politique de la Silicon Valley »est-il finalement un mélange entre Le Meilleur des mondes d’Huxley et 1984 d’Orwell, qui marcherait autant à la séduction qu’à la surveillance ?

orwellOrwell et Huxley nous poussent tous deux à réfléchir sur le pouvoir. Dans 1984, Orwell pousse à fond la logique d’un pouvoir totalitaire de type étatique, vertical, incarné dans la figure de Big Brother. Huxley, de son côté, met très peu en scène l’État dans Le Meilleur des mondes : le pouvoir y est davantage exercé de manière diffuse, par les conventions sociales, les tabous, le plaisir et la consommation de cette drogue du bonheur, le “Soma”.

Il est aujourd’hui très convenu de dire que les technologies numériques pourraient dégénérer en une surveillance de masse, totalitaire, dont la Stasi n’aurait même pas rêvé. Il ne s’agit pas de présumer de l’avenir de nos sociétés, ou d’oublier la diversité des systèmes politiques dans le monde. Mais pour qu’Internet accouche de Big Brother, cela supposerait un État fort, autoritaire, alors que la dynamique dans nos sociétés occidentales (et du monde qui s’occidentalise) est à l’affaiblissement de l’État, attaqué sur ses flancs par le néolibéralisme économique d’un côté, et de l’autre le libéralisme culturelqui a largement battu en brèche le patriarcat et les rapports d’autorité.

Je pense l’autre option – Big Mother – beaucoup plus actuelle et pertinente. Internet s’est transformé en supermarché planétaire et a, en quelque sorte, trahi les espérances de ses pionniers, qui militaient pour un « espace de pur esprit »débarrassé des lourdeurs et empêchements de la matière. Les entreprises étendent maintenant leurs mains sur notre intimité, nous accompagnent partout : dans nos rendez-vous amoureux, nos découvertes artistiques, nos recherches intellectuelles, nos achats, notre santé, etc. Dans ce système-là, nous avons tous l’illusion sans cesse renouvelée de la liberté et du plaisir, alors qu’en réalité, nous nous laissons exploiter pour pouvoir consommer davantage. Nous affadissons notre vie en laissant pénétrer la logique marchande toujours plus profondément, et affaiblissons notre libre-arbitre en nous en remettant aux conseils, suggestions et recommandations de ces multinationales amicales.

Pour en revenir à la question, 1984 ne peut pas être invoqué pour analyser le « projet politique de la Silicon Valley » car, dans l’univers orwellien, tout est interdit. Notre monde est plutôt placé sous le signe d’un contrôle “permissif”, résumé par cette superbe expression de Clouscard : « tout est permis, mais rien n’est possible. »

« Et tout ceci se fait sous le signe du “cool”, avec un Zuckerberg en hoodies qui débarque, tel Prométhée, apporter le feu au monde et abolir toutes ces insupportables frontières. »

Vous écrivez que le projet des dirigeants de la Silicon Valley est politiquement technocrate, économiquement libéral et culturellement libertaire. Pouvez-vous développer ?

Et “messianique”, une quatrième composante profondément liée à l’histoire coloniale et protestante américaine. Précisons que lorsqu’on parle de « projet de la Silicon Valley », il faut considérer cette expression avec toutes les limites qu’elle contient : diversité des opinions ; mythification par les technologues et la presse “techno-glamour” à la Wired ;absence d’organisation réelle ou de gouvernement même si une sécession vis-à-vis des États-Unis a déjà été évoquée. Disons que la Silicon Valley est traversée par différents courants d’où émergent quelques lignes directrices que l’on se permettra d’appeler “projet”. C’est un catalyseur et un moteur de la société qui vient.

steve-jobs-think-different

Ce projet est technocratique et scientiste dans la mesure où il gravite autour de la figure de l’ingénieur et de l’expert. On trouve toute une mythologie de l’inventeur dont les héros sont Steve Jobs, Steve WozniakElon MuskSergeï Brin et d’autres. Ces pionniers et les multinationales qu’ils ont créées détiendraient les réponses à tous les problèmes, proposant à tour de bras des solutions technologiques simples à des phénomènes sociaux, politiques ou même écologiques infiniment complexes. Le monde est perçu à travers la logique simplificatrice des machines. Il est d’ailleurs intéressant de noter que les mêmes qui “s’alarment” officiellement de l’émergence d’une IA [intelligence artificielle, NDLR] militent ardemment pour la diffusion des machines automatisés dans toute la société… Le politique est entièrement évacué pour laisser place à la Raison et à ses experts qui pensent pouvoir résoudre le problème de la faim en connectant les miséreux à Internet.

En réalité, cet angélisme sert souvent à masquer des intérêts bien plus terre-à-terre. Facebook a, par exemple, annoncé en 2013 vouloir créer une application gratuite sur smartphone, où toutes sortes de services seraient accessibles même pour les gens dépourvus de connexion internet. Il n’a pas fallu longtemps aux autorités indiennes de régulation par exemple, pour comprendre qu’il s’agissait en réalité d’une prise de contrôle du marché du sous-continent avançant masquée sous la banderole « la connectivité est un droit humain ». Le vrai visage de la Silicon Valley, c’est plutôt celui du capitalisme prédateur, celui qui cherche à briser corporations et médiateurs par « la mise en relation des consommateurs » et la désintermédiation, à contourner les législations en orchestrant des stratégies du “fait accompli” prenant de court les régulateurs nationaux, à échapper à l’impôt en recourant à l’optimisation fiscale et la concurrence internationale, alliant les prises de contrôle agressives à la défense de ses monopoles.

0320000008354154-photo-zuckerberg-a-la-conference-samsung-mwc-2016-realite-virtuelleEt tout ceci se fait sous le signe du “cool”, avec un Zuckerberg en hoodies qui débarque, tel Prométhée, apporter le feu au monde et abolir toutes ces insupportables frontières. Si l’on a un peu remisé les rites New Age des années 80, le vocable progressiste et “communaliste” des mouvements contestataires des sixties est en revanche toujours à l’ordre du jour quoique vidé de sa substance originelle (révolution, communauté, réseau, horizontalité, pair-à-pair, etc.). Je conseille à tout le monde la série Silicon Valley, qui met en scène de manière à la fois hilarante et acerbe ces différents aspects.

Selon vous, derrière le numérique se cache « le fantasme d’une humanité gouvernée rationnellement »et « se manifeste dans la régulation algorithmique l’ambition inédite d’un gouvernement par les statistiques et probabilités ». Depuis ses origines, le libéralisme désire substituer “l’administration des choses” au “gouvernement des hommes”. La société numérique est-elle finalement l’aboutissement total de la logique libérale ?

Peut-être une autre “société numérique” est-elle possible, mais disons que le numérique permet un développement du libéralisme en accouchant d’une sorte de « libéralisme algorithmiquement régulé » – une expression absolument affreuse. L’alliance entre Wall Street et la Silicon Valley est facilitée par une résonance entre le capitalisme libéral et la “société numérique” imaginée par les cybernéticiens : tous deux reposent sur une axiomatique des systèmes auto-régulés, tous deux envisagent les hommes de manière non-humaine, tous deux se placent dans une perspective saint-simonienne et envisagent, vous l’avez dit, le bon gouvernement comme une « saine administration des choses » qui se ferait par l’application de lois (économiques, communicationnelles, etc), et tous deux haïssent, en conséquence, le politique, l’humain, l’indétermination, le hasard, l’erreur ou l’affect.

siliconEn outre, l’histoire nous rappelle que l’innovation dans les communications physiques ou informationnelles a toujours joué un rôle capital dans le développement du capitalisme ces trois derniers siècles, en fluidifiant les échanges de marchandises et de capitaux. Le capitalisme industriel n’aurait pas été possible sans l’invention du chemin de fer puis du transport routier d’un côté, et des télécommunications de l’autre. Ce n’est pas tant que ces nouvelles technologies “fluidifiantes” et communicantes créent et déterminent de nouveaux stades du capitalisme par leur découverte, mais plutôt qu’elles font sauter les digues qui limitent son développement. Il ne paraît donc pas insensé de penser que l’ère numérique ouvre une nouvelle séquence du capitalisme.

Bien entendu, certains diront que cette séquence pourrait être plus “humaine” et raisonnable que les précédentes, qu’elle ouvre la voie vers plus de collaboration, de relocalisation, d’économie des ressources, etc. Sans faire ici de pronostic, disons simplement que si l’on se penche une seconde sur les hérauts de ce néocapitalisme numérique, leurs stratégies et leur idéologie, on est généralement peu porté à l’optimisme.

« Nous affadissons notre vie en laissant pénétrer la logique marchande toujours plus profondément, et affaiblissons notre libre-arbitre en nous en remettant aux conseils, suggestions et recommandations de ces multinationales amicales. »

Aujourd’hui nos États semblent impuissants face aux grandes multinationales et les individus sont complètement sous le charme des nouvelles technologies. Quels moyens possédons-nous pour nous opposer au projet politique de la Silicon Valley ?

C’est la question la plus épineuse, et je ne donne aucune réponse dans mon livre. Selon l’adage, « savoir c’est pouvoir », le simple fait d’identifier les dynamiques en présence, de comprendre les enjeux et les risques, de percevoir les aliénations et les dominations qui s’expriment à travers certaines technologies et écosystèmes, c’est déjà beaucoup. Cela permet d’éviter de se faire récupérer ou de frapper à côté. Je me méfie beaucoup des nouvelles rhétoriques qui opposent “ceux qui font” et “ceux qui commentent”. Commenter, dialoguer, réfléchir, s’instruire, c’est nourrir un effort réflexif qui permet de bien agir et qui créera, à terme, un changement véritable. Se contenter de faire sans réfléchir, cela donne des gens qui croient sincèrement que le capitalisme vert est une écologie, ou que Uber est un héraut de l’économie du partage.

Cela dit, il y a, comme toujours, deux niveaux de lutte : l’individuel et le collectif. Au niveau collectif, il est possible de faire appel au législateur, au personnel politique, de recourir aux juges, aux syndicats, à toutes les formes institutionnelles qui peuvent jouer le rôle de digue ou être capables de porter un contre-modèle. Au niveau individuel, il s’agira plutôt de sensibiliser son entourage à ces questions, modérer son usage de certaines technologies et plateformes, de penser son rapport au monde, au libre-arbitre, à la puissance d’agir par soi-même et non à travers un environnement automatisé visant à nous assister en tout, à lisser toute aspérité, éradiquer toute friction, et ériger un monde utilitaire et aseptisé.

Le problème est que, dans une perspective d’ensemble et de progrès social, la lutte individuelle est vaine, et le combat collectif semble perdu d’avance. Non seulement nous avons perdu la culture de la mobilisation mais nous sommes confrontés au quotidien à la puissance de la rhétorique du progressisme libéral, très mécanique et fataliste, qui consiste à dire : « vous pouvez bien vous agiter, tout ceci est inéluctable, seuls ceux qui s’adaptent survivent ». Ironiquement, ce sont eux qui disent ensuite que les “déclinistes” et les réactionnaires sont défaitistes ! Néanmoins, il semble que les lignes commencent à bouger en faveur de l’intensification des tensions sociales. Les nouvelles technologies peuvent être le motif d’un embrasement, comme l’ont prouvé les manifestations anti-Uber qui ont presque tourné à l’émeute.

« Je ne pense pas qu’il faille poser le rapport à la technologie en terme de retour en arrière ou de recul, mais davantage en terme de choix et de maîtrise. »

Dans la conclusion de votre ouvrage, vous déplorez le fait que les nouvelles technologies empêchent l’émergence de tout projet de société autonome au sens où l’entendait Cornelius Castoriadis, c’est-à-dire une société où “l’institué” (structures sociales, politiques et culturelles) n’est pas formé par une puissance extérieure (Église, État, Marché, etc.). Un tel projet exige-t-il un recul technologique ?

Cornelius-CastoriadisEffectivement, Castoriadis opposait à l’autonomie le concept d’hétéronomie, où Dieu est imposé à la société par l’Église et son clergé, ou le Marché par le capitalisme. Le projet que je décris dans le livre d’une société de contrôle dont la gestion serait assurée par une régulation algorithmique à la fois automatisée et “intelligente” rentre à merveille dans cette définition, me semble-t-il. On essaie d’instituer une sorte de Raison, externe à la société et à sa volonté, la dépossédant de la maîtrise de son destin “pour son bien”, pseudo-rationnalité s’exprimant par l’intermédiaire de systèmes artificiels s’auto-corrigeant et visant à l’optimisation du corps social de la même manière qu’on optimise les performances d’une machine.

Mais attention, ce ne sont pas les nouvelles technologies elles-mêmes qui empêchent l’autonomie (ou l’auto-institution politique, qu’il faudrait prendre le temps de définir plus longuement), mais plutôt l’hétéronomie dont elles sont vectrices. Ces mêmes technologies pourraient avoir une place dans une société réellement autonome, même si leur visage serait certainement bien différent. Mais, il est difficile de nier que ces technologies renforcent aujourd’hui l’hétéronomie à deux têtes (la Silicon Valley et Wall Street) au détriment de l’autonomie. Cela doit mener à deux conclusions. La première est que lutter pour une société nouvelle en s’en remettant exclusivement aux nouvelles technologies (éthique des hackers et makers) ou au contraire en rejetant en bloc celles-ci (néo-luddisme et rejet en bloc des technologies modernes) serait une erreur : le recours aux technologies porte le risque de renforcer le pouvoir en place, leur rejet porte celui de passer à côté de leurs bienfaits éventuels dans l’organisation d’une société meilleure. La seconde conclusion est qu’il faut redonner ses lettres de noblesse à la critique de la technologie, longtemps mise de côté par la “critique classique” française.

Le philosophe Ivan Illich dans les années 70Enfin, je ne pense pas qu’il faille poser le rapport à la technologie en terme de retour en arrière ou de recul, mais davantage en terme de choix et de maîtrise. Une société véritablement autonome devrait être capable de dire oui ou non à une technologie, ou de lui dire oui dans un cadre délimité. L’hétéronomie se manifeste par un phénomène d’inéluctabilité (« ça va arriver quoi qu’on fasse ») et de boîte noire, où les individus ne comprennent plus le fonctionnement et le but de leurs machines. L’autonomie, au contraire, passe par un rapport de transparence, de compréhension et de maîtrise vis-à-vis des outils. Ivan Illich parlait d’outils “conviviaux”, qui ne déterminent pas les usages qu’on en fait. Mais, l’autonomie passe aussi à mon sens par le développement d’une “éthique” dans notre rapport aux outils et objets. On pourrait la juger à l’aune de la puissance et du pouvoir : à force de trop “faire faire” aux outils (le pouvoir), que continue-t-on de “faire” par nous-mêmes  (la puissance) ? Le GPS augmente notre capacité de contrôle et d’action sur le monde, mais diminue notre capacité d’orientation, nous rive à l’outil et ses indications, lisse notre réalité en la facilitant, en la rendant pratique. Derrière toutes ces questions, je pense qu’il y a la nécessité fondamentale de repenser notre “être au monde”.

 

 

 

 

 

 

 

 

Les algorithmes nous volent notre hasard et nous nous laissons faire. Une conversation avec Philippe Vion-Dury

Sur internet, nous sommes tous sous l’emprise d’algorithmes divers, c’est un lieu commun. Et c’est justement pour ça qu’il faut l’étudier en détail. Philippe Vion-Dury, journaliste, s’y attelle dans son récent ouvrage La nouvelle servitude volontaire, enquête sur le projet politique de la Silicon Valley (éd. FYP). Engagé et densément référencé, l’essai de Philippe dresse un constat inquiétant : grâce au Big Data, les géants de la Silicon Valley captent notre attention et nous privent de ce qui nous reste de hasard. Ainsi, ils mettent à mal la notion même d’émancipation issue de l’Esprit des Lumières.

Ce qui constitue l’idéal même de la révolution française tient en quelques mots : privilégier ce qu’on choisit et décide soi-même. Mais voilà, avec les algorithmes (ces programmes qui nous orientent dans nos prises de décisions sur internet), nos actions nous échappent parfois. Il devient nécessaire de se demander si l’autonomie individuelle peut souffrir des choix qu’opèrent ceux qui érigent ces algorithmes : est-on toujours pleinement libre lorsque l’on suit les savantes orientations que d’autres pensent à notre place ?

Attention à l’économie de l’attention

Les services tels que Facebook, Spotify, Netflix et les autres ont une particularité : ils calculent et anticipent nos besoins pour maximiser le temps que nous passons chez eux. Ils nous servent ce qui nous plaira à coup sûr et ce faisant, conditionnent fortement ce que nous consommons (information, musique, films, etc.). Leurs fonctionnements laissent peu de place à l’imprévu, même si nous n’en avons pas toujours la sensation.

D’une certaine façon, on peut dire qu’ils sacrifient le hasard pour accoucher d’un monde de probabilités beaucoup plus facilement monétisable. Est-ce une fatalité ?  Doit-on attendre des acteurs de l’internet qu’ils créent un jour des algorithmes réservant une place à l’inconnu ? Quand j’ai posé la question à Philippe, il n’a pas franchement été optimiste :

« Certains défendent que l’on peut faire de « bons » algorithmes qui pourraient créer du hasard… Or simuler le hasard c’est très compliqué, n’importe quel mathématicien le sait. Et d’ailleurs, quand bien même on y arriverait, à qui pourrait-on destiner ces algorithmes ? Il faut savoir que les business models de Facebook, Google et les autres, c’est de capter notre attention. Ils n’ont pas d’intérêt commercial à arrêter de nous cibler. Et soyons honnêtes, un halo de hasard et de découverte par rebond n’a pas sa place dans le cadre d’un système capitaliste « algorithmiquement régulé » où les acteurs qui dominent ont intérêt à créer de la répétition et des comportements moutonniers pour mieux les exploiter dans une logique consumériste. » 

Pas de quoi s’enjailler, mais remettons les choses en contexte. Dans son livre, Philippe Vion-Dury explique comment déjà aujourd’hui, on sait décortiquer les caractéristiques d’un « hit » musical afin de prévoir quelle mélodie sera populaire dans le futur. Anodin en apparence, ce mécanisme fait surtout peser le risque d’une uniformisation sans précédent sur la culture et la diversité musicale. Pourquoi tenter d’être original quand on connaît la recette du succès ?

De la même manière, les séries télévisées sont calibrées et modifiées algorithmiquement pour coller à nos goûts. Sur Netflix par exemple, nos  habitudes de consommation sont décortiquées pour que la plate forme sache exactement quoi nous proposer dans le futur. Ainsi, 75% de ce que nous regardons sur la plate forme est prévu par des algorithmes sans que nous le sachions. Ces dispositifs participent de ce qu’il convient d’appeler l’économie de l’attention : sur internet, tout est fait pour que l’utilisateur reste le plus longtemps possible sur un service donné, même si cela se fait au détriment de sa santé psychique (oui, c’est le fameux « temps de cerveau disponible », rien de neuf sous le soleil).

Du ciblage à l’enfermement numérique

Cibler un individu pour lui proposer un contenu qui lui plaira a priori revient à l’enfermer dans des choix que l’on suppose à sa place. Ce « biais de confirmation » comme l’appelle Philippe, nous place de une « bulle filtrante », un essaim informationnel duquel il est difficile de sortir pour respirer un autre air que le sien propre. C’est cette même bulle qu’on a accusé un peu vite d’avoir provoqué l’élection de Donald Trump. Comment se créent ces filtres ?

« Le premier filtre est en nous.  Nous sommes des êtres situés socialement : entourage, profession, etc. Et donc les « biais de confirmation » sont d’abord des choix déterminés par l’individu lui-même. Mais le renforcement technologique est immense, il ne faut pas le nier. Le premier problème est que les gens n’en ont pas conscience. Par exemple, les journalistes qui se sont étonnés de ne pas voir d’électeurs de Trump autour d’eux montrent qu’ils se sont mis sur un réseau qu’ils ont pris pour une vérité absolue, c’est illusoire. Ensuite, ce qui est inquiétant, c’est qu’aux États-Unis 40% des gens prennent leurs informations depuis Facebook ! » 

Ce poids démesuré de Facebook dans la transmission d’information m’amène à demander à Philippe si l’entreprise ne devrait pas faire face à ses responsabilités et changer ce mode de fonctionnement. Bien sûr, il n’y croit pas du tout :

« D’un point de vue pratique, c’est très intéressant de voir que Facebook qui s’est longtemps considérée comme un média « le journal de tous » se définit d’un coup comme une entreprise de technologie et se dégage de sa responsabilité médiatique. Laisser Facebook modifier son algorithme de son côté, c’est vain. On pourrait imaginer des conseils éthiques pour superviser ça, après tout il y en a dans la Presse avec le SNJ (syndicat national des journalistes). Facebook ne se régule pas car il ne contient pas ces contre-pouvoirs. » 

Mais alors, peut-on modifier la façon dont nous créons des services pour mieux respecter le temps des individus ?

C’est paradoxal, ou peut-être pas tant que ça, mais à mesure que l’emprise des algorithmes croît, j’ai la sensation qu’une forme de prise de conscience est en marche. On a vu récemment un ancien de chez Google, Tristan Harris, proposer une charte « Time Well Spent » appelant à envisager un autre rapport à la technologie et au temps qu’elle peut nous prendre.

D’une part, il propose de repenser son usage à travers plusieurs actions concrètes (différencier le vibreur d’une notification inutile de celui d’un SMS important). D’autre part, il appelle à créer des produits plus respectueux de l’utilisateur final et de son temps. Il s’agirait en quelque sorte de modifier le design et nos usages pour ne plus se faire happer par la technologie. On appelle aussi ça l’éthique By Design. Est-ce une voie de sortie ? Philippe n’est pas convaincu :

« Bien sûr, il y a toujours des gens conscients, il n’y a pas les gens méchants et les gentils. Peut-être des services plus propres ou équitables viendront, mais le capitalisme a l’habitude d’intégrer la résistance comme un nouveau moyen de consommation… C’est le risque avec ce genre de solutions. Si l’utilisateur ne prend pas la décision lui-même de changer ses usages et si le modèle est toujours celui de l’attention, ça ne résout rien. Suite à une prise de conscience du public par exemple, Facebook a créé des outils pour améliorer sa confidentialité et rendre privés des messages qui étaient publics. J’ai essayé cette manipulation, j’ai dû m’y prendre message par message ! Ça m’a pris des heures, tout est fait pour qu’on ne puisse pas le faire. » 

Sur son site, Tristan Harris présente Time well spent comme un label comparable à celui du green (quand on voit le désastre du green-washing, on peut se demander légitimement s’il ne s’agit pas là d’« attention-washing » )

green_labels_organic_leed_timewellspent

D’où vient ce monde qui veut tout prévoir ?

J’ai comme un sentiment de désespoir. Je n’ai de cesse de me demander si des modèles conciliant économie de l’attention et respect du consommateur-citoyens sont réellement en voie d’apparition sur internet. Après tout, les acteurs de l’économie n’ont pas attendu le web pour s’organiser en coopératives.

Récemment, je discutais avec le fondateur de Le même en mieux, cette start-up qui se positionne comme un « assistant d’achat indépendant sur internet ». Son objectif : rediriger les internautes quand ils sont sur un site marchand majeur (Amazon, SNCF, etc.) et qu’une alternative plus éthique, écologique ou moins cher existe. Mais force est de constater que dans ce cas également, le modèle est celui de l’attention, la finalité celle de la consommation. C’est « toujours mieux », mais pour Philippe ça ne change pas fondamentalement la problématique.

Le Même en mieux, cette startup qui désintermédie les acteurs du ecommerce (en savoir plus)

lmem

Philippe Vion-Dury est loin d’être le seul à pointer opérer une critique pointue sur le pouvoir de nos technologies. Dans la tradition intellectuelle d’un Jacques Ellul ou d’un Evgeny Morozov, il est un personnage radical. Pour lui, notre incapacité à changer est une conjonction de plusieurs facteurs que l’on maîtrise plus ou moins, il en cite deux :

  • La maternalisation du pouvoir

Nous serions passés d’une société patriarcale à une société matriarcale : ce nouveau pouvoir n’est pas coercitif mais diffus. Il suggère et séduit plutôt qu’il force. Il «  pousse » les individus à adopter certains comportements et préfère la culpabilité à la réprimande. Ce modèle de pouvoir, c’est celui de la Silicon Valley. Il s’exerce avant tout parce que utilisons volontairement les outils de nombreuses start-ups au quotidien qui fournissent indéniablement des services pointus et performants.

  • Notre goût démesuré pour le confort et le retour du même

Directement lié au premier point, notre propension naturelle à nous laisser bercer par la technologie nous nuit. Pour autant, il ne faut pas considérer que notre servitude repose sur un choix conscient : cette propension à la flemmardise est renforcée par les procédés algorithmiques qui nous confortent dans cette bulle de confort.

« L’important est de comprendre que la figure de Big Brother, servie à toutes les sauces, ne peut plus tout expliquer »

Pour faire court, nous serions passé de la figure de Big Brother à celle de Big Mother. Cette dichotomie mérite néanmoins quelques éclaircissements et nuances témoigne Philippe :

« Big Brother et Big Mother ne sont pas du tout des concepts scientifiques et il ne s’agit pas non plus de sexualiser le pouvoir. Ce sont des repères symboliques. L’important est de comprendre que la figure de Big Brother, servie à toutes les sauces, ne peut plus tout expliquer. J’ai relié Big Brother à la société disciplinaire patriarcale décrite par Foucault, c’est un pouvoir « top-down », il enferme, oblitère et fait disparaître l’individu. Je lui préfère l’analyse psychologique de Slavoj Zizek pour qui définit un pouvoir « maternalisant » en reprenant la figure de la mauvaise mère. Ce pouvoir est présent dans les mécanismes de « nudging », cette petite poussée qui suggère de faire quelque chose et qui fait culpabiliser quand on ne le fait pas. » 

Le « nudging » est très présent dans le secteur de l’assurance où par exemple, on vous fournit gratuitement un bracelet électronique pour mesurer vos constantes vitales. En échange de ce suivi à distance, on vous promet des réductions tarifaires si vous adoptez des comportements vertueux.

A l’inverse, si vous ne respectez pas les conseils de votre assureur, vous pourriez risquer d’être virtuellement puni. En creux, c’est la prévision qui prend le pas sur le hasard et la liberté individuelle. Ces nouveaux types d’incitation sont au moins aussi efficaces que des ordres directs. Pour Philippe, ce genre de pouvoir ouvre la voie à un « hygiénisme punitif » totalement incompatible avec l’idéal d’émancipation. Cet idéal ne se satisfait ni de Big Brother, ni de Big Mother.

1984, image du filmdepuis le Roman d’Orwell.
« Big Brother is watching you » : une grille d’analyse trop limitée pour penser le techno-pouvoir des entreprises du numérique

1984

Pourquoi devons-nous renouer avec le hasard ?

La question devient lassante tant on la pose : pourquoi laisser une place au hasard ? Pourquoi, finalement, ne pas se laisser happer par le confort technologique qui sait tout à l’avance ? Comment gérer nos dissonances cognitives entre idéal de liberté et le goût pour l’imprévu ? C’est peut-être juste une question de valeur. Philippe  Vion-Dury lui, ne se satisfait pas de se savoir piloté à distance par des firmes américaines, me dit-il :

« Microsoft est le plus gros employeur d’anthropologues après l’Etat aux USA, cela prouve bien qu’on fait tout pour comprendre le fonctionnement de l’homme. La doxa dit qu’on le « remet au centre » mais c’est surtout une manière d’apprendre à capter son attention avec d’autant plus d’efficacité. »  

Et poursuit :

« La dimension du hasard est fondamentalement anthropologique et naturelle. L’idéal d’autonomie lui répond car il promeut un homme maître de son destin à l’intérieur de ses contraintes. Je ne dis pas qu’on se serait sournoisement fait braquer noter autonomie par des entreprises, mais nous devons comprendre qu’elles renforcent une tendance humaine, nécessaire à l’homme mais dangereuse pour la liberté. Oui, nous devons prévoir, compter sur une certaine sécurité, mais la vie ne doit pas se résumer à ça ! C’est pourtant le modèle technologique qu’on nous vend, c’est un véritable contre-idéal. » 

En terminant cette conversation passionnante avec Philippe Vion-Dury, j’en comprends aussi les limites. Si le contre-modèle qu’il défend réside dans quelques grandes et belles idées, il ne s’ancre que trop peu dans le domaine du réel. Philippe est le premier à l’admettre, il ne prétend d’ailleurs pas avoir de recettes miracles pour le futur. En revanche, il planche déjà sur un autre ouvrage qui cette fois, se concentrera sur les alternatives qui naissent en coulisse et les technologies qui n’étouffent pas l’autonomie de l’individu. Il cite à ce titre Ivan Illich qui appelait à créer des une « société conviviale, où l’homme contrôle l’outil » et non pas l’inverse.

Au sortir de la critique pure, la difficulté est de concevoir que la solution réside en nous-mêmes. L’humain doit devenir plus humain encore pour transformer ses bonds technologiques en véritables progrès. Dépassé, il cherche à courir plus vite que la machine sans comprendre que c’est vers lui-même qu’il devrait courir, grandir intérieurement et pas que technologiquement.

La nouvelle servitude volontaire, enquête sur le projet politique de la Silicon Valley (éd. FYP)

 

Algocratie : un projet politique et sociétal pour les acteurs du numérique

Algocratie : un projet politique et sociétal pour les acteurs du numérique
Philippe Vion-Dury vient de publier chez Fyp Editions « La nouvelle servitude volontaire ».

Les algorithmes sont largement exploitées par les stars du numérique mais ils cachent un projet sociétal peu réjouissant pour Philippe Vion-Dury.

Big Brother fait peur et contrôle par la force et la terreur. Big Data est nettement plus souriant, agréable et doux mais son contrôle n’est pas moindre. C’est ce projet totalitaire que Philippe Vion-Dury entend dénoncer dans La nouvelle servitude volontaire – Enquête sur le projet politique de la Silicon Valley. Car les grandes stars du numérique -Amazon, Google…- ont fait des algorithmes une force de contrôle et de prédiction à la source d’un pouvoir immense. Mais un pouvoir accepté par défaut (la case était cochée quand vous avez cliqué sur OK).
Après avoir rappelé cette évidence de la présence des algorithmes, l’auteur montre comment ceux-ci sont utilisés pour obtenir une vision des faits et gestes de chacun puis en déduire des règles de comportement individuel. La succession de prédictions individuelles débouche de fait sur des analyses statistiques prédictives employées autant dans le commerce que dans la gestion de la Cité. Il en résulte une société du contrôle qui est dénoncée dans la dernière partie.
L’ouvrage se lit avec plaisir et terreur car l’auteur sait mener son texte avec brio. Cependant, le procès est mené nettement à charge alors que l’acceptation est au coeur de la description. Or une acceptation suppose que la victime tire tout de même un minimum d’avantages réels, supérieurs aux inconvénients perçus. Sous cette réserve, voilà en tous cas une lecture salutaire pour ne pas oublier dans quel monde on vit.

rticle rédigé par

Bertrand Lemaire

Bertrand Lemaire, Rédacteur en chef de CIO
Suivez l’auteur sur , Linked In, Twitter

 

 

Algorithmes: « C’est très difficile de réguler la technologie chez nous »

Algorithmes: "Nous ne pouvons pas réguler la technologie chez nous"
Algorithmes: « Nous ne pouvons pas réguler la technologie chez nous » – © JUSTIN SULLIVAN – AFP

RTBF

Ce matin, c’est Philippe Vion-Dury, journaliste et essayiste spécialisé dans les nouveaux modèles économiques et technologiques, qui était l’invité de Matin Première. Il était question au micro de Robin Cornet des algorithmes, sujet qu’il aborde dans son livre « La nouvelle servitude volontaire. Enquête sur le projet politique de la Silicon Valley« .

Ces procédés informatiques qui sont « surtout des modèles prédictifs et comportementaux« , explique Philippe Vion-Dury, ont pris une place capitale au sein de nos sociétés. Ils sont en effet capables, comme le rappelle l’invité de Matin Première, de prédire si vous êtes susceptible de « tomber malade, de rencontrer telle personne, ou même de réaliser un crime. Dans la pratique, le but est de coller à vos goûts, de sorte à vous recommander des choses qui vous plairont. Pratique, sur le principe, mais il y a également beaucoup de problèmes« .

Tout ce que vous voyez sur Facebook […] c’est ce que l’on choisit de vous montrer.

Philippe Vion-Dury attire l’attention sur trois points en particulier : tout d’abord, de plus en plus de pouvoir est donné aux nouvelles technologies. Ensuite, l’humain et les politiques sont peu à peu rejetés au profit des algorithmes. Enfin, si les algorithmes sont souvent présentés comme neutres, aucun d’entre eux ne l’est.

Le journaliste et essayiste rappelle également le principe de la « bulle de filtres ». « Tout ce que vous voyez sur Facebook n’est pas la globalité. Ce n’est pas représentatif du monde, c’est ce que l’on choisit de vous montrer. Si vous êtes de gauche, on va vous montrer des contenus de gauche, si vous êtes de droite, plutôt des contenus de droite, par exemple. Cela vous enferme donc dans un monde erroné« , développe-t-il.

Interrogé sur le fait que lire un journal orienté politiquement puisse également construire une représentation biaisée du monde, l’invité nuance. « Dans l’achat d’un journal, il y a un rapport actif. On va piocher là ou l’on veut et on peut choisir si l’on veut changer. Ici c’est beaucoup plus compliqué, puisque on n’a pas forcément conscience de cela et changer est donc extrêmement difficile« , argumente Philippe Vion-Dury.

Peu de solutions

Dès lors, la question principale est de savoir comment éviter de tomber dans les écueils liés aux algorithmes. « Il faut s’intéresser à ces problématiques au niveau individuel, mais il faut également une prise de conscience collective. Essayer de ne pas s’informer que via Facebook par exemple, essayer d’éviter d’utiliser des playlists qui défilent et garder un rapport actif à la culture, en cherchant par soi-même. Il faut avoir un rapport critique vis-à-vis des algorithmes« , conseille -t-il.

Cependant, les outils pour lutter semblent encore dérisoires face à la force de frappe des grandes multinationales comme Google, ou Facebook. « Le droit américain est plutôt favorable à ces grandes plateformes, mais c’est très difficile de réguler la technologie chez nous. Les grands acteurs de la Silicon Valley font tout pour que nous ne puissions pas le faire. Ils font en sorte que la technologie aille trop vite pour les régulateurs, et quand on commence à réguler il est déjà trop tard. Ce n’est vraiment pas gagné d’avance« , conclut Philippe Vion-Dury.