Par Kati Bremme, Direction de l'Innovation et de la Prospective
“On a l’impression que le monde devient fou”, affirme Tristan Harris, ancien Designer "éthique" chez Google, aujourd’hui lanceur d’alerte et un de ceux qui révèlent les raisons profondes d'une guerre civile d'opinions extrêmes au coeur de laquelle nous sommes projetés chaque jour. Tous conscients des deux extrêmes des réseaux sociaux - d’un côté la formidable liberté de donner la parole à tout le monde, de l’autre, la manipulation, les bulles de filtre -, nous le sommes peut être un peu moins du véritable pouvoir de Google, Facebook, Twitter et Cie de mettre en danger nos démocraties.
Le documentaire de Jeff Orlowski “Derrière nos écrans de fumée”, disponible sur Netflix, retrace des faits déjà connus, mais dans un format intéressant qui montre les coulisses des grandes machineries de la Big Tech, à travers des témoignages d’anciens cadres de la Silicon Valley, dont la plupart ont été les concepteurs de ces fameux algorithmes. Ils racontent la détermination toute sauf accidentelle des géants de la tech à influer sur l’individu, et, en effet secondaire désagréable, sur la société.
"Le problème, d'après The Social Dilemma, est que le modèle commercial basé sur la publicité et l'engagement, qui en est venu à dominer Internet, est principalement fondé sur la manipulation", résume bien Will Oremus, rubricard technologie chez Slate US.
On peut reprocher à ce documentaire des côtés un peu “sur-dramatisés” avec son trio fictif d’algorithmes sociopathes anthropomorphisés travaillant au sein d'un réseau social sans nom pour concevoir des notifications push sur mesure afin de capter leurs utilisateurs, ou encore cette famille angoissée qui se bat pour que les enfants rangent leur téléphone pendant le dîner. Casey Newton, dans sa newsletter The Interface, critique d'ailleurs vivement le côté simpliste du film. Mais le sujet est assez dramatique pour que chaque utilisateur des réseaux sociaux doive comprendre l'influence des plateformes sur sa vie.
Roger McNamee, un des premiers investisseurs de Facebook, retrace le chemin d’un Géant du web qui vendait d’abord un produit et des services, puis ses utilisateurs. Google n’est pas juste un moteur de recherche, et Facebook n’est pas juste un endroit pour voir ce que font nos amis. “Si c’est gratuit, c’est vous le produit” n’est que le début d’une évolution dangereuse de nos rapports avec les plateformes engagées dans une bataille féroce pour notre attention.
Un des pionniers d'Internet et de la réalité virtuelle, Jaron Lanier, auteur de “Ten Arguments for Deleting your Social Media Accounts Right Now” (Dix arguments pour supprimer vos comptes sur les réseaux sociaux immédiatement) différencie un peu plus en y ajoutant, que ce n’est pas nous, mais bien “le changement graduel, léger et imperceptible de notre propre comportement et de la perception qui est le produit”.
Vendre la certitude
Shoshana Zuboff de la Harvard Business School explique le succès du modèle économique dont nous sommes le produit : “vendre de la certitude”.
Grâce à la quantité astronomique de données que les plateformes récoltent en compagnons de notre vie quotidienne, ils ont créé un nouveau marché qui ferait du commerce avec “le futur des êtres humains à grande échelle” et qui fait des compagnies tech les entreprises les plus riches de l’histoire de l’humanité. Les prises de décision plus ou moins maîtrisées à coups de Deep Learning ont 3 objectifs :
- l’engagement (rester connecté),
- la croissance (inviter des amis),
- et les revenus publicitaires (prédire le succès).
En effet, ce n’est pas la donnée qui est intéressante, ce sont les modèles pour prédire nos actions construits à partir de ces données qui font gagner des milliards de milliards de dollars aux plateformes.
Mais si elles sont capables de nous comprendre jusque dans le moindre détail de notre personnalité et de prédire nos comportements, de là il n’y a qu’un petit pas vers la tentation d’agir sur nos comportements. Tim Kendall, ancien cadre Facebook et ex-président de Pinterest, pris lui aussi dans le maelström de la dépendance à ces machines qu’il a aidé à développer, évoque des discussions de ce type chez Facebook (“laissez les commandes à Mark”).
De la domination de nos vie quotidiennes à la prise d’influence
C’est à Stanford, au Laboratoire de Captologie, que la plupart des maîtres de la tech ont appris comment devenir des “génies de la modification du comportement” en rendant la tech plus captive en suivant de simples règles comportementales, tout comme les machines à sous à Las Vegas.
Chamath Palihapitiya, ancien VP Growth de Facebook a écrit la bible du “growth hacking”, qui explore les failles de la psychologie humaine, appliqué par l’ensemble des plateformes de la Silicon Valley. Nous sommes tous des rats de laboratoire, non pas pour développer un nouveau médicament contre le cancer, mais pour renforcer la “contagion à grande échelle” à coups de messages subliminaux. Nous devenons la proie d'une “fake brutal popularity” qui nous laisse pourtant souvent plus vides qu’avant l’apparition des plateformes. La comparaison avec la drogue n’est pas loin. Avec la seule différence qu’ici, ce n’est pas une combinaison de molécules mais d’algorithmes sophistiqués qui nous rendent accros.
Tristan Harris affirme que tout ceci a été fait consciemment. Il ne s’agirait pas d’un accident dans le parcours du développement d’une entreprise, la déviation du simple outil vers une technologie basée sur la dépendance et la manipulation s’est faite “on purpose”.
Jonathan Haidt, auteur de “The Righteous Mind: Why Good People Are Divided by Politics and Religion”, évoque des chiffres alarmants : depuis l’arrivée des réseaux sociaux, les automutilations chez les pré-ados ont triplés et le taux de suicide est monté à +151%. Toute une génération a grandi sans protection au milieu des réseaux sociaux, accrochée à leur “tétine numérique” (Tristan Harris) qui les a rendus plus fragiles qu’avant.
Bien sûr que les médias “anciens” essayaient déjà de capter l’attention de leur audience le plus longtemps possible. Mais aujourd’hui, toute tentative de maîtriser notre dépendance se heurte à un combat inégal entre un cerveau humain qui a peu évolué depuis des millions d’années et une technologie qui se développe exponentiellement.
Les Fake News comme modèle économique, un danger pour la démocratie
Les algorithmes ne sont pas neutres. Cathy O’Neil, Data Scientist et auteure de “Weapons of Math Destruction” nous rappelle que les “algorithmes sont des opinions codées”. Là où il y a encore 20 ans tout le monde recevait plus au moins la même information pour se former ensuite son propre avis, les algorithmes des plateformes nous servent aujourd’hui des mondes complètement différents. Chaque personne voit sa propre réalité, avec ses propres faits, et bien au chaud dans nos bulles de filtre et nos fils d’actualité, nous avons la (fausse) impression que “tout le monde est d’accord avec nous grâce aux magiciens des algos de Facebook” (Roger McNamee).
Avec un résultat dangereux mis en exergue par Rashida Richardson de la NY School of Law : Nous devenons imperméables à des informations qui diffèrent de notre monde virtuel. Si chacun est imbu de ses propres faits “le compromis n’est plus nécessaire, ni le besoin de se réunir. Il n’y a plus besoin d’interagir” (Roger McNamee).
Nous pensons que les algorithmes sont conçus pour nous donner ce que nous voulons, mais ils sont juste là pour nous faire nous engouffrer dans des “Rabbit Hole” à l’instar de YouTube, au plus près de nos intérêts, dans une boucle infinie d’attention captée.
Avec des dérives, comme les Fake News qui sont diffusées 6 fois plus vite sur Twitter que la “vraie” information, selon une étude du MIT. A l’échelle d’une société, les Fake News rapportent plus d’argent que la vérité ennuyeuse, la preuve en a encore été faite avec l'infodémie en pleine crise de la Covid-19.
A force de passer notre vie sur les réseaux sociaux, nous avons de moins en moins le contrôle de qui nous sommes et en quoi nous croyons. A ce stade, la manipulation comportementale est une menace existentielle. La tech, capable de révéler le pire dans une société est un formidable outil de persuasion, si ce n’est pas une arme de destruction massive de notre capacité de juger et de vivre en démocratie.
Nous avons créé un monde, où la connexion en ligne est primaire. Sauf que l’on n’est jamais connecté tout seuls, il y a toujours une 3ème personne sous la forme de l’algorithme qui a comme seul but de nous manipuler. L’IA dirige déjà le monde depuis des salles immenses de supercalculateurs. Pour certaines voix dans le documentaire, ces marchés qui détruisent la démocratie et la liberté devraient être interdits. Pour d’autres, il n’est pas trop tard pour basculer du bon côté entre utopie et dystopie.
Faut-il supprimer les réseaux sociaux ?
Nous sommes loin de l’idée de Steve Jobs d’un ordinateur comme bicyclette de nos esprits. Aujourd’hui, la tech est au service d’un centre commercial géant avec l’extraction de l’attention comme modèle économique destructeur. Mais la tech ne suit pas des lois physiques. Nous, et surtout les dirigeants des plateformes, avons toujours le choix, et il serait bien de ne pas laisser décider de notre avenir uniquement une 50aine de designers de 20 à 35 ans en Californie (et en Chine). Bien-sûr que les réseaux sociaux ne sont pas les seuls responsables de tous les maux de la société, mais ils contribuent à une polarisation qui met en danger la démocratie. Il est peu probable qu'un changement vienne de l'intérieur de ces entreprises, même si elles affirment désormais vouloir s'auto-réguler.
Nous avons besoin d’un point de vue commun sur la réalité, c’est peut être là un des rôles principaux des médias de service public, à contre-poids des géants de la tech.
Illustration : Capture d’écran “The Social Dilemma”, Netflix