Par Alexandre Bouniol, France Télévisions, MédiaLab
Ils déterminent notre fil d’actualité, notre catalogue de vidéos à la demande, nos suggestions d’achats, nos recherches internet... Les algorithmes sont omniprésents sur l’ensemble des plateformes et pourtant leur fonctionnement reste obscur, même pour les plus avisés ! Au vu du pouvoir acquis par les plateformes, sont-elles à même de pouvoir en faire « bon usage » ? C’est la question à laquelle quatre experts ont essayé de répondre à l’occasion du Forum sur la gouvernance de l’internet. Décryptage.
L’utilisation des algorithmes par les plateformes
Eric Brousseau, professeur à l’université Paris Dauphine / PSL, directeur scientifique de la chaire « gouvernance et régulation » et du club des régulateurs, directeur de l’initiative de recherche PSL « governance analytics », co-directeur du master IREN (Industries de réseaux et économie numérique) distingue deux types d’algorithmes utilisés par les plateformes. La programmation « classique » et l’intelligence artificielle (IA). Les algorithmes de l’IA sont des « logiciels sophistiqués d’inférences statistiques à très haute fréquence et de manière très approfondie avec un objectif particulier : être décisionnel ». En pratique, les algorithmes sont utilisés par les plateformes pour deux cas d’usage : le ciblage et le filtrage.
Le ciblage est utilisé dans une logique de curation de contenu. « Cela tient au fait que nous avons une attention limitée. On peut demander aux machines de sélectionner du contenu pertinent » explique Eric Brousseau. Le filtrage quant à lui permet de « prendre des mesures de protection contextuelles en évitant la censure absolue ». « Sur la question du ciblage et du filtrage, aujourd’hui le ciblage est plutôt du domaine de l’intelligence artificielle alors que le filtrage est aujourd’hui encore de la programmation ». Même si « en pratique, on utilise les deux » conclut-il.
Laurène Beccucci, doctorante à l’école doctorale 480 Montagne Humanités, souligne les limites du filtrage exercé par les algorithmes. Notamment dans la modération de contenu, pratique qui consiste à surveiller « l’ensemble des contenus soumis et générés par les utilisateurs sur des sites. Ce sont des choix éditoriaux sur des critères non arrêtés ». À l’heure actuelle, les algorithmes ont beaucoup de mal à distinguer les propos ironiques ou sarcastiques des autres. C’est la raison pour laquelle les plateformes font appel à des modérateurs de contenus en complément, qui peuvent arbitrer lorsque la machine n’est pas en mesure de le faire. Il y en aurait environ 100 00 dans le monde.
Des biais inhérents aux algorithmes
« Attention à ne pas essentialiser l’algorithme » alerte Loïc Rivière, Délégué général de Tech in France. Nous avons tendance à croire que l’algorithme est une machine auto-suffisante, mais elle reste une création humaine. Par définition, un algorithme, « c’est un processus de discrimination, il a vocation à sélectionner, classer, ordonner et donc à discriminer » renchérit-il. Il n’est pas neutre. C’est également le sens des travaux d’Aurélie Jean qui souligne que les biais cognitifs se transposent aux biais algorithmiques. Eric Brousseau confirme l’idée que « le concepteur de l’algorithme s’intéresse à son efficacité compte tenu de son objectif, mais ne s’intéresse pas à la stratégie suivie par l’algorithme ; comme les principes éthiques par exemple ».
Mais il est également possible de détourner de manière intentionnelle les algorithmes. Notamment les algorithmes de ciblage. Il est question de manipulation politique, économique ou encore d’opinion. Aurélie Jean parle « d’algorithme de captologie » pour capter l’attention de l’utilisateur. Par exemple le fait d’inciter les utilisateurs à consommer du contenu audiovisuel sur une plateforme relève de ce genre d’algorithme. Eric Brousseau voit une forme « de retrait du libre-arbitre ». Au niveau économique, il décrit « des risques de discrimination absolue et de création de situation de monopoles ou de monopsones ». Sur le plan civique, le ciblage peut selon lui aboutir « à une forme de disparition d’espace commun, de fragmentation sociale ». Il est ici question de filter bubble, théorisé par Eli Pariser, qui enfermerait chaque internaute dans sa bulle informationnelle.
Toujours selon Eric Brousseau, le filtrage fait aussi « la même chose, mais peut avoir d’autres inconvénients ». Notamment sur le principe de la propriété intellectuelle, sur lequel les algorithmes peuvent avoir une application asymétrique trop stricte pouvant peut bloquer l’innovation ou bloquer l’accès à certains types de contenus.
#IA/algorithmes? «La CNIL a un rôle d’éclaireur. Nous avions mené une réflexion #algoethique en dégageant des principes (transparence, intervention humaine, notamment sur la décision). On travaille également sur la problématique des biais pour ne pas être victime de la machine» pic.twitter.com/bJdCBZTAxA
— CNIL (@CNIL) 24 juin 2019
Un besoin urgent de nouvelle gouvernance
Eric Brousseau est clair : « il y a une menace sur l’État de droit ».
Le problème réside non pas dans l’intentionnalité des plateformes mais dans le fonctionnement de leurs procédures.
Ce sont des acteurs privés, à la fois soumis à des règles de responsabilité (comme le fait de ne pas diffuser des images violentes ou à caractère pédopornographique) et à des risques réputationnels très importants. L’image d’un réseau social peut très vite se dégrader, Facebook en étant peut-être le meilleur exemple. « Les coûts de changement de fournisseurs étant très faibles, les conséquences peuvent être catastrophiques » prévient-il. « La pression des intérêts organisés » (intérêts économiques, politiques, etc.) est très forte. Cela a pour conséquence la mise en place d’une « certaine forme de conservatisme » et de radicalité de la part des plateformes.
En ce qui concerne le filtrage, il y a en général « plus de retraits que nécessaire » et les « procédures d’appel sont très difficiles à mettre en œuvre ». Par exemple, le tableau « L’Origine du monde » de Gustave Courbet est systématiquement retiré des plateformes car les algorithmes (ou les modérateurs selon les cas) n’y voient non pas une œuvre d’art, mais une forme de nudité. Cette censure pose question, car un règlement privé entre en conflit direct avec l’État de droit en niant la liberté d’expression. « Le filtrage empêche le débat » assène Eric Brousseau. La quasi-immédiateté de ces actions pose problème, l’État de droit fonctionnant sur des temporalités plus longues. Le fait de débattre d’un retrait d’un contenu est ici impossible. Il arrive à la conclusion que « ces procédures ‘traditionnelles’ apparaissent aujourd’hui inadaptées ». « Les plateformes sont assaillies de demandes » (qu’elles viennent des pouvoirs publics, mais aussi de groupes d’intérêts privés) et il « est très difficile de toutes les traiter de manière équitable. Et ce n’est pas à eux de faire cet arbitrage. C’est un arbitrage qui relève du débat social ».
De la même manière, les pouvoirs publics ont des moyens d’action plus que limités pour agir. Leurs mandats sont limités territorialement (alors que les plateformes sont globales) et ont des compétences techniques plus que limitées face à celle des plateformes. La régulation ne pouvant s’effectuer ni par l’un ni par l’autre de manière décorrélée, Eric Brousseau propose une nouvelle forme de gouvernance sur trois axes :
- « Développer les compétences étatiques pour mieux comprendre les évolutions en cours et les moyens d’actions possibles afin d’être en mesure d’être en capacité d’action ». L’univers des plateformes étant extrêmement mouvant, il insiste sur le fait de développer une forme d’agilité des pouvoirs publics. Le droit dur ou hard law n’est donc pas nécessairement adapté pour répondre à ces enjeux.
- « Ne pas négliger l’importance du maintien de la concurrence entre les plateformes ». C’est un élément de régulation entre les plateformes. Même si la concurrence n’est pas directe, la logique du secteur étant « the winner takes all », il est important de conserver « ce que les économistes appellent la contestabilité des marchés, le fait que l’entrée soit possible ». Pas nécessairement via le même modèle, mais qu’il soit possible d’intégrer un marché à l’instar de ce que Google ou Apple a pu faire face Microsoft.
- « La vigilance citoyenne ». Elle se met en place via différents dispositifs comme la formation (donc une forme d’éducation citoyenne numérique) et l’organisation de débat publics.
Il est selon lui vital que la société fasse « évoluer ses normes sociales » notamment pour les problématiques en lien avec la vie privée qui « sont différentes de celles d’il y a vingt ans et seront différents de celles dans vingt ans ». En bref, créer de nouvelles éthiques plutôt que de revenir en arrière.
Revoir le « design institutionnel »
C’est en ces termes de « design institutionnel » que Célia Zolynski, professeure à l’école de droit de la Sorbonne, a développé son argumentation. Selon elle, il faut une régulation systémique de l’économie de l’attention qui implique la donnée, les opérateurs et les utilisateurs à l’instar du modèle du RGPD : « la logique RGPD est intéressante puisqu’elle allie responsabilisation des opérateurs et pouvoir d’agir des utilisateurs. L’objectif est d’articuler droit dur et droit mou dans une logique de 'compliance' différentes normes qui auraient pour intérêt d’adresser la question de façon transversale pour questionner la captation, la valorisation de notre attention. »
Un des enjeux majeurs se situe dans la capacité des utilisateurs à comprendre comment fonctionnent les algorithmes. Actuellement, le droit de la consommation est violé, car les consommateurs ne savent pas quels sont les « mécaniques intentionnelles » à l’œuvre dans les algorithmes, leurs capacités d’action sont donc limitées. Cela ne signifie pas pour autant rendre leurs algorithmes publics, qui pourraient « entrer en conflit avec le secret des affaires » alerte Eric Brousseau. À l’instar d’une étiquette sur un soda, on peut savoir quels sont les ingrédients sans pour autant avoir la recette. C’est ici la même logique.
Une autre piste envisagée par Célia Zolynski est de donner la possibilité aux utilisateurs de choisir personnellement les réglages des algorithmes. On parle de « critères de jouabilité », solution également proposée par la CNIL. Cela consiste à choisir les capteurs à partir desquels on souhaite établir notre propre attention. Concrètement cela reviendrait à choisir ce qui apparait sur notre fil d’actualité plutôt que ce que la plateforme en question choisit à notre place. Célia Zolynski propose une solution qui va encore plus loin en soumettant l’idée d’une « portabilité de notre attention » entre les plateformes. Cela permettrait de garder les critères précédemment rentrés d’une plateforme à une autre.
Pour paraphraser Tancredi Falconeri dans le film « le Guépard » : « pour que tout reste comme avant [un État de droit], il faut que tout change [la gouvernance des algortihmes] »
Pour aller plus loin sur Méta-Media :
Réseaux sociaux et médias à l’ère des algorithmes : une expérimentation sans fin ?
Ne laissez pas les robots tout seuls !