Par François Fluhr, France Télévisions, Prospective et MediaLab
Le très attendu rapport Villani a été rendu public en ce début d’année. Riche en recommandations, il dote la France d'une vision stratégique sur l'IA et souligne notamment la nécessité de construire une éthique apte à prévenir les nombreuses discriminations que cette technologie pourrait perpétuer et même produire. C’est dans ce contexte que nous avons assisté au Rendez-vous de l’inspiration, organisé par Brains Agency, durant lequel cet enjeu sociétal a été abondamment discuté.
L’IA n’est pas plus intelligente que les données qui la nourrissent
D’après Alice Coucke, machine learning scientist, l’avènement de l’intelligence artificielle s’explique par deux facteurs principaux : l’explosion de la puissance de calcul des ordinateurs, et celle du volume de données générées dont les IA se nourrissent. C’est cette question des données qui, aujourd’hui, cristallise le plus d’enjeux. Lina Williate, juriste spécialiste des questions numériques, explique que l’IA ne peut pas fonctionner sans données :
« Elle nécessite fondamentalement d’être nourrie par des informations, et ces informations ne s’inventent pas, elles proviennent forcément de nous. »
Le problème, c’est que l’IA n’est pas plus intelligente que la donnée qui l’a entraînée : si la donnée est biaisée, l’algorithme répètera mécaniquement ces biais et reproduira donc les travers de nos sociétés. Alice Coucke rappelle ainsi qu’en début d’année, une étude démontrait que la technologie de reconnaissance faciale se révélait plus efficace sur les hommes blancs que sur les femmes et les personnes ayant la peau plus foncée.
Et pour cause : « S’ils sont sous-représentés dans les jeux de données destinés à entraîner l’algorithme de reconnaissance faciale, celui-ci perdra en acuité à leur égard. »
Un cas emblématique, mais loin d'être isolé, qui témoigne de la nécessité d’une réflexion sur la façon dont sont entraînées les intelligences artificielles et la manière dont sont constitués les jeux de données qui les nourrissent. En l’absence d’une telle réflexion, les approximations et le manque de représentativité des citoyens risqueraient d’alimenter les discriminations et stéréotypes qui préexistent dans nos sociétés... au risque d'en faire des règles mathématiques qui seront appliquées machinalement sur le réel, comme une couche d’ignorance artificielle.
Quelle IA pour quelle société ?
L’IA n'est pas seulement capable de perpétuer certaines discriminations : elle peut aussi en créer de nouvelles. Benoît Binachon, fondateur de l'entreprise Human Partner, cite l'exemple du secteur de l’assurance, où l'on peut facilement imaginer des IA capables d’estimer quel degré de risque représente un assuré par rapport à un autre. Dès lors, des tarifications ultra-personnalisées pourraient voir le jour et aboutir à une individualisation de l’assurance.
Un changement qui, pour Line Willate, « serait apte à remettre en cause le principe fondamental de mutualisation des risques qui prévaut aujourd’hui ». De la même manière, Benoît Binachon considère que l’IA appliquée aux ressources humaines pourrait « permettre de détecter des configurations avec une granulométrie très fine, des patterns de réussite dont les recruteurs ne sont pas capables à l’œil nu. Pour le recrutement mais aussi pour l’évolution de carrière. » Il ajoute cependant qu’il existe un risque. Celui de faire émerger de nouvelles discriminations à l’embauche car « l’IA n’est pas créative, elle va chercher dans un espace mathématique fermé des situations qui se sont déjà produites ».
Si l’on part de postulats erronés ou de critères arbitraires perçus comme légitimes à un instant T, l’IA risquerait de ne recruter que des clones. Toute la difficulté vient du fait que l’on peut tout faire avec des algorithmes mais que la clé du succès reste d’être en mesure de trouver des critères qui ont un sens.
Ainsi, pour Benoît Binachon, il faut paradoxalement « continuer à faire des erreurs, rester en dehors de l’espace parfait pour continuer à apprendre, innover, créer et améliorer ».
On perçoit dès lors que le rapport que nous sommes en train de tisser avec l’IA dessine la société de demain : aux questions éthiques que pose cette technologie se superpose une dimension politique qui concerne nos sociétés dans leur globalité.
Une éthique de l'IA
Pour répondre à ces enjeux, le chercheur en éthique numérique Jérôme Béranger propose un label intitulé ADEL (Algorithm Data Ethics Label) :
« En médecine, il y a des échelles de douleur qui permettent de suivre la qualité d’accompagnement de la personne. L’idée, c’est de créer un référentiel, une valeur d’échelle pour suivre l’utilisation de la donnée numérique. »
Le chercheur a en effet estimé que le jugement éthique ne pouvait pas porter uniquement sur un algorithme seul ou sur un jeu de données isolé. C’est le croisement de ces différentes composantes qui nécessite d’être analysé pour construire une vision systémique de l’intelligence artificielle.
« Il faut envisager à la fois l’algorithme, les données utilisées, mais aussi les pratiques et les usages qui en sont faits. »
Il entend ainsi créer un système de labellisation « souple » qui permettra d’accompagner les innovations sans pour autant leur faire obstacle, tout en préparant le terrain aux actions de réglementation.
Lina Williate constate en ce sens qu'« en droit, on fonctionne en soft law parce qu’on ne veut pas bloquer les initiatives de terrain, on les laisse se manifester et ensuite on tranche. Cela permet de susciter des débats de conscience qui portent sur un projet de société. Il faut savoir ce que l’on met en jeu. »
S’il apparaît difficile de réglementer une technologie comme l’IA, en évolution constante, un suivi régulier et réflexif sur le mode de l’accompagnement semble tout de même aujourd’hui prévaloir.
Plus de femmes dans l’IA
Autre enjeu fondamental, celui de la représentativité des femmes parmi les concepteurs d'IA. Ici, le constat est sans appel : il faut plus de « conceptrices ». Dipty Chander, étudiante à EPITECH et présidente de l'association E-mma, promeut la mixité dans le numérique notamment pour résoudre ce problème. Car aujourd’hui, une grande partie de la tech et notamment l’IA se fait sans les femmes : « Epitech, c’est 96% d’hommes pour 4% de femmes. »
Lors de rencontres avec des jeunes filles en pleine orientation professionnelle, Dipty Chander a pu mesurer la méconnaissance des métiers du numérique et le doute entretenu quant à leur capacité à y prendre part. Or il est urgent de rendre le secteur plus paritaire, car si les IA continuent d’être conçues quasi exclusivement par des hommes, elles risquent d’être continuellement biaisées en ce sens. C’est pourquoi Caroline Lair, cofondatrice de Women in AI, entend elle aussi faire émerger des modèles de réussite féminine pour inverser la tendance :
« Au-delà du fait qu’il y ait peu de femmes, il y a un manque de visibilité pour celles qui y sont. Il faut créer des modèles, des exemples auxquels les prochaines générations puissent s’identifier. »
La difficulté principale reste de construire une dynamique de long terme, explique-t-elle :
« Il faut créer un écosystème pour les soutenir durablement, qu’elles puissent partager leurs victoires. Il faut lutter contre le taux d’abandon. »
Ce changement, le rapport Villani l’appelle de ses vœux :
« Le manque de diversité peut conduire les algorithmes à reproduire des biais cognitifs — souvent inconscients — dans la conception des programmes, l’analyse des données et l’interprétation des résultats. L’un des grands défis de l’IA consiste donc à parvenir à une meilleure représentativité de nos sociétés. »
Et pour cause, l’intelligence artificielle ne doit pas être une nouvelle machine à exclure. Il s’agit d’une exigence démocratique, d’un enjeu d’équité et d’une question de justice à l’heure où cette technologie est sur le point de devenir l’une des innovations clés du monde qui vient.