Par Benoit Raphael, ancien journaliste, entrepreneur et éleveur de robots chez Flint
Je fais un métier du futur, un métier que vos enfants feront peut-être demain. Je suis éleveur de robot. Ou plutôt éducateur d'intelligence artificielle. Le MIT préfère parler de « coach pour machine » (AI trainer), ce qui fait d'un coup beaucoup plus classe sur une page LinkedIn, et l'a rangé en 2018 dans le top 5 des professions d'avenir. Il y a même un livre qui parle de moi, Les Métiers du futur (Isabelle Rouhan, First, 2019).
Une « nouvelle » technologie ?
A quoi peut bien servir ce métier ? Dans un monde où tout est en train de s'automatiser, on pourrait croire que les robots vont avoir de moins en moins besoin des humains. Et nous de plus en plus d’eux. Ce rêve que pourrait caresser légitimement tout patron d'industrie soucieux de ses actionnaires – remplacer ses salariés imprévisibles et récalcitrants par des algorithmes – se heurte pourtant déjà à la dure réalité d'aujourd'hui : les robots sont extrêmement stupides.
Qu'entend-on alors par intelligence artificielle ? Tout d’abord, cette technologie « du futur » existe déjà depuis bien longtemps. C'est même grâce à elle que les Alliés ont gagné la guerre de 39-45. Ou qu'ils l'ont, tout au moins, gagné beaucoup plus vite que prévu (2 ans selon les experts) sauvant ainsi plusieurs millions de vies. Le problème que la machine de Turing essayait de résoudre à l’époque était assez simple : déchiffrer le code secret qu'utilisaient les nazis pour communiquer sur les positions de leurs troupes. Le problème : le mot de passe changeait toutes les 24 heures. Les experts en décryptage savaient comment craquer le code, mais ils n'avaient pas le temps de faire toutes les opérations dans les 24 heures imposées.
La modélisation du système de pensée
Tout bien réfléchi, quand on parle d'intelligence artificielle aujourd'hui, on ne parle finalement que de ça : modéliser l'expertise humaine (ici le décryptage d'un code secret) en vue de l'automatiser.
Lorsque le problème est simple à résoudre, on peut en dégager une méthode que l'on va ensuite programmer, sous forme d'algorithmes, un peu comme une recette de cuisine. Ensuite, tout dépendra de la qualité des ingrédients.
Lorsque le problème est plus complexe cependant, programmer des règles ne suffit plus. Pour détecter une maladie qu'un humain pourrait ne pas voir malgré tous ses outils, pour sélectionner et personnaliser une information de qualité adaptée à la diversité de chaque être humain, ou pour reconnaître un cheval sur une photo, il n'y a pas de méthode connue, ou alors la liste des critères serait plus longue que les mots disponibles dans le vocabulaire humain. Dans ce cas, il n’y a plus de recette : on demande au robot de trouver lui-même la méthode. On lui envoie toutes les données que l'on a à notre disposition, même incomplètes, et on lui indique simplement le résultat : ici c'est « oui », là c'est « non », ou ici « c'est un cheval », et là « ce n'est pas un cheval ». Au robot de déterminer ensuite les règles pour y arriver.
Evidemment, pour que le robot puisse inventer sa propre recette de cuisine, quels que soient les ingrédients, il faut le doter de capacités d'apprentissage. C'est ce qu'on appelle l'apprentissage automatique, le « machine learning » en anglais.
Et pour traiter des problèmes encore plus complexes, le machine learning s'appuie parfois sur un modèle algorithmique moins linéaire, s'inspirant des réseaux de neurones humains, c’est à dire des réseaux de fonctions mathématiques, que l'on fait ensuite interagir entre eux. C’est ce qu'on appelle le « deep learning ».
L’éducation des robots
Qui dit « learning », dit donc éducation. Pour que les robots trouvent d'eux-mêmes la bonne méthode pour régler des problèmes complexes, il ne faut pas les programmer, il faut les éduquer. Le métier d'éducateur d'intelligence artificielle n'est donc pas un métier technique de programmeur. Il s'apparente plutôt à celui d'un prof face à ses élèves.
« Pour que les robots trouvent d'eux-mêmes la bonne méthode pour régler des problèmes complexes, il ne faut pas les programmer, il faut les éduquer. »
Sauf qu’éduquer un robot n’est pas aussi facile qu’éduquer un enfant. Quand on parle d' « intelligence artificielle », il faudrait déjà commencer par retirer le mot « intelligence ». Prenez un enfant de 2 ans par exemple. Pour lui faire comprendre la différence entre un chat et un chien, il faut lui montrer un chien deux ou trois fois. Un robot, il faut le lui montrer plusieurs centaines de milliers de fois ! Vous me direz, ce n'est pas grave, avec la puissance des processeurs aujourd'hui, un million de fois ça va très vite. Certes. Mais à présent, imaginez un prof en train d'essayer d'éduquer un enfant complètement stupide mais qui réfléchit très très vite ! C'est infernal. Parce que, dans le même temps, cet élève est capable de faire un million de fois plus d'erreurs qu'un enfant normal !
Alors comment éduque-t-on une intelligence artificielle ? Avec des données (beaucoup de données) et avec des boucles de rétroactions. Qu'est-ce qu'une boucle de rétroaction ? C’est simple : comme le robot est très bête (un algorithme est par définition une simplification de la réalité) et comme les données qu'on lui envoie sont presque toujours incomplètes, il a une fâcheuse tendance à s'écarter rapidement du réel. On appelle ça un biais. Il a donc besoin de retours réguliers pour le corriger, c'est ce qu’on appelle une boucle de rétroaction. Le rôle de l'éducateur de robot serait donc de vérifier que les données qu'il lui envoie soient les plus diversifiées et équilibrées possibles, pour éviter les clichés par exemple. Il est aussi nécessaire de contrôler que les résultats obtenus par le robot ne s'embarquent pas, au fil de son apprentissage, dans des biais dangereux.
Sauf que jusqu'à aujourd'hui, les robots ont été très mal éduqués. Ils ont été façonnés puis entraînés par une population de jeunes ingénieurs, généralement de sexe masculin, le plus souvent blancs et californiens, cloîtrés derrière leur écran et leur bol de chips. Il n'y a pas de ministère de l'Education nationale pour les algorithmes. L'idée vous fait peut-être sourire, mais regardez le résultat.
L’impact des biais sur la diffusion de l’information
Prenez l’information, qui est au cœur de la croissance de notre économie. Aujourd'hui, l'information est devenue tellement riche et abondante sur Internet qu'aucun humain n'est capable de la trier et d’en distinguer la valeur cognitive. Il est donc indispensable de faire appel à la technologie pour faire ce tri à notre place. Le problème est que plus personne n'éduque ces robots ! Enfin, pour être plus juste, c'est vous qui les éduquez : chaque jour vous envoyez des centaines de données aux robots des moteurs de recherche et des réseaux sociaux, mais sans savoir comment elles ont utilisées et surtout sans pouvoir les corriger consciemment lorsque les robots se trompent. Et comme ils sont stupides, il déduisent de votre comportement superficiel et incomplet des modèles de qualité d'information ultra-simplifiés et extrêmement biaisés. Conséquence : ils vous envoient à peu près toujours les mêmes contenus. Et si vous avez le malheur de réagir, même négativement, il y a de fortes chances pour qu'ils vous en envoient encore plus. On appelle ça les bulles d'informations.
Après avoir rendue l'information horizontale et abondante, les algorithmes ont replié l'information sur elle-même en enfermant ses audiences dans des chambres d’écho. Pire, les robots sont très sensibles aux fake news, parce que ces dernières épousent parfaitement leur modèle simpliste de sélection : beaucoup d'engagement, par d'autres profils qui vous ressemblent dans leur comportement.
Après vingt ans passés à mauvaise école, les robots sont devenus les délinquants de l'information. Et comme pour les délinquants humains délaissés par le système éducatif, les tentatives de rééducation semblent toutes vouées à l'échec. Cette génération est sans doute déjà perdue. Il va falloir se tourner maintenant vers une nouvelle génération de robots qu'il faudra prendre le temps d'éduquer, à qui nous devrons transmettre le meilleur de nous-mêmes.
Reprendre le contrôle
C'est ce que j'essaie par exemple de faire avec Flint, une « école de robots » où des centaines d'experts transmettent chaque jour à une intelligence artificielle leurs valeurs et leur vision d'une information de qualité. D'autres projets similaires commencent à voir le jour, avec un seul objectif : reconstruire, en joignant nos forces, un Internet centré sur les valeurs, et capable de nous faire grandir.
L'enjeu est de taille. Lorsque l'on sait qu'un simple changement arbitraire d'algorithme par Facebook, ou la seule manipulation de ses failles par des esprits mal intentionnés, peut influencer les résultats d'une élection dans une grande démocratie, ou même accélérer de façon artificielle le mouvement des Gilets jaunes, on se dit qu'il est temps de reprendre le contrôle sur ces machines laissées à elles-mêmes.
Ce dérèglement dramatique de l'écosystème de l'information, provoqué par l'automatisation incontrôlée des tâches cognitives nécessaires à sa distribution, doit nous interroger plus globalement sur notre approche de l'intelligence artificielle et sur son utilisation massive dans l'industrie.
L'intelligence artificielle est encore trop souvent vue comme un simple moyen de réduire les coûts dans les secteurs les plus violemment frappés par la crise. Alors que l'on devrait y réfléchir en termes de création de valeur.
S'ils ne sont pas intelligents, au sens humain du terme, les algorithmes sont cependant des outils formidables pour nous aider à résoudre des problèmes de plus en plus complexes.
Des alliés plus que des ersatz
En octobre 2018, une œuvre d'art, créée par une intelligence artificielle, a été vendue 432 500$ chez Christie's. Ce robot qui, comme tous les robots, travaille très vite, est capable de produire plusieurs centaines d'œuvres similaires à la minute. Alors d'où vient la valeur puisque tout est automatisé ? Le robot artiste a été conçu et éduqué durant plusieurs mois par un collectif d’artistes et de chercheurs français, Obvious. C'est ce collectif qui a donné du sens à cette œuvre, qui a conçu l'univers artistique du robot en interagissant avec lui, et qui a mis en scène une sélection de ses peintures pour les mettre à la vente. De la même manière que ce n'est pas l'urinoir qui a fait l'œuvre de Duchamp (« Fountain »), mais la valeur que l'artiste a construite autour de cet objet industriel fabriqué à la chaîne.
Pour les médias, pour la presse comme pour l'industrie audiovisuelle, les « robots rédacteurs », les « robots scénaristes » ou même, pourquoi pas, les « robots réalisateurs », ne pourront pas se contenter de remplacer les humains. Ils devront nous aider à inventer de nouveaux produits éditoriaux porteurs de sens et de valeurs.
Tout comme l'appareil photo n'a pas remplacé le regard des illustrateurs – mais a fait naître une nouvelle discipline créative, tout comme les synthétiseurs n'ont pas remplacé les musiciens, l'intelligence artificielle doit être vue comme un nouvel outil technique entre les mains des producteurs de contenus au service de la création de valeur.
Quels nouveaux métiers allons-nous inventer demain grâce à ces nouveaux outils ? Quelles œuvres nouvelles allons-nous créer avec ces technologies révolutionnaires ?
Les robots ne nous remplaceront que si nous continuons à travailler comme des robots. Les pays les plus robotisés que sont l'Allemagne, le Japon et la Corée du Sud, sont aussi ceux qui affichent le plus d'employabilité.
Comme celui d'éducateur de robots, les métiers du futur feront sans doute moins appel à des compétences techniques de filière qu'à ce que l'on nomme aujourd'hui les compétences comportementales, les « soft skills ». C'est à dire : la créativité, la capacité à apprendre, à structurer, à s’adapter à de nouvelles problématiques et à travailler ensemble. Cela signifie que si le futur est technologique, les gagnants ne seront pas forcément les profils les plus techniques. Cela signifie que tout le monde peut et doit s'emparer de l'intelligence artificielle.
Parce que l'objectif de la technologie ce n'est pas d'améliorer la technologie, c'est de résoudre des problèmes. Pour les résoudre, les humains ont besoin de deux compétences : savoir identifier les problèmes, et donc être capable de définir des objectifs en termes de valeur et de choix de société. Qu’est-ce que le progrès ? Qu’est-ce qu’un futur souhaitable ? Le produit intérieur brut est-il plus important que le bonheur intérieur brut ? Quel est le rôle de l’information dans un monde complexe et en perpétuelle révolution ?
On n'a jamais eu autant besoin de diversité et de sens qu'aujourd'hui. Au-delà de la conception et de l'entraînement des algorithmes, c'est au final tout notre système d'éducation et de formation qu'il faut repenser.