Par Thomas Metzinger, Professeur de philosophie théorique à l'Université de Mayence et membre du groupe d'experts de haut niveau de la Commission Européenne qui a travaillé sur les lignes directrices du rapport pour une « intelligence artificielle éthique ». Billet originellement publié en anglais et en allemand sur Tagesspiegel.de et republié sur méta-media avec autorisation.
C'est une très bonne nouvelle : l'Europe vient de prendre l’initiative du débat mondial très controversé sur l'éthique de l'intelligence artificielle (IA). Lundi dernier à Bruxelles, la Commission européenne a présenté ses lignes directrices en matière d'éthique pour une IA digne de confiance. Le groupe d'experts de haut niveau sur l'intelligence artificielle (HLEG AI), composé de 52 membres, dont moi-même, a travaillé sur le texte pendant neuf mois. Le résultat est un compromis dont je ne suis pas fier mais qui est néanmoins le meilleur au monde en la matière. Les États-Unis et la Chine n'ont rien de comparable. Que peut-on en tirer ?
L'intelligence artificielle ne peut être digne de confiance
L’histoire d’une IA digne de confiance est un récit marketing inventé par l’industrie, une histoire pour bercer les clients de demain. L'idée directrice sous-jacente d'une « IA digne de confiance » est avant tout un non-sens conceptuel. Les machines ne sont pas fiables ; seuls les humains peuvent être dignes de confiance (ou indignes de confiance). Si, à l'avenir, une société ou un gouvernement indigne de confiance se comporte de manière non éthique et possède une technologie d'IA efficace et robuste, cela permettra un comportement contraire à l'éthique plus performant. Par conséquent, le discours d’une IA digne de confiance concerne, en réalité, le développement de marchés futurs et l’utilisation des débats sur l’éthique comme des décorations publiques élégantes servant une stratégie d’investissement à grande échelle. Du moins, c'est l'impression que je commence à avoir après neuf mois de travail sur les lignes directrices.
Peu d'éthiciens impliqués
La composition du groupe HLEG AI fait partie du problème : il ne comprenait que 4 éthiciens aux côtés de 48 non-éthiciens - des représentants du monde politique, d'universités, de la société civile et surtout de l'industrie. C'est comme si vous essayiez de créer une unité centrale à la pointe de la technologie en matière d'IA à destination des pouvoirs publics avec 48 philosophes, un pirate informatique et trois informaticiens (dont deux sont toujours en vacances).
Quiconque finalement était responsable du poids extrême des industriels au sein du groupe avait raison sur au moins un point : il est vrai que si vous voulez que l'industrie européenne de l'IA respecte les règles éthiques, vous devez impliquer les leaders du secteur et les impliquer dès le début. Il y a de bonnes et intelligentes personnes, et ça vaut la peine de les écouter. Cependant, même si le groupe d'experts comprenait beaucoup de personnes intelligentes, le gouvernail ne peut pas être laissé à l'industrie.
La suppression des lignes rouges
En tant que membre du groupe d’experts, je suis déçu du résultat présenté. Les directives sont tièdes, court-termistes et délibérément vagues. Elles ignorent les risques à long terme, font abstraction de problèmes majeurs (« l'explicabilité ») grâce une certaine forme de rhétorique, violent les principes élémentaires de la rationalité et prétendent savoir des choses que personne ne sait vraiment.
Aux côtés de l'excellent expert berlinois en machine learning, Urs Bergmann (Zalando), ma tâche consistait à développer, au cours de plusieurs mois de discussions, les « lignes rouges », principes éthiques non négociables qui déterminaient ce qu'il ne fallait pas faire avec l'IA en Europe. L’utilisation de systèmes d’armes autonomes létales figurait clairement sur notre liste, de même que l’évaluation des citoyens par l’État (score social) appuyée par l’IA et, en principe, l’utilisation de l’IA que les gens ne peuvent plus comprendre ni contrôler.
J'ai seulement réalisé que tout cela n'était pas vraiment souhaité lorsque notre sympathique président finlandais du HLEG, Pekka Ala-Pietilä (un ancien de chez Nokia), m'a demandé d'une voix douce si nous pouvions supprimer la phrase « non négociable » du document. À l'étape suivante, de nombreux représentants de l'industrie et membres du groupe intéressés par une « vision positive » ont insisté avec véhémence pour que la mention « lignes rouges » soit entièrement supprimée du texte - bien que ce soient précisément ces lignes rouges qui relèvent de notre mandat. Le document publié ne parle plus de « lignes rouges » ; trois ont été complètement supprimés et le reste dilué. Au lieu de cela, on ne parle que de « préoccupations critiques ».
52 independent experts, 500+ comments, 7 essentials to achieve trustworthy #AI
These are the new ethics guidelines for #artificialintelligence which companies can start testing this summer 👉https://t.co/lG3Z3H03ij pic.twitter.com/6o3IMVNJTs
— DigitalSingleMarket (@DSMeu) 8 avril 2019
Des « Fake News» aux « Fake ethics»
Ce phénomène est un exemple d’« éthique-washing ». L’industrie organise et cultive des débats éthiques pour gagner du temps - distraire le public et empêcher - ou du moins retarder - l’efficacité de la réglementation et de l’élaboration des politiques. Les politiciens aiment également mettre en place des comités d’éthique, car cela leur donne un plan d’action quand, étant donné la complexité des problèmes, ils ne savent tout simplement pas quoi faire - et cela est humain. Dans le même temps toutefois, l’industrie construit une « machine à laver éthique » après l’autre. Facebook a investi dans la TU Munich - en finançant un institut destiné à former des éthiciens de l'IA. De même, jusqu'à récemment, Google avait engagé les philosophes Joanna Bryson et Luciano Floridi dans un « comité d'éthique », qui a toutefois été abruptement arrêté une semaine après son lancement. Si cela n’avait pas eu lieu, Google aurait eu un accès direct via Luciano Floridi, membre du HLEG AI, au processus par lequel ce groupe élaborera les recommandations en matière de politique et d’investissement pour l’Union européenne à compter de ce mois. Cela aurait été un triomphe stratégique pour le conglomérat américain. Comme l'industrie agit plus rapidement et plus efficacement que la politique ou le secteur universitaire, il existe un risque que, comme dans le cas de « Fake News », nous ayons maintenant un problème avec les fake ethics, incluant nombre d’écrans de fumée conceptuels, des philosophes industriels hautement rémunérés, des labels de qualité auto-inventés et des certificats non validés pour « une éthique de l’IA made in Europe».
Compte tenu de cette situation, qui pourrait maintenant développer des « lignes rouges » éthiquement convaincantes pour l'IA ? En réalité, il semble que cela ne puisse être fait que par la nouvelle Commission européenne, qui entame ses travaux après l'été. L'Amérique de Donald Trump est moralement discréditée ; il s'est lui-même auto-exclu. Et la Chine ? Tout comme en Amérique, il y a beaucoup de personnes intelligentes et bien intentionnées, et dans un souci de sécurité de l'IA, il pourrait, en tant qu'État totalitaire, faire respecter toute directive de manière contraignante. Mais la mise en place d'une surveillance de masse basée sur l'IA sur ses 1,4 milliard de citoyens est déjà bien avancée ; nous ne pouvons pas nous attendre à une véritable éthique. En tant que « totalitarisme numérique 2.0 », la Chine n'est pas une source acceptable pour des discussions éthiques sérieuses. L'Europe doit maintenant supporter le fardeau d'une responsabilité historique réelle.
Reprendre l'éthique des mains de l'industrie !
Si vous avez des objectifs éthiques, vous êtes obligés de trouver et d'utiliser les meilleurs outils disponibles. L'intelligence artificielle est l'un des meilleurs instruments d'éthique pratique de l'humanité. Nous ne pouvons pas nous permettre de ralentir politiquement cette technologie et nous ne devrions certainement pas bloquer son développement. Mais comme une bonne intelligence artificielle est une intelligence éthique, nous avons également l'obligation morale d'améliorer nous-mêmes les directives du groupe de haut niveau. En dépit de toutes les critiques potentielles sur la manière dont elles ont été créées, les directives éthiques que nous développons actuellement en Europe sont actuellement la meilleure plate-forme disponible au monde pour la prochaine phase de discussion. La Chine et les États-Unis vont les étudier de près.
Leur ancrage juridique dans les valeurs fondamentales européennes est excellent et la première sélection de principes éthiques abstraits est à minima acceptable. Seule la véritable substance normative au niveau des risques à long terme, des applications concrètes et des études de cas a été détruite. La première étape est bonne. Mais il est grand temps que les universités et la société civile reprennent le processus en main et retirent des mains le débat auto-organisé de l'industrie.
Tout le monde le ressent : nous sommes dans une transition historique rapide qui se déroule à plusieurs niveaux simultanément. La fenêtre d'opportunité à l'intérieur de laquelle nous pouvons au moins partiellement contrôler l'avenir de l'intelligence artificielle et défendre efficacement les fondements philosophiques et éthiques de la culture européenne se refermera dans quelques années. Nous devons agir maintenant.