Par Kati Bremme, Direction de l’Innovation et de la Prospective
Menace ou promesse, outil ou ennemi, l’Intelligence Artificielle (IA) s’introduit dans les rédactions, et avec elle la question de l’avenir du journalisme sur fond de relation perturbée avec les géants de la tech, qui nous rendent une fois de plus accrocs en fournissant ...l’essentiel de la technologie dont se sert l’IA.
Prendre du recul face au “hype” autour de l’IA et des “robots journalistes”, et analyser ce que pensent réellement les rédactions de cet outil qui est en train de disrupter leur métier est l’objectif du “Journalism AI Report” du ThinkTank Polis de la London School of Economics, soutenu par la Google News Initiative. Cette analyse repose sur un sondage auprès de 71 médias d’information dans 32 pays, de la presse écrite aux agences de presse en passant par la télévision.
Pour la première fois, on a réuni à cette échelle des journalistes travaillant déjà avec l’IA, qui dévoilent leur compréhension de l'Intelligence Artificielle, son utilisation dans les salles de rédaction et leur point de vue sur le potentiel et les risques pour le secteur de l'Information. Le résultat du sondage peut inspirer ceux qui se posent encore la question sur l’utilité de l’IA, et démontre aussi le besoin évident de collaboration et d’échange entre les rédactions autour de cette nouvelle technologie.
Nous sommes loin des journalistes “turbo-chargés à l’IA” que prédit le professeur Charlie Beckett, à l’origine du rapport. Dans la plupart des rédactions consultées, on manque encore de stratégie claire pour savoir ce que l’IA pourrait apporter à l’Information, et comment elle peut s’inscrire dans la stratégie globale de l’entreprise. Un problème de culture évident, soulevé par 24% des participants du sondage, qui empêche la mise en place de projets IA.
Une stratégie de mise en place de l’IA
Avant de se lancer dans un projet intégrant de l'Intelligence Artificielle, il faut déjà trouver une définition de l’IA partagée avec l’ensemble de l’entreprise et comprise par tous. Un quart des participants au sondage n’a pas de telle définition. La BBC, de son côté, en a plusieurs.
Ensuite, il s’agit d’établir un plan stratégique pour l’implémentation de l’IA dont un modèle en huit étapes est proposé dans le rapport :
- Evaluer le niveau de maturité sur l’IA dans l’entreprise
- Comprendre et catégoriser les différentes technologies d’IA utiles pour l”entreprise
- Décider de quelle façon l’IA s’inscrit dans la marque et la stratégie globale, quels problèmes elle pourrait résoudre, et quels sont les risques
- Choisir les secteurs de l’entreprise qui pourraient intégrer l’IA et à quelle finalité
- Identifier les principaux freins : ressources, compétences, culture, management, sécurité, et établir un plan pour les lever
- Définir les rôles et responsabilités et mettre en place un système de communication afin d’inclure l’ensemble de l’entreprise
- Mettre en place un monitoring des performances et une mise à jour régulière des priorités
- Créer un rôle pour les relations externes avec des partenaires
Dans les 37% des rédactions qui ont une stratégie IA, celle-ci est souvent pilotée par des équipes mixtes data/tech/numérique/innovation. La plupart ont des entités IA réparties dans les différents secteurs, tandis que certains ont même établi des “incubateurs IA” indépendants.
Plusieurs des rédactions interrogés constatent d'ailleurs une certaine confusion autour des rôles et responsabilités des différentes entités dans les projets IA.
Pourquoi adopter l’IA ?
Les rédactions évoquent trois objectifs de leur utilisation de l'IA :
- Libérer les journalistes des tâches répétitives et gagner du temps pour la création de contenus de qualité (Différenciation)
- Publier des contenus plus adaptés au goût du public, personnaliser (Focus)
- Faire des économies d’échelle (Optimisation des coûts)
C’est essentiellement dans les domaines de la collecte d’information, de la production et de la diffusion que l’IA s’introduit dans les rédactions, notamment pour automatiser les tâches. Certaines des rédactions ont intégré l’IA dans leur CMS pour taguer automatiquement des contenus. D’autres se servent des outils de traduction automatique comme Grammarly ou Deepl.com. Chequado et Full Fact utilisent le Machine Learning pour la vérification automatique d’information. La détection des deep fakes, dont la création est aujourd’hui à la portée de tout le monde, devient primordiale. Des algorithmes aident aussi à gérer les réseaux sociaux pour créer et programmer des publications, et Sky News a utilisé récemment la reconnaissance d’image pour identifier des célébrités arrivant à la cérémonie du mariage royal.
Mais les algorithmes seuls ne sont pas prêts à remplacer les journalistes. C’est en collaboration avec les humains qu’ils sont le plus efficaces. A l’instar de RADAR, qui crée des contenus locaux en co-production homme-machine (50.000 dans les 3 premiers mois), ou encore ReporterMate du Guardian qui propose différents templates pour accueillir des données, ensuite éditorialisés par des humains. Des contenus sur mesure et de qualité peuvent aussi aider à soutenir le nouveau modèle économique des paywalls, et même le paywall lui-même peut être optimisé par l’IA, comme l’a fait le Wall Street Journal. JAMES sert de “majordome” numérique au Times of London et l’IA aide même à détecter les émotions, une possibilité exploitée par le New York Times dans le projet Feels qui propose de la publicité personnalisée selon la sensibilité de l’utilisateur.
Face à toutes ces possibilités, nombre de rédactions affirment avoir du mal à prioriser les projets IA. Par ailleurs, le passage du test à l’industrialisation des projets IA leur paraît difficile sans changements organisationnels signifiants.
L’IA, nouvelle disruption pour le journalisme ?
L’A modifie la façon dont l’information est créée et consommée. Mais va-t-elle aussi révolutionner le journalisme ?
Aujourd’hui, l’impact de l’IA dans les rédactions est loin de celui de la révolution numérique. Différentes craintes concernant les éventuels méfaits de l’IA sont cependant mis en avant dans le rapport : les biais algorithmiques et bulles de filtre, la mise en cause du pouvoir des responsables éditoriaux, la relation modifiée au contenu et à l’audience, la collaboration quasi-obligatoire avec les géants de la tech et le manque de maîtrise des données, et bien sûr la peur de perdre des emplois.
Les machines peuvent désormais être la source d’une information. Mais l’IA est aussi l’opportunité de se (re)poser la question des choix dans une rédaction - qui sélectionne, selon quels critères-, et de revoir les fondamentaux d’une industrie pour mettre en place de nouveaux standards de qualité : “Qu’est ce qu’est une bonne information ?”, “Comment un journaliste décide ce qui est important, et vrai ?”, “Comment l’audience utilise-t-elle l’Information ?”.
Ce dont les journalistes interrogés déclarent avoir le plus besoin :
- Formations et sensibilisations dans les rédactions (et dans toute l’entreprise, à tous les niveaux, notamment auprès des managers)
- Le recrutement d’experts avec des compétences IA et data
- La mise en place des métriques pour évaluer les succès des projets IA
L’éditorialisation devient plus granulaire et plus ciblée, grâce aux données utilisateurs traitées par l’IA. Mais les données sont justement au coeur du problème. Peu de rédactions disposent de base de données qualitatives et quantitatives pour permettre une exploitation par l’IA. “Nettoyer” et compléter les bases de données est déjà un projet en soi, et nécessite des moyens conséquents.
Collaborer, y compris avec les concurrents historiques
L’IA est déjà partie intégrante dans nombre de rédactions. Mais l’écart risque de se creuser avec les petites rédactions qui craignent un décalage de plus en plus grand avec les médias qui ont les moyens d’investir dans ces nouvelles technologies.
C’est la raison pour laquelle elles sont les premières à s’associer facilement avec des concurrents dans les domaines du R&D, du journalisme d'investigation et du partage de données. D’autres partenariats se construisent avec des start-ups, des centres de recherche et des Universités (comme le Computational Political Journalism R&D Lab du Washington Post et de la Northwestern University). Les rédactions soulignent entre autres le besoin urgent de collaborer sur le NLP, qui est très bien entraîné en anglais, mais peu dans les autres langues (un des multiples biais de l’IA). Afin d’augmenter le standard et soutenir l’innovation, les participants au sondage remarquent que, ces dernières années, les rédactions ont amélioré leur travail en réseau.
Paradoxe insoluble : dans le domaine de l’IA, les médias se rendent encore une fois dépendants de leurs éternels frenemies (et véritables concurrents), au moment de la sortie de Facebook NewsTab et en pleine guerre de droits voisins en Europe. Ce sont en effet les Gafa qui concentrent l’essentiel du savoir technique autour de l’IA, qui ont recruté les meilleurs experts, et qui mettent à disposition des outils clés en main via le cloud, comme fast.ai, Google’s AutoML ou encore Dialogflow NLP. De l’autre côté, ils soutiennent des projets de recherche associant journalisme et IA à travers la Google News Initiative et le Facebook Journalism Project. Les rédactions sont bien conscientes de la puissance des géants, et demandent a minima de participer à la construction du “next big thing”, car “la prochaine IA d’information conversationnelle pourrait bien être générée par une plateforme tech et non pas par une rédaction”.
Faire des choix éthiques
Dans un contexte de perte de confiance, les rédactions sont très sensibles à la maîtrise du discours autour de leurs outils et affichent une volonté de transparence envers leurs utilisateurs. Certaines grandes rédactions freinent même délibérément l’utilisation de l’IA lorsqu’elles s’aperçoivent qu’elles ne maîtrisent pas le résultat :
“Si nous ne pouvons pas identifier les biais dans un jeu de données (ou si les biais sont difficiles à caractériser), alors le jeu de données, et l’algorithme ne devraient pas être utilisés dans un projet éditorial”.
D’autres cependant assument des test itératifs grandeur nature, quitte à proposer une qualité de contenu diminuée, sachant que dans ce cas, le résultat n’est accessible qu’à un panel de testeurs volontaires. Cela dépend de la définition de “qualité” de chaque rédaction.
Les interrogations éthiques s’inscrivent dans un débat sociétal plus large autour des dangers de l’IA : biais, discrimination, inégalités. Encore une fois, les données sont le coeur du problème (le phénomène du “garbage in, garbage out”). Des jeux de données mal utilisés peuvent même mettre en danger le message et les rédactions, y compris d’un point de vue légal. Et il s’agit pas non plus pour des rédaction de renforcer “biais de confirmation” et d’enfermer encore plus les utilisateurs dans leur bulle de filtre, un point souligné en particulier par les médias de service public interrogés. Il est nécessaire de mettre en place une sensibilisation aux biais dans les projets IA. L’éthique doit être intégrée “by design” dès le développement du produit, et non pas ajoutée comme une cerise marketing sur le gâteau.
Les journalistes ont la responsabilité d’expliquer le fonctionnement de l’IA, certaines rédactions travaillent même sur des “trust features”. L’idée de la “transparence” est noble, mais sans les outils nécessaires peu utile. Il s’agit d’expliquer clairement les limites de l’IA et le degré possible de “doute”. Des valeurs "humaines", comme “la patience, la perseverance et la curiosité” doivent être mises en avant dans les projets IA. Ce ne sont pas les Gafas qui seront à l’origine d’une culture de la transparence autour de l’IA. Même si certaines rédactions interrogées remarquent que la transparence peut mettre en danger leur indépendance, toutes s’accordent sur la nécessité d’un dialogue sincère avec l’audience et des codes éthiques partagés, à l’instar du ONA social media code.
N’oublions pas non plus que l’IA n’est pas la solution miracle, l’une des rédactions interrogées déclare même que “la plupart de [ses] applications innovantes qui ont du succès ne reposent pas sur l’IA”.
Conclusion
De nouveaux pouvoirs se traduisent aussi en de nouvelles responsabilités. La plupart des rédactions n’en sont qu’au début de leur découverte de l’IA. Aucune d’entre elles n’affirme une maîtrise complète de ces nouveaux outils. Et toutes celles qui ont commencé à travailler avec l’IA se rendent bien compte des limites actuelles de l’apprentissage machine et de la programmation neuro-linguistique. Sans une intervention humaine, l’IA n’est capable que de fournir des contenus basiques, voire même erronés. La collaboration - à l’intérieur de l’entreprise, entre rédactions, avec des partenaires tech ou encore des universités - est un facteur clé de réussite à la transformation vers un journalisme augmenté.
L’IA est loin de déclencher tout de suite la prochaine révolution du journalisme, mais elle fait se poser les bonnes questions : quelles sont nos valeurs, notre mission et quelles tâches peuvent être transférées à l’IA ?
A travers les projets IA, les rédactions ont découvert qu'il existe des données précieuses sur les utilisateurs grâce au numérique, et que le journalisme broadcast peut muter vers un journalisme interactif, plus inclusif, à l’écoute des besoins des publics. Et le plus important : “Pour assurer un impact positif de l’IA dans les rédactions, ce sont les valeurs et principes journalistiques qui doivent piloter le développement des solutions IA”.
-> Pour accéder au rapport complet
Illustration de Une : Palesa sur Unsplash