Logiciels, algorithmes, robots : journalisme sous influence

« Le numérique dévore le monde », prévient, depuis quelques années, le gourou de la Silicon Valley, Marc Andreessen, et il est en train d’absorber le journalisme. Pour le meilleur ou pour le pire ?

Jusqu’ici, pour assurer leur médiation sur l’actualité, les journalistes dépendaient des événements, de leurs sources, des experts et de leur rédaction-en-chef (ou si l’on préfère de leur ligne éditoriale). Ils sont désormais de plus en plus à la merci des nouvelles boites noires de l’ère numérique qui s’intercalent pour trier, choisir et distribuer l’information. Et parfois en produire !

Aidés de nouveaux filtres automatiques, les nouveaux géants de la technologie -- Google et Facebook en tête--, ont pris en quelques années les clés d’accès d’une information consommée désormais en majorité sur terminaux mobiles, désintermédiant de facto les médias historiques.

Triple défi pour les rédactions

  1. S’il n’est pas déjà trop tard, il est grand temps pour les journalistes d’aller regarder sous le capot, de mettre les mains dans le cambouis, d’enquêter sur ces boites noires, de réclamer des comptes aux algorithmes qui prennent des décisions opaques et de plus en plus autonomes, échappant à tout contrôle et d’examiner quels sont les nouveaux leviers sociologiques derrière les nouvelles manières dont l’information est proposée.
  2. Comme il est grand temps aussi pour eux de vraiment mieux profiter des nouveaux outils et de l’explosion des méga-données pour enrichir leur journalisme, en faire bien plus qu’un contenu : un service d’informations adapté à l’ère du temps, aux usages de la société connectée, une aide à la transition entre deux époques.
  3. Mais surtout, enfin, de mieux redéfinir leurs nouvelles missions dans ce nouveau monde chaotique et souvent inintelligible. Ici, comme ailleurs, la question est moins de savoir comment améliorer le métier existant avec de nouveaux outils, que de réinventer le journalisme dont a besoin ce nouveau monde.

Réseaux sociaux et mobiles, très imbriqués, reformatent l’information

Pilotée par une poignée de firmes américaines, la grande mutation digitale - sociale/mobile/temps réel- , caractérisée par une connectivité de masse, est en train de réorienter le monde. Les médias d’informations, aussi. Avec des paramètres et des critères qui n’ont, parfois, plus rien à voir avec le journalisme traditionnel.

« Organiser l’information mondiale », fut le but initial de Google dont le moteur de recherche est aujourd’hui un des plus importants services mondiaux d’informations à la demande, présentées dans l’ordre choisi par ses algorithmes. Passant à la suite, Google accélère pour placer sa base de connaissance « Knowledge Graph », puis bientôt « Knowledge Vault », au coeur du réacteur. De vrais moteurs de réponses de plus en plus visibles à côté des résultats du search où Google propose ses propres couches d’informations pertinentes (et non plus seulement des liens), bâties sur les milliards de milliards de sollicitations et d’actions en ligne ingurgitées en 15 ans d’apprentissage et d’entraînement du moteur de recherche, et retraitées pas des algorithmes d’intelligence artificielle sur la base d’informations sémantiques issues des métadonnées, des cartographies, de la robotique, des technos de reconnaissance, etc…

Après la connaissance, Google, est donc en train de passer à l’intelligence à la demande. Employant déjà une bonne partie des experts mondiaux de l’intelligence artificielle au milieu de ses 55.000 employés et les poches remplies de 60 milliards $ de cash, il met la main – comme ses concurrents— sur toute une série de firmes en pointe sur la robotique, la reconnaissance vocale, la reconnaissance des visages et des images, le traitement du langage.

Capture d’écran 2014-10-27 à 07.47.08

Au centre du jeu se trouve aussi, bien sûr, Facebook, devenu pour de nombreux médias, en quelques mois, la principale source de leur audience en ligne ; un acteur surpuissant dont ils dépendent pour accéder au public, mais dont ils ignorent tout du fonctionnement, des objectifs, des algorithmes, qui dissocient, fractionnent et réarrangent incessamment l’information.

Aujourd’hui, un cinquième de l’humanité (1,3 milliard de personnes !) est sur Facebook, où s’informe, déjà, près d’un tiers des Américains. Le public fait plus confiance à ses amis qu’aux éditeurs historiques et compte désormais sur Facebook et Twitter pour trier, en son nom, ses infos quotidiennes.

La perte de contrôle des médias d’informations sur leurs contenus et de contact avec le public, liée à la démocratisation de la distribution, est spectaculaire. Un public d’ailleurs friand de ce type de mises en priorité, qui réduisent le bruit d’Internet, résultat du foisonnement numérique, de l’abondance des contenus, de la multiplication infinie des canaux de distribution.

Personne ne sait plus comment choisir quoi lire, écouter ou regarder. La vidéo aujourd’hui est même plus facile à faire qu’à trouver ou à regarder ! La plupart des contenus sont ignorés. Mais ce qui est retenu se propage très vite par ces réseaux sociaux et les mobiles.

Le mobile, aussi, dévore le monde

Zuckerberg et Facebook exercent donc un contrôle inédit sur les choix de lecture de dizaines de millions de personnes en choisissant et déterminant les infos qui leur sont destinées. Twitter prend aussi ce chemin au nom d’une personnalisation accrue. Ils « poussent » des contenus en fonction des choix et interactions antérieures de l’utilisateur. Mais pas seulement. Facebook, qui vit de la publicité, montre ce qui peut résonner chez un lecteur, mais aussi ce qui correspond aux choix éditoriaux de l’entreprise, et sûrement pas tout ce que le journalisme produit pour ses lecteurs.

En somme, chez Facebook, qui ne vous montre pas tout, vous n’entendrez pas beaucoup parler de certains de vos amis ; chez Google, vous ne verrez que ce que le moteur de recherche veut bien vous montrer ; et chez Twitter vous en verrez plus que ce que vous souhaitiez !

Archi-dominant désormais, Facebook représente près de 80 % du trafic venant des réseaux sociaux. Ajoutez à cela la quasi-fusion des réseaux sociaux avec les mobiles d’où vient 80 % du trafic de Facebook, 75% de Twitter, et, depuis cette année, plus de la moitié de celui de YouTube et des grands médias d’informations (New York Times, Guardian, CNN, Atlantic…), et vous avez les clés des bouleversements actuels dans les nouvelles voies d’accès à l’info. 

B08Yr4kCEAAFFL5

Algorithmes, les nouveaux éditeurs

Non seulement l’accès direct au public est filtré par des biais automatiques, mais la dépendance des citoyens à l’égard de tiers incontrôlés grandit dangereusement : leurs décisions sont prises à partir d’informations choisies par ces algorithmes, censés savoir ce qu’ils veulent lire, écouter et regarder. Au nom de la pertinence, de la personnalisation et du vacarme d’Internet, des machines et des applications mobiles, exerçant un nouveau pouvoir quasi-souverain, remplacent donc les éditeurs. Les notifications sur mobiles devenant le nec plus ultra de l’info !

La génération Y peut donc déclarer : « l’info finira bien par me trouver ». Même si ce n’est pas toujours le cas. Sur mobiles, le « search » ce sont les réseaux sociaux. Et si l’info nous trouve, c’est grâce à leurs algorithmes, capables aujourd’hui de prioriser, classer, associer, filtrer, masquer, notifier.

Des machines qui échappent à leurs créateurs  

Or même codés par des humains, ces algorithmes ne sont pas transparents. Ce sont des recettes de cuisine mystérieuses, des séquences d’instructions et des formules opaques, concoctées par des informaticiens et des designers d’applis, avec leur biais, leur manque de formation éthique, leur maladresse dans les choix éditoriaux à prendre.

Pire : ces logiciels se développent désormais empiriquement, quasiment seuls, sans surveillance, grâce aux accélérations colossales de l’intelligence artificielle de machines qui apprennent en ingurgitant nos données (chaque jour Facebook engloutit 500 fois plus de données que Wall Street), puis décident. Des décisions qui ne sont d’ailleurs pas nécessairement connues immédiatement des ingénieurs : leur complexité et leurs incessantes modifications devenant vite des barrières.

Aucun outil, aucune procédure, aucun garde-fous, aucune régulation n’existe pour l’instant pour contrôler les algorithmes, à qui on fait confiance sans poser de questions alors que surgissent --à cause d’eux-- de nouvelles formes de discriminations, censures, impasses, erreurs, artefacts, normes sociales non choisies, fausses informations et prédictions.

Quand Google met en avant ses propres services dans les résultats de recherche, le consommateur n’obtient pas une réponse objective. Quand Facebook ignore un événement, des minorités ou abuse de la pudeur, quand Apple interdit une application, quand Twitter « blackliste » des utilisateurs qui retweetent des contenus louches, la liberté d’expression est bafouée et le citoyen pénalisé.

Nous ne savons ni évaluer le bien fondé de ces informations, ni stopper la désinformation en ligne. Notre appareil juridique n’est pas encore au niveau. Entre citoyens, nous ne savons pas, non plus, nous mettre d’accord sur la nature des tâches à sous-traiter aux algorithmes.

Reconnaissons, aussi, que bien souvent les rédactions ont longtemps fonctionné de manière opaque et en « top-down ». Leurs choix peuvent être peu transparents, faillibles et moutonniers, les faisant passer à côté de courants d’opinion importants de la société et encourageant le développement d’une information alternative, de stratégies de contournement et … les réseaux sociaux.

Mais une chose est sûre : les algorithmes n’ont plus rien à voir avec une ligne éditoriale. Le journalisme devient fongible, interchangeable. Peu importe finalement d’où nous arrive l’interview d’Obama, les images d’inondations ou le dernier dribble de Messi. C’est l’effet « good enough is perfect », bien connu dans le numérique : peu importe que ce soit du journalisme, pourvu que l’essentiel du service demandé soit rendu. Et les applis de résumés algorithmiques (Yahoo, Circa, Flipboard) deviennent les nouvelles « homepage » de l’info.

Internet, nouvel espace public, piloté par des algorithmes

A l’ère de la personnalisation et à quelques exceptions près, le média de masse est aussi de moins en moins un synchronisateur social. Quand il y a tant d’expériences différentes possibles, partager des choses importantes en commun devient plus compliqué.

Comme avec les « playlists » musicales individuelles qui dominent le streaming, nous lisons et regardons, hors de temporalités collectives traditionnelles, des informations qui n’ont plus grand chose à voir avec celles des autres, et qui sont souvent poussées (« notifiées ») en fonction de notre position géographique. Avec les risques avérés de chambres d’écho, de bulles, de moindre sérendipité.

Nous vivons en tribus dans des silos où nous ignorons ce qui compte pour les autres tribus. Cela nous est même complètement indifférent. On croit que l’information – et la culture -- sont partagées, mais elles le sont de moins en moins. En revanche, ce qui est partagé l’est de mieux en mieux, avec plus d’acuité, de pertinence. Et de nouvelles communautés transfrontalières, synchronisées elles, se créent.

Le problème se complique lorsque même les tuyaux veulent choisir l’information que vous allez consommer. Dans la grande bataille de la bande passante et de l’Internet ouvert, croît le risque que le débit que vous achetez ne vous garantisse plus un accès égal à tout ce qui est sur Internet, et que ceux que vous payez (les fournisseurs d’accès) choisissent eux-mêmes les contenus auxquels vous pourrez avoir accès rapidement.

« Datafication » des individus : que faire ? Et quel rôle pour les journalistes ?

Les remèdes semblent d’abord passer par des exigences accrues de visibilité sur les quelques grandes firmes qui actionnent ces algorithmes pour gagner de l’argent, par une régulation enfin à la hauteur, par l’éducation au numérique des citoyens, par la neutralité du Net, par une réappropriation des données par ceux qui les émettent, et par l’ingénierie inversée (« regarder sous le capot »).

Hélas, aujourd’hui, les rédactions en restent à la transparence, à la protection des sources, à l’éthique du métier, tous sujets importants, sans encore enquêter sur les algorithmes, cibles qui, il est vrai, bougent tout le temps, très vite, et se cachent derrière des couches de complexité.

Elles négligent leur responsabilité si elles ne tentent pas de désosser les mécanismes de Facebook, LinkedIn, YouTube qui prennent de plus en plus la place du New York Times, de la BBC ou du Monde dans le débat d’idées de la Cité.

Alors que croît l’urgente nécessité de surveiller ceux qui utilisent nos données, surgit déjà un nouveau casse tête pour les médias : les compétences manquent cruellement dans ces domaines pointus du numérique. Les médias, même américains, se disputent les rares experts onéreux des données qui, eux, préfèrent s’envoler pour la Silicon Valley chez les géants du web ou dans de prometteuses start-ups. Les journalistes et les dirigeants de médias feraient bien d’être un peu plus obsédés par la technologie !

Mais aussi par la sociologie ! C’est elle qui nous aidera aussi à comprendre comment l’information nous est aujourd’hui proposée, comment les nouveaux réseaux sociaux de notre vie désormais connectée impactent les représentations et les comportements du nouveau « vivre ensemble ».

ordinateur

L’oxygène des journalistes aspiré à son tour

Avec la pub programmatique en temps réel, l’intelligence artificielle se met aussi au service des annonceurs et profitent aux nouveaux distributeurs en ligne.

Là aussi, non seulement les géants du web aspirent la publicité des médias traditionnels en faisant chuter les prix, privant le journalisme d’une partie de son oxygène, mais ils réussissent à imposer leurs méthodes via les achats programmatiques instantanés d’espaces qui représentent entre 20 et 30% de la pub digitale de bannières en France et près de la moitié aux Etats-Unis.

Ces nouvelles méthodes algorithmiques dominantes redéfinissent les métiers historiques des régies et des agences et font de la technologie et de l'intelligence artificielle les éléments fondamentaux de leurs nouveaux modèles d’affaires. Le risque : la désintermédiation de la chaîne de valeur et le court-circuitage d'un marché en plein déséquilibre. Associées aux mobiles -- qui avec moins de 10 ans d’existence, vont attirer cette année plus de pub que les journaux centenaires ou la radio du siècle dernier--, elles répondent aux nouvelles exigences des médias de précision qui privilégient le ciblage pertinent et personnalisé.

Qui donc accomplira la tâche cruciale de demander des comptes aux algorithmes ? La génération aux manettes, la seule qui se rappelle encore l’époque pré-Internet ? La génération Y des natifs numériques qui représentera d’ici cinq ans plus de la moitié de la population active ? La génération selfie qui voit la technologie comme une extension d’elle-même ? Ou bien … les machines elles-mêmes ?

Robots enquêteurs ? 

Capture d’écran 2014-11-08 à 20.01.16

L’enquête sera peut être menée, en fait, un jour, par des robots … journalistes.

Car ces machines ne sont pas forcément des ennemis. Au contraire. Elles peuvent aussi être employées judicieusement par les rédactions pour renforcer considérablement leurs capacités et leurs forces. Pour les augmenter, non pour les battre. Comme un vélo électrique aide la propulsion du cycliste ou un GPS améliore la conduite.

Pour l’instant, les premiers spécimens de ces robots-journalistes, qui ne dorment jamais et produisent en abondance avec peu d’efforts, sont utilisés à la rédaction automatique de courts articles de résultats financiers et sportifs. Ils sont déjà capables d’écrire et d’envoyer les premières dépêches/alertes de tremblement de terre. Là encore, des algorithmes cherchent, extraient, trient des données pour en faire des articles compréhensifs. Certaines applications proposent de résumer et d’agréger automatiquement des contenus. Des drones sont aussi utilisés pour capter des images sur des terrains difficiles.

On dit que les voitures autonomes seront plus sûres qu’avec conducteur. Sera-ce le cas du journalisme dévoyé et sans journalistes ?

Ces robots n’ont pas besoin d’être parfaits. Ils ont juste besoin de faire moins d’erreurs que les humains. En allégeant la rédaction de tâches ingrates, ils peuvent surtout lui permettre de se consacrer à des activités journalistiques à plus forte valeur ajoutée, à penser « mobile first » pour confectionner et présenter leurs infos.

Le tri algorithmique – qui gère les grands nombres et donc explique des choses qu’on ne peut pas voir -- peut l’aider également à détecter des signaux faibles, à pointer vers des sujets où les rédactions restent frileuses, à réduire un peu la complexité croissante, à mieux décider quand, comment distribuer l’information pertinente, et, lorsque trop d’infos tue l’info, à en donner … moins (oui, moins !).

En somme, à les aider à être aussi de meilleurs journalistes.

Le « push » personnalisé

Ils seraient bien inspirés de réaliser qu’ils ne travaillent plus dans le secteur des contenus, mais dans celui de l’information et des services, dépendants de plus en plus de logiciels et des données.

Profitons-en ! Apprenons enfin à travailler avec les ingénieurs, les designers et les développeurs, qui ne peuvent pas être les seuls nouveaux organisateurs du débat public. Familiarisons-nous, comme les autres, avec le code et la programmation. Rappelons-nous que l’écriture avait été rejetée par Platon et l’imprimerie par les moines copistes !

Balbutiant pour l’instant, le journalisme de données aidera des éditeurs (notamment sur le marché de l'intelligence économique) à se démarquer en contextualisant l'actualité et en menant des enquêtes. Elles permettront aussi de livrer au client des produits plus attirants (dataviz) et utiles (bases de données « cherchables »).

La technologie n’est plus une rubrique, mais un ingrédient essentiel de chaque rubrique. Le numérique n’est plus un département d’un média, mais le cœur de tous les services. L’informatique et le code déterminent une nouvelle vision algorithmique, computationnelle du monde. C’est une révolution conceptuelle de même nature que lorsqu’au 17ème siècle, la mise en équations mathématiques a entraîné une bonne part de la modernité.

Rédactions et médias ne doivent pas choisir entre programmation et recommandation. Entre les hommes et les machines. Entre les éditeurs et les algorithmes. Mais tenter d’emprunter une voie hybride, tirant partie du meilleur des deux mondes : un accompagnement humanisé à partir des données, une contextualisation à partir des outils du numérique et d’une forme d’intelligence extérieure. Autrement dit : le « push » personnalisé, dans une économie de plus en plus de la demande, deviendra une offre requise.

A condition de maîtriser davantage les boites noires, de faire preuve de transparence. A condition, -- ce qui n’est pas sûr--, que les données ne finissent pas par tout piloter, de ne pas réduire l’audience à des statistiques. Supprimant, au passage, spontanéité, intuition et « news judgement ». A condition aussi que les journalistes ne travaillent pas --souvent à leur corps défendant – à faire avancer des intérêts privés.

Kodomoroid, robot-journaliste japonais

Kodomoroid, robot-journaliste japonais

Intelligence artificielle ambiante

Car même si le discours anti-technologies grandit, même si les vieux acteurs, dénonçant l’hérésie progressiste du numérique, prônent la répression pour sauver leurs contenus dépassés, la grande course, rapide, coûteuse, sans précédent, vers l’intelligence artificielle est lancée.

Dans cette nouvelle ère socio-technique, le numérique et Internet sont de plus en plus prégnants, de moins en moins visibles. Le paysage change vite, chacun le voit.

Dans 10 ans, les technos d’aujourd’hui nous paraitront primitives, nous ne nous rappellerons même plus du nombre d’objets connectés sur nous et mesurerons notre consommation mensuelle en gigabit. Dans la réalité virtuelle, IBM, Google et Apple seront peut-être notre médecin, l’intelligence artificielle, distribuée par le cloud, sera ambiante.

Et si vous avez aimé les GAFA, vous allez adorer les BAT (Baidu, Alibaba, Tencent), les trois cadors de l’Internet chinois fondés en même temps que Google à la fin des années 1990 et en plein essor mondial.

La révolution robotique qui vient

Tout a commencé avec des systèmes d’exploitation des années 60. Des couches de systèmes d’information s’y sont greffées pour donner les premiers ordinateurs individuels. Puis, avec Internet, les logiciels ont superposé des couches empilées de savoir empilées en questions/réponses, des moteurs de recherche ont fait le tri, puis sont apparus des moteurs de résumés et les recommandations issues du raisonnement prédictif du web intuitif.

Aujourd’hui, les silos se brisent. Des corrélations naissent. Le prix de la puissance de calcul chute, de même que le coût de la transmission de données à haute vitesse.

L’informatique décentralisée en réseau, non contrôlée par un individu ou une entreprise, mais partagée, se développe. Tout comme l’informatique quantique, qui accroît la puissance des machines, et l’intelligence des robots, qui prendront les jobs d’un nombre croissant de gens, y compris dans les classes moyennes, ou plutôt les changeront.

Toutes les grandes firmes – Google, Facebook, Amazon, IBM en tête-- investissent aujourd’hui le terrain de l’intelligence artificielle dont les couches se superposent, lentement mais sûrement, les unes après les autres. Le Japon vient d’annoncer le début d’une révolution robotique.

robot

QI à la demande : robots libérateurs ou asservisseurs ? 

Dans cette marche vers une super intelligence – peut être l’événement le plus important de l’histoire de l’espèce humaine--, de nombreuses voix s’élèvent pour réclamer plus de contrôle, de surveillance et de régulation de ces machines, sans morale ni conscience, mais aussi des quelques firmes à mêmes de les faire tourner. Même si elle reste sommaire, toujours incapable de produire une pensée logique complexe, de clarifier des questions imparfaites, de bien réagir à l’inattendu, ou de mener un vrai dialogue avec l’homme, l’intelligence artificielle est de plus en plus un service invisible distribué à la demande, en arrière-plan, comme le cloud.

On évoque déjà à Washington la création d’une agence fédérale de la robotique, à Paris celle d’un CSA des algorithmes. Pourquoi pas un médiateur ou un audit collaboratif permanent ? Il faudra créer des infrastructures pour inspecter ces algorithmes et probablement se doter d’une éthique collective sur les données. La transparence seule ne suffira pas. Et gare à la dangereuse tentation actuelle des dirigeants politiques, démunis de solutions, à sous-traiter les affaires publiques à la Silicon Valley, nouveau fournisseur – par défaut-- de solutions aux grands maux actuels de la société.

Est-il déjà trop tard ? Notre dépendance à l’égard de technologies que nous ne comprenons ni ne contrôlons est-elle déjà addictive ? C’est ce que craint le philosophe Bernard Stiegler qui dénonce « la société automatique », ou l’auteur américain Nicholas Carr qui regrette « la cage de verre » où nous sommes déjà enfermés, privés par les automates d’éléments essentiels de nos existences.  

Même le fameux physicien Stephen Hawking ou la nouvelle superstar de l’innovation américaine, Elon Musk, sont inquiets : il y a un risque, disent-ils, de « provoquer le diable », un risque que nous ne soyons que les starters biologiques d’une super-intelligence qui arrive. « Encore plus dangereux que le nucléaire ! ». Peut-être même la pire erreur de notre histoire ! Car si la connaissance est transmissible, la sagesse, elle, ne l’est pas, nous a appris Hermann Hesse.

Eric Scherer

------------

ps : Nous développerons tous ces sujets d'influence et de dépendance dans notre Cahier de Tendances Méta-Media N°8, Automne – Hiver 2014 / 2015, et notamment les chapitres suivants :

  • dépendance aux médias sociaux
  • dépendance aux données
  • dépendance à Google
  • dépendance aux algorithmes
  • dépendance aux robots
  • dépendance aux tuyaux

Le cahier sera disponible ici, sur Méta-Media en pdf, à la fin du mois.

 (Illustration : Jean-Christophe Defline)

A lire aussi

  • lyseam

    un peu fouillis comme article
    mais la réflexion est bonne

    l'outil algorithmique n' a de sens qu'avec un ouvrier qui sait l'utiliser et sait ce qu'il fait au delà de l'utilisation technique de cet outil. Nommez experts les quelques compétents si vous voulez mais vous allez être déçus. Les "experts" sont parfois des gens compétents et parfois des emberlificoteurs de première qui connaissent peu et bluffent ou connaissent très bien, et qui manipulent non pour faire leur boulot mais d'abord pour se servir eux-mêmes (et se rendre indispensables aux yeux abusés des autres).
    le tout mâché est une arnaque. et c'est tout. il n'y a pas de magie ni aucun progrès phénoménal en savoir puisque tout a été programmé par une flopée de personnes plus ou moins objectives mais le plus souvent fortement orientées par définition puisque ayant choisi telle ou telle modélisation. Tout ce qui est algorithme décisionnel, projectif, d'interprétation etc est basé sur des écoles de pensées c'est-à-dire incorpore des hypothèses, des directions, voire des injonctions subjectives et s'éloignent totalement d'une recherche de vérité, et ce d'autant plus que l'utilisateur est un ignare en la matière (ou trop feignant pour réfléchir et prendre du recul).

  • Mais où va le Web

    Merci pour cet article fourni, qui traite d'une traite plusieurs sujets complexes. Je lis en filigrane quelque chose d'assez positif dans la manière dont vous voyez les synergies avec les machines, j'imagine pour ma part que cette synergie aura lieu jusqu'à un point de rupture au delà duquel il y aura sûrement une .. négociation avec la technologie et sa présence dans les sphères humaines. Enfin, l'appel à soulever le capot est primordial, pour les journalistes, pour le public en général, les lecteurs, les consommateurs... etc. Je ne serais pas si défaitiste sur l'avenir de la génération Y, qui est d'ailleurs une invention marketing plus qu'une réalité, ne tombons pas dans les clichés.. Au plaisir de vous relire en tout cas.

    • EricScherer

      Merci

  • Laurent Javault

    Déjà twitté ce matin 😉 mais pour être tout à fait transparent je n'avais pas encore lu les trois derniers paragraphes.
    Stiegler (avec Ars Industrialis) parle très justement d'une "nudité" de l'homme face au numérique - et par extension aux algorithmes.
    Je crois qu'il est urgent de faire prendre conscience aux individus - et plus encore aux institutions - de cette nudité forcément avilissante pour aider à l'émergence d'un "numérique raisonné".

    Si tant est que cela soit possible.

    • EricScherer

      Merci Laurent pour cette précision. Bien sûr d'accord avec vous.