SXSW 2025 : Amy Webb prédit l’arrivée de « l’intelligence vivante »

Après le supercycle technologique de 2024, nous voilà arrivés dans l’ère de la « Living Intelligence », une fusion des avancées de l’IA et de la biotechnologie. Amy Webb, figure incontournable du South by Southwest depuis près de vingt ans, où elle dévoile chaque année plusieurs centaines de tendances devant un public de fans conquis, observe que nous avons franchi un cap : nous sommes dans le « Beyond », un au-delà où la technologie évolue plus vite que notre capacité à en appréhender l’impact à moyen et long terme.

Par Kati Bremme, Directrice de l’Innovation et Rédactrice en chef de Méta-Media

Tout d’abord, la futuriste Open Source (dont le rapport de 1000 pages est disponible gratuitement) invite son audience à s’asseoir sur les petits dés en bois distribués aux heureux participants de sa keynote, « pour ressentir l’équivalent d’un caillou dans la chaussure », un obstacle qui nous empêcherait de prendre de bonnes décisions – cette pierre pouvant symboliser, par exemple, la masse obscène d’articles publiés chaque jour sur l’IA. Une mise en miroir avec un chiffre : d’ici 2030, plus de 125 milliards d’appareils connectés produiront en continu des données comportementales, renforçant la capacité des Large Action Models à apprendre et à agir de manière autonome. Imaginons alors de les connecter directement à la matière biologique…

Pour Amy Webb, nous avons franchi un cap : nous sommes arrivés dans l’« au-delà » (Beyond). Au-delà des explications possibles, nous avons dépassé un monde que la science pouvait encore pleinement décrire, surtout si l’on s’imagine que, selon les dernières recherches, la quantité de plastique présente dans notre cerveau pourrait équivaloir à celle contenue dans une cuillère (de plastique).

Image : DALL_E + KB

Les réseaux neuronaux fonctionnent désormais comme des boîtes noires, où des corrélations statistiques apprises à partir de milliards de paramètres produisent des résultats difficilement rattachables à des règles compréhensibles ou prédictibles (aussi peu prédictibles que les humains finalement), et l’homme augmenté par la science n’est plus une utopie, comme en témoigne l’idée d’un concours Enhanced Games (des Jeux augmentés), où l’optimisation du corps humain est poussée à l’absurde, les athlètes étant dopés aux technologies et substances les plus avancées (une idée qui a déjà séduit des investisseurs comme Peter Thiel, entre autres).

Ce qui est à la pointe aujourd’hui pourrait être dépassé d’ici la fin de la journée.

Amy Webb

Seule limite imposée : ne pas mourir avant de concourir. Tout évolue si vite que nous n’avons même pas le temps d’envisager où fixer les limites de ce progrès (ce qui arrange bien certaines entreprises), et même la futurologue la plus célèbre du monde y perd son latin, nous situant dans ce flou « Beyond ». De la FOMO (Fear of Missing Out), nous sommes passés à la FOMA (Fear of Missing Anything). Tout s’accélère : « What’s bleeding edge today might be old news later today » (Ce qui est à la pointe aujourd’hui pourrait être dépassé d’ici la fin de la journée).

IA & Capteurs, une équipe gagnante

Le premier des trois clusters mis en avant dans sa présentation cette année (en 2024, les thématiques étaient l’IA, l’IoT et la biotech) est celui de l’IA + Capteurs. L’IA et les Large Language Models deviennent de plus en plus accessibles : DeepSeek a prouvé qu’il n’était nullement nécessaire de disposer d’usines à gaz – pardon, de semi-conducteurs – pour obtenir des performances avancées, et Stanford a suivi cette tendance en dévoilant S1, un modèle au coût dérisoire de 50 dollars. Mais la véritable nouveauté réside dans les MAS (Multi-Agent Systems), des systèmes multi-agents capables de collaborer, de se répartir les tâches et de se superviser mutuellement, le tout sans aucune intervention humaine. Avec des résultats parfois inquiétants : elle cite une expérimentation menée par la DARPA, ainsi qu’une autre où des agents introduits dans la plateforme de jeux Minecraft, laissés sans supervision humaine, ont d’abord instauré leurs propres lois et réglementations, avant d’aller jusqu’à créer de nouvelles religions.

Capture de la présentation d’Amy Webb

Avec un constat consternant : notre langage naturel, sur lequel sont basés les grands modèles de langage, ralentirait le travail de ces agents artificiels, qui préfèrent communiquer sans biais ni mauvaise interprétation. Microsoft, comme souvent, a la solution, sous la forme de DroidSpeak. On revient au langage machine, ces dernières n’ayant plus besoin de nous. Jensen Huang l’avait annoncé au CES (cf. notre papier sur l’événement cette année) : l’IA a besoin de devenir « physique » (ou incarnée) pour avancer. Et dans cette étape, elle a peut-être encore besoin d’un peu de matière biologique, comme dans cet exemple de RoHM, Robust Human Motion Reconstruction via Diffusion, proposé par Siwei Zhang.

Les réseaux de capteurs font évoluer l’IA d’un rôle d’observateur à une position de contrôle.

Amy Webb

Et quelle meilleure incarnation de l’IA qu’à travers nos cerveaux ? On peut depuis longtemps retracer le récit de nos rêves, pourquoi ne pas utiliser des cellules de cerveau pour alimenter les réseaux neuronaux ?

Image créée par DALL-E + KB

L’IA incarnée (Embodied AI) repose(ra) idéalement sur un protocole de contexte modèle (Model Context Protocol), un peu comme le HTTP pour Internet, permettant de connecter des données issues de capteurs d’IA. L’enjeu est de relier les modèles d’IA aux capteurs pour une interaction plus fluide entre le monde physique et les algorithmes. L’ultime incarnation de cette technologie reste notre propre cerveau, capable non seulement d’enregistrer des données mais aussi de les rejouer, ouvrant ainsi la voie à des formes avancées de mémoire numérique. Dans cette dynamique, les réseaux de capteurs transforment l’IA, qui passe du simple rôle d’observateur à celui de contrôleur, influençant directement son environnement. Mais jusqu’où cette fusion doit-elle aller ? Que se passe-t-il si votre employeur exige demain que vous vous fassiez implanter une puce (fournie par Elon Musk) ?

IA & Biologie, les frontières de la matière repoussées

Le deuxième cluster présenté, dans la même veine, est la combinaison de l’IA et de la biologie. Les règles de cette discipline scientifique sont autant ébranlées que celles de notre vieux monde des médias. La biologie générative se fraye un chemin, là encore plus rapidement que notre capacité à la comprendre. AlphaFold 3, développé par DeepMind de Google, marque une rupture dans la biologie computationnelle. Son serveur, accessible à tous, permet de prédire avec une précision inédite la structure des protéines et d’autres biomolécules.

Image : Google Alpha Fold 3

Par exemple, AlphaFold 2 avait déjà prédit la structure de plus de 200 millions de protéines, couvrant pratiquement toutes celles connues de la science. La nouvelle version va plus loin en intégrant des interactions moléculaires complexes, avec des implications directes pour la conception de médicaments ou la biotechnologie. Ce type d’outil ne se limite pas à la recherche académique : il reconfigure aussi les stratégies des entreprises travaillant sur des produits physiques, qu’il s’agisse de matériaux, de thérapies ou d’agriculture.

Exit le métavers, trop conceptuel, place aux méta-matériaux : des matériaux synthétiques qui dépassent les limites de la chimie traditionnelle et du tableau périodique des éléments en introduisant de nouvelles propriétés et des comportements inédits. L’innovation pourra ainsi repousser les frontières du monde physique. Amy Webb explore alors des scénarios tout sauf skeuomorphiques : du riz combiné à des protéines de vache, des dents humaines cultivées dans des cochons (ah, en fait, celui-là est déjà une réalité), un mur de bâtiment fonctionnant comme un cerveau humain ou doté de propriétés élastiques et, enfin (on y arrive), l’utilisation de cellules cérébrales humaines pour accélérer le calcul des IA – une réponse possible à la forte demande énergétique de ces technologies. D’ailleurs, la nouvelle centrale nucléaire de Microsoft à Three Mile Island, rebaptisée Crane Clean Energy Center, devrait ouvrir en 2028…

Du riz boosté aux protéines de vache, image DALL-E + KB

La startup australienne Corticol Labs, cultive de véritables neurones directement sur des puces sur mesure, créant une intelligence qui « apprend de manière intuitive avec une efficacité remarquable ». Utopie ? Cortical Labs vient juste de dévoiler CL1, le premier bio-ordinateur fonctionnel proposé à 35 000 dollars, et devance en cela FinalSpark,  une startup suisse qui travaille également sur le premier bioprocesseur, alternative aux puces classiques.

Les règles de l’informatique sont bouleversées avec l’arrivée de la première machine vivante…

Biologie & Capteurs, et IA

Le troisième cluster présenté par Amy Webb est celui de la combinaison de la biologie, des capteurs et de l’IA, qui nous amène dans une nouvelle ère de robots hyperefficaces et beaucoup moins maladroits que leurs ancètres. Les interfaces entre biologie et technologie s’affinent avec des innovations qui repoussent les frontières du vivant. Shoji Takeuchi explore l’idée du Skin Mask, une interface organique qui pourrait fusionner avec la peau, tandis qu’il affirme que nous sommes tous, en quelque sorte, des robots mous (squishy robots). Dans cette même dynamique, le moteur des flagelles bactériens permet à des microbes modifiés de générer leur propre électricité, ouvrant la voie à des bio-machines autonomes.

L’innovation ne s’arrête pas là : après les sperm bots introduits en 2016 par des chercheurs allemands, des wearables biologiques se développent en complément de la pharmacie traditionnelle, non plus pour les humains, mais pour leurs cellules – des dispositifs qui pourraient guider, réparer ou optimiser le fonctionnement des neurones ou même des gamètes. Une fusion toujours plus intime entre le vivant et l’artificiel. Les machines microscopiques nous donneront-elles du pouvoir sur la nature ? Pourquoi alors ne pas envisager la peau de rhinocéros synthétique comme alternative au métal ?

Image créée par DALL-E + KB

Selon Amy Webb, l’ère qui s’ouvre dépasse l’intelligence artificielle telle que nous la concevons aujourd’hui : une intelligence vivante émerge, mêlant IA, biologie et monde physique dans un écosystème interconnecté. Pourtant, nous ne sommes pas prêts. Chacun se concentre sur des avancées isolées sans prendre de recul pour comprendre l’ensemble du paysage. La robotique est déjà profondément impactée. Pendant des années, les robots ont stagné, incapables de gérer le désordre du monde réel, un obstacle majeur à leur adoption en dehors des environnements contrôlés. Mais les choses évoluent : DeepMind de Google vient tout juste d’apprendre à un robot à se lacer les chaussures, une avancée qui semble anodine mais qui marque une rupture.

Chacun se concentre sur des avancées isolées sans prendre de recul pour comprendre l’ensemble du paysage.

Amy Webb

L’autonomie des machines dans des tâches complexes du quotidien n’est plus une simple projection théorique, elle devient réalité. Anand Mishra explore une nouvelle frontière de la robotique avec des machines hybrides mêlant biologie et technologie. L’un des exemples les plus marquants est un robot dont le cerveau est composé de champignons, fusionnant ainsi des éléments organiques et artificiels pour créer une intelligence alternative. Cette approche biohybride se retrouve aussi dans des projets comme la méduse robotique développée par Caltech, combinant organismes vivants et structures mécaniques, à l’aide de l’impression 3D, une technologie fort utile dans de longs voyages à la conquête de l’espace par ailleurs. Après des décennies de promesses et de prototypes limités, l’ère des robots semble enfin être une réalité tangible, avec des machines, qui ne se contentent pas d’imiter l’humain.

Caltech

De l’IA abstraite à l’IA incarnée : pourquoi nous sommes tous concernés

Pourquoi les Big Tech investissent-elles autant dans la robotique ? Parce que les robots sont une condition essentielle pour atteindre l’intelligence artificielle générale (AGI). Sans incarnation physique, l’AGI reste un concept abstrait, incapable d’interagir pleinement avec le monde réel. De la même manière que l’intelligence humaine ne peut exister sans un corps pour percevoir, agir et apprendre, une intelligence artificielle véritablement autonome a besoin d’une forme physique pour dépasser les limites du traitement purement numérique. Pour les géants de la tech, la robotique n’est donc pas un simple marché, mais un passage obligé vers une IA réellement intégrée au monde matériel. Une évolution qui avance à grands pas et dont nous ne pourrons pas rester simples spectateurs.

On pourrait alors se poser la question : en quoi cela nous concerne-t-il, nous, médias ? La réponse est simple, et double : ces technologies, de la vision par ordinateur à la robotique, auront inévitablement un impact sur nos outils et nos métiers de demain. Mais plus encore, elles transformeront la société dans son ensemble. Même si toutes ces technologies ne sont pas encore pleinement déployées ni totalement abouties, il est dès à présent essentiel de s’interroger sur la manière dont nous envisageons notre cohabitation avec des IA potentiellement de plus en plus puissantes… à moins qu’elles ne s’effondrent d’épuisement intellectuel dans un futur proche.

Il ne suffit pas de flairer les tendances, encore faut-il les transformer en scénarios activables, taillés sur mesure pour chaque entreprise, sous peine de se contenter de prédictions creuses. Le Future Today Institute l’a bien compris : en se rebaptisant Future Today Strategy Group, il affiche clairement son ambition d’accompagner le changement plutôt que de regarder l’Intelligence Vivante prendre les rênes. Car pendant que l’IA s’incarne, fusionne avec le biologique et colonise le physique, nous continuons à en débattre comme si le futur nous attendait sagement. Mais qui façonnera réellement la suite : des stratégies humaines ou des algorithmes livrés à eux-mêmes ? L’IA a besoin de s’incarner pour aller plus loin. Mais nous, humains, de quoi avons-nous besoin ?

Le dé en bois évoqué en introduction.

Take-aways

Les 10 points clés à retenir des 1000 pages du rapport, selon Amy Webb :

·  Intelligence vivante : IA, capteurs et biotech fusionnent pour créer des systèmes autonomes et évolutifs.

·  Modèles d’action : L’IA passe de la parole aux actes, redéfinissant l’automatisation.

·  Robots autonomes : Ils quittent les usines grâce à des avancées en adaptabilité.

·  IA agentique : Des systèmes prennent leurs propres décisions et amplifient l’expertise humaine.

·  Alliances tech : La demande en données et calcul pousse d’anciens rivaux à collaborer.

·  Climat & innovation : Les crises accélèrent l’adoption de nouvelles technologies.

·  Retour du nucléaire : L’IA dope les investissements dans les petits réacteurs modulaires.

·  Informatique quantique : La correction d’erreurs ouvre la voie à des usages concrets.

·  Métamatériaux : De nouvelles structures révolutionnent l’ingénierie.

·  Espace cislunaire : Le privé investit entre Terre et Lune, transformant le commerce spatial.

Illustration de l’article : Capture de la présentation d’Amy Webb, avec Kevin, un chien qui pourrait bien bénéficier de la biotechnologie connectée pour retrouver son poids de forme…

franceinfo à propos des médias

Voir plus sur franceinfo