La lettre hebdomadaire de Café IA

Lire en ligne. 

Bonjour à toutes et tous !

 

Bonjour, nous sommes le vendredi 19 septembre 2025. Bienvenue dans la lettre hebdomadaire de Café IA. Au menu cette semaine, l’édito : vers l’effondrement métabolique ? ✦ La veille : informations sourcées ou annotateur humain ✦ Cafés animation : 25 septembre, organiser son premier café et 2 octobre, Café IA dans le secteur public ✦ Les 22 et 23 septembre, Café IA est à la Mêlée numérique à Toulouse puis dans de très nombreux endroits.

Vers l’effondrement métabolique ?

Hubert Guillaud

« Le slop est le produit du capitalisme computationnel », rappelle la chercheuse Kate Crawford dans une tribune pour e-flux. Ces contenus générés par l’intelligence artificielle qui ne veulent rien dire, cet internet zombie, sont à la fois des déchets et le carburant de l’IA. Les images générées par l’IA ne s’intéressent pas à l’ordre des événements et ne ressemblent même pas à la réalité. « Le slop n’est pas le territoire : il l’étouffe simplement sous une substance synthétique ». L’information est inondée de déchets destinés au consommateur, créés par la transformation de la culture humaine en une réserve inépuisable de données. Les résultats synthétiques sont le produit de la machinerie IA et sont ensuite excrétés puis rapidement diffusés en ligne. Ils sont ensuite réingérés, et le cycle continue.

 

Pour Crawford, ce qu’elle appelle « les images métaboliques » sont la dernière étape d’une longue évolution des médias industriels qu’elle compare avec l’évolution des déchets réels. Alors que dans les sociétés préindustrielles, les déchets étaient recyclés, avec l’essor des villes et l’industrialisation, ils se sont accumulés sous forme de pollution. Le sociologue John Bellamy Foster a plus tard qualifié ce phénomène de « rupture métabolique » pour désigner la perturbation systémique des processus écologiques et métaboliques par la production capitaliste. L’évolution vers une IA générative massive et gourmande en données est à l’origine d’une nouvelle rupture métabolique qui affecte l’environnement, mais également le travail, la culture, la science… et la perception elle-même, rappelle Crawford. Les LLM sont en train de supplanter les sources d’information en ligne, cannibalisant les marchés de la création de contenu. « La marée noire va monter », prédit la chercheuse, nous confrontant à la submersion par le slop.

 

De nombreuses études ont montré que les systèmes d’IA dégénèrent lorsqu’ils se nourrissent trop de leurs propres productions – un phénomène d’effondrement que les chercheurs appellent MAD (La maladie du modèle autophage). En d’autres termes, l’IA s’autodétruira, puis s’effondrera progressivement dans le non-sens et le bruit. 

 

Crawford revient ensuite sur les volumes de données et la puissance nécessaire pour faire tourner ces « parcs d’engraissements » culturels, dénonçant l’accaparement sans fin de tous les contenus disponibles et rappelant que cette digestion des contenus est extrêmement consommatrice d’énergie et de ressources. Les estimations de la quantité d’électricité nécessaire à l’IA générative sont désormais couramment exprimées en unités de mesure d’un État-nation : l’Agence internationale de l’énergie estime que d’ici 2030, l’IA consommera autant d’électricité que le Japon aujourd’hui. « Cette demande industrielle croissante suit la logique récursive du développement de l’IA elle-même : des modèles plus grands exigent davantage de données, ce qui permet des modèles encore plus grands, produisant des résultats à plus haute résolution, nécessitant davantage de puissance de calcul, consommant davantage d’énergie » – et ainsi de suite, dans une boucle sans fin. Les projets d’usines à IA se multiplient au détriment des ressources énergétiques et aquifères destinées aux populations. Ces déploiements engendrent un nouveau « supercycle » des minéraux critiques qui accélère la dégradation de l’environnement. 

 

Mais la « fracturation métabolique » ne décime pas que nos écosystèmes, elle transforme l’environnement informationnel. Les producteurs de contenus synthétiques atteignent des taux d’engagements supérieurs aux influenceurs humains qui semblent de plus en plus indiscernables des humains, comme l’était, dès 2018, l’une des premières influenceuses synthétiques, Lil Miquela. Les équipes de création de contenu déploient des outils d’IA pour générer des centaines de publications, d’images et de vidéos potentielles, puis utilisent l’analyse de l’engagement pour identifier les combinaisons les plus addictives afin de les optimiser. L’industrialisation du contenu viral s’auto-accélère. Les fonds destinés aux créateurs de contenus se transforment en subvention du seul contenu synthétique, à l’image de TikTok ou Meta qui sponsorisent les usines à slops en distribuant des revenus du fait de leur viralité, comme des lapins sautant sans fin sur des trampolines. 

 

Pour la chercheuse, la géographie mondiale de la production de contenu se transforme avec la montée des contenus synthétiques, qui vient exploiter la division internationale du travail. « Les fermes à contenu des régions où le coût de la main-d’œuvre est plus faible déploient des outils d’IA pour générer des milliers de publications synthétiques sur les réseaux sociaux, d’articles de presse et de critiques de produits ciblant les marchés publicitaires à plus forte valeur ajoutée des pays riches ». « Les revenus publicitaires des économies développées sont redirigés vers les régions à faibles revenus ». 

 

« L’exploitation des déchets d’IA finira-t-elle par épuiser le sol des espaces en ligne ? Les gens les fuiront-ils, les toléreront-ils, voire les accueilleront-ils favorablement ? En viendrons-nous finalement à les aimer ? » Pour l’instant, bien souvent, ils semblent l’emporter dans des machineries qui sont faites pour les optimiser.  

 

« L’IA slop n’est pas une aberration, mais une caractéristique inévitable du fonctionnement des médias génératifs ». Cette rupture métabolique promet de multiples effondrements, prédit la chercheuse : effondrement des modèles, effondrement écologique et effondrement cognitif s’entrecroisent dans une forme de polycrise. 

 

« La question n’est pas de savoir si l’économie de l’IA slop s’autodétruira, mais quand ». Cette instabilité ouvre la voie à ce que la chercheuse désigne sous le nom d’organisation culturelle « post-synthétique » : c’est-à-dire un nouveau rapport culturel. Pour s’en extraire, il va nous falloir exiger une transformation radicale des dispositifs techniques et économiques existants. Non pas un retour nostalgique aux formes culturelles pré-numériques, mais des pratiques adaptées à notre époque écologique et sociale. La question qui se pose est de savoir si nous choisirons d’adopter le gaspillage ou de cultiver le désir d’autre chose : des formes culturelles allant au-delà de la reproduction synthétique, orientées vers l’épanouissement plutôt que vers l’extraction ; vers la régénération écologique plutôt que vers un état hypermétabolique d’épuisement et de dégradation.

 
 

☕ L'agenda de Café IA

En cette deuxième quinzaine de septembre, de nombreux Cafés IA s’organisent notamment à Carcassonne, à Nantes à destination des entreprises, des startups, mais aussi du grand public dans le cadre de Nantes Digital Week, puis à Toulouse, à Dijon, Ploufragan, à Paris saclay, à Saint Lô. Retrouvez également tous les Cafés IA PME-TPE France Num par ici.

 

Voici quelques rendez-vous clefs supplémentaires en plus des nombreux cafés en cours de préparation. 

 

🏡 Lundi 22 septembre, Gilles Babinet présentera les ambitions de Café IA pour les années à venir dans le cadre de l’édition 2025 de La Mêlée Numérique à Toulouse. Également au programme : un café IA, une recette inratable par Numérique en commun[s] et un Café IA pour les TPE PME par France Num !

 

Pour le reste du mois, nous serons le même jour, 22 septembre, au premier rassemblement des Ambassadeurs Osez l’IA au ministère de l’économie, le mardi 23 à la DGE pour notre 3e Café IA dans ce cadre, mercredi 24 chez Syntec Ingénierie, jeudi 25 chez Catalyst.ai Academy, jeudi 25 à l’Unesco pour l’évènement organisé en partenariat avec le Clemi « Éduquer ou interdire : sortir de l'impasse », lundi 29 septembre avec Square à Clichy-sous-Bois, mercredi 1er octobre au congrès Orbicom à Strasbourg, jeudi 2 octobre à la Direction départementale de protection des populations du Nord, le 8 octobre de passage à Produrable, les 9 et 10 octobre à October Make à Guéret, le 10 au Colloque In Fine (Education nationale) à Poitiers.

 

📅Et les 29 et 30 octobre, nous serons à Strasbourg pour la 8e édition nationale de Numérique en Commun[s], pensez à réserver votre place ! Pour l’occasion, les équipes de numérique en Commun[s] publient une courte vidéo pour rappeler l’essentiel des enjeux à l’œuvre face à l’accélération technologique et poser les bases.

☀️ L'équipe de Café IA sera présente à Marseille les 13 et 14 novembre 2025 pour la 3e édition du AIMSummit à l'Orange Vélodrome ! Deux jours pour déchiffrer, questionner, anticiper et orienter les développements actuels et futurs de l'intelligence artificielle et leur impact sur nos sociétés. Gilles Babinet, initiateur de Café IA, sera notamment présent pour présenter la démarche et pour échanger sur les manières de diffuser une culture populaire du numérique et de l'IA. Pour s'inscrire, c'est par ici.

annonce de l'évènement La Tribune AIM
 
 

🎨Les Cafés animation à venir !

Vous souhaitez animer un Café IA ou partager votre expérience ? Participez aux prochains cafés animations en ligne, le jeudi de 13h30 à 15h pour découvrir des formats d’animation, des ressources pédagogiques sur l’IA et faire part de vos retours d’expérience. Un moment convivial pour s’inspirer et apprendre ensemble !

 

Jeudi 25 septembre : Vous souhaitez organiser votre premier Café IA ? Cécile Ravaux vous donne rendez-vous pour répondre à toutes vos questions et vous partager des conseils d’organisation et d’animation.

 

Jeudi 2 octobre : comment organiser un Café IA dans le secteur public ? Pour partager leur expérience, nous aurons le grand plaisir d'avoir avec nous : Jean-Emmanuel Faggianelli (Ministère de l’Intérieur), Bertrand Giroux (Direction générale des Finances publiques), Alix Mansueto (Ministère des Armées), Sylvie Mompart (Ministère de la transition écologique), Justine Spérandio - Martinez (Préfecture Auvergne-Rhône-Alpes), Camille Celier (Gay-Bellile) (DREETS AURA), Stephane Guérault et Clément Fantoli (Ministère de l’Éducation nationale)! Toutes et tous sont déjà mobilisés avec de nombreux agents autour de l’organisation de Cafés IA dans le secteur public. Citoyens ou agents publics n’hésitez pas à nous rejoindre pour cet échange !

 

📅 Pour vous inscrire aux prochains échanges, c’est ici 👉https://grist.numerique.gouv.fr/o/cnnum/forms/2vnXtj7744CaamApgwAvpN/73

 

🔎A lire ailleurs

De nos données post-mortem

Le Linc de la CNIL organise avec la BNF le mercredi 15 octobre un débat sur le thème « Nos données après-nous », à l’occasion de la parution du 10e numéro de son cahier d’innovation et de prospective. Inscription. 

 

La Silicon Valley veut accorder des droits aux machines… 

… mais pas aux travailleurs. « C’est comme si Nike voulait accorder des droits à ses baskets plutôt qu’aux travailleurs de ses ateliers clandestins ! », par Antonio Casilli. 

 

Sur la piste des algorithmes

L’observatoire des algorithmes publics (Odap) lance « sur la piste des algorithmes », des entretiens bimensuels avec des chercheurs pour comprendre l’algorithmisation de l’administration, les enjeux de ces outils et les défis méthodologiques qu’ils posent. Le premier entretien se déroule avec la sociologue Myrtille Picaud, spécialiste des politiques de sécurité urbaine. « Accéder concrètement à ces objets reste complexe. D’abord, parce qu’ils sont souvent couverts par le secret des affaires, mais aussi en raison d’une certaine opacité de l’administration ». Pour la chercheuse, on parle bien plus de ces outils qu’ils n’existent, d’abord parce que « ce sont des dispositifs qui, même s’ils fonctionnaient correctement, intensifieraient en réalité énormément le travail » des agents. 

 

Informations sourcées ou annotateur humain : qui répond vraiment à vos questions ?

Le travail humain derrière les systèmes d’IA a suscité beaucoup de discussions. Celles-ci se concentrent souvent sur la labellisation de contenu : une étape vitale pour l’entraînement des modèles, qui leur permet de « reconnaître » les objets (comme de savoir si une image représente bien un chien). Cependant, la journaliste Varsha Bansal met en lumière un autre rôle beaucoup moins connu : celui de « modérateur d’IA » au sein de Google Gemini, dans un article paru la semaine dernière dans The Guardian.

 

À première vue, nous associons la modération aux réseaux sociaux plutôt qu’à l’IA. Bien sûr, le travail de modération chez Gemini n’est pas le même que sur Instagram. Ici, les travailleurs évaluent et filtrent les productions des chatbots, plutôt que celles des utilisateurs. Bansal relate notamment les témoignages de Rachael Sawyer et Rebecca Jackson-Artis, deux écrivaines américaines employées à distance par le sous-traitant GlobalLogic, elle-même une filiale de Hitachi.

 

Sawyer et Jackson-Artis décrivent leurs tâches quotidiennes : vérification des faits, notation des réponses de l’IA et enregistrement direct des informations dans le modèle Gemini. Même si, officiellement, leur travail n’était pas soumis à des délais stricts, elles se sont rapidement retrouvées sous pression et encouragées à prendre des raccourcis – « ne vous inquiétez pas de ce que vous mettez ». Sans la possibilité de poser certaines questions pour lesquelles elles ne se sentaient pas compétentes, Jackson-Artis a même dû renseigner des détails sur les options de chimiothérapie pour le cancer de la vessie, une demande qui l’a profondément marquée.

 

Le manque total de transparence quant au rôle des modérateurs et à leurs qualifications est particulièrement préoccupant, surtout à l’heure où les outils d’IA sont progressivement intégrés aux moteurs de recherche. Il est pourtant bien établi que les réponses de ces systèmes sont souvent prises au pied de la lettre, malgré l’absence d’une évaluation humaine de leur compétence et de la fiabilité des contenus qu’ils génèrent. En réalité, les réponses ne s’appuient pas seulement sur des sources « fiables », comme des liens vers des sites web légitimes qui sont souvent affichés à côté des réponses des chatbots. À la place, elles peuvent être le fruit d’informations saisies par une personne moins informée que l’utilisateur lui-même, ou d’une hallucination.

Cet exemple souligne l’ampleur du travail humain qui se cache derrière la façade de l’IA. Mais en rendant ce travail opaque, on obscurcit également les sources d’information fiables. 

 

Chatbots en roue libre ?
« Le taux de fausses informations répétées par les robots conversationnels d’IA a presque doublé en un an », explique une étude Newsguard sur les principaux chatbots du commerce. « Ils fournissent désormais des affirmations fausses en réponse à des requêtes dans plus d’un tiers des cas ». Pour Chine Labbé, rédactrice en chef de Newsguard, interviewée par Radio Canada, la « tendance à la précaution observée il y a un an, celle de s’abstenir de répondre sur des questions trop sensibles, n’est plus présente aujourd’hui » chez les robots conversationnels. « Perplexity, par exemple, dans 46 % des cas, va répéter des fausses d’informations. Or, cet outil d’IA avait un score parfait il y a un an ! ». « Stopper la tendance des chatbots à répéter de fausses informations liées à l’actualité ne semble pas être une priorité des sociétés d’IA, qui ont beaucoup investi sur l’efficacité, la rapidité, au détriment de la sûreté ». Les chatbots répètent ce qu’ils apprennent, rappelle la journaliste, et le problème, c’est qu’ils n’ont pas de moyens pour distinguer les sources d’information fiables des sources de désinformation. « Il y a eu beaucoup de progrès sur l’efficacité de ces chatbots, qui sont de plus en plus rapides et efficaces. Maintenant, il faut s’assurer qu’ils soient sûrs. Et il ne faut pas que cette course à l’armement dans l’IA générative, avec cette compétition entre les pays, nous fasse perdre de vue la nécessité de protéger les utilisateurs ».

 

Profitons-en pour signaler une excellente ressource de Radio-Canada sous forme de petits tests, de vidéos et de cours pour comprendre la désinformation en 11 épreuves qui permettent de distinguer des vidéos manipulées, de prendre conscience de ses biais, de comprendre la différence entre sciences et pseudo-sciences, etc.

 
 

👋 Avant de partir

Merci de nous avoir lu ! Si vous avez apprécié la lettre d’information de cette semaine, partagez-la ! Tout à chacun peut s’inscrire ici.

 

Comme d’habitude, n’hésitez pas à nous faire vos retours. Vous avez des questions, des remarques ou des suggestions ou vous souhaitez que nous abordions un sujet en particulier ? Nous sommes à votre écoute ! N’hésitez pas à répondre à ce mail ou à nous écrire à bonjour@cafeia.org. 

Se désinscrire.

LinkedIn