La lettre hebdomadaire de Café IA |
| |
|
Bonjour à tous.tes,
Nous sommes le vendredi 13 mars 2026. Au menu de cette semaine : l’IA n’est pas qu’une technologie - Hallucinations - Facticité ✦ Dans la veille : Le biais anti-humain de l’IA ✦ La ressource de la semaine : Detox kit et Cage de verre ✦ Et comme chaque semaine, retrouvez toute l’actualité de la communauté Cafés IA … Bonne lecture ! |
L’IA n’est pas qu’une technologie
|
L’IA n’est pas qu’un outil dont l’avenir dépendrait des usages que nous en ferons. L’IA a des fonctionnalités. Elle est une industrie avec des objectifs, et ce sont eux qu’il nous faut détourner, interroger ou nous réapproprier. |
« L’IA n’est ni intelligente, ni artificielle… ni une simple technologie : elle est un objectif ! », explique Kate Crawford [1], pour rappeler qu’elle est d’abord une industrie. L’intelligence a toujours été convoquée pour justifier des relations de domination. Et l’IA est avant tout une industrie du calcul intensive et extractive qui sert les intérêts dominants. L’IA n’a rien de neutre : elle est fondamentalement politique, rappelle la chercheuse. Pour la comprendre, nous devons toujours demander qu’est-ce qui est optimisé, au bénéfice de qui et sous la décision de qui…
Plus que jamais, depuis des investissements faramineux, le déploiement de l'AI bâtit des empires et de nouvelles dominations numériques [2]. Dans les systèmes de calculs enchevêtrés de l’IA, « il n’y a pas de boîte noire unique à ouvrir, pas de secret à révéler, mais une multitude de systèmes de pouvoir entrelacés » qu’il s’agit de cartographier pour mieux les submerger [3]. L’IA est « à la fois une idée, une infrastructure, une industrie, une forme d’exercice du pouvoir et une façon de voir », c’est-à-dire une idéologie, explique Crawford. Elle est d’abord une manifestation très organisée du capital. Elle est un conteneur qui transforme la connaissance, la communication et le pouvoir à un niveau épistémologique et qui a des conséquences directes sur la justice, le social, l’organisation, l’expression politique, la culture, l’identité… L’industrie de l’IA est dominée par une poignée d’entreprises dont les outils et méthodes influencent toutes les institutions existantes, créant une intensification et une accélération du technopouvoir, par l’extraction de données et leur traitement à une échelle sans précédent.
« Nous sommes confrontés à des systèmes techniques d’une puissance sans précédent, qui impactent très rapidement tous les secteurs, de l’éducation à la santé, de l’économie à la justice… Et la transformation en cours est concomitante à la montée de l’autoritarisme et du populisme ». Cette évolution n’est pas une coïncidence, avance la chercheuse : l’un et l’autre interrogent la centralisation du pouvoir et nécessitent d’améliorer notre compréhension critique des formes de pouvoir. Cette combinaison renforce les difficultés pour maîtriser ces outils et les rendre responsables et nécessite de comprendre en profondeur les relations entre politique, pouvoir et IA. « L’IA est une nouvelle ingénierie du pouvoir » [4].
Or, comme le dit le rapport 2025 des chercheur.ses de l’AI Now Institute [5], « la question que nous devrions nous poser n’est pas de savoir si ChatGPT est utile ou non, mais si le pouvoir irréfléchi d’OpenAI, lié au monopole de Microsoft et au modèle économique de l’économie technologique, est bénéfique à la société ». « Lier notre avenir commun à l’IA rend cet avenir plus difficile à réaliser, car cela nous enferme dans une voie résolument sombre, nous privant non seulement de la capacité de choisir quoi construire et comment le construire, mais nous privant également de la joie que nous pourrions éprouver à construire un avenir différent ».
« La trajectoire actuelle de l’IA place le public sous la coupe d’oligarques technologiques irresponsables. Mais leur succès n’est pas inéluctable. En nous libérant de l’idée que l’IA à grande échelle est inévitable, nous pouvons retrouver l’espace nécessaire à une véritable innovation et promouvoir des voies alternatives stimulantes et novatrices qui exploitent la technologie pour façonner un monde au service du public et gouverné par notre volonté collective ».
|
Les hallucinations : une question de coût… technique, économique, humain.
|
Dans l’IA générative, ce qu’on appelle hallucinations [6] sont des réponses fausses, mais convaincantes ou plausibles [7]. Un des grands enjeux du travail sur l’amélioration des modèles consiste à fixer, corriger et amoindrir leurs hallucinations. C’est pourtant un défaut assez largement inévitable [8], quels que soient les efforts pour en réduire l’ampleur. L’hallucination est liée à la structure statistique des réponses et au fait que ces outils génératifs ne comprennent pas ce qu’ils disent. Même les meilleures pratiques pour diminuer les hallucinations, comme le RAG, ne parviennent pas à garantir des produits sans hallucinations, comme le pointe par exemple une étude sur les services de recherche juridique sous IA [9].
|
|
|
|
Le RAG [10] est une technique qui consiste à améliorer ou augmenter les réponses des modèles d’IA générative, en les alimentant avec des connaissances issues de bases de données spécifiques, permettant à un chatbot de consulter ces données avant de fournir une réponse, un peu comme si un ou des petits modèles venaient améliorer les réponses selon leur contexte. Ainsi par exemple un chatbot commercial peut-être amélioré par une base données des produits et tarifs à laquelle il doit se référer. Plusieurs RAG peuvent venir préciser plusieurs orientations selon les besoins, par exemple en lui indiquant une base de données d’articles scientifiques pour qu’il y puise des réponses.
Une autre modalité d’amélioration est le réglage fin [11], qui permet d’adapter un modèle aux nuances et à la terminologie d'un domaine particulier, tel que le codage ou les soins de santé, permettant de construire des modèles dédiés comme OpenAI Health ou Claude Code.
|
| |
|
L’évaluation des hallucinations reste difficile, soulignent les chercheurs. Et l’opacité de ces produits commerciaux rend l’évaluation plus compliquée encore. En septembre 2025, OpenAI par exemple convenait que si les hallucinations peuvent être réduites, elles ne pourraient pas, mathématiquement, être totalement éliminées [12]. Une solution par exemple, pourrait être que les chatbots évaluent la confiance qu’ils attribuent à leur réponse avant de la fournir [13], leur permettant d’exprimer plus d’incertitude, de répondre je ne sais pas ou de demander plus de précisions. Mais le problème pourrait alors devenir un problème commercial : « les utilisateurs, habitués à recevoir des réponses assurées à presque toutes leurs questions, abandonneraient probablement rapidement des systèmes trop hésitants [14] »… Pas sûr que les utilisateurs apprécient l’incertitude. Comme conclut Wei Xing : « les incitations économiques qui orientent le développement de l’IA grand public restent fondamentalement incompatibles avec la réduction des hallucinations. Tant que ces incitations ne changeront pas, les hallucinations persisteront.»
En fait, estime la recherche [15], malgré les filtres et les correctifs en tout sens, non seulement les hallucinations sont là pour rester, mais elles risquent d’empirer en devenant plus profondes, plus difficiles à détecter. Pour Eryk Salvaggio, les modèles spécifiques, comme ceux dédiés au code ou à la santé, nous font croire en une fiabilité accrue, quand ils augmentent surtout le risque de surestimer la pertinence d’un modèle de langage pour une tâche donnée. En fait, ils risquent de rendre les problèmes plus difficiles à vérifier, d’autant que les défaillances à un endroit, peuvent avoir des conséquences qui ne se révèlent que dans l’imbrication de systèmes et agents entre eux [16].
Bien souvent, c'est au client et aux usagers de se débrouiller des hallucinations, des erreurs et des imperfections des produits que les industriels proposent. Plus que d’halluciner, ces moteurs génératifs sont indifférents à la vérité, à laquelle ils ne parviennent que par inférence statistique. Ils cherchent à paraître juste, et cet impératif de ressemblance convaincante correspond mieux aux processus réels des modèles d’IA générative que l’hallucination [17]. Ce que l’hallucination présente comme l’exception, la réalité du baratinage ou du bidonnage que l’IA générative produit vraiment, révèle la nature même des systèmes. Comme le dit Naomi Klein [18], l’hallucination permet de masquer les failles des machines en renvoyant la responsabilité aux utilisateurs. Au risque de produire un régime de facticité comme dit la philosophe Antoinette Rouvroy, c’est-à-dire des régimes de vérités de ce qui est faux. En cela, non seulement ces systèmes hallucinent, mais plus encore nous font halluciner en nous faisant croire en leurs mensonges et demi-vérités.
Aux hallucinations des machines et des utilisateurs, correspond finalement les hallucinations de solutions techniques que l’innovation sous stéroïdes des ingénieurs et entrepreneurs du numérique ne cessent de nous vendre. « Depuis le début de la décennie 2020, le technocapitalisme ne fonctionne plus que par vagues d’hallucinations successives, suivies de (très) brèves périodes de lucidité. La Silicon Valley semble bloquée dans un trip d’acide qui ne redescend pas, et dont l’IA n’est que la plus récente hallucination [19] ». Entre mythification et mystification, c’est-à-dire entre le fait de produire des mythes, des récits fabuleux et des mensonges visant à abuser de notre crédulité, l’hallucination permet de faire perdurer l’imposture du storytelling [20] de l’IA, celle d’un avenir de progrès technologique assuré par ses promoteurs, quelle que soit la vérité.
|
|
|
« C’est ce que j’appelle la facticité algorithmique. Le philosophe Walter Benjamin décrivait la facticité comme cette tendance qu’ont les régimes fascistes à présenter l’état de fait comme étant le seul possible, à trouver à l’état de fait actuel une origine mythique qui l’immunise de toute remise en question. Cette facticité ne va pas s’imposer d’elle-même. C’est tellement faux que les régimes autoritaires ont besoin d’une énorme dose de violence pour l’imposer. Alors, je ne dis pas que ce tournant algorithmique nous conduit nécessairement au fascisme, mais la tendance est la même : considérer que tout ce qui est enregistré sous forme de données, c’est le monde en soi, la vérité, le réel. Et qu’on n’aurait plus besoin de l’historicité, c’est-à-dire d’interroger les causes, d’entendre les gens. Qu’on n’aurait plus besoin d’explications, d’interprétations, ni de témoignages.
(...) Les algorithmes constituent ainsi un art de ne pas changer le monde, tout simplement parce qu’ils ne peuvent métaboliser que des données. Or, les données ne sont pas des faits, mais toujours le résultat de rapports de force et de domination qui sont transcrits sous une forme numérique. Et on fait comme si ces rapports de pouvoir naturalisés n’étaient causés par rien. Nous sommes incapables de questionner l’origine des données, leurs conditions de production, puisque la seule chose qui nous intéresse, c’est d’anticiper les effets. Des effets qui à leur tour deviennent des données d'entraînement. C’est une sorte de déhistoricisation contre laquelle il faut opposer une critique véritablement matérialiste c’est-à-dire qui s’intéresse aux situations. [21] »
Antoinette Rouvroy |
|
|
Notes :
[1] Kate Crawford, Contre-Atlas de l’intelligence artificielle, Zulma, 2022.
[2] Comme le montre la journaliste Karen Hao dans son livre. Empire of AI, Dreams and Nightmares in Sam Altman's OpenAI, Penguin Books, 2025. Voir aussi Nastasia Hadjadji, “Karen Hao : OpenAI utilise plus d’argent et de ressources naturelles qu’il n’en a été nécessaire pour aller sur la Lune”, Libération, 23 juin 2025 : https://www.liberation.fr/idees-et-debats/karen-hao-openai-utilise-plus-dargent-et-de-ressources-naturelles-quil-nen-a-ete-necessaire-pour-aller-sur-la-lune-20250623_2QOM5AKLJFANJKCSW53O2FUB2Q/
[3] Comme le proposent d’ailleurs Kate Crawford et Vladan Joler dans leur cartographie gigantesque, Calculating Empires (2023) : https://calculatingempires.net
[4] Hubert Guillaud, “Kate Crawford : l’IA est une nouvelle ingénierie du pouvoir“, Internetactu.net, 30 septembre 2019. Une copie est accessible sur Educavox : https://www.educavox.fr/innovation/recherche/kate-crawford-l-ia-est-une-nouvelle-ingenierie-du-pouvoir
[5] AI Now Institute, “Artificial Power: 2025 Landscape Report”, 3 juin 2025 : https://ainowinstitute.org/publications/research/ai-now-2025-landscape-report Ainsi que Hubert Guillaud, “Renverser le pouvoir artificiel”, Danslesalgorithmes.net, 8 juillet 2025 : https://danslesalgorithmes.net/2025/07/08/renverser-le-pouvoir-artificiel/
[6] La première occurrence du terme appliquée à l’IA générative proviendrait d’un article de blog de 2015 d’Andrej Karpathy, membre fondateur d'OpenAI, repris en 2018 par des chercheurs en IA de Google lors d’une conférence. Voir Ben Zimmer, “Hallucination’: When Chatbots (and People) See What Isn’t There“, Wall Street Journal, 20 avril 2023 : https://www.wsj.com/tech/hallucination-when-chatbots-and-people-see-what-isnt-there-91c6c88b En fait, on retrouve des occurrences plus anciennes du terme dès 1982 sur des problèmes de reconnaissance d’empreinte digitales et dans les années 2000 sur les faux positifs de la reconnaissance des visages. Cf. Joshua Person, “Why “Hallucination”? Examining the History, and Stakes, of How We Label AI’s Undesirable Output“, Los Angeles Review of Books, 18 mai 2024 : https://lareviewofbooks.org/article/why-hallucination-examining-the-history-and-stakes-of-how-we-label-ais-undesirable-output/
[7] Voir la FAQ de Stardogs Labs : https://labs.stardog.ai/faq/hallucination et le classement des IA génératives selon leur faculté d’hallucination proposé par Hugging Face : https://huggingface.co/spaces/hallucinations-leaderboard/leaderboard ou Vectara : https://github.com/vectara/hallucination-leaderboard?tab=readme-ov-file Pour Beren Millidge, responsable de la recherche IA chez Conjecture, le terme de “confabulation” serait plus approprié que celui d’hallucinations pour décrire ce comportement des LLM. Millidge compare la confabulation des LLM à celle des humains souffrant de certaines lésions cérébrales qui les amènent à fabriquer des histoires pour répondre à des questions qu’ils ne peuvent pas traiter. Il suggère que les LLM sont comme des humains amnésiques et sans cohérence centrale. Voir, “Les grands modèles de langage confabulent, ils n’hallucinent pas”, Developpez.com, 7 octobre 2023 : https://intelligence-artificielle.developpez.com/actu/349299/Les-grands-modeles-de-langage-confabulent-ils-n-hallucinent-pas-d-apres-Beren-Millidge-responsable-de-la-recherche-IA-chez-Conjecture/ Bien souvent, on a tendance à parler d’hallucinations pour toutes les erreurs que commettent les modèles, or, le fait qu’elles utilisent des sources peu fiables ou des informations obsolètes par exemple ne relève pas nécessairement d’hallucinations. Le terme hallucination a surtout une fonction disculpatoire pour les fournisseurs d’IA. On devrait surtout dire que ces outils baratinent. Au final, ils risquent de ressembler bien plus à l’insupportable Clippy qu’à Skynet ! Carl T. Bergstrom et C. Brandon Ogbunu, “ChatGPT isn’t hallucinating, its bullshitting”, Undark, 4 juin 2023 : https://undark.org/2023/04/06/chatgpt-isnt-hallucinating-its-bullshitting/ Clippy était un assistant sous forme d’un trombone anthropomorphe, avec des grands yeux et des sourcils venant donner des conseils aux utilisateurs de la suite Microsoft Office dans ses versions de 1997 à 2003. Peu populaire, l’outil était particulièrement intempestif et proposait des conseils surtout inutiles. Skynet est l’IA qui œuvre à détruire l’humanité dans les films de James Cameron, Terminator.
[8] Ziwei Xu, Sanjay Jain, Mohan Kankanhalli, “Hallucination is Inevitable: An Innate Limitation of Large Language Models“, 22 janvier 2024 : https://arxiv.org/abs/2401.11817
[9] Faiz Surani et Daniel E. Ho, “AI on Trial: Legal Models Hallucinate in 1 out of 6 (or More) Benchmarking Queries”, 23 mai 2023 : https://hai.stanford.edu/news/ai-trial-legal-models-hallucinate-1-out-6-or-more-benchmarking-queries
[10] Le RAG (retrieval augmented generation, génération augmentée de récupération ou génération à enrichissement contextuel) est le processus consistant à optimiser le résultat d'un grand modèle de langage. Le RAG fait appel à une ou plusieurs bases de connaissances fiables, externes aux sources de données utilisées pour l'entraîner, avant de générer une réponse afin de les améliorer. L’idée est de générer des réponses basées sur des sources sélectionnées, faisant autorité. [11] Le réglage fin ou ou ajustement (fine-tuning) vise à agir sur certains paramètres d’un modèle pré-entraîné avec des données, afin d’ajuster son comportement ou l’adapter à une tâche ou à un univers de référence spécifique.
[12] OpenAI, “Modèles de langage : aux origines des hallucinations”, 5 septembre 2025 : https://openai.com/fr-FR/index/why-language-models-hallucinate/
[13] C’est-à-dire que les modèles soient récompensés s’ils sont confiants à plus de 75% dans leur réponse et lourdement pénalisés quand leur réponses est fausse, comme l’explique Wei Xing, “ChatGPT : la proposition d’OpenAI pour éviter les hallucinations pourrait tuer son propre chatbot“, The Conversation, 24 septembre 2025 : https://theconversation.com/chatgpt-la-proposition-dopenai-pour-eviter-les-hallucinations-pourrait-tuer-son-propre-chatbot-265886
[14] Un autre problème se pose également, c’est celui du coût de calcul. “La prise en compte de l’incertitude nécessite beaucoup plus de puissance de calcul que les approches actuelles, car les systèmes doivent évaluer plusieurs réponses possibles et estimer les niveaux de confiance”, ce qui peut avoir de l’intérêt dans des domaines très spécialisés ou des réponses erronées peuvent être très coûteuses.
[15] Jeremy Hsu, “AI hallucinations are getting worse – and they're here to stay“, New Scientist, 9 mai 2025 : https://www.newscientist.com/article/2479545-ai-hallucinations-are-getting-worse-and-theyre-here-to-stay/ Cade Metz et Karen Weise, “A.I. is getting more powerful, butits hallucinations are getting worse”, New York Times, 6 mai 2025 : https://www.nytimes.com/2025/05/05/technology/ai-hallucinations-chatgpt-google.html Elizabeth Gibney, “Can researchers stop AI making up citations?”, Nature, 9 septembre 2025 : https://www.nature.com/articles/d41586-025-02853-8
[16] Eryk Salvaggio, “Stochastic Flocks and the Critical Problem of 'Useful' AI“, Tech Policy Press, 22 février 2026 : https://www.techpolicy.press/stochastic-flocks-and-the-critical-problem-of-useful-ai/
[17] Carl T. Bergstrom et Jevin D. West, Calling Bullshit : The Art of Skepticism in a Data-Driven World, Penguin, 2020 : https://www.callingbullshit.org
[18] Naomi Klein, “AI machines aren’t ‘hallucinating’. But their makers are“, The Guardian, 8 mai 2023 : https://www.theguardian.com/commentisfree/2023/may/08/ai-machines-hallucinating-naomi-klein [19] Thibault Prévost, Les prophètes de l’IA, Lux éditeur, 2024. [20] Christian Salmon, Storytelling, la machine à fabriquer des histoires et à formater les esprits, La Découverte, 2007.
[21] Aurélien Berthier, « Les algorithmes, un art de ne pas changer le monde », Agir par la culture, 22 avril 2024 : https://www.agirparlaculture.be/les-algorithmes-un-art-de-ne-pas-changer-le-monde-entretien-avec-antoinette-rouvroy/ |
|
|
📆Agenda et actualités de Café IA |
⭐️La semaine de l’IA pour tous
|
Du 18 au 24 mai 2026, la France se mobilise pour la Semaine de l’IA pour Tous. Ce grand mouvement national vise à rendre l’IA concrète et accessible à chaque citoyen, loin des clichés. Avec déjà 70 événements référencés, ce rendez-vous s'annonce comme le temps fort de l'année pour débattre des enjeux de l’IA et valoriser la médiation numérique sur le terrain.
Vous organisez déjà un Café IA ou prévoyez un évènement sur le sujet à ces dates ? Ne restez pas dans l'ombre ! Pensez à référencer votre événement dès maintenant pour qu’il rejoigne la programmation nationale. Nous l'ajouterons automatiquement à notre cartographie interactive des Cafés IA pour lui donner un maximum de visibilité. |
|
|
Les Cafés IA de cette semaine. Participez ! -
Le 16 mars à Martigues, le Café IA Découverte de l’IA propose de comprendre ce qu’est l’intelligence artificielle, son histoire et la manière dont elle transforme notre rapport au numérique. Inscription : epn@ville-martigues.fr
-
Le 17 mars à Nanterre, un Café IA aborde les impacts environnementaux des IA génératives dans le cadre du Digital Clean Up Day, pour discuter des conséquences du numérique sur l’environnement et des pistes pour les réduire.
-
Le 17 mars à Lille, un Café IAssos réunit des acteurs de l’ESS pour explorer ensemble les usages et les non-usages de l’IA.
-
Le 18 mars à Craponne-sur-Arzon, le Café IA Les IAs et notre environnement invite à débattre de l’impact direct de l’IA et de la possibilité d’un usage plus raisonné de ces technologies.
-
Le 19 mars à Namur, un second Café IAssos propose une rencontre entre acteurs de l’économie sociale et solidaire pour partager pratiques, expériences et réflexions autour de l’IA.
-
Le 23 mars aux Hauts-d’Anjou, un Atelier du CIAS – Intelligence artificielle propose de découvrir des outils d’IA, d’échanger sur leur consommation et de repartir avec des conseils pour les utiliser selon ses besoins.
-
Le 24 mars à Saint-Sébastien-sur-Loire, le Café IA Temps d’échange autour de l’IA invite à découvrir l’origine de l’intelligence artificielle et son vocabulaire dans un moment convivial de discussion.
-
Le 25 mars à Martigues, la soirée IA & Imaginaires propose une conférence de l’écrivain de science-fiction Olivier Paquet suivie d’ateliers pour tester des outils d’IA et débattre des imaginaires qui entourent cette technologie.
-
Le 26 mars au Lion-d’Angers, un Atelier du CIAS – Intelligence artificielle propose de découvrir différents outils d’IA et de repartir avec des repères et des conseils pour les utiliser au quotidien.
-
Le 26 mars à Bordeaux, un Café IA organisé par le PIMMS Médiation offre un temps d’échange autour du numérique et de l’intelligence artificielle.
-
Le 27 mars à Nyons, un Café IA propose un moment de discussion, d’expérimentation et de débat autour des outils d’intelligence artificielle.
Vous organisez un café IA grand public ?
Inscrivez vos sessions, ou découvrez les sessions proche de chez vous dans le recensement national et sur la cartographie interactive. |
🎨Les Cafés animation à venir !
|
Vous souhaitez animer un Café IA ou partager votre expérience ? Participez aux prochains cafés animations en ligne, le jeudi de 13h30 à 15h pour découvrir des formats d’animation, des ressources pédagogiques sur l’IA et faire part de vos retours d’expérience. Un moment convivial pour s’inspirer et apprendre ensemble ! |
- Jeudi 19 mars : Animer un Café IA avec Compar:IA : découvrir comment utiliser cet outil pour comparer différentes réponses d’IA et nourrir les échanges avec le public.
Jeudi 26 mars : Présentation de la Mallette de l'IA avec les Assembleurs.
Jeudi 2 avril : Animer un Café IA avec la Recette inratable : un format simple et efficace pour organiser et animer un Café IA, même si c’est votre première fois.
|
|
|
Le biais anti-humain de l’IA : des préférences des IA pour les contenus IA |
Sans surprise, les IA préfèrent les textes… écrits par des IA. Des chercheurs ont reproduit des études de discrimination à l’emploi en testant les biais des LLM chargés du recrutement en testant la différence entre des lettres de motivation et des CV écrits par des humains et générés par des IA.
Visiblement, les LLM préfèrent toujours les contenus génératifs sur les contenus humains, que ce soit pour l’embauche, pour la sélection d’articles de recherche ou pour les résumés de films. Mais surtout, soulignent les chercheurs, confrontés au choix entre des contenus génératifs et des contenus humains, les humains choisissent moins fréquemment les textes produits par des LLM que ne le font les produits LLM eux-mêmes. Les résultats montrent que les LLM ont tendance à « discriminer de manière dysfonctionnelle les humains. »
Reste à saisir pourquoi : « nos données ne permettent pas de déterminer si le biais sous-jacent est sui generis ou s'il résulte de formes plus familières de biais sociaux et de discrimination. Il est possible que les choix des LLM révèlent des formes amplifiées de biais négatifs socialement répandus, déclenchés par les marqueurs stylistiques des identités sociales humaines marginalisées. Ainsi, la préférence des LLM pour les LLM découlerait de l'absence de tels marqueurs dans leurs intonations, contrairement à leur présence intermittente dans les intonations humaines.»
A terme, les chercheurs estiment que pointe le risque d’une fracture numérique renforcée, risquant de déclasser les candidats qui n’utilisent pas l’IA, ou pire, ceux qui n’utilisent pas les meilleurs modèles… ou pire, de marginaliser définitivement les humains, par une forme de ségrégation supplémentaire, et qui s’ajoute à celles lui préexistant. Ce qui est sûr, c’est que le biais IA-IA pourrait conférer un avantage indu au contenu généré par l'IA dans nombre de processus décisionnels, comme on le voit déjà dans les flux de recommandations de nombre des réseaux sociaux. |
|
|
💥 La ressource de la semaine |
Imaginé par l’association européenne Tactical Tech, le Data Detox Kit est un guide de bonnes pratiques (traduit en français) pour aider à reprendre le contrôle de ses appareils, pour améliorer sa vie privée, sa sécurité et son bien-être. Il permet d’apprendre à régler ses appareils. Pour les adolescents, il se complète d’un cahier d’activité à télécharger et à imprimer.
|
Comprendre la cage de verre de la désinformation |
Merci de nous avoir lus ! Si vous avez apprécié la lettre d’information de cette semaine, partagez-la ! Tout à chacun peut s’inscrire ici.
Comme d’habitude, n’hésitez pas à nous faire vos retours. Vous avez des questions, des remarques ou des suggestions ou vous souhaitez que nous abordions un sujet en particulier ? Nous sommes à votre écoute ! N’hésitez pas à répondre à ce mail ou à nous écrire à bonjour@cafeia.org. |
|
|
|