La lettre hebdomadaire de Café IA |
| |
|
Bonjour à tous.tes,
Nous sommes le vendredi 6 février 2026. Au menu de cette semaine : ce que l’IA change aux recommandations sociales ✦ Dans la veille : Des pratiques culturelles des Français… à la littérature générative ✦ La ressource de la semaine : éclairer les Dark Patterns ✦ Et comme chaque semaine, retrouvez toute l’actualité de la communauté Cafés IA … Bonne lecture !
|
Perdu(e)s dans les transformations des recommandations |
Au Royaume-Uni, des utilisatrices de Linked-in ont changé leur genre et leur prénom pour un prénom masculin sur la plateforme, voir ont réécrit leur profils et leurs posts sous une forme plus « masculine » en utilisant un vocabulaire plus offensif avec des termes plus marqués comme « stratégique » et « leader » (autant de traits de personnalités, de qualités comportementales pour beaucoup liées au vocabulaire utilisé et qu’on recouvre du terme de soft skills, et qui sont éminemment genrés, comme le soulignait une récente étude de la Dares)… et ont constaté une forte augmentation de leur engagement, rapporte The Guardian. Le journal britannique relate de nombreuses expériences informelles et empiriques au cours desquelles des femmes et des hommes travaillant dans des secteurs similaires ont publié le même contenu et où les hommes ont obtenu une portée considérablement supérieure. En France aussi, le phénomène a connu un peu d’écho, rapporte la journaliste Mathilde Saliou pour Next.
Des études ont depuis longtemps démontré que les femmes rencontrent des obstacles supplémentaires à leur visibilité sur les réseaux sociaux. Un article publié en 2025 dans Nature Communications s'est penché sur l'autopromotion des travaux des universitaires sur Linked-in et a constaté que les femmes le faisaient 28 % moins souvent que les hommes. Comme le soulignent les auteurs, des recherches menées dans d'autres domaines indiquent déjà que les femmes ont appris à taire leurs réussites, en partie à cause des « réactions négatives » qu'elles suscitent lorsqu'elles prennent la parole. Ce mélange de réticence et de silence culturellement imposé constitue potentiellement un frein majeur à leur réussite sur Linked-In, un réseau saturé d'autopromoteurs (qui sont, en effet, majoritairement des hommes), rappelle la journaliste Isabel Berwick dans le Financial Times, en réagissant à la polémique.
Des utilisatrices de Linked-in ont lancé la campagne « Fairness in the Feed » (Équité dans le fil d'actualité), exigeant la transparence de la plateforme. Elles dénoncent un biais antiféministe de l'algorithme du fil d'actualité de la plateforme, ce que Linked-in dément, réaffirmant que « modifier le genre indiqué sur votre profil n'a aucune incidence sur l'affichage de votre contenu ». Linked-in explique que la diffusion des publications dépend de leur contenu, ainsi que de l'identité professionnelle et des compétences de l'auteur. L'entreprise indique évaluer régulièrement ses algorithmes, notamment en vérifiant les disparités liées au genre. Un porte-parole de Linked-In a suggéré que la récente baisse de la visibilité de certains utilisateurs était due à une augmentation considérable du volume de contenu sur le réseau, ajoutant que le nombre de commentaires avait progressé de 24 % et que les mises en ligne de vidéos avaient connu une hausse équivalente au cours du dernier trimestre… Mais cela n’a pas empêché les doutes des utilisatrices de perdurer, et d’une manière assez légitime puisque les mots utilisés dans le système d’IA de Linked-in ont des poids et que l’usage des mots est souvent assez genré. Linked-in peut affirmer qu’il surveille régulièrement son algorithme, comme le disait l’un de ses ingénieurs, ou expliquer régulièrement sur son blog officiel le fonctionnement de son flux d’actualité, sa complexité même le rend douteux et opaque aux utilisatrices et aux utilisateurs.
Dans sa newsletter, la journaliste Mathilde Saliou pointe notamment vers l’analyse accomplie par le chercheur indépendant Martyn Redstone qui a tenté une reconstruction systématique de l'architecture de recommandation de Linked-in, basée exclusivement sur ses publications techniques. L’analyse identifie les mécanismes de risques structurels par lesquels des inégalités de visibilité peuvent apparaître pour les groupes protégés par la loi, même en l'absence de discrimination intentionnelle. Il démontre comment des propriétés telles que « la compression d'identité, l'homophilie du réseau, la recherche pondérée par la popularité, le classement optimisé pour l'engagement, l'amplification par les notifications et les boucles de rétroaction d'attribution peuvent interagir pour produire des disparités persistantes en termes de portée et d'exposition ». Le rapport décrit également des stratégies d'atténuation techniquement réalisables – telles que la récupération équitable des résultats, la pondération des graphes pour limiter l'homophilie, la correction des interactions toxiques, les contrôles de parité des notifications et l'audit d'attribution contrefactuel – qui pourraient être mises en œuvre sans accès au code propriétaire.
Pour Redstone, les utilisatrices et utilisateurs peuvent se sentir « shadowbannés » même en l'absence de tout mécanisme de ce type. Il rappelle d’abord que le système transforme chaque personne en un vecteur unique, fusionnant identité, comportement et contexte de manière à encoder involontairement des caractéristiques protégées. Que le graphe amplifie les comportements majoritaires, renforçant encore la domination des groupes déjà dominants. Que le modèle de recherche privilégie les utilisateurs ayant un historique de publications régulier et un fort engagement, et pénalise ceux qui publient moins, quelque soit la raison pour laquelle ils publient moins. Que le modèle de classement de Linked-in comme de nombreux autres réseaux sociaux, considère la controverse et l'hostilité comme des signaux d'engagement précieux. Que le système de notification creuse l'écart, donnant aux utilisateurs à fort engagement un avantage encore plus grand. Enfin, que les modèles d'attribution valorisent les comportements des groupes majoritaires, orientant l'optimisation des plateformes vers des expériences qui les privilégient davantage. Aucun de ces mécanismes n'est intentionnellement biaisé, rappelle Redstone, mais, ensemble, « ils créent un système où les utilisateurs marginalisés sont systématiquement désavantagés ». Pour les plateformes, les inégalités structurelles apparaissent comme ne relevant pas de discriminations explicites.
Pour Redstone, Linked-in pourrait améliorer les choses en diminuant sa dépendance aux indicateurs de popularité, chercher à diminuer l’homophilie des graphes, améliorer la répartition des notifications entre les groupes démographiques… Et produire des audits continus des « disparités de portée ». Pour Redstone, « l'architecture ne peut pas se corriger d'elle-même. Sans garde-fous délibérés, les systèmes optimisés pour l'engagement reproduiront et amplifieront toujours les inégalités sociales ». Un propos qui n’est pas sans rappeler ce que disait déjà le chercheur Arvind Narayanan quand il dénonçait les boucles de l’amplification algorithmique.
|
L’IAification des réseaux sociaux
Pour le Journal du Net, Emmanuelle Petiau revient sur les derniers changements de l’algorithme de Linked-in et explique que désormais, publier ne suffit plus. En fait, depuis octobre 2025, le système de recommandation de Linked-in a profondément changé. Linded-in a passé son flux de recommandation à l’IA avec « 360brew » qui a profondément changé les règles de visibilité. La plateforme ne cherche plus les contenus intéressants, mais plutôt les profils (même si on peut être bien plus sceptique quand on nous annonce que la plateforme dévalorise les contenus génériques, alors qu’elle semble plus que jamais privilégier des contenus sous IA…). Le consultant Xavier Degraux propose des explications assez proches, mais pas toujours, par exemple sur le fait que l’enregistrement des billets serait peu valorisé dans 360brew. Ces évolutions récentes que les usagères et usagers de Linked-in n’ont pas vu passer permettent certainement d’expliquer le doute qui a pu saisir les utilisatrices et nombre d’utilisateurs quant à la chute et à la transformation de leur audience.
Les modalités de recommandations des réseaux sociaux n’ont eu de cesse de changer et d’évoluer. Mais depuis peu, elles sont surtout bouleversées par l’IA. C’est le cas par exemple de l’algorithme de X, rapporte le Siècle Digital, qui vient de publier sur Github de nombreux éléments de son algorithme de recommandation. Les algorithmes de recommandation de X sont désormais pilotés par Grok, l’IA générative de X. « Les poids attribués aux actions positives ou négatives ne sont plus publics, contrairement à la version de 2023. Les paramètres internes Grok, tout comme les données ayant servi à son entraînement, ne sont pas divulgués également. » « La logique est désormais centrée sur la réaction réelle des utilisateurs, évaluée presque en temps réel. Pour les entreprises, cette ouverture agit comme une carte partielle, car elle permet de comprendre la philosophie du système, sans offrir de levier mécanique garanti. » C’est toute la difficulté à laquelle sont confrontés les utilisateurs et utilisatrices expérimentés : ne plus comprendre les leviers qui leurs permettent de se démarquer des autres.
Sur Youtube, les utilisateurs se posent des questions similaires, rapporte le journaliste David Julien Rahmil pour l’ADN. Et il est probable que l’intégration de l’IA dans tous les systèmes de recommandations provoquent la même perplexité.
Fort de ces éclairages, la grogne des utilisatrices de Linked-in doit peut-être être lue autrement. Ce que la colère des utilisatrices de Linked-in exprime, c’est peut-être que la plateforme n’a pas été suffisamment pédagogue dans les changements qu’elle a apportés. Que la nouvelle complexité des modalités de recommandations sous IA est peu lisible pour les utilisatrices et utilisateurs, notamment pour une partie de celles et ceux qui parvenaient à se jouer des contraintes et modifications algorithmiques. Avec l’IA, à mesure que les systèmes se complexifient, l’asymétrie de pouvoir se renforce, comme si les systèmes voulaient seuls avoir la main et rendre toujours plus difficile la maîtrise de la visibilité. La grogne des utilisatrices de Linked-in nous montre surtout que les gens ne comprennent pas les rets dans lesquels ils sont pris et dans lesquels ils se débattent. Ils pensent que leurs pratiques, que les compétences que cela leur demande de développer, seront récompensées, alors qu’elles sont surtout sans cesse recomposées par les transformations des systèmes de recommandations. En « s’iaiifiant », les systèmes de recommandation deviennent plus complexes et moins lisibles, recomposant le public qui parvenait à tirer partie des flux de recommandation. Derrière la grogne, il faut sans doute lire le fait que les usagers des médias sociaux perdent toujours un peu plus la main sur les recommandations, que les astuces et bonnes pratiques ne cessent d’être reconfigurées laissant les usagers dénués de modalités pour tirer partie d’un classement iaifié qui serait parfaitement pur. Les utilisateurs voudraient comprendre les règles qui semblent devenir de plus en plus obscures, et les laissent avec de moins en moins de pouvoir pour s’y adapter. La grogne exprime un mécontentement contre des règles que les plateformes définissent sans eux. Au risque d’ailleurs que les effets de bords de ces ajustements sous IA bénéficient d’abord aux contenus sous IA, optimisés pour l’engagement. Et quand on constate que sur la plupart des réseaux sociaux, l’essentiel des recommandations promeuvent de plus en plus de contenus sous IA, il y a effectivement de quoi s’inquiéter.
Les réseaux sociaux et les grands acteurs de l’IA semblent eux-mêmes commencer à s’inquiéter des perturbations que la généralisation des contenus sous IA introduisent. Il est presque paradoxale que ce soit TikTok qui annonce qu’il va permettre aux utilisateurs de contrôler la quantité de contenu généré par l'IA qu'ils voient. Dans ses paramètres de réglage, TikTok a annoncé l’arrivée d’un nouveau curseur IA qui permettra de régler le niveau de contenu génératif visible, pour autant que l’entreprise arrive à bien les identifier, expliquait il y a quelques mois The Verge. Il y a quelques jours, c’est OpenAI qui constatait qu’il ne peut pas prospérer dans un écosystème informationnel qu’il fragilise. « ChatGPT peut aider les internautes à trouver des informations locales, à condition que des journalistes locaux continuent de les couvrir ». Reste à savoir comment OpenAI va ralentir l’érosion des modèles économiques de la presse. Pour l’instant, il annonce un partenariat avec Axios, un grand groupe de presse d’informations locales et promet de publier plus d’informations sur la manière dont les utilisateurs utilisent l’IA pour s’informer. Pas sûr que cela suffise. OpenAI ici, cherche avant tout à continuer à obtenir de l’information de qualité tout en œuvrant à sa disparition. Et surtout, il ne répond pas ni au besoin de compréhension des leviers que les utilisateurs peuvent avoir sur les paramètres, les laissant de plus en plus démunis, sans possibilités d’actions pour booster leur visibilité. Une capture du pouvoir par les plateformes, qui pourrait bien générer de plus en plus de grogne.
|
Les derniers jours des réseaux sociaux
C’est d’ailleurs ce que l’on constate déjà. L’engagement reflue. « Alors que le contenu prolifère, l'engagement s'évapore. Les taux d'interaction moyens sur les principales plateformes chutent rapidement : les publications Facebook et X atteignent péniblement un taux d'engagement moyen de 0,15 %, tandis qu'Instagram a chuté de 24 % sur un an. Même TikTok stagne. Les utilisateurs ne communiquent plus comme avant sur les réseaux sociaux ; ils se contentent de parcourir du contenu produit en masse, souvent grâce à l'IA, dans le seul but de susciter l'engagement. Et ce contenu est souvent de piètre qualité : moins de la moitié des adultes américains jugent désormais les informations qu'ils voient sur les réseaux sociaux « plutôt fiables », contre environ deux tiers au milieu des années 2010. »
« Les jeunes adultes sont les plus touchés, ce qui n'est pas surprenant ; nés avec le numérique, ils comprennent mieux que le contenu qu'ils consultent n'est pas forcément produit par des humains. Et pourtant, ils continuent de scroller. Le fil d'actualité n'est plus une source d'information ni un moyen d'affirmer sa présence sociale, mais plutôt un outil de régulation émotionnelle, se renouvelant sans cesse avec juste assez de nouveautés pour apaiser l'envie de s'arrêter. Le défilement est devenu une forme de dissociation ambiante, mi-consciente, mi-compulsive, plus proche du grattage d'une démangeaison que de la recherche d'un contenu précis. On sait que le fil d'actualité est faux, mais ça nous est égal. Les plateformes n'ont guère intérêt à endiguer ce phénomène. Les faux comptes sont peu coûteux, infatigables et lucratifs. Les systèmes conçus pour favoriser les échanges entre utilisateurs filtrent désormais systématiquement ce type d'activité, car la notion d'engagement a évolué. L'engagement se mesure maintenant à l'attention brute de l'utilisateur – temps passé, impressions, vitesse de défilement – et le résultat est un monde en ligne où l'on est constamment interpellé, mais jamais vraiment écouté. »
L'agonie des réseaux sociaux ne sera pas un fracas, mais un simple haussement d'épaules, explique le chercheur James O’Sullivan dans Noema.
Même les grandes plateformes perçoivent ce changement de cap. Instagram privilégie désormais les messages privés, X met en avant les cercles réservés aux abonnés et TikTok expérimente les communautés privées. Derrière ces évolutions se cache la reconnaissance implicite que le défilement infini, saturé de bots et de contenus artificiels, atteint déjà ses limites de tolérance.
« Les réseaux sociaux se sont construits sur l'attention, non seulement sur la promesse de capter la vôtre, mais aussi sur la possibilité de capter une part de celle des autres. Après deux décennies, le mécanisme s'est inversé, remplaçant la connexion par l'épuisement. (...) Le temps passé sur ces plateformes reste considérable : on y fait défiler les contenus non par plaisir, mais par incapacité à s'arrêter. »
Certains créateurs jettent l'éponge. Face à la concurrence d'acteurs virtuels qui ne dorment jamais, la course à la visibilité leur paraît non seulement épuisante, mais absurde. Pourquoi poster un selfie quand une IA peut en générer un plus joli ? Pourquoi se creuser la tête quand ChatGPT peut en produire un plus rapidement ? Nous vivons les derniers jours des réseaux sociaux, non pas par manque de contenu, mais parce que l'économie de l'attention a atteint ses limites : notre capacité d'attention est épuisée. Les réseaux sociaux ne sont plus un lieu où l'on a envie d'être, mais une surface à survoler.
Reste à savoir si l’on peut s’en passer ? « L’adolescente qui refuse TikTok risque de se retrouver incapable de décrypter les références, les mèmes et les microcultures qui constituent le langage courant de ses pairs. » Ces plateformes n'ont pas seulement capturé l'attention, elles ont aussi confiné les espaces communs où s'échangent les capitaux sociaux, économiques et culturels. Reste qu’à mesure que les médias sociaux s'effondrent sur eux-mêmes, l'avenir se dessine vers un réseau plus discret, plus fragmenté, plus humain, qui ne prétend plus être tout, partout et pour tous. Les applications de messagerie comme Signal deviennent discrètement des infrastructures dominantes de la vie sociale numérique, non pas parce qu’elles promettent la découverte, mais justement parce qu’elles ne le font pas. Dans ces espaces, un message a souvent plus de sens car il est généralement adressé, et non diffusé de manière systématique.
« Les derniers jours des réseaux sociaux pourraient bien marquer le début d'une ère plus humaine : un web qui se souvient de la raison même de notre présence en ligne : non pas pour être exploités, mais pour être entendus ; non pas pour devenir viraux, mais pour retrouver nos semblables ; non pas pour faire défiler, mais pour créer du lien. Nous avons bâti ces systèmes, et nous pouvons assurément en construire de meilleurs. La question est de savoir si nous y parviendrons ou si nous continuerons à nous noyer. »
|
📆Agenda et actualités de Café IA |
|
|
Les Cafés IA de cette semaine. Participez ! -
Le 7 février à Paris, au Carrefour numérique² de la Cité des sciences et de l’industrie, un Café IA reviendra sur l’histoire de l’intelligence artificielle dans le jeu vidéo et questionnera ses usages, promesses et limites.
-
Le 7 février à Vigneux-sur-Seine, un Café IA invite le public à venir découvrir l’avenir avec l’aide de l’IA.
-
Le 10 février à Paris, un atelier Générer des images avec l’IA proposera une initiation pratique à la création d’images, avec démonstrations et échanges, de 19h30 à 21h.
-
Le 10 février à Poitiers, la CCI de la Vienne organise un Café IA pour démystifier l’intelligence artificielle et échanger sur ses usages concrets en entreprise.
-
Le 11 février à Martigues, un Café IA sera consacré aux bonnes pratiques pour éviter les pièges de l’IA et mieux en comprendre les risques.
-
Le 11 février à Limerzel, un Café IA se tiendra au centre social Éveil, de 10h à 12h, pour échanger autour de l’intelligence artificielle.
-
Le 12 et le 13 février à Chassenard, un Café IA, Découvrir l’IA permettra d’aborder simplement les usages et enjeux de l’intelligence artificielle.
-
Le 13 février à Genas, un Café IA invitera à réfléchir collectivement à une intelligence artificielle plus responsable.
-
Le 13 février au Blanc, un Café IA sera proposé dans le cadre du Forum, avec un temps d’échanges convivial autour de l’IA.
-
Le 13 février à Saint-Médard-d’Excideuil, un Café IA invite à découvrir l’IA ensemble autour d’un café, à la bibliothèque du Colibri.
-
Le 15 février à Aincourt, un atelier L’IA générative au service de la laine du Vexin proposera de découvrir, à partir d’un exemple local, comment l’IA peut aider à valoriser des savoir-faire, sans discours technique.
Du côté de nos partenaires, retrouvez : -
les Cafés IA PME-TPE France Num par ici ;
-
et les Cafés IA à destination des enseignants comme du grand public du Réseau Canopé par là.
|
🎨Les Cafés animation à venir !
|
Vous souhaitez animer un Café IA ou partager votre expérience ? Participez aux prochains cafés animations en ligne, le jeudi de 13h30 à 15h pour découvrir des formats d’animation, des ressources pédagogiques sur l’IA et faire part de vos retours d’expérience. Un moment convivial pour s’inspirer et apprendre ensemble ! |
✨ Animer un CaféIA, l’intelligence collective appliquée
|
A Café IA, on insiste beaucoup dans nos ateliers pour que la parole circule et que l’animateur soit le garant d’échanges équitables, où chacun peut s’exprimer et où nul ne monopolise la parole plus qu’un autre. Au micro de Mathieu Vidard dans l’émission La terre au carré, Mehdi Moussaïd, chercheur en sciences cognitives au Max Planck Institute de Berlin, vulgarisateur scientifique sur la chaîne Youtube Fouloscopie et auteur de A-t-on besoin d'un chef ? Petit traité d'intelligence collective (Éditions Allary, 2025), nous rappelle pourquoi et comment le groupe peut être plus juste que ses membres pris individuellement.
« L’intelligence collective naît de la diversité. Si vous formez des groupes de gens qui se ressemblent, le résultat collectif sera moins bon que si vous formez des groupes de gens qui sont très différents. Car les gens différents apportent des informations complémentaires pour créer des solutions plus complètes », explique-t-il en nous invitant à sortir de l’homophilie, c’est-à-dire à nous connecter à des gens qui ne nous ressemblent pas. Mais surtout, la monopolisation de la parole est souvent problématique. « On chronomètre le temps de parole, sans regarder ce que les gens disent. Et on se rend compte que le temps de parole n’est pas du tout distribué équitablement et que bien souvent, cela produit des décisions peu performantes. Quand le temps de parole est équilibré, statistiquement la décision est meilleure. Quelque soit la nature des échanges ou la nature du problème. Il y a clairement une association entre l’équilibre du temps de parole et la qualité de la décision. »
|
|
|
Reste qu’il est très facile de dire à un bavard de se taire, il est beaucoup plus dur de faire parler des gens timides, rappelle le chercheur.
L’équité du temps de parole dans un Café IA est toujours difficile, mais rappelez-vous que plus vous tenterez de faire circuler la parole, plus les approches seront riches et variées. Car l’enjeu premier est bien de repartir avec des idées différentes de celles qu’on avait en entrant. |
Les réponses de Mehdi Moussaïd permettent de répondre d’ailleurs à une autre interrogation. Un café IA réussi nécessite de favoriser la diversité des participants, car les publics homogènes réduisent la diversité des points de vue. |
Pratiques culturelles, 20 ans après |
Depuis 1973, la grande enquête longitudinale et transversale sur les pratiques culturelles des Français est une source continue de compréhension des évolutions du rapport des Français à la culture. Renouvelée régulièrement depuis (en 1981, 1988, 1997, 2008 puis 2018…, on attend la prochaine enquête), en 2008, le sociologue Olivier Donnat l’avait enrichi en élargissant l’enquête au numérique, pour tenter de mesurer ce que le numérique modifie à notre rapport à la culture. Le DEPS vient de publier, depuis les données de l’enquête de 2018, un nouvel ouvrage, dirigé par Léa Garcia, Anne Jonchery et Sylvie Octobre (également disponible sur Cairn). L’une des questions qui animent les chercheurs ayant participé à cet ouvrage est notamment de mesurer l’importance de la plateformisation de la culture. Le numérique est-il si omniprésent qu’on le pense dans la culture et les loisirs ?
Ce n’est pas ce que disent les données de 2018, expliquait en webinaire Samuel Coavoux, l’un des 22 chercheurs ayant participé à l’ouvrage. Il y rappelait que l’adoption de nouvelles technologies, du livre de poche au DVD, en passant par l’accès aux plateformes numériques comme celles du streaming, est toujours graduelle. La numérisation est progressive, partielle et inachevée. Nous sommes dans un régime encore largement hybride : l’usage exclusif du numérique pour accéder à la culture est encore rare. Si c’est dans la musique que la plateformisation est la plus avancée, notamment auprès des plus jeunes, en 2018, les pratiques non numériques dominaient encore (notamment via l’écoute de musique sur disque, MP3 ou à la radio, même auprès des plus jeunes). La consommation de culture sur smartphone (hors musique et hors jeunes) est encore assez peu présente, même à équipement égal entre les générations. Même chez les plus jeunes, les pratiques demeurent hybrides en 2018. Les inégalités de pratiques sont bien sûr très présentes, comme le montre l’enquête depuis son origine qui souligne des inégalités de pratiques selon l’âge, mais également selon les catégories socio-professionnelles.
Pour Samuel Coavoux on a une numérisation à 2 vitesses, très inégale selon les domaines, les âges ou le niveau social. Totale dans le secteur du jeu vidéo, mais très faible dans le domaine de la lecture numérique (qui est majoritairement faible sur toutes les CSP et sur tous les âges, mais qui est aussi le seul domaine où il n’y pas de progression de la pratique chez les plus jeunes, alors que la jeune génération est à l’avant garde des pratiques numériques dans tous les autres secteurs). Comme l’avait déjà montré Olivier Donnat, les pratiques culturelles les plus numérisées sont plus concentrées chez les CSP+. Samuel Coavoux souligne qu’il y a bien plus sédimentation et hybridation des pratiques que substitution. Les pratiques ont tendance à rester hybrides longtemps, rappelle-t-il. Lors de l’apparition du film puis de la télévision, on a plusieurs fois prophétisé la fin de la radio qui n’est pas advenue. Enfin, que les inégalités sont bien plus reproduites par le numérique qu’aplaties.
|
Et si les lecteurs appréciaient plus la littérature générative que les productions d’auteurs ? |
C’est la question que pose la journaliste, écrivaine et essayiste Vauhini Vara dans le New Yorker. Les auteurs ont tendance à minimiser la menace que l’IA générative représente, notamment parce qu’elle ne produit pas encore de bons textes. « Mais que se passera-t-il quand nous ne pourrons plus faire la différence ? » Dans une courte étude, des étudiants de troisième cycle invités à comparer la prose d’auteurs établis et de mêmes passages réécrits par l’IA en aveugle ont préféré les imitations de l'IA dans près des deux tiers des cas. Vauhini Vara a refait l’expérience avec ses propres écrits et a montré les résultats à des amis en leur demandant d’essayer de trouver quels textes était d’elle et quels textes étaient une imitation par l’IA. La plupart se sont trompés. Elle fait réécrire une phrase d’un des premiers romans de Han Kang, la romancière sud-coréenne qui a obtenu le prix nobel de littérature en 2024, à une IA à laquelle elle a fourni plusieurs de ses titres récents et s’émerveille de la puissance de cette réécriture.
Vauhini Vara, l’autrice de Searches: Selfhood in the Digital Age (Penguin 2025, non traduit), tente de se rassurer en montrant que la lecture est d’abord une connexion sociale entre un lecteur et un auteur. Mais est-ce que ce sera si vrai à l’avenir ?
Dans une note sur la littérature et l’IA sur Lundi Matin, l’écrivain italien Roberto Bui - aka Wu Ming1, membre du collectif Wu Ming qui avait publié Q comme complot, Lux, 2022 - dénonce le fantasme d’une « amélioration » de la production littéraire par l’IA.. Dans la seconde partie de son article, il revient d’ailleurs sur l’article du New Yorker pour en dénoncer les constats. Même la réécriture de Han Kang semble appauvrie. « La littérature, ça ne veut pas dire une phrase, ça ne veut même pas dire un texte, ça ne se réduit pas au résultat représenté par le texte, mais c’est un processus, un devenir continu, c’est un multivers d’œuvres – et une œuvre n’est pas seulement un texte – et de mondes et de rencontres qui adviennent dans ces mondes et entre ces mondes, elle a un devenir social, elle concerne les corps.
Si nous craignons qu’une IA supposément douée pour écrire des textes littéraires remplace tout cela, cela veut dire que nous avons une conception misérable de l’acte d’écrire et de celui de lire.»
L’été dernier, lors d’une conférence, Philip Stone, responsable de NielsenIQ BookData, prophétisait dans The Bookseller, le magazine britannique qui analyse le marché du livre, que d’ici 2030, l’IA produirait un bestseller.
Pour Aeon, l’écrivain britannique Richard Beard explore aussi l’enjeu littéraire de l’IA, lui aussi avec un regard critique. « Des combinaisons de mots familières sont assemblées en phrases presque convaincantes, un usage éculé du langage autrefois qualifié de cliché. Les ordinateurs sont des machines à clichés, entraînées sur une faiblesse humaine tenace : générer un maximum de contenu avec un minimum d'effort. » « Mais, l’IA a un avantage inattendu : il est l'outil qui prouvera que tous les écrits n'ont pas la même valeur. »
Beard explique que si les arts visuels ont toujours eu plus de curiosité formelle, le monde littéraire, lui, a surtout privilégié des formes familières. La plupart des publications « n’étendent pas les possibilités de la forme romanesque ». Malgré les possibilités ouvertes par les nouvelles technologies, l’écriture n’a pas imaginé de nouvelles façon de lire. Ce qu’il résume d’une autre formule : « Ce que fait Toni Morrison est incroyable. En revanche, ce que fait une IA est probabiliste ». C’est ce qu’annonçait Turing. Si l'illusion de la compréhension est suffisamment convaincante, elle est considérée comme de la compréhension. Les machines font semblant jusqu'à ce qu'elles y parviennent.
Pourtant, l’art est l’affirmation de l’existence humaine, rappelle-t-il. Et Beard de rappeler que dans les multiples disparitions de La Disparition, le roman expérimental de Georges Perec, qui ne contient aucune occurrence de la lettre e (contrainte qu’une IA pourrait certainement reproduire), ce sont les autres disparitions que l’IA ne peut pas intégrer. La disparition du récit sous ses contraintes. La disparition des personnages du livre qui finissent par mourir dès qu’ils s’approchent trop de la vérité, comme si la lettre manquante était un symbole de ce qu'il leur manque. Celles de l’expérience même de Perec, comme l’absence de ses parents dans sa vie, que la métaphore de la disparition met en écho. Autant de sens à jamais inaccessibles à une machine.
|
💥 La ressource de la semaine |
Dark Patterns (et protection des données) |
Saurez-vous déceler les pratiques trompeuses des sites web ? En 20 petites questions, la CNIL vous invite à identifier les modalités de conception d’interfaces qui ont pour but de vous inciter à rendre accessible plus de données que nécessaire. Le test est à compléter avec les exemples, études de cas et bonnes pratiques documentées par le Linc de la Cnil sur sa plateforme Données et Design.
Profitons-en pour signaler l’application FantômeApp de la Cnil : une application pour aider les adolescents à se protéger sur les réseaux sociaux. L’application vise à fournir des aides et des ressources en cas de problème, des tutoriels et des bonnes pratiques pour régler les paramètres des applications et renforcer la sécurité de ses données. A télécharger, même après 15 ans !
|
Merci de nous avoir lus ! Si vous avez apprécié la lettre d’information de cette semaine, partagez-la ! Tout à chacun peut s’inscrire ici.
Comme d’habitude, n’hésitez pas à nous faire vos retours. Vous avez des questions, des remarques ou des suggestions ou vous souhaitez que nous abordions un sujet en particulier ? Nous sommes à votre écoute ! N’hésitez pas à répondre à ce mail ou à nous écrire à bonjour@cafeia.org. |
|
|
|