La lettre hebdomadaire de Café IA

Lire en ligne. 

Bonjour à toutes et à tous !


Nous sommes le vendredi 5 décembre 2025. Bienvenue dans la lettre d’information de Café IA. Au menu de cette semaine on interroge les limites des imaginaires ✦ Dans la veille : Quand les entreprises “ghostent” les régulateurs ✦ La ressource de la semaine : Inclusif  ✦ Et toujours la liste des prochains Cafés IA…

 

Bonne lecture !

 
 

Cette semaine, après une introduction invitant à rouvrir les imaginaires et un article pour préciser ce que les imaginaires recoupent, on continue d’explorer leurs enjeux, en tentant de prendre un peu de distance avec le terme lui-même. En pointant la porosité entre imaginaires et idéologies et entre science et science-fiction.

Hubert Guillaud

Imaginaires ou idéologies ?

Derrière les imaginaires, il faut lire les idéologies qui les inspirent.

 
 

Imaginaires, le terme fait référence à quelque chose qui n’existerait que dans l’imagination, qui serait sans réalité, comme dévitalisé, sans effet autre que sûr le rêve et l’irréel. Rien ne semble moins vrai. Ce que nous sommes capables de composer dans nos esprits a une puissance d’évocation sans précédent, qui mobilise et galvanise les énergies et façonne le réel, comme l’exprimait Yuval Harari dans Sapiens [1], expliquant, avec emphase, que c’est l’imagination qui aurait développé notre capacité à coopérer. Mais, le terme même d’imaginaire dépolitise ce que nos esprits façonnent, quand les récits que nous brodons et partageons construisent d’abord des ralliements, des adhésions ou leur exact inverse, des rejets, des défections, des oppositions.

 

Ce que nous imaginons ne flotte pas dans l’éther, bien au contraire. Pas plus que les développements de l’IA ne flottent dans un nuage sans effets matériels, nos imaginaires reflètent tout le temps des idées et conduisent nos agissements, décrivent des façons de voir le monde, de le régir, de le gouverner. Derrière les imaginaires, il y a des réalités, comme celles que mettent en scène Kate Crawford et Vladan Joler dans Calculating Empires [2], en tentant de représenter la généalogie de la puissance technologique pour montrer ce qu’elle invisibilise. L’imaginaire de la conquête spatiale dans le cinéma de science-fiction par exemple, invisibilise la colonisation à l'œuvre, comme si elle était naturelle. Les voitures autonomes, les robots servant le café ou les IA qui produisent des contenus à notre place… sont également des visions situées imaginées par les entreprises de la Silicon Valley avec l’objectif de nous les vendre, mais aussi de nous y faire adhérer. Or, on peut vouloir répondre autrement en tant que société, en valorisant les transports publics plutôt que la voiture autonome, l’emploi pour tous plutôt que d’être déqualifiés par des machines où des échanges réels et situés plutôt que des échanges dématérialisés. Les imaginaires que nous convoquons quand nous évoquons l’intelligence artificielle, que ce soit notre submersion par des machines ou leur intelligence qui nous dépasseraient, doivent donc être décryptées également en pensant aux idéologies qui les manœuvrent, aux références culturelles qu’elles transportent, aux intérêts qui poussent à leurs déploiements [3] voire à leur orientation politique. Car derrière les imaginaires que convoquent les technologies, il y a des intérêts à l'œuvre. Les produits qui sont développés répondent à des visions et des convictions politiques. Ils ne sont pas seulement financés pour leur qualité propre. Si les capitaux-risqueurs ont tant donné à Uber, c’est certainement d’abord parce que l’entreprise permettait d’agir sur le droit du travail, en changeant les règles. C’est l’enjeu de modification des règles et des normes que promettent les outils qui musclent l’investissement. C’est aussi parce que ces technologies promettent un changement politique qu’elles sont financées, comme le montre le financement de Clearview, le programme de reconnaissance faciale, financé par le milliardaire libertarien, Peter Thiel. Pour les investisseurs de Clearview, « pénétrer dans une zone de flou juridique constitue un avantage commercial [4] », et correspond à une offre politique. Même chose quand Elon Musk propose avec Grok une IA « antiwoke », au risque d’une « amplification spectaculaire de la désinformation, au nom d’une liberté d’expression sans responsabilité » [5]. Et le problème risque de s’amplifier avec le projet de décret de l'administration Trump [6] qui obligerait les entreprises obtenant des contrats fédéraux à développer des modèles d'IA « politiquement neutres et impartiaux », c’est-à-dire des IA avec un biais conservateur plus que progressiste.

 

L’IA destructrice [7] ou l’IA compagne [8] ne nous invitent pas à porter le même regard sur le déploiement technologique. Voir l’IA générative comme un assistant plutôt qu’un contrôleur [9], qui va renforcer le contrôle sur les travailleurs plutôt que les autonomiser, occulte le renforcement de l’asymétrie de pouvoir que l’IA met en œuvre. Sous ses atours de divertissement séduisant, l’IA est d’abord un outil de renforcement du contrôle.

 

Les imaginaires fictionnels sont certes un levier pour l’action, car l’imagination permet la création, mais ils ne sont pas indépendants des valeurs et visions politiques qui animent les acteurs qui les mobilisent, au contraire, elles les façonnent, les orientent, les accomplissent, les réifient. Les idées façonnent les imaginaires qui les façonnent en retour. Nos représentations sont façonnées d’idéologies et inversement.

 

Quand on parle d’imaginaires, n’oublions donc pas de penser que parfois, le terme d’idéologie serait mieux adapté.

 

Science et Science-fiction, qui inspire qui ?

 

Si par définition, la science-fiction (SF) s’inspire de la science pour produire de la fiction, est-ce que la science s’inspire de la fiction pour produire de la science ?

Nombre de chercheurs et d’entrepreneurs des nouvelles technologies ont confessé combien leur amour pour la SF les avait inspiré. Martin Cooper, inventeur du premier téléphone cellulaire a toujours reconnu s’être inspiré du Communicateur de la série Star Trek. Bas Ording, l’un des concepteurs de l’interface utilisateur de l’iPhone a dit avoir été inspiré par la gestuelle du film Minority Report, alors que le livre de Philip K. Dick dont il est l’adaptation, à, lui, inspiré John Unerkoffler, un chercheur du MIT pionnier des interfaces tactiles, qui travaillait sur des gants connectés dont l’équipe de Spielberg s’est inspirée pour le film [10].

 

Les passerelles entre la science et la pop culture sont finalement très poreuses. Pour Thomas Michaud, spécialiste de l’étude de l’impact politique des imaginaires, « la science-fiction constitue une dimension cachée du processus d’innovation » [11]. La SF permet de développer et d’ancrer un imaginaire technoscientifique commun, banalisant surtout l’utilisation des technosciences et permettant de rendre certaines formes d’innovation inéluctables. La recherche elle-même mobilise de plus en plus de promesses et de prospective pour décrire ses impacts à venir [12].

 

C’est à croire que la SF inspire finalement bien plus la recherche et les entrepreneurs que l’inverse [13], comme si l’anticipation permettait d’encourager l’innovation [14]. Les auteurs de SF sont pourtant souvent plus modestes que les inventeurs. Margaret Atwood, auteure notamment de La servante écarlate (1985) ne s’est jamais revendiquée comme une prophétesse du futur, au contraire. La science-fiction est utile parce qu’elle recadre nos perspectives sur le monde, plus qu’elle ne les conforte.

 

D’où l’importance de produire des formes de SF alternatives, des récits qui s’inspirent d’idéologies différentes, comme l’afrofuturisme [15] qui remet en cause le colonialisme, fer de lance de la SF, ou le solarpunk [16] qui remet en cause l’extractivisme ou encore tout le courant d’une SF féministe qui interroge des mondes où le patriarcat aurait disparu, initiée par Ursula K. Le Guin. Des imaginaires plus positifs, capables de répondre « à notre besoin de plus en plus flagrant d’horizons, de diversité, de solutions et d’espoir. À notre besoin de ré-imaginer le monde et de sortir de l’imaginaire du combat et de l’appropriation [17] » dominant, mais qui restent pourtant peu soutenus par l’industrie du divertissement. La SF, comme la science, restent surtout une lentille qui éclaire le présent depuis le monde qui les produit.

 

 

—-------

Notes

[1] Yuval Harari, Sapiens, une brève histoire de l’humanité, Albin Michel, 2015.
[2] https://calculatingempires.net et https://anatomyof.ai
[3] Et notamment l’autoritarisme, l’ultracapitalisme voire la propension au fascisme porté désormais par les thuriféraires du développement de l’IA.Thibault Prévost, Les prophètes de l’IA, Pourquoi la Silicon Valley nous vend l’apocalypse, Lux, 2024. Nastasia Hadjadji et Olivier Tesquet, Apocalypse Nerds : comment les technofascistes ont pris le pouvoir, Divergences, 2025. Dan McQuillan, Resisting AI, an anti-fascist approach to artificial intelligence, Bristol University Press, 2022.

[4] Kashmir Hill, Your Face Belongs to us, Random House, 2023. Hubert Guillaud, “La reconnaissance faciale : un projet politique”, Danslesalgorithmes.net, 17 février 2025 : https://danslesalgorithmes.net/2025/02/17/la-reconnaissance-faciale-un-projet-politique/
[5] Jonathan Durand Folco, “Grok, l’IA de Musk, est-elle au service du techno-fascisme ?”, The Conversation, 17 juillet 2025 : https://theconversation.com/grok-lia-de-musk-est-elle-au-service-du-techno-fascisme-261215 Voir notamment les explications de Wikipédia sur Grok https://fr.wikipedia.org/wiki/Grok_(IA) et sur son projet d’encyclopédie concurrente de Wikipédia, Grokipédia : https://fr.wikipedia.org/wiki/Grokipedia
[6] Amrith Ramkumar et Annie Linskey, “White House Prepares Executive Order Targeting ‘Woke AI’”, Wall Street Journal, 17 juillet 2025 : https://www.wsj.com/tech/ai/white-house-prepares-executive-order-targeting-woke-ai-e68e8e24

[7] Mustafa Suleyman, La déferlante ; Intelligence artificielle, pouvoir : le dilemme majeur du XXIe siècle, Fayard, 2023.
[8] Ethan Mollick, Co-intelligence, vivre et travailler avec l’IA, First Interactive, 2025.
[9] Aiha Nguyen et Alexandra Mateescu, Generative AI and Labor Power, Hype, and Value at Work, décembre 2024 : https://datasociety.net/library/generative-ai-and-labor/

[10]  “When science fiction inspires real technology”, Technology Review, 5 avril 2018 : https://www.technologyreview.com/2018/04/05/67057/when-science-fiction-inspires-real-technology/
[11] Thomas Michaud, « La dimension imaginaire de l’innovation : l’influence de la science-fiction sur la construction du cyberespace », Innovations, 2014/2 : https://shs.cairn.info/revue-innovations-2014-2-page-213?lang=fr

[12] Nicolas Nova, Futurs ? La panne des imaginaires technologiques, Les moutons électriques, 2014. Marc Audétat (dir.), Pourquoi tant de promesses ? Sciences et technologies émergentes, Hermann, 2015.
[13] Comme le montre la série signée de Julien Laroche-Joubert, publiée du 4 au 9 août 2025 dans Le Monde, qui s’intéresse aux références, et notamment aux références d’écrivains de SF, que mobilise en continue Elon Musk : https://www.lemonde.fr/musk-fictions/
[14] Irène Langlet, “Les SF d’entreprise : visualiser, déplacer, déconstruire” in “Entreprises et science-fiction”, Entreprises et histoire, 2019/3 n° 96 : https://shs.cairn.info/revue-entreprises-et-histoire-2019-3-page-14?lang=fr
[15] L’afrofuturisme est devenu un courant important de la SF et de la fantasy qui explore l’histoire et l’identité afro-américaine. Gladys Marivat, “L’afrofuturisme libère les imaginaires”, Le Monde, 14 mai 2025 :  https://www.lemonde.fr/livres/article/2025/05/14/l-afrofuturisme-libere-les-imaginaires_6606077_3260.html
[16] Le solarpunk est un autre courant artistique et politique, notamment dans la SF, né au début du XXIe siècle qui propose une anticipation optimiste de l’avenir, qui propose un avenir positif pour l'humanité par un usage modéré et responsable de la technologie, accompagné de changements sociétaux radicaux. On parle aussi de cli-fi, pour fictions climatiques. Cf. Irène Langlet, “Cli-fi et Sci-fi”, La vie des idées, 7 juillet 2020 : https://laviedesidees.fr/Cli-fi-Sci-fi
[17] François Houste, “Une autre histoire, Cybernetruc #18”, 17 mai 2024 : https://virtuels.substack.com/p/une-autre-histoire-cybernetruc-18

 
 

 📆Dans notre agenda 

 

☕ Les Café IA à venir

Les prochaines sessions Café IA se dérouleront :

  • Le 6 décembre, à Troyes, au Rucher créatif se déroule un Café IA : Parents & Ados : on en parle !

  • Le 6 décembre, à Antibes Juan-les-Pins, à l’occasion de la semaine de l’IA, à la Médiathèque Camus.

  • Le 7 décembre, à Paris, au Carrefour numérique² à travers un World Café, moment de partage de connaissance en petit groupe, autour des communs et de l’intelligence artificielle. Une introduction de ce qu'est un "commun" sera proposé avant de lancer le débat citoyen du jour : « Est-ce que l’IA peut ou doit être un commun ? » Que vous connaissiez déjà le sujet ou que vous soyez en pleine découverte de ce dernier, les échanges vous permettront de vous faire votre propre opinion. À partir de 15 ans

  • Le 9 décembre, au Café de la commune d’Aligre, à Paris, Les Duels de l’IA sont un atelier interactif basé sur compar:IA pour sensibiliser à l’impact environnemental des IA génératives conversationnelles. Autour de la question « le jeu en vaut-il la chandelle ? », et grâce à des ressources pédagogiques simples, l'atelier aide les participants à se forger un avis éclairé sur les usages et les impacts de l’IA.

  • Le 9 décembre, à Labège, avec l’association Vivre Lauragais.

  • Le 10 décembre, à l’Atelier Canopé de Villeneuve d’Ascq

  • Le 16 décembre, à Nice, chez As my Agency, "Comprendre le Prompting" de 9h30 à 12h00 au 27 boulevard de l'Ariane à Nice

     

    Retrouvez également tous les Cafés IA PME-TPE France Num par ici, dont des sessions à Gard (30), Côtes-d'Armor (22), Finistère (29), Paris (75).

     

    L’équipe Café IA sera présente à NEC AURA à Bourg-en-Bresse le 10 décembre pour animer plusieurs Café IA et présenter le jeu des Imaginaires et accompagnera à distance le NEC Martinique du 12 décembre pour présenter le dispositif.

 

🎨Les Cafés animation à venir !

 

Vous souhaitez animer un Café IA ou partager votre expérience ? Participez aux prochains cafés animations en ligne, le jeudi de 13h30 à 15h pour découvrir des formats d’animation, des ressources pédagogiques sur l’IA et faire part de vos retours d’expérience. Un moment convivial pour s’inspirer et apprendre ensemble !

Je m'inscris

Prochaine session, le jeudi 18 décembre : Animer un Café IA inratable. Vous voulez vous lancer ? Vous hésitez encore ? Cécile Ravaux va vous aider à lever vos derniers doutes et vous donner tous ses meilleurs conseils pour réussir votre café IA. 

 

🥊Retour sur la Prompt battle

 

Vendredi dernier, nous avons initié notre première rencontre inspirée des prompts battles. L'évolution des outils de génération d'images et la nécessité de débattre des enjeux associés nous ont amenés à pousser le format au-delà de celui qui avait été pensé à l'origine. Les deux artistes présents Dash Dash et Claudix ont joué le jeu toute la soirée en contribuant au débat, en répondant aux questions du public, en expérimentant avec les nombreuses personnes présentes. Alors que les outils évoluent de jour en jour, emportant avec eux mille questions et perspectives, parfois créatives parfois alarmantes, ce format est assurément à découvrir et à déployer. Nous reviendrons bientôt dessus dans une page dédiée. En attendant, merci à la galerie Artivistas et à son lab de nous avoir accueillis et rendu cela possible !

 
 
 

Crédit photos Esther Mcmac Namara et Magali Jacquemet.

 
 

💡En perspective

 

Quand les entreprises « ghostent » les régulateurs

Aron West

Quelle est l’entreprise d’IA la plus détestée des régulateurs européens ? Un bon candidat serait assurément Clearview AI, une entreprise américaine spécialisée dans la reconnaissance faciale. Créée en 2017, la société a récolté plus de 60 milliards d’images de visages partout dans le monde selon elle, y compris en Europe, pour entraîner son algorithme de reconnaissance faciale.

 

Ses services ont été vendus aux forces de l’ordre partout dans le monde – de l’Immigration and Customs Enforcement aux États-Unis (la célèbre ICE, notoirement connue pour son rôle dans l’arrestation violente et la déportation des résidents sans-papiers et étrangers - et de temps en temps leurs propres citoyens), jusqu’au Canada. C’est aussi le cas avec des régimes plus autoritaires comme l’Arabie saoudite, les Émirats arabes unis, le Qatar et le Singapour. Son outil a même été utilisé par l’armée en Ukraine lors de l’invasion russe pour identifier les soldats russes – vivants ou morts. Mais ses services ont aussi été vendus à des organisations dans presque tous les pays de l’Union européenne, notamment en France.

 

Très vite la société a fait face à de nombreuses accusations de surveillance, violation des conditions d’utilisations d’autres services, et mauvais usage des données personnelles voire biométriques. Ce sont les géants des réseaux sociaux qui étaient les premiers à l’accuser de violation des conditions commerciales pour ses pratiques de scraping des images sans autorisation sur Twitter, YouTube et Facebook en janvier et février 2020. Cela faisait suite à plusieurs affaires liées au scraping, notamment hiQ Labs v. LinkedIn, déposée en Californie en 2017, dans laquelle LinkedIn a échoué à empêcher l’entreprise d’analyse de données de copier le contenu des profils publics de la plateforme. En termes d’actions menées par les états par rapport à la protection de la vie privée, c’est le Canada qui a réagi le premier, dès le début de 2021, avec une décision du Commissariat à la protection de la vie privée, suivi par l’Australie et le Royaume-Uni en novembre 2021, puis la France en décembre avec une demande de cesser la collecte et de supprimer les données collectées sans autorisation sur les internautes du pays.

 

Très rapidement, les amendes ont commencé à s’empiler : 7,5 millions de livres sterling par l’Information Commissioner’s Office britannique, 20 millions d’euros par la CNIL en France, 20 millions d’euros par l’autorité de protection des données personnelles en Italie, 20 millions d’euros par l’autorité grecque, 30,5 millions d’euros par l’autorité néerlandaise… Même aux États-Unis, une action collective a proposé d’attribuer 23% des parts de l’entreprise aux victimes.

 

Le problème ? Jusqu’à présent, Clearview AI a ignoré toute demande et n’a réglé aucune de ces amendes.

La seule action prise par la société a été la renonciation à la commercialisation de son logiciel aux entreprises privées en 2020 aux États-Unis.

 

Ce comportement (ou ce manque d’action) pose une question intéressante : que faire quand une société moderne, avec une clientèle mondiale, ignore les demandes des régulateurs – qu’elle les « ghostent » (anglicisme courant signifiant ignorer, ne pas répondre à un message) ?

 

En réalité, il est assez fréquent que des acteurs ne respectent ni les règles ni les décisions. Clearview n’est pas la seule dans le domaine du numérique. Souvent les acteurs emploient des méthodes plus subtiles, telles que celles baptisées « Reporter, réduire, détruire » (Delay, depress, destroy) par Jan Penfrat du réseau European Digital Rights, ou le « mépris ouvert » décrit par des membres du European Partnership for Democracy.

 

Tout en ignorant les fondements de la réglementation, plusieurs entreprises choisissent de s’engager à un niveau discursif et superficiel, en prétendant se conformer. Elles savent que les procédures éventuelles qui en résultent prendront des années, pendant lesquelles elles pourront continuer leurs pratiques ou les atténuer à la marge. Par exemple, un rapport d’Amnesty International publiée en octobre 2025 a montré que TikTok pose encore des risques majeurs pour la santé mentale des jeunes, presque trois ans après la mise en vigueur du Règlement européen sur les services numériques (DSA, Digital Services Act) en 2023 et deux ans après la publication d’un rapport initial par Amnesty qui avait révélé plusieurs infractions concernant la sécurité des jeunes sur la plateforme. Le nouveau rapport d’Amnesty, réalisé en collaboration avec l’Algorithmic Transparency Institute et intitulé « Entraîné.e.s dans le ‘rabbit hole’ », a utilisé une série de faux comptes d’adolescents de 13 ans. Il a fallu moins de 5 minutes d’utilisation pour que ces comptes se voient proposer des vidéos sur la tristesse ou le désenchantement. Simplement en les regardant, en moins de 20 minutes leurs fils d’information contenaient « presque exclusivement des vidéos sur la santé mentale, dont jusqu’à la moitié sur des contenus dépressifs. » Et en 45 minutes, des vidéos exprimant des pensées suicidaires étaient promues.

 

Instagram a également été sous le feu des critiques récemment pour son échec à atténuer ces risques pour les jeunes, lui permettant de prétendre à une conformité seulement en apparence. Arturo Béjar, ancien ingénieur chez Meta qui a depuis témoigné contre la société devant le Congrès américain, affirme que 64% des nouveaux outils proposés par Meta pour atténuer les risques pour les jeunes sont inefficaces, conçus dans un environnement manquant de transparence. Comme avec TikTok, Instagram a proposé et même promu du contenu relatif à l’automutilation, au suicide, aux troubles de comportement alimentaire et aux substances illégales. Les outils créés par Meta destinés à interdire l’accès aux moins de 13 ans et à aider les utilisateurs à réduire le temps passé sur la plateforme n’étaient pas fonctionnels. L’inefficacité de ces outils n’est pas surprenante, étant donné les modèles économiques des plateformes qui capitalisent sur les publicités ciblées en utilisant les données accumulées pendant que l’utilisateur scrolle.

 

Mais, même si ces mesures d’atténuation ne conviennent pas aux plateformes, elles restent des obligations légales. L’article 28 du DSA impose à toute plateforme accessible par des mineurs (moins de 18 ans) de « garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service. » Et pour celles désignées comme « très grandes plateformes en ligne », il y a des obligations supplémentaires d’évaluation et d’atténuation des risques par des mesures « raisonnables, proportionnées et efficaces ». Mais les obligations ne sont efficaces qu’à condition d’être appliquées à temps.

 

La Commission européenne a ouvert des enquêtes contre TikTok et Meta (concernant Instagram et Facebook) en février et avril 2024 respectivement, au sujet de leur conformité avec le DSA. À la fin d’octobre 2025, la Commission a conclu de manière préliminaire que les deux plateformes étaient en violation des règles concernant la modération du contenu et la transparence.

 

Cependant, cette décision, qui revient maintenant aux plateformes pour qu’elles répondent, est arrivée un an et huit mois après le début de l’enquête, et la situation reste pratiquement la même. Pendant ce temps, des campagnes menées par les parents d’enfants qui se sont suicidés – telles qu’AlgosVictima en France ou la fondation Molly Rose au Royaume-Uni – soulignent que les risques sont toujours là.

 

Une autre approche, adoptée par certaines entreprises et pas si différente, consiste à ignorer complètement les règlementations, sachant qu’un remède n’est qu’une possibilité à envisager qui s’appliquera plusieurs années plus tard. C'est ce que l'on constate par exemple avec les pratiques anti-concurrentielles comme les fusions d’entreprises et de services. Même si de telles pratiques semblent éloignées de nous, elles nous touchent tous avec leurs conséquences : elles réduisent les choix des utilisateurs et donc la concurrence. Par exemple, la Commission fédérale du commerce américaine a mené plusieurs enquêtes antitrust aux États-Unis à l’encontre des grandes entreprises de technologie afin d’examiner l’ouverture du champ aux tiers. Une affaire ouverte en 2020 contre Meta n’a été close que le 18 novembre 2025 – cinq ans plus tard – avec un jugement selon lequel Meta n’avait pas empêché la concurrence lors de ses rachats d’Instagram et de WhatsApp en 2012 et 2014 respectivement. Il a donc fallu 13 ans pour aboutir à une conclusion. Une procédure similaire contre Amazon, ouverte en 2023, est prévue d’arriver devant la cour en 2027. Même quand ces enquêtes parviennent à condamner une entreprise, comme celle ouverte contre Google par le Department of Justice aussi en 2020 et dont le jugement a été rendu en septembre 2025, les sanctions ne peuvent pas compenser le temps d’enquête. Dans ce dernier cas d'ailleurs, Google a convaincu un juge que le paysage des recherches en ligne avait déjà changé avec la popularisation des IA génératives, et donc a écopé d’une sanction bien plus légère que prévue.

 

Ces arguments de Google démontrent le fait que le paysage technologique change vite, un fait souligné par David McCabe et Steve Lohr dans le New York Times (« Technology Is Fast and the Courts Are Slow »). Mais c’est pour cette raison que les longs délais d’enquête sont problématiques : pendant ce temps, comme le pointe pertinemment le juriste Tim Wu, les entreprises dominantes capitalisent sur leur position dominante et les concurrents sont empêchés d’entrer sur le marché. La possibilité d’une décision éventuelle défavorable, qui pourrait imposer une sanction – elle-même potentiellement légère – plusieurs années plus tard, quand la situation aura probablement déjà changé, n’est pas une grande dissuasion. Surtout avec l’engouement actuel autour de l’IA, ces entreprises vivent pour demain, et non pour 2035. Enfin, comme le dit Wu, la relaxe de Meta sur le fait qu’elle ne détiendrait pas de monopole envoie un message catastrophique. Malgré une décennie de scandale, « aucune autorité publique de ce pays n'a été en mesure de demander des comptes à l'entreprise pour ses agissements ». 

 

L’enjeu pour la régulation est donc de répondre assez vite pour protéger au mieux les utilisateurs, y compris les jeunes, tout en maintenant la qualité des enquêtes, qui prennent inévitablement du temps. Les mesures « omnibus » de simplification envisagées actuellement par la Commission européenne risquent de rendre encore plus incertaine l’application des règles, élargissant la zone grise de l’application. Plutôt que de déconstruire petit à petit des éléments spécifiques et techniques des réglementations existantes, il vaudrait mieux profiter de ce moment pour privilégier une réglementation qui aide à résoudre plus vite les questions substantielles – ou alternativement suspendre certaines pratiques contestées le temps que les enquêtes soient menées. Mobiliser les compétences internes des entreprises pour démontrer leur respect des règles de manière fondamentale — une approche qui a fait ses preuves dans la régulation des audits financiers, où les auditeurs sont tenus à établir que leurs rapports reflètent réellement la situation de l’entreprise et ne se contentent pas de se conformer en apparence — pourrait ouvrir une voie à suivre pour les régulateurs, tant nationaux qu’européens. Sinon, nous nous retrouverons dans dix ans pour la prochaine affaire contre une entreprise… sans que les choses n'aient changées d'ici là.

 
 
 

💥 La ressource de la semaine

 

 Inclusif, le jeu pour améliorer l’inclusivité des projets 

Rés’in, la communauté dédiée à l’inclusion numérique de la Métropole de Lyon, a publié un jeu, composé d’un ensemble de fiches pratiques pour mieux prendre en compte l’inclusivité dans le développement de projets, services et sites. Plus qu’un jeu, Inclusif se déploie comme un tableau de bord qui permet de faire un point complet des bonnes pratiques pour améliorer l’inclusivité des projets et la prise en compte des personnes en situation de handicap ou en situation de discrimination dans tous leurs aspects, de la conception des systèmes à l’éditorial.

 

🫵 On a besoin de vous

Vous avez participé à un Café IA ? Qu’en avez-vous retiré ? Ça vous a plu ? Pas du tout ? Comment avez-vous trouvé le dispositif ?

 

On voudrait récolter des verbatims de participants, courts, en 140 caractères max, qui disent et racontent l’expérience que vous avez eu, qui formulent votre retour, ce que vous en avez retenu, le sentiment que l’expérience vous a laissé ?

 

Faites nous en faire part, le plus simplement du monde ! Vos mots sont importants !

 

N’hésitez pas à répondre à ce mail ou à nous écrire à bonjour@cafeia.org.

 
 

👋 Avant de partir

Merci de nous avoir lu ! Si vous avez apprécié la lettre d’information de cette semaine, partagez-la ! Tout à chacun peut s’inscrire ici.

 

Comme d’habitude, n’hésitez pas à nous faire vos retours. Vous avez des questions, des remarques ou des suggestions ou vous souhaitez que nous abordions un sujet en particulier ? Nous sommes à votre écoute ! N’hésitez pas à répondre à ce mail ou à nous écrire à bonjour@cafeia.org. 

LinkedIn Instagram
 

Se désinscrire.