La lettre hebdomadaire de Café IA |
| |
|
Bonjour à tous.tes,
Nous sommes le vendredi 20 février 2026. Au menu de cette semaine : on observe les évolutions de l'IA à produire du code pour la mettre en perspective ✦ Dans la veille : on observe le programme britannique d'IA pour tous pour en pointer les limites ✦ La ressource de la semaine : de nouveaux modules d'autoformation pour comprendre l'IA générative avec Class-Code ✦ Et comme chaque semaine, retrouvez toute l’actualité de la communauté Cafés IA … Bonne lecture ! |
Fin du code, fin du monde ? |
Sur son blog, l’entrepreneur, développeur et investisseur Matt Shumer est pessimiste. Souvenez-vous, raconte-t-il. « En février 2020, la bourse se portait à merveille, vos enfants allaient à l'école, vous fréquentiez les restaurants, vous serriez des mains et vous planifiiez des voyages. Si quelqu'un vous avait dit qu'il faisait des réserves de papier toilette, vous auriez pensé qu'il passait trop de temps sur un site internet obscur. Puis, en l'espace de trois semaines environ, le monde entier a basculé. Votre bureau a fermé, vos enfants sont rentrés à la maison et la vie s'est réorganisée d'une manière que vous n'auriez pas cru possible si vous l'aviez décrite un mois plus tôt. »
Le spécialiste de l’IA estime que nous sommes devant la même réalité avec l’IA. Nous ne sommes pas prêts pour ce qui arrive, explique-t-il dans un billet aux relents apocalyptiques. Quand on lui demande ce que l’IA va produire, Shumer continue à faire semblant, mais selon lui, ce qui se prépare ressemble à la fin du monde, explique-t-il avec des accents des pires Prophètes de l’IA. « Pendant des années, l'IA a progressé régulièrement. Des avancées significatives ici et là, mais suffisamment espacées pour permettre leur assimilation. Puis, en 2025, de nouvelles techniques de modélisation ont permis une accélération considérable du rythme de progression. Et puis, ce rythme s'est accéléré encore. Et encore. Chaque nouveau modèle n'était pas seulement meilleur que le précédent… il l'était nettement, et le délai entre les sorties se réduisait. J'utilisais de plus en plus l'IA, j'intervenais de moins en moins, et je la regardais gérer des tâches qui, auparavant, exigeaient mon expertise ».
Pour lui, l’arrivée de GPT-4.3 Codex d’OpenAI et d’Opus 4.6 d’Anthropic ont tout changé. Désormais, « je dis à l'IA ce que je veux, je m'éloigne de mon ordinateur pendant quatre heures, et à mon retour, le travail est terminé. Bien fait, mieux que je ne l'aurais fait moi-même, sans aucune correction nécessaire. » |
Programmation automatisée : quelque chose aurait-il changé ?
Il y a quelques mois, il fallait travailler sans cesse avec l’IA, la guider, apporter des modifications… Désormais, il n’y a plus rien à faire. Il suffit de décrire ce que l’on veut pour produire n’importe quelle application. Elle produit le code. Elle ouvre l’application, teste les fonctionnalités comme le ferait un humain, les corrige. « Elle itère, comme un développeur, corrigeant et peaufinant jusqu'à obtenir un résultat satisfaisant. » Et quand elle est prête, il suffit de la tester, et « elle est généralement parfaite ». « Ces nouveaux modèles d'IA ne sont pas de simples améliorations », estime le développeur. C’est un nouveau chemin technologique. Qui ne dessine pas seulement un avenir du développement industriel du logiciel, moins onéreux, plus rapide, indépendant de l’expertise humaine, comme l’exprimait le développeur Chris Loy dans un récent billet (voir « Avec l’IA, à quoi ressembleront les logiciels de demain ? »)... mais qui est déjà en train de bouleverser la programmation.
Pour Matt Shumer, si l’IA excelle en programmation, c’est d’abord parce que l’IA nécessite beaucoup de code. Et que si l’IA excelle à l’écrire, alors elle peut contribuer à la création de sa propre valeur. Selon lui, rendre l’IA experte en programmation a été une stratégie. Et désormais, annonce-t-il, les experts de la tech vont pouvoir s’attaquer à tout le reste.
« L'expérience vécue par les professionnels de la tech au cours de l'année écoulée, celle de voir l'IA passer d'« outil utile » à un outil qui « fait mon travail mieux que moi », est celle que tout le monde est sur le point de vivre. Droit, finance, médecine, comptabilité, conseil, rédaction, design, analyse, service client. » Pour Shumer, cet avenir n’est pas pour dans dix ans. Il est déjà là.
Pourtant, nombre d’échos qu’il reçoit du grand public auquel il exprime cette conviction est de ne pas être très convaincu. Nombreux sont ceux qui ont essayé… et n’ont pas trouvé cela si bien. « Si vous avez testé ChatGPT en 2023 ou début 2024 et que vous avez pensé « ça invente n'importe quoi » ou « ce n'est pas si impressionnant », vous aviez raison. Ces premières versions étaient vraiment limitées. Elles hallucinaient. Elles affirmaient avec assurance des choses absurdes. Mais c'était il y a deux ans. Dans le domaine de l'IA, c'est de l'histoire ancienne. Les modèles disponibles aujourd'hui sont méconnaissables par rapport à ceux d'il y a seulement six mois. Le débat sur la question de savoir si l'IA « progresse vraiment » ou « atteint un plafond » — qui dure depuis plus d'un an — est clos. C'est terminé. Quiconque soutient encore cet argument n'a soit pas utilisé les modèles actuels, soit a intérêt à minimiser les progrès, soit se base sur une expérience de 2024 qui n'est plus pertinente. Je ne dis pas cela pour être méprisant. Je le dis parce que le fossé entre la perception du public et la réalité actuelle est désormais énorme, et ce fossé est dangereux… car il empêche les gens de se préparer. »
« Une partie du problème réside dans le fait que la plupart des gens utilisent la version gratuite des outils d'IA. Cette version a plus d'un an de retard sur les fonctionnalités payantes. Juger l'IA à l'aide de ChatGPT (version gratuite) revient à évaluer l'état des smartphones avec un vieux téléphone à clapet. Seuls ceux qui investissent dans les meilleurs outils et les utilisent quotidiennement pour leur travail savent à quoi s'attendre. »
Shumer évoque un ami avocat qui reste sceptique. Un autre, qui l’utilise au quotidien et constate lui aussi qu’elle est de plus en plus efficace, qu’elle devient de plus en plus performante. Pour Shumer, seuls ceux qui expérimentent sérieusement sont impressionnés par ce que l’IA est déjà capable de faire, de s’adapter à leurs évolutions.
Sur METR, un ensemble de données mesure en temps de travail ce que les modèles peuvent faire sans intervention humaine. Il y a un an, cette durée était d’environ dix minutes. Désormais, elle est de plusieurs heures. Et le graphique n’est pas à jour sur les dernières versions des modèles… Le 5 février, OpenAI a publié GPT-5.3 Codex, un modèle qui a contribué lui-même et de manière déterminante à sa propre construction. Il ne s’agit plus d’une prédiction, mais de ce qui est déjà en train d’arriver. Pour Dario Amodei, PDG d’Anthropic, l’IA écrit désormais une grande partie du code. « Il estime que nous ne sommes peut-être qu’à un ou deux ans du moment où la génération actuelle d’IA construira la suivante de manière autonome ».
|
« Dario Amodei, sans doute le PDG le plus soucieux de la sécurité dans le secteur de l'IA, a publiquement prédit que l'IA supprimerait 50 % des emplois de cols blancs débutants d'ici un à cinq ans. Et beaucoup dans le secteur pensent qu'il est prudent. Compte tenu des capacités des derniers modèles, cette capacité de bouleversement massif pourrait être une réalité dès la fin de l'année. Il faudra du temps pour que ses effets se répercutent sur l'économie, mais les fondements de cette capacité sont déjà là. Cette vague d'automatisation est différente de toutes les précédentes, et je tiens à ce que vous compreniez pourquoi. L'IA ne remplace pas une compétence spécifique. C'est un substitut général au travail cognitif. Elle s'améliore dans tous les domaines simultanément. Lorsque les usines se sont automatisées, un travailleur déplacé pouvait se reconvertir en employé de bureau. Lorsque l'internet a bouleversé le commerce de détail, les travailleurs se sont tournés vers la logistique ou les services. Mais l'IA ne laisse pas de vide facile à combler. Quel que soit le domaine vers lequel vous vous reconvertissez, elle progresse également.» Pour Shumer, tous les emplois intellectuels, tous les emplois sur écrans sont concernés. Il donne de courts exemple dans le monde juridique, l’analyse financière, la rédaction, le logiciel, l’analyse médicale, le service client.
« Beaucoup se rassurent en pensant que certaines choses sont à l'abri. Que l'IA peut gérer les tâches ingrates, mais ne peut remplacer le jugement, la créativité, la pensée stratégique et l'empathie humains. Je le pensais aussi. Je n'en suis plus si sûr », confie-t-il. La vague de l’IA va tout renverser, promet-il.
Ce qu’il faut faire ? Shumer invite les utilisateurs à prendre des abonnements, à tester les derniers modèles, à mettre à jour leurs convictions. Utilisez les meilleurs modèles, pas les modèles par défauts ! « Deuxièmement, et c'est le plus important : ne vous contentez pas de lui poser des questions rapides. C'est l'erreur que font la plupart des gens. Ils l'utilisent comme Google et s'étonnent ensuite de tout cet engouement. Au lieu de cela, intégrez-le à votre travail. Si vous êtes avocat, fournissez-lui un contrat et demandez-lui de trouver toutes les clauses susceptibles de nuire à votre client. Si vous travaillez dans la finance, donnez-lui une feuille de calcul complexe et demandez-lui d'en construire le modèle. Si vous êtes manager, collez les données trimestrielles de votre équipe et demandez-lui d'en extraire les informations pertinentes. Ceux qui réussissent n'utilisent pas l'IA de façon superficielle. (...) Si vous êtes avocat, ne vous contentez pas de l'utiliser pour des recherches rapides. Donnez-lui un contrat complet et demandez-lui de rédiger une contre-proposition. Si vous êtes comptable, ne vous contentez pas de lui demander d'expliquer une règle fiscale. Donnez-lui la déclaration de revenus complète d'un client et voyez ce qu'elle trouve.» Décrivez une application à une IA et obtenez une version fonctionnelle ! « Itérez. Reformulez votre question. Apportez plus de contexte. Réessayez.» « Si cela fonctionne, même partiellement, aujourd'hui, vous pouvez être presque certain que dans six mois, ce sera quasiment parfait. » Apprenez à utiliser ces outils. Maîtrisez-les, clame-t-il.
Mais pour aller où ?, pourrait-on lui répondre. Comprendre les enjeux ? Saisir les limites ? Shumer termine son billet plus pessimiste encore. Il conseille de mettre de l’argent de côté, suggérant que l’avenir de l’emploi est profondément compromis. De déplacer son travail vers des rôles qui ne peuvent pas être supplantés par l’automatisation. Le parcours scolaire traditionnel oriente directement vers les rôles les plus exposés, explique-t-il en invitant à s'en défier pour ses enfants. Ne faites plus d’études disaient Alexandre et Babeau. C’est certainement le pire conseil qui soit. Tant il nous faudra d’intelligence pour affronter ce monde qui vient.
Shumer termine son billet dans le pire doomerisme apocalyptique qui soit, en faisant référence au texte d’Amodi sur l’adolescence de la technologie, où se mêlent promesses de progrès illimités et vision apocalyptique, dans une vision délirante et complotiste de la tech.
Reste que le texte de Shumer qui a particulièrement circulé questionne. Notamment parce qu’il renvoie chacun à ses usages de l’IA, qui sont souvent assez peu experts. L’IA est un outil puissant. Ses évolutions sont rapides. Et nous sommes toujours menacés d’être déclassé à ne pas reconnaître ses progrès. Le texte de Shumer est fort, mais ne donne aucun exemple concret. Quelle application stupéfiante le code automatisé permet-il de faire exactement ? Sur Reddit, les développeurs s’écharpent. Un peu comme si deux mondes s’affrontaient. Entre ceux qui se retrouvent dans le constat d’une évolution rapide et ceux qui restent critiques de ces développements.
Essayons néanmoins de déplier les critiques. |
La programmation automatisée : une insécurité systémique
Dans sa newsletter, le psychologue et neuroscientifique, spécialiste de l'IA, Gary Marcus, auteur de Taming Silicon Valley: How We Can Ensure That AI Works for Us (MIT Press, 2024) et toujours très critique, explique que l'article de Shumer dit aux gens ce qu’ils veulent entendre, mais ne fournit aucune donnée concrète pour étayer son affirmation centrale selon laquelle les systèmes de codage les plus récents peuvent écrire des applications complexes complètes sans commettre d'erreurs. Lorsqu'il décrit comment les IA réalisent des tâches de plus en plus longues sur le célèbre test de temps d'exécution du METR, il omet de préciser que le critère de ce test est de 50 % de réussite, et non de 100 %. Aussi, il ne concerne que le codage et non les tâches en général, rappelle le chercheur. Aucun système d'IA ne peut accomplir de manière fiable toutes les tâches de cinq heures que les humains peuvent réaliser sans erreur, ni même s'en approcher, cingle Marcus. « On ne le devinerait pas en lisant le blog de Shumer, qui ignore largement toutes les hallucinations et les erreurs grossières si fréquentes dans l'expérience quotidienne ». Shumer ne cite même pas le large éventail d'erreurs de raisonnement publié récemment par des chercheurs de Caltech et Stanford des « prétendus » modèles de raisonnement des IA qu'il encense. Bref, « le tableau qu'il présente est tout simplement irréaliste, même si on aimerait qu'il soit vrai ». Shumer aime faire sensation, tacle Marcus. « Mais cela ne signifie pas pour autant que nous devrions le prendre au sérieux ».
Même le METR est plus critique que ne le dit Shumer, comme le montre une des études du laboratoire qui montre que l’IA ralentit les développeurs qui l’utilisent contrairement à leur intuition première (voir notre article La productivité de l’IA au travail est toujours incertaine). Il silencie des témoignages qui montrent pourtant que même les meilleurs outils sont défaillants. Il silencie également les témoignages de burn-out de développeurs poussés à écrire du code à la chaîne sous IA. Pourtant, convient Marcus, quelque chose a effectivement changé. « On peut vraiment se lâcher davantage avec les systèmes les plus récents. Mais il passe à côté d'un détail subtil mais essentiel, que m'a fait remarquer un ami très doué en programmation. Après avoir lu une ébauche de cet article, il m'a écrit : « Le blog de Shumer reflète aussi mon expérience… Il y a quelques mois, quelque chose s'est produit : on peut vraiment décrire un problème et laisser faire le système, et – parfois ! – on trouve la bonne réponse. … Parfois… [Mais] au final, je pense que cela rend les choses plus dangereuses… En général, plus ces systèmes semblent fiables, plus ils deviennent dangereux, car les gens ont tendance à leur faire confiance aveuglément alors qu'ils ne devraient pas. »» La sécurité du code généré automatiquement est bien souvent douteuse, comme le répètent depuis longtemps articles et discussions de développeurs.
|
Meilleures pour coder, peut-être… mais cela ne signifie pas que l'IA va remplacer le travail
Pour Fortune, le journaliste spécialiste de l’IA, Jeremy Kahn, livre également une critique cinglante et rappelle que si les IA se révèlent meilleures à coder qu’à produire d’autres types de résultats. C’est d’abord parce que la programmation dispose d’indicateurs de qualité qui n’existent pas dans tous les autres domaines où l’IA se déploie. Le code que produit l’IA est vérifiable par la machine, puisqu’elle peut l’exécuter pour constater s’il fonctionne. Reste que si « de nombreux développeurs affirment que le code généré par l'IA est souvent suffisamment correct pour réussir ces tests de base, il reste loin d'être optimal : il est inefficace, peu élégant et, surtout, non sécurisé, exposant ainsi l'organisation qui l'utilise à des risques de cybersécurité. Cependant, en programmation, il existe encore des moyens de créer des agents d'IA autonomes pour résoudre certains de ces problèmes. Le modèle peut déployer des sous-agents qui vérifient le code qu'il a écrit afin d'y déceler les vulnérabilités de cybersécurité ou d'évaluer son efficacité. Comme le code logiciel peut être testé dans des environnements virtuels, il existe de nombreuses façons d'automatiser le processus d'apprentissage par renforcement – où un agent apprend par l'expérience à maximiser une récompense, comme des points dans un jeu – que les entreprises d'IA utilisent pour façonner le comportement des modèles d'IA pour la programmation. » Par contre, rappelle-t-il fort à propos, « il n'existe pas de compilateurs pour le droit, pas de tests unitaires pour un protocole de traitement médical, ni de métrique définitive pour évaluer l'efficacité d'une campagne marketing avant son test auprès des consommateurs. Dans d'autres domaines, il est beaucoup plus difficile de recueillir suffisamment de données auprès d'experts pour définir ce qui constitue un « bon » résultat. »
« Les entreprises spécialisées en IA sont conscientes de cette difficulté. C'est pourquoi elles investissent désormais des millions dans des sociétés comme Mercor, qui, à leur tour, dépensent des sommes considérables pour recruter des comptables, des financiers, des avocats et des médecins afin d'obtenir des retours sur les résultats de l'IA et ainsi améliorer l'entraînement de leurs modèles. » Mercor est une plateforme pour avoir accès à des annotateurs de données d'élite, leur proposant des tarifs qui n'ont rien à voir avec les travailleurs du clics que l'on connaissait jusqu'alors. Est-ce que ce sera suffisant à terme ?, interroge Kahn. Pas si sûr, contrairement aux jeux ou aux langages de programmation, les résultats à obtenir ne sont pas si évidents. « Dans de nombreuses professions, la notion de « bon » est hautement subjective ». Il n’y pas toujours d'équivalent à un test unitaire automatisé dans de nombreux contextes professionnels et quand il y en a, leur propension à produire des résultats erronés peuvent être trop forts pour être tolérés par les entreprises, à l’image d’IA qui échoueraient à fournir de bonnes réponses dans 20 à 30% des cas.
Enfin, souligne Jeremy Kahn, « les modèles d'IA actuels s'améliorent réellement. Les erreurs d'interprétation sont moins fréquentes. Mais cela ne fait qu'aggraver le problème. À mesure que les erreurs générées par l'IA diminuent, les examinateurs humains se relâchent. Les erreurs d'IA deviennent plus difficiles à repérer. L'IA excelle à se tromper avec assurance et à présenter des résultats impeccables sur le plan formel, mais dénués de substance. Cela contourne certains critères indirects utilisés par les humains pour évaluer leur niveau de vigilance. Les modèles d'IA échouent souvent de manières différentes de celles des humains confrontés aux mêmes tâches, ce qui rend la prévention des erreurs générées par l'IA d'autant plus complexe ». Pour le dire simplement, si le taux d’erreur diminue, c’est peut-être aussi que les pare-feux à erreurs ne sont plus suffisants.
|
L'enjeu à déconsidérer les critiques
Dans sa newsletter, l'historien Brian Merchant s’énerve également. La rengaine du bouleversement social majeur, impulsé par l'IA qui serait sur le point de se produire et que l'humanité n'y est tout simplement pas préparée, n’est pas nouvelle. Elle est au cœur du discours technosolutionniste depuis longtemps.
Pour Merchant, « nous sommes en plein cœur d'un nouveau cycle de surenchère orchestré par l'industrie ». Il rappelle que les entreprises spécialisées en IA « restent des usines à buzz d'une efficacité redoutable » (rappelant ce que disaient la linguiste Emily Bender et la sociologue Alex Hanna dans leur livre, L’arnaque de l’IA, à savoir que l’IA n’est rien d’autre que du marketing, dans tous les sens du terme). Pour Merchant, dès qu’un entrepreneur d’IA vous parle de transformation sociétale de masse, la première chose à faire consiste à suivre l’argent. L’année dernière, c’était Altman qui faisait part des enjeux de la superintelligence juste avant de recevoir de gros investissements de Softbank. Là, c’est Amodei qui attend un chèque et qui orchestre sa campagne de presse par des déclarations d’avenir tonitruantes. Ces entreprises doivent convaincre qu’elles sont totalement nécessaires à l’économie à venir.
Pour Merchant, très peu de gens pensent en fait que l’IA soit totalement bidon. Ni Ed Zitron, ni Emily Bender ou Gary Marcus… pensent que l’IA est du vent. Tous pensent qu’elle est survendue et que son modèle économique est insoutenable et condamné. Marcus pense par exemple que l’amélioration de l’IA générative a déjà atteint ses limites… Mais personne ne pense que les produits d’IA sont totalement bidons. Les thuriféraires de l’IA enragent que tout le monde ne partage pas leurs point de vue sur la puissance de leurs outils, alors que les critiques soulignent plutôt le coût de l’automatisation généralisée sur la société. En disant que la critique de l’IA la qualifie l’IA de bidon, les thuriféraires de l’IA visent d’abord à déqualifier la critique. Le texte de Shumer dit d’abord que les critiques ne sont pas sérieuses pour mieux la déconsidérer. Or, ce n’est pas ce que dit la critique. Rare sont ceux qui pensent que les outils d’IA ne seraient pas puissants. La critique de gauche de l’IA a tendance à penser qu’elle est d’abord un outil à la solde des oligopoles de la Silicon Vallée, qui bénéficie d’abord à ses milliardaires, qui intensifie la surveillance, prolétarise le travail et érode le travail. L’IA est d’abord vue comme antithétique aux objectifs de la gauche. Si une autre forme d’IA est possible pour ses acteurs, ce n’est pas celle qui est développée par les acteurs de l’IA. « Les gens ne détestent pas l’IA parce qu’elle serait bidon, mais parce qu’ils voient ce qu’elle produit ».
Quant à la menace que l’IA fait peser sur le travail, elle ne va pas s’envoler demain, quand bien même l’impact serait moindre qu’annoncé (et en fait, il est doublement moindre, d'abord quand on regarde les chiffres de l'emploi, l'impact de l'IA n'est pas si net, hormis dans certaines professions, ensuite parce que l'impact de l'IA sur l'emploi est bien souvent une justification pratique que les entreprises mobilisent dans un narratif positif). L’IA est utilisée pour prolétariser et remplacer certaines tâches et emplois, mais pour l’instant, cette promesse est surtout à l’origine de la bulle d'investissement dans le secteur, explique Merchant. Malgré les pauvres résultats de l’intégration de l’IA dans les lieux de travail, l’investissement dans l’IA continue. Le rêve de l’automatisation du travail est juste trop désirable pour mourir, qu’importe si elle est fausse, si elle ne fonctionne pas si bien, souligne Merchant. L’historien des techniques David Noble a bien montré que les entreprises n’ont cessé d’investir massivement dans la ligne d’assemblage automatisée, quand bien même elle s’est révélée bien moins efficace qu’annoncée. Le but de l’automatisation est bien plus le contrôle des travailleurs que leur remplacement, rappelle Merchant. Le développement de l’IA au travail n’a pas pour fonction de prendre la place des gens, mais d’abord de renforcer la pression, de rendre le travail plus coercitif. Après les artistes et les traducteurs, c’est désormais aux codeurs et aux travailleurs de la tech de voir leurs missions s’assécher et leur travail contraint par l’IA qui code. Comme le dit Max Read, après le déchainement du slop, l’enjeu à trouver une forme productive de l’IA est un enjeu majeur. Pour Brian Merchant, ce que dit le poste de Shumer, c’est que les travailleurs du code commencent à être inquiets de l’automatisation qui se profile à leur égard. Après n'avoir cessé de menacer tous les autres travailleurs par les développements qu'ils ont opérés partout, « la classe des travailleurs les plus impliqués dans la construction de l’IA se sent à son tour menacée ».
Même si les produits IA ont des millions d’utilisateurs, ils ne sont pas profitables et risquent de ne pas le devenir. Si la bulle éclate, l’IA pourrait être reléguée à des usages de niches. Les entreprises de l’IA continuent de capitaliser sur la disruption imminente de l’IA, mais à mesure que cette promesse se répète, il faut surtout la lire pour ce qu’elle est : un avenir qui n’arrivera pas.
Pour Max Read, fondamentalement, le temps a passé. L'IA a progressé selon pratiquement tous les critères – portée, rapidité, capacités, précision, fiabilité – et a fait l'objet d'une utilisation pratique, d'un déploiement et d'une expérimentation intensifs. Notre expérience de ce paradigme logiciel modifie notre façon de parler de l'IA. En comparant l’IA à la situation pandémique, Shumer reconnaît que malgré les progrès impressionnants de l'IA, le champ des possibles en matière d'avenir se restreint.
« Une grande partie du discours récent sur l'IA se concentre sur la productivité et le marché du travail, mais que se passerait-il si son influence se faisait sentir plus fortement ailleurs ? Et si l'IA ressemblait davantage à la « désindustrialisation » ou à « Internet » : un processus incontestablement transformateur, s'étalant sur plusieurs décennies, dont les effets les plus clairs et les plus marquants sont sociaux, politiques et qualitatifs ? Dans chacun de ces cas, si l'on s'était contenté d'observer les statistiques économiques globales, on aurait pu passer à côté des véritables mutations. Je soupçonne qu'il en va de même pour l'IA. »
|
La programmation automatisée ne signifie pas la fin du travail
John Herman pour Intelligencer revient sur un autre article de développeur qui a fait du bruit, celui de Mrinank Sharma, chercheur en sécurité chez Anthropic, annonçant sa démission. Mais Sharma n'est pas la seule personne à avoir récemment quitté, ou perdu, un poste de ce type. « Au sein même du secteur, la « sécurité » de l'IA semble s'effondrer, perdant de son influence alors que l'industrie dans son ensemble connaît une nouvelle phase d'accélération », explique Herman. Le Wall Street Journal a rapporté qu'une responsable de la sécurité chez OpenAI, qui s'était opposée à un nouveau « mode adulte » et avait soulevé des questions sur la manière dont l'entreprise gérait les jeunes utilisateurs, avait été licenciée. Casey Newton de Platformer rapportait que l'entreprise avait dissous son équipe « alignement de mission » et a confié à son responsable le poste de « directeur de la prospective ». Le même jour, Zoë Hitzig, chercheuse chez OpenAI, a expliqué sa démission dans le New York Times, en la liant à l’orientation publicitaire que vient de prendre la firme d’Altman. « Les départs de Hitzig et Sharma révèlent une situation similaire : les employés recrutés pour rendre les produits d'IA plus sûrs — ou, d'un point de vue moral ou normatif, meilleurs — se sentent marginalisés ou incompétents pour cette tâche. »
Ce recul de la sécurité à l’heure où l’IA semble connaître une nouvelle accélération, comme l’évoque Shumer, devrait bien plus nous inquiéter que les progrès de l’IA à coder.
Reste, explique Herman, que ces enjeux peu visibles passent à côté de l'essentiel : « les millions de personnes qui ont partagé le message de Shumer, et d'autres similaires, n'ont pas besoin d'être convaincues de leur inquiétude. Elles le sont déjà, sans qu'il soit nécessaire de les entraîner dans un discours d'auto-amélioration interminable ou de prétendre que le monde entier est un code. Elles attendaient un moyen simple d'exprimer que le principal sujet d'actualité économique les fait se sentir impuissantes et dépassées, et que ceux qui affirment que cela n'a pas d'importance ne font qu'empirer les choses. Elles n'ont pas besoin d'être persuadées. Elles veulent simplement en parler. » Des millions de personnes, observant la situation de loin, avaient pressenti depuis longtemps la même chose : les entreprises capables de lever des fonds illimités en promettant d'automatiser diverses catégories de travail sont sérieuses, semblent faire des progrès encourageants et avancent à toute vitesse. Ce que nous dit le post de Shumer, conclut Herman, « c’est que le récit du remplacement par les machines est un récit d’impuissance. Et que le récit fondateur de l'industrie de l'IA devient enfin viral — tout simplement parce qu'il est terriblement déprimant. » L'inquiétude sur notre remplacement par les machines, malgré ses innombrables limites, capture l'attention.
Le billet de Shumer nous dit au final que l’IA a progressé depuis le lancement de ChatGPT il y a 3 ans. Ce n’est pas faux. Mais son article évite les questions qui fâchent, les angles morts, les limites de cette progression. Il confond surtout une chose : ce que l’IA peut faire avec son adoption. « Les individus et les organisations n’avancent pas à la vitesse des modèles », nous rappelle Fabien Girardin. Oui, en ce qui concerne la programmation, une modification substantielle semble avoir eu lieu. De là à dire que d’une bataille d'agents IA sur Moltbook, le réseau social où ils sont invités à discuter entre eux sortira l’avenir, c’est peut-être faire un raccourci un peu rapide.
|
De la réalité de la programmation avec l'IA
Dans un article intitulé la psychose Claude Code, l’essayiste indépendante Jasmine Sun a tenté de saisir la distance liée aux récents progrès des modèles dédiés au code d’Anthropic. Contrairement aux développeurs, la plupart des gens n’ont pas besoin de développer un logiciel ou ne savent pas exprimer en termes logiciels leurs besoins, explique-t-elle. Alors que « les programmeurs sont formés à tout percevoir comme un problème logiciel : si vous effectuez une tâche trois fois, vous devriez probablement l'automatiser avec un script. « Renommez tous les fichiers IMG_*.jpg de la semaine dernière en hawaii2025_*.jpg », ordonnent-ils à leur terminal, tandis que nous autres, nous nous contentons de cliquer sur chaque nom de fichier pour leur donner un nom spécifique » (ou plutôt nous oublions de le faire, nous retrouvant incapables de gérer ce flux de nombre dans nos appareils). « Aveugles aux solutions que l'on ne nous a jamais appris à voir, nous réclamons des chevaux plus rapides sans jamais rêver de voitures ».
Jasmine Sun s’y est donc attaqué, elle a tenté d’utiliser Claude Code. « Les discussions en ligne présentaient Claude Code comme d'une simplicité enfantine : aucune compétence technique requise, des applications complexes créées en un clin d'œil et une absence totale de bugs. Mais pour les vrais novices, je doute que ce soit le cas ». Jasmine a fini par utiliser Claude pour créer une application web lui permettant d’extraire la transcription d’une vidéo ou d’un podcast en lui indiquant une URL et le lui transmettre en texte nettoyé. « L'expérience m'a agréablement rappelé mon expérience de chef de produit : je décrivais les problèmes des utilisateurs en langage clair, et Claude les traduisait en solutions logicielles. J'approuvais les plans, testais les prototypes et envoyais des captures d'écran des bugs. En cas d'erreurs étranges, je les partageais dans notre chat. Nous discutions des compromis entre temps et complexité, et l'outil choisissait la pile technologique. Parfois, Claude donnait des instructions précises – « Récupère la clé API Gemini, connecte Vercel ici » – mais je m'exécutais avec plaisir. La collaboration était véritablement un échange. » Mais surtout, explique-t-elle, « utiliser Claude Code a fondamentalement transformé ma compréhension des capacités de l'IA ».
« Lorsqu'on discute avec un chatbot classique, on a encore l'impression que l'IA n'est qu'une simple « saisie semi-automatique sophistiquée » ou une « machine à raconter des bêtises ». Ils écrivent des poèmes mignons ou donnent des conseils de vie ; ils peuvent répondre avec assurance à des questions de culture générale et ne savent pas toujours quand ils se trompent. J'utilise ChatGPT quotidiennement, mais il me semble plus être un conseiller qu'un substitut à mon travail. » « Claude Code, quant à lui, est clairement autonome. Il agit, il ne se contente pas de parler. Impossible de le voir créer une application tout en conservant l'illusion d'une IA capable de « prédire le prochain jeton ». Avec une simple consigne – créer une application de transcription YouTube ressemblant à Windows XP – il trouvera l'inspiration, écrira le code et le publiera en open source sur GitHub. Il ne s'agit pas d'une simple mémorisation. C'est un système capable d'accomplir une tâche complexe et inédite. La performance des agents de programmation se mesure à leur degré d'autonomie : combien de temps l'IA peut-elle travailler sans intervention humaine ? Peut-elle décomposer un mandat vague et complexe en étapes simples ? Puis-je laisser Claude travailler en toute tranquillité ? De plus en plus souvent, la réponse est oui. Le chat reste l'interface, mais n'est plus le produit. On peut affirmer que Claude Code est une IA à forte autonomie. »
« Voir une IA travailler de manière autonome est à la fois fascinant et inquiétant. Utiliser Claude Code a profondément modifié ma perception de l'importance de l'alignement. Débattre théoriquement de la possibilité que les gens cèdent leur pouvoir aux IA est une chose ; leur confier l’intégralité des droits d’accès à mon ordinateur, alors que je ne les comprends pas, en est une autre. Nous savons intellectuellement que des bugs ou des failles de sécurité pourraient causer des ravages dans nos fichiers, mais peu importe les préférences exprimées : on privilégie toujours la vitesse à la sécurité. » Le risque pourtant est bien que nous cédions tous les accès à ces machines, par simple commodité, constate-t-elle. Et cette augmentation des failles de sécurité devrait certainement bien plus nous inquiéter que les capacités de l'IA à nous remplacer.
Jasmine Sun se demande si Claude Code aurait pu la remplacer en tant que chef de la croissance produit lorsqu'elle travaillait pour Substack. « Etant donné l'objectif d'« augmenter les téléchargements de l'application », aurait-il pu extraire des données, rédiger des textes et mener ces expériences lui-même ? Pas encore, mais probablement d'ici un an. »
Pour elle, l’impact de Claude Code annonce surtout une surabondance de micro-logiciels. « Bientôt, il ne coûtera presque rien d'avoir l'application que l'on souhaite. Le vibecoding (le fait de coder sans savoir coder grâce à des systèmes d'IA) est déjà en train de bouleverser le rapport entre développement interne et achat », explique-t-elle. Mais comme le pointait les journalistes Vincent Fagot et Alexandre Piquard pour Le Monde, derrière les secousses de l'indice boursier du secteur logiciel, c'est bien plus une recomposition du modèle économique du secteur qui s'annonce. « Ça pourrait être la fin du logiciel monobloc et des confortables marges qui allaient avec », explique le président d'un cabinet de conseil en IA.
L’autre effet, s’amuse Jasmine Sun, c’est la fin du design logiciel impersonnel ! Les utilisateurs vont pouvoir donner plein de couleurs et de polices moches à leurs petits logiciels, un peu comme à l’époque des premiers Gif sur l’internet et des pages colorées des Skyblogs (pas sûr que ce soit toujours une bonne nouvelle). Reste que l'utilisation de ces outils n’est pas magique. « L'effet secondaire de Claude Code a été de réaliser que nombre de mes problèmes ne sont pas liés à un logiciel. Posséder ces nouveaux outils ne m'a pas rendue plus productive. »
« J'ai utilisé Claude pour faire ressurgir des messages auxquels j'avais oublié de répondre, et j'ai compris que le véritable obstacle – évidemment – était mon manque d'envie de répondre. (...) L'envoi de rappels est un problème logiciel, mais la motivation, elle, ne l'est pas. Quand on a un marteau, tout ressemble à un clou ; quand on peut trouver des solutions à volonté, on ne s'arrête pas pour réfléchir au pourquoi on les a créées. »
« Rappelez-vous l'étude METR devenue virale sur la programmation assistée par IA, où les ingénieurs s'attendaient à un gain de temps considérable, mais ont constaté une nette diminution de leur productivité. Je me demande si l'IA a rendu la programmation plus facile, mais aussi plus complexe. J'utilisais Granola, l'application de prise de notes de réunion par IA, jusqu'à ce que je réalise que je n'en lisais jamais un seul compte-rendu. Prendre son temps oblige à faire des compromis judicieux, du type 80/20. Qu'il s'agisse d'atomes ou de bits, la plupart de nos problèmes sont plus profonds que le simple besoin de plus de ressources. »
Bref, la disponibilité du code ne va pas tous nous transformer en artisan comme dirait Girardin. Et la disponibilité de ces outils ne va pas automatiquement tout automatiser. Ou alors, elle risque de générer une nouvelle complexité… qui s'annonce plus épuisante encore que celle des tâches fastidieuses qu'on rêve d'automatiser. Notamment parce que face à la démultiplication de l'automatisation, on risque de se perdre à identifier où se situe le nouveau bug dans des programmes que nul ne maîtrise plus.
|
📆Agenda et actualités de Café IA |
|
|
Les Cafés IA de cette semaine. Participez ! - Le 21 février à Loireauxence, un Café IA invite à comprendre et échanger autour de l’IA avec l’Espace Multimédia du Pays d’Ancenis, de 10h à 12h.
-
Le 21 février à Saint-Jean-le-Vieux, une après-midi amusante avec l’IA propose de découvrir et tester les nouveautés de l’IA, pour débutants comme pour publics plus confirmés.
-
Le 23 février à Belfort, une MasterClass IA s’adresse aux professionnels pour interroger les usages de l’IA au regard des pratiques de travail et des besoins des entreprises.
- Le 24 février à Pauillac, un Café IA réservé aux jeunes de la Mission Locale du Médoc propose de démystifier l’IA par le jeu et des exemples concrets du quotidien.
-
Le 26 février à Martigny-le-Comte, un Café IA Découvrir l’IA permet une première approche simple et accessible de l’intelligence artificielle.
- Le 26 février à Saint-Nazaire-le-Désert, un temps d’échange invite à découvrir ce qu’est l’intelligence artificielle et à poser ses questions autour de ses usages du quotidien.
-
Le 26 février à Saujon, un Café IA Découvrir l’IA offre un moment convivial pour comprendre, expérimenter et échanger autour des enjeux et impacts de l’IA.
-
Le 27 février à Nyons, une soirée L’IA, c’est quoi le problème ? combine micro-trottoir, conférence et ateliers pour interroger collectivement les scénarios possibles de l’IA.
-
Le 6 mars à Nyons, un Café IA propose échanges, discussions, débats et expérimentations d’outils d’intelligence artificielle, de 9h30 à 11h30.
- Le 7 mars à Villefranche-de-Rouergue, l’atelier I(en)A un peu plus, je vous le laisse ? explore les IA illustratrices à travers des jeux et des expérimentations accessibles à toutes et tous.
Vous organisez un café IA grand public ?
inscrivez vos sessions, ou découvrez les sessions proche de chez vous dans le recensement national et sur la cartographie interactive. |
Du côté de nos partenaires, retrouvez : -
les Cafés IA PME-TPE France Num par ici ;
-
et les Cafés IA à destination des enseignants comme du grand public du Réseau Canopé par là.
|
🎨Les Cafés animation à venir !
|
Vous souhaitez animer un Café IA ou partager votre expérience ? Participez aux prochains cafés animations en ligne, le jeudi de 13h30 à 15h pour découvrir des formats d’animation, des ressources pédagogiques sur l’IA et faire part de vos retours d’expérience. Un moment convivial pour s’inspirer et apprendre ensemble ! |
📰Café IA à la Une de la presse
|
|
|
Ces dernières semaines, les Cafés IA ont trouvé un écho remarqué dans la presse nationale et régionale, de Saint-Hélen dans Ouest-France à Nay et Lussagnet-Lusson dans L’Éclair Pyrénées, en passant par Saint-Vincent-Bragny dans Le Journal de Saône-et-Loire et Saint-Jean-le-Vieux dans Le Progrès. Partout, les articles racontent des temps d’échange ouverts, ancrés dans les territoires, où l’intelligence artificielle devient un sujet de discussion collective plutôt qu’un objet technique réservé aux experts.
À Saint-Hélen, Ouest-France s’attarde sur l’esprit des Cafés IA, pensés comme des moments d’écoute et de pédagogie, loin des démonstrations techniques :
« Ce ne sont pas des ateliers. Je répondrai aux questions avec des explications claires et j’aiderai à faire reconnaître les informations fiables, sans le jargon technique. J’apporterai de quoi démystifier l’IA. Cela permettra à tous de comprendre les opportunités et les risques liés à l’IA et de créer du lien social par les échanges entre les participants. »
Dans les Pyrénées-Atlantiques, L’Éclair Pyrénées raconte des rencontres où la curiosité va de pair avec la vigilance, et où l’enthousiasme laisse place à la réflexion critique :
« Si l’aide est précieuse et constitue un gain de temps avéré, la suspicion s’est faite jour face à certaines réponses. L’objectif est d’exercer un nécessaire regard critique sur les réponses proposées afin de se prémunir contre la désinformation, en comparant les résultats de différentes intelligences artificielles. »
En Saône-et-Loire, Le Journal de Saône-et-Loire met en lumière une préoccupation largement partagée au fil des échanges, celle d’un usage responsable de l’IA, replacé dans une réflexion plus large sur nos choix collectifs :
« L’intelligence artificielle est devenue un outil incontournable. Mais comme toute technologie, elle est à utiliser avec prudence. L’IA est un outil intelligent, c’est l’humain qui doit rester sage. » |
À travers ces regards croisés, la presse met en lumière ce qui fait la singularité des Cafés IA : des espaces de démocratie participative, portés par l’engagement des animateurs et animatrices, où l’on prend le temps de comprendre, de débattre, de douter et de construire collectivement un rapport plus éclairé aux technologies. |
Royaume-Uni : l’IA pour tous ! Laquelle ? |
Le 28 janvier, Liz Kendall, secrétaire d'État à la Science, à l'Innovation et à la Technologie du Royaume-Uni, a lancé l’initiative « Free AI Training for All » en collaboration avec les géants de la Tech pour mettre en place des programmes de formation à l’IA pour tous les Britanniques. « Notre mission est de former 10 millions de travailleurs britanniques aux compétences en IA et de leur donner la confiance nécessaire pour accroître leur productivité au travail », prévient la page d’accueil du programme, qui répertorie des cours en ligne provenant essentiellement des grandes entreprises de la tech. Bien évidemment, le programme a déclenché de nombreuses critiques, notamment le fait que les fonds de ce programme ne mettent pas en valeur les programmes d’accompagnement à l’IA produits par des associations et des organisations locales et communautaires qui œuvrent à l’alphabétisation numérique depuis des années.
Dans une tribune pour Tech Policy Press, Tania Duarte de l’association We and AI, le designer Tim Davies de l’association Connected by Data et plusieurs chercheurs dont Elinor Carmi, Mark Wong et Susan Oman dénoncent cette orientation et appellent à promouvoir une lecture critique de l’IA, des ressources indépendantes qui dépassent la focalisation sur ce que proposent les entreprises d’IA et les outils individuels. « L’enjeu est de s'engager de manière critique dans l'apprentissage de l'IA en contexte : et pas seulement dans son adoption et son utilisation ». La tribune pointe une discussion assez récurrente entre une promotion de l’IA en vue de former les travailleurs et une approche plus critique qui interroge la pertinence de son utilisation. La plateforme de compétences en IA aurait coûté 4,7 millions d’euros et propose seulement 14 cours, jugés parfois obsolètes, souvent inexacts et qui proviennent exclusivement de grandes organisations américaines. Or, rappellent les auteurs de la tribune, une étude gouvernementale elle-même montre que le manque d’utilisation de l’IA s’explique en partie par la méfiance envers les entreprises du secteur.
L’initiative du gouvernement britannique semble surtout vouloir « imposer ces entreprises aux travailleurs », sans offrir en contrepartie de réglementation, de contrôle, ou de contre-surveillance à ceux-ci. Or, rappelle un récent sondage de l'Ada Lovelace Institute, 51 % des adultes britanniques ne font pas confiance aux géants de la tech pour agir dans l'intérêt public. Le « Pôle de compétences en IA » illustre comment le Royaume-Uni produit des politiques publiques qui risquent d’accroître sa dépendance à l’IA américaine. Les difficultés économiques des entreprises d’IA les conduisent à produire un lobbying intensif pour infiltrer toutes les infrastructures de la société, notamment l'éducation, les services publics et le monde du travail, afin d'accroître le nombre d'abonnements à leurs systèmes. Or, rappellent les chercheurs, les entreprises à but lucratif ne partagent pas les mêmes valeurs que les institutions gouvernementales démocratiques (et d’ailleurs partagent peut-être de moins en moins les valeurs démocratiques tout court). On ne peut pas confier la formation et l’éducation aux géants de la Tech, rappellent-ils.
En attendant, cette dépendance instaurée par l’initiative du gouvernement britannique comporte des risques moraux, mais aussi juridiques et financiers, notamment liés à la confidentialité et à la vulnérabilité des données. Mais surtout, questionnent-ils, quelle est la place du public dans cette initiative ? « L'accent mis sur les compétences pratiques compromet d'autres projets nationaux en cours, tels que l'inclusion numérique et l'éducation aux médias. Collaborer avec les mêmes entreprises responsables de nombreux préjudices en ligne et promouvoir la formation professionnelle auprès de ces mêmes entreprises donne l'impression au public que le gouvernement privilégie les géants de la tech. Sans surprise, le public britannique perçoit cette relation comme suspecte. Un sondage de l'Institut Ada Lovelace révèle que 84 % des Britanniques craignent que le gouvernement privilégie ses partenariats avec les géants de la tech au détriment de l'intérêt public en matière de réglementation de l'IA ».
En fin de compte, le Pôle de compétences en IA enferme également les citoyens dans une vision binaire : consommateurs ou producteurs, les empêchant de s'opposer à l'IA, de la rejeter ou d'envisager la pertinence d'une approche assistée par l'IA. Ne proposer qu’une formation aux outillages n’offre pas aux utilisateurs la possibilité de questionner le processus décisionnel. Au final, « cela restreint la place du public dans la démocratie, le poussant à accepter le discours sur l'inévitabilité de l'IA sans aucune possibilité d'avoir une voix significative ». Ce programme, préviennent-ils, risque de ne pas améliorer les compétences des utilisateurs tout en érodant la confiance du public dans les institutions publiques censées les protéger.
|
💥 La ressource de la semaine |
Tester et comprendre l’IA générative, pas à pas
|
L’association Class-Code propose 3 courts parcours d’autoformation à l’IA générative, avec des explications et des activités pédagogiques et didactiques. Les modules, très accessibles, prennent l’utilisateur par la main pas à pas pour comprendre à la fois les enjeux de l’IA et leur fonctionnement. Simple et clair.
|
Merci de nous avoir lus ! Si vous avez apprécié la lettre d’information de cette semaine, partagez-la ! Tout à chacun peut s’inscrire ici.
Comme d’habitude, n’hésitez pas à nous faire vos retours. Vous avez des questions, des remarques ou des suggestions ou vous souhaitez que nous abordions un sujet en particulier ? Nous sommes à votre écoute ! N’hésitez pas à répondre à ce mail ou à nous écrire à bonjour@cafeia.org. |
|
|
|