La lettre hebdomadaire de Café IA |
| |
|
Bonjour à tous.tes, Nous sommes le vendredi 13 février 2026. Au menu de cette semaine : Qu’est-ce que l’IA générative ? ✦ Dans la veille : la météo des usages ✦ La ressource de la semaine : un escape game sur l’IA ✦ Et comme chaque semaine, retrouvez toute l’actualité de la communauté Cafés IA … Bonne lecture ! |
Qu’est-ce que l’IA générative ? |
L’IA générative, c’est de l’analyse statistique à grande échelle.
L’IA est une capacité à exploiter des statistiques à un niveau de complexité et de granularité qui n’est pas accessible autrement que par des machines [1]. C’est un processus d’imitation de la pensée produit par des statistiques. Pour Kate Crawford, « l’IA c’est de l’analyse statistique à grande échelle [2] ». C’est tirer du sens de relations statistiques entre des séquences de mots ou de pixels, en comparant sans cesse les résultats aux réponses, ou en faisant que la machine module par elle-même les relations statistiques entre les mots et les pixels. Le traitement statistique permet d’apprendre des relations entre groupes de mots proches (on parle de réseaux de convolution) via des vecteurs qui permettent de caractériser des proximités ou des éloignements sémantiques entre eux, afin de pouvoir prédire les mots à employer pour répondre. Les transformeurs [3] améliorent la contextualisation de ces grappes de mots reliés en prenant en compte non seulement des micro-séquences de suites de lettres [4], mais également l’ensemble des séquences, permettant d’améliorer la cohérence des réponses (comme s’ils prenaient en compte non seulement les séquences de mots d’une phrase, mais également la phrase dans son ensemble).
Prenons un petit exemple pour mieux comprendre, avec la phrase : « Les cerises sont rouges donc je vais les...» [5]. En analysant les milliards de textes de ses données de son modèle, l'IA calcule les probabilités du mot suivant selon les différents termes de la phrase. Ce qui donne les réponses suivantes, selon leur probabilité : - "manger" : 60%
- "cueillir" : 20%
- "acheter" : 10%
- "congeler" : 3%
- "photographier" : 2%
- "offrir" : 1%
Une fois ces données déterminées, ce sont des paramètres qui vont permettre d'optimiser les choix que la machine va produire. Selon différents paramètres statistiques et leurs réglages, le modèle va produire des réponses différentes. Par exemple, on peut régler la “température”, c’est-à-dire pour le dire rapidement la créativité. Si elle est nulle, le système va toujours proposer comme complément “manger”, le terme qui arrive en premier dans les résultats statistiques. Si cette créativité est forte, il va pouvoir proposer des termes très peu présents, comme offrir. Mais on peut aussi filtrer les réponses selon leur probabilité. Définie strictement, il ne garde que manger (60%), modéré (il élargit à cueillir, car manger et cueillir forment 80% des réponses), et permissif, il considère presque toutes les réponses (sauf offrir et les suivants, qui sont trop rares). Enfin, on peut aussi limiter le nombre de choix possibles, à un seul mot (ce sera manger), aux trois mots les plus probables, ou uniquement aux mots les plus improbables pour produire une IA surréaliste par exemple.
Cet exemple permet de comprendre que les réponses que nous font les IA génératives dépendent profondément de relations statistiques, de relations entre les mots ou les pixels (dans le cas d’images). Que c’est une exploitation statistique à très grande échelle qui finit par produire une apparence de sens… sans que le système ne comprenne rien à ce qu’il produit.
Car il faut bien comprendre qu’il n’y a aucune intelligence dans l’IA. L’IA est « conne comme un balai [6] », mais elle parvient à nous faire croire qu’elle est un Nimbus 2000 [7]. Et c’est bien ce qu’elle est. Un formidable Nimbus 2000 sur lequel on investit des milliers de milliards de dollars, mais qui ne sert ni à balayer ni à voler.
Cet exemple permet d’expliquer que les mots que nous choisissons pour demander quelque chose à l’IA sont importants, que certains mots sont plus clés que d’autres, car il vont apporter avec eux des univers sémantiques, des univers de références, voir les surcharger d’informations pour les faire dérailler [8]. Selon la manière dont on leur parle, les grands modèles de langage ne feront pas les mêmes réponses [9]. C’est pourquoi on peut dire que les chatbots ne font pas que calculer des réponses, ils calculent en permanence leur interlocuteur pour adapter au mieux leurs réponses [10]. Cela signifie que non seulement les LLM hallucinent et nous font croire en leurs hallucinations, mais plus encore, qu’ils nous hallucinent nous-mêmes [11] !
Comme on le comprend en apprenant à prompter, certains mots sont plus forts que d’autres et orientent les réponses des IA vers d’autres univers sémantiques pour les faire sortir de leurs limites. « Un modèle invité à se comporter comme un expert en oiseaux décrit les oiseaux plus précisément qu’un autre invité à se comporter comme un expert en voiture [12] ». L’artiste Grégory Chatonsky parle de « vectorisation » [13] pour désigner justement ces termes qui nous caractérisent, qui nous positionnent et qui positionnent les IA, un peu à l’image des mots clefs publicitaires qui caractérisent nos profils de données sur les réseaux sociaux et qui vont faire que l’on voit certaines choses plutôt que d’autres. Par exemple, des pubs pour le foot, parce que vous avez apprécié un contenu qui parlait de foot, même s’il dénonçait le masculinisme des joueurs. Et cet exemple n’est pas choisi au hasard. Les relations statistiques restent profondément imparfaites. D’où les erreurs, les biais, les hallucinations… Les proximités statistiques ne sont que des proximités statistiques : le sens, l’intention peuvent totalement échapper à ces outils. Comprendre qu’il s’agit de traitements statistiques permet d’éclairer leurs limites. Quand une IA est invitée à résumer un texte, elle va ainsi avoir tendance à se concentrer sur des mots et des vecteurs qui reviennent et délaisser les détails, quand bien souvent, les détails comptent, à l’image des exemples qui éclairent nos compréhensions. Cela explique que l’IA fasse des élusions et donc tronque parfois le sens ou dise le contraire de ce qui est dit [14]. Cela explique leur très grande puissance, comme le fait qu’elles écrivent bien mieux que la plupart d’entre nous, avec un niveau de langue de qualité [15], et le fait que leurs propos, le sens de ce qu’elles produisent, soient souvent très moyens ou peu originaux… et bien sûr qu’il faille toujours vérifier ce qu’elles disent.
|
Qu’est-ce qu’un paramètre ? |
Les grands modèles de langages (LLM) contiennent une multitude de paramètres. Mais qu’est-ce qu’un paramètre ?, interroge pertinemment Will Douglas Heaven de la Technology Review [16]. « On dit souvent que les paramètres d’un modèle de langage complexe sont comme les molettes et les leviers qui contrôlent son comportement. Imaginez un flipper géant, de la taille d’une planète, dont les billes rebondissent d’un bout à l’autre grâce à des milliards de palettes et de bumpers réglés avec précision. Modifiez ces réglages et les billes se comporteront différemment. »
GPT-3 d’OpenAI, sorti en 2020, comptait 175 milliards de paramètres. Le dernier modèle de langage complexe de Google DeepMind, Gemini 3, en compterait au moins mille milliards, certains pensent même qu’il s’agit plutôt de sept mille milliards, mais Google ne communique pas à ce sujet. Pour comprendre ce que cette course à la puissance traduit, il faut en revenir à la base : qu'est-ce qu'un paramètre ?
Repensez à vos cours d'algèbre du collège, comme 2a + b. Ces lettres sont des paramètres : attribuez-leur des valeurs et vous obtenez un résultat. En mathématiques ou en programmation, les paramètres servent à définir des limites ou à déterminer la sortie. Les paramètres des LLM fonctionnent de manière similaire, mais à une échelle vertigineuse.
Les valeurs des paramètres sont attribuées par un algorithme : lors de l'entraînement d'un modèle, chaque paramètre se voit attribuer une valeur aléatoire. Le processus d'entraînement consiste ensuite en une série itérative de calculs (appelés étapes d'entraînement) qui mettent à jour ces valeurs. Au début de l'entraînement, un modèle commet des erreurs. L'algorithme d'entraînement examine chaque erreur et parcourt le modèle, ajustant la valeur de chacun de ses nombreux paramètres afin que l'erreur suivante soit moindre. Ce processus se répète jusqu'à ce que le modèle se comporte comme prévu. À ce stade, l'entraînement s'arrête et les valeurs des paramètres du modèle sont fixées.
En théorie, cela semble simple. En pratique, les modèles des LLM sont entraînés sur une quantité considérable de données et contiennent un immense nombre de paramètres, leur entraînement nécessite un nombre colossal d'étapes et une puissance de calcul astronomique. Pendant l'entraînement, les 175 milliards de paramètres d'un LLM de taille moyenne comme GPT-3 sont chacun mis à jour des dizaines de milliers de fois. Au total, cela représente des quadrillions (un nombre à 15 zéros) de calculs individuels. C'est pourquoi l'entraînement d'un LLM est si énergivore. On parle de milliers d'ordinateurs spécialisés à haute vitesse fonctionnant sans interruption pendant des mois.
À quoi servent tous ces paramètres, exactement ? Il existe trois types de paramètres au sein d'un LLM dont les valeurs sont attribuées lors de l'entraînement : les plongements lexicaux (embeddings), les poids et les biais.
Les plongements lexicaux sont la représentation mathématique d'un mot (ou d'une partie de mot, appelée token) dans le vocabulaire d'un modèle de langage. Ce vocabulaire, qui peut contenir jusqu'à plusieurs centaines de milliers de tokens uniques, est défini par ses concepteurs avant le début de l'entraînement. Mais ces mots n'ont pas encore de signification. Celle-ci est acquise pendant l'entraînement. Lorsqu'un modèle est entraîné, chaque mot de son vocabulaire se voit attribuer une valeur numérique qui capture sa signification par rapport à tous les autres mots, en fonction de sa fréquence d'apparition dans les innombrables exemples des données d'entraînement du modèle. Chaque mot est remplacé par une sorte de code. Mais c'est un peu plus complexe. La valeur numérique – le vecteur d'intégration – qui représente chaque mot est en réalité une liste de nombres, chaque nombre de la liste représentant une facette différente de la signification extraite par le modèle de ses données d'entraînement. La longueur de cette liste de nombres est également un paramètre que les concepteurs du modèle peuvent spécifier avant l'entraînement. Une longueur courante est de 4 096. Chaque mot d'un LLM est représenté par une liste de 4 096 nombres. Et chacun de ces nombres est ajusté lors de l'entraînement. Un LLM dont les plongements sont composés de 4 096 nombres possède 4 096 dimensions. Pourquoi 4 096 ? Cela peut paraître étrange. Mais les LLM (comme tout ce qui fonctionne sur une puce informatique) fonctionnent de manière optimale avec des puissances de deux : 2, 4, 8, 16, 32, 64, etc. Des études ont montré que 4 096 est une puissance de deux qui offre un compromis idéal entre performance et efficacité. Les modèles avec moins de dimensions sont moins performants ; ceux avec plus de dimensions sont jugés trop coûteux ou trop lents à entraîner et à exécuter.
L’utilisation d’un plus grand nombre de paramètres permet au modèle linguistique de capturer des informations très précises sur l’utilisation d’un mot dans de nombreux contextes différents, ses connotations subtiles, ses relations avec d’autres mots, etc. En février 2025, OpenAI a lancé GPT-4.5, le plus grand modèle linguistique de l’entreprise à ce jour (certaines estimations évaluent son nombre de paramètres à plus de 10 000 milliards). Nick Ryder, chercheur chez OpenAI ayant participé au développement du modèle, expliquait à l'époque que les modèles plus grands peuvent exploiter des informations supplémentaires, comme des indices émotionnels, par exemple lorsque les paroles d'un locuteur trahissent de l'hostilité : « Tous ces schémas subtils qui se dégagent d'une conversation humaine, ce sont ces détails que ces modèles de plus en plus grands vont capter. »
En résumé, tous les mots d'un LLM sont encodés dans un espace multidimensionnel. Imaginez des milliers de mots flottant autour de vous. Les mots proches ont des significations similaires. Par exemple, « table » et « chaise » sont plus proches l'un de l'autre que d'« astronaute », qui est proche de « lune » et de « Musk ». Au loin, on aperçoit « prestidigitation ». C'est un peu le même principe, mais au lieu d'être liés entre eux selon trois dimensions, les mots d'un LLM le sont selon 4 096 dimensions. Vertigineux !
En pratique, un LLM compresse l'intégralité d'Internet en une structure mathématique monumentale qui encode une quantité incommensurable d'informations interconnectées. C'est à la fois ce qui rend les LLM capables de prouesses étonnantes et ce qui explique leur complexité. Bien. Voilà pour les plongements lexicaux.
Qu'en est-il des poids ? Un poids est un paramètre qui représente la force d'une connexion entre différentes parties d'un modèle ; c'est l'un des moyens les plus courants d'ajuster le comportement d'un modèle. Les poids sont utilisés lorsqu'un LLM traite du texte. Lorsqu'un LLM lit une phrase (ou un chapitre de livre), il commence par rechercher les plongements lexicaux de tous les mots, puis les transmet à une série de réseaux neuronaux, appelés transformeurs, conçus pour traiter des séquences de données (comme du texte) simultanément. Chaque mot de la phrase est traité en relation avec tous les autres. C'est là que les poids interviennent. Un plongement lexical représente le sens d'un mot hors contexte. Lorsqu'un mot apparaît dans une phrase, les transformeurs utilisent des pondérations pour traiter sa signification dans ce nouveau contexte (concrètement, cela consiste à multiplier chaque représentation vectorielle par les pondérations de tous les autres mots).
Et les biais ? Les biais sont un autre type de réglage qui complète l'effet des pondérations. Les pondérations définissent les seuils d'activation des différentes parties d'un modèle (et donc la transmission des données à la partie suivante). Les biais servent à ajuster ces seuils afin qu'une représentation vectorielle puisse déclencher une activité même lorsque sa valeur est faible (les biais sont des valeurs ajoutées à une représentation vectorielle au lieu d'être multipliées par elle). En modifiant les seuils d'activation des différentes parties d'un modèle, les biais permettent à ce dernier de capter des informations qui pourraient autrement passer inaperçues. Imaginez que vous essayez d'entendre quelqu'un parler dans une pièce bruyante. Les pondérations amplifieraient davantage les voix les plus fortes ; les biais agissent comme un bouton sur un appareil audio qui met en avant les voix plus faibles. En résumé : les poids et les biais sont deux méthodes différentes permettant à LLM d’extraire un maximum d’informations du texte qui lui est fourni. Ces deux types de paramètres sont ajustés en continu pendant l’entraînement pour garantir leur efficacité.
Et les neurones ? Sont-ils aussi un type de paramètre ? Non, les neurones servent plutôt à organiser tous ces calculs mathématiques : ils contiennent les poids et les biais, reliés par un réseau de connexions. Le modèle s’inspire très librement des neurones biologiques du cerveau animal, où les signaux d’un neurone déclenchent de nouveaux signaux du suivant, et ainsi de suite. Chaque neurone d’un modèle possède un biais et des poids pour chacune des dimensions du modèle. Autrement dit, si un modèle possède 4 096 dimensions (et que ses plongements sont donc des listes de 4 096 nombres), alors chaque neurone de ce modèle aura un biais et 4 096 poids. Les neurones sont organisés en couches. Dans la plupart des LLM, chaque neurone d'une couche est connecté à tous les neurones de la couche supérieure. Un modèle à 175 milliards de paramètres comme GPT-3 peut comporter une centaine de couches, chacune contenant quelques dizaines de milliers de neurones. Et chaque neurone effectue des dizaines de milliers de calculs simultanément.
Comment tout cela s'articule-t-il ? Comment un LLM prend-il un ensemble de mots et décide-t-il lesquels restituer ? Lorsqu'un LLM traite un texte, sa représentation numérique (l'embedding) est transmise à travers plusieurs couches du modèle. À chaque couche, la valeur de l'embedding (cette liste de 4 096 nombres) est mise à jour de nombreuses fois par une série de calculs impliquant les poids et les biais du modèle (associés aux neurones) jusqu'à atteindre la couche finale. L'idée est que toute la signification, les nuances et le contexte du texte d'entrée sont capturés par la valeur finale de l'embedding après une série de calculs complexes. Cette valeur est ensuite utilisée pour calculer le mot suivant que le LLM doit proposer. Vous ne serez pas surpris d'apprendre que c'est plus compliqué qu'il n'y paraît : le modèle calcule en fait, pour chaque mot de son vocabulaire, sa probabilité d'apparaître ensuite et classe les résultats. Il choisit ensuite le mot le plus probable. Ce mot est ajouté au bloc de texte précédent, et le processus se répète jusqu'à ce que le modèle LLM estime que le mot suivant le plus probable est celui qui signale la fin de sa sortie. C'est tout ? Bien sûr que non !.
Les concepteurs de modèles LLM peuvent également spécifier d'autres paramètres, appelés hyperparamètres. Les principaux sont la température, le top-p et le top-k. La température est un paramètre qui agit comme un sélecteur de créativité. Elle influence le choix du mot suivant par le modèle. Le paramètre de température permet d'orienter le modèle vers le choix du mot suivant le plus probable, rendant ainsi sa sortie plus factuelle et pertinente, ou vers un mot moins probable, pour une sortie plus surprenante et moins robotique. Les paramètres « top-p » et « top-k » contrôlent également le choix des mots suivants par le modèle. Ils forcent ce dernier à choisir un mot au hasard parmi les mots les plus probables, au lieu du mot le plus probable. Ces paramètres influencent le comportement du modèle : original et créatif, ou fiable et monotone.
Le nombre de paramètres est souvent simplifié pour désigner la taille des modèles. On parle beaucoup des petits modèles capables de surpasser les grands selon le nombre de paramètres qu’ils utilisent. Comment un petit modèle peut-il faire plus avec moins de paramètres [17] ? C'est l'une des questions les plus brûlantes en IA actuellement. Les chercheurs ont constaté que la quantité de données d'entraînement joue un rôle crucial. Il faut d'abord s'assurer que le modèle dispose de suffisamment de données : un LLM entraîné sur trop peu de texte n'exploitera pas pleinement ses paramètres, tandis qu'un modèle plus petit, entraîné sur la même quantité de données, pourrait être plus performant. Une autre astuce découverte par les chercheurs est le surentraînement. Fournir aux modèles une quantité de données bien supérieure à celle jugée nécessaire semble améliorer leurs performances. Ainsi, un petit modèle entraîné sur une grande quantité de données peut surpasser un modèle plus grand entraîné sur moins de données. Prenons l'exemple de Llama de Meta. Le Llama 2, avec ses 70 milliards de paramètres, a été entraîné sur environ 2 000 milliards de mots ; le Llama 3, avec ses 8 milliards de paramètres, a été entraîné sur environ 15 000 milliards de mots. Le Llama 3, bien plus petit, est le meilleur modèle.
Une troisième technique, appelée distillation, utilise un modèle plus grand pour en entraîner un plus petit. Ce dernier est entraîné non seulement sur les données d'entraînement brutes, mais aussi sur les résultats des calculs internes du modèle plus grand. L'idée est que les enseignements tirés de l'expérience et intégrés aux paramètres du modèle plus grand se répercutent sur ceux du modèle plus petit, lui donnant ainsi un coup de pouce.
En réalité, l'ère des modèles monolithiques uniques est peut-être révolue, et avec elle, la course aux modèles intégrant le plus de paramètres possibles. En fait, de plus en plus, les plus grands modèles du marché, comme GPT-5 d'OpenAI et Gemini 3 de Google DeepMind, peuvent être vus comme plusieurs petits modèles réunis dans un même ensemble. Grâce à une technique appelée « mélange d'experts », les grands modèles peuvent activer uniquement les parties d'eux-mêmes (les « experts ») nécessaires au traitement d'un texte spécifique. Cela combine les capacités d'un grand modèle avec la rapidité et la faible consommation d'énergie d'un ou de petits. Enfin, les chercheurs cherchent encore à optimiser l'utilisation des paramètres d'un modèle. À mesure que les gains liés à une simple augmentation de la taille des modèles s'amenuisent, accroître le nombre de paramètres ne semble plus avoir le même impact qu'auparavant. C’est donc d’autres pistes qu’il va falloir activer pour améliorer les modèles, et notamment diminuer leur consommation qui a un impact direct sur leurs coûts de développement comme d’usage.
|
Notes :
[1] Le terme IA a recoupé au fil du temps plusieurs technologies et méthodes. Cet article s’intéresse plutôt aux IA génératives. Pour élargir les enjeux de l’IA, nous vous renvoyons au module pédagogique produit par l’Inria et Café IA : “Qu’est-ce que l’IA ?” : https://cafeia.org/qu-est-ce-que-l-ia/
[2] Kate Crawford, Contre-Atlas de l’intelligence artificielle, Zulma 2022.
[3] ChatGPT est un “transformeur”. L’acronyme signifie Chat Generative Pre-trained Transformer, ce qu’on pourrait traduire par “transformeur génératif pré-entraîné de chat”. C’est cette architecture technique d’apprentissage profond née en 2017 qui va donner naissance aux grands modèles de langage de l’IA générative. Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser et Illia Polosukhin, « Attention is All you Need », Advances in Neural Information Processing Systems 30, 12 juin 2017.
[4] … transformés d’ailleurs en une suite de chiffres. On parle de token. Voir cette bonne explication sur les tokens : https://generationia.flint.media/p/secrets-techniques-chatgpt-bard-claude
[5] Cet exemple est tiré et adapté d’un post linkedin de Jean-Michel Bernabotto : https://www.linkedin.com/feed/update/urn:li:activity:7309106972430135296/
[6] Luc Julia, L'intelligence artificielle n'existe pas, J’ai Lu, 2020. Xavier de la Porte, « Gérard Berry : L’ordinateur est complètement con », Le Nouvel Obs, 26 août 2016 : https://www.nouvelobs.com/rue89/rue89-le-grand-entretien/20160826.RUE7684/gerard-berry-l-ordinateur-est-completement-con.html
[7] Le Nimbus 2000 est le nom du balai volant magique de Harry Potter.
[8] Advait Yadav, Haibo Jin, Man Luo, Jun Zhuang, Haohan Wang, « InfoFlood: Jailbreaking Large Language Models with Information Overload », 13 juin 2025 : https://arxiv.org/abs/2506.12274 via Matthew Gault, « Researchers Jailbreak AI by Flooding It With Bullshit Jargon », 404media, 8 juillet 2025 : https://www.404media.co/researchers-jailbreak-ai-by-flooding-it-with-bullshit-jargon/
[9] Valentin Hofmann, Pratyusha Ria Kalluri, Dan Jurafsky, Sharese King, « Dialect prejudice predicts AI decisions about people's character, employability, and criminality », 1er mars 2024 : https://arxiv.org/abs/2403.00742
[10] Hubert Guillaud, « Qui est l’utilisateur des LLM ? », Danslesalgorithmes.net, 10 juin 2025 : https://danslesalgorithmes.net/2025/06/10/qui-est-lutilisateur-des-llm/ et « Inférences : comment nos outils nous voient-ils ? », Danslesalgorithmes.net, 18 mars 2025 : https://danslesalgorithmes.net/2025/03/18/inferences-comment-les-outils-nous-voient-ils/
[11] Dans le domaine de l’intelligence artificielle, une hallucination est une réponse fausse ou trompeuse présentée comme un fait certain. https://fr.wikipedia.org/wiki/Hallucination_(intelligence_artificielle)
[12] Frédéric Kaplan, « Proxies », Terrain n°82, printemps 2025. [13] Gregory Chatonsky, « Politiques vectorielles », avril 2025 : http://chatonsky.net/politiques-vectorielles/
[14] ChatGPT ne résume pas les textes, mais se contente de le raccourcir en supprimant les redondances perçues… au risque de passer complètement à côté du sens d’un document, expliquent les chercheurs René Maatman et ali. https://ea.rna.nl/2024/05/27/when-chatgpt-summarises-it-actually-does-nothing-of-the-kind/?ref=mail.cyberneticforests.com L’efficacité et l’applicabilité des techniques de résumé restent largement expérimentales, mais certaines semblent assez bien fonctionner, comme le fait de citer des statistiques ou des chiffres, de citer des éléments ou des sources spécifiques. Des mots comme « le principal facteur » ou « le résultat clé » ou « actions à entreprendre » fonctionnent comme attracteurs. Les générateurs de résumés proposent souvent des sections telles que « Points clés » ou « actions à entreprendre », ce qui augmente la probabilité d’inclure un propos reprenant ces intitulés. En pratique, des expressions bien choisies servent de marqueurs implicites qui guident l’IA dans son choix. Les synthétiseurs ont également tendance à valoriser les déclarations au début ou à la fin des transcriptions, au détriment du milieu, expliquent les spécialistes en pointant vers plusieurs études soulignant ces problèmes. Cf. Hubert Guillaud, « Manipuler la synthèse de documents », Danslesalgorithmes.net, 28 novembre 2025 : https://danslesalgorithmes.net/stream/manipuler-la-synthese-de-document/
[15] Alvero, A.J., Lee, J., Regla-Vargas, A. et al. « Large language models, social demography, and hegemony: comparing authorship in human and synthetic text », Big Data 11, 138 (2024). https://doi.org/10.1186/s40537-024-00986-7 cité par Bilel Benbouzid, « Écrire à l’université à l’heure des IA génératives : égalité instrumentale, inégalité structurelle (2/2) », AOC media, 8 mai 2025 : https://aoc.media/analyse/2025/05/07/ecrire-a-luniversite-a-lheure-des-ia-generatives-egalite-instrumentale-inegalite-structurelle-2-2/
[16] Will Douglas Heaven, « LLM contains a lot of parameters. But what is a parameter ? », Technology Review, 7 janvier 2026 : https://www.technologyreview.com/2026/01/07/1130795/what-even-is-a-parameter/
[17] Pour comprendre l’influence du nombre de paramètres des différents modèles, nous vous recommandons de vous référer à Compar:IA qui permet, entre autres, d’estimer la qualité des réponses selon la performance des modèles, leur taille (exprimée selon le nombre de paramètres) et leur consommation énergétique. L’outil permet par exemple montrer « qu’à gabarit similaire, le modèle Llama 3 405B (architecture dense, 405 milliards de paramètres) consomme 10 fois plus d’énergie en moyenne que le modèle GLM 4.5 (architecture MOE, 355 milliards de paramètres et 32 milliards de paramètres actifs) » : https://comparia.beta.gouv.fr/ranking Le nombre de paramètres, qui détermine un peu simplement la taille des modèles, n’est donc pas le seul élément à prendre en compte pour les évaluer.
|
📆Agenda et actualités de Café IA |
|
|
Les Cafés IA de cette semaine. Participez ! -
Le 15 février à Aincourt, un atelier L’IA générative au service de la laine du Vexin propose de découvrir, à partir d’un exemple local, comment l’IA peut contribuer à valoriser des savoir-faire, sans discours technique.
-
Le 19 février à Saint-Yan, un Café IA Découvrir l’IA permet d’aborder simplement les usages et enjeux de l’intelligence artificielle.
- Le 19 février au Mayet-de-Montagne, un Café IA propose un temps d’échange ouvert autour de l’IA, de 14h30 à 17h.
-
Le 19 février à Strasbourg, un atelier IA et cybersécurité : démêler le vrai du faux explore les risques numériques liés aux usages de l’IA et les moyens de les comprendre.
-
Le 20 février à Villeneuve, l’atelier I(en)A un peu plus, je vous le laisse ? s’intéresse aux IA illustratrices à travers des jeux et des expérimentations accessibles à tous.
-
Le 21 février à Loireauxence, un Café IA invite à comprendre et échanger autour de l’IA avec l’Espace Multimédia du Pays d’Ancenis, de 10h à 12h.
-
Le 21 février à Saint-Jean-le-Vieux, une après-midi amusante avec l’IA propose de découvrir et tester les nouveautés de l’IA, pour débutants comme pour publics plus confirmés.
-
Le 23 février à Belfort, une MasterClass IA s’adresse aux professionnels pour interroger les usages de l’IA au regard des pratiques de travail et des besoins des entreprises.
- Le 24 février à Pauillac, un Café IA réservé aux jeunes de la Mission Locale du Médoc propose de démystifier l’IA par le jeu et des exemples concrets du quotidien.
-
Le 26 février à Martigny-le-Comte, un Café IA Découvrir l’IA permet une première approche simple et accessible de l’intelligence artificielle.
-
Le 27 février à Nyons, une soirée L’IA, c’est quoi le problème ? combine micro-trottoir, conférence et ateliers pour interroger collectivement les scénarios possibles de l’IA.
Du côté de nos partenaires, retrouvez : -
les Cafés IA PME-TPE France Num par ici ;
-
et les Cafés IA à destination des enseignants comme du grand public du Réseau Canopé par là.
|
🎨Les Cafés animation à venir !
|
Vous souhaitez animer un Café IA ou partager votre expérience ? Participez aux prochains cafés animations en ligne, le jeudi de 13h30 à 15h pour découvrir des formats d’animation, des ressources pédagogiques sur l’IA et faire part de vos retours d’expérience. Un moment convivial pour s’inspirer et apprendre ensemble ! |
|
|
Baromètre du numérique : IA, vers une polarisation des usages ? |
L’édition 2026 du baromètre du numérique est en ligne. Depuis 2000, le baromètre proposé par l’Arcep, le Conseil général de l’économie, l’ANCT et l’Arcom prend le pouls de l’évolution des équipements et des usages du numérique. Et chaque année, ce sondage souligne que tous les usages du numérique s’étendent. L’édition 2026 ne fait pas démentir l’orientation générale.
L’édition 2026 pointe « l’adoption fulgurante » de l’IA générative : près de 50% de la population y aurait recours (48% exactement). Une adoption plus rapide que ne l’a été celle de l’internet fixe ou du smartphone. Alors que de nombreux équipements et usages (ordinateurs, téléphones mobiles par exemple) se sont d’abord invités dans la sphère professionnelle avant d’intégrer la sphère privée, l’adoption de l’IA générative relève d’abord d’une pratique personnelle (42 % des Français), avant l’usage professionnel (30 % des actifs). Sans surprise non plus, les jeunes, les adolescents, les diplômés du supérieur et les cadres restent en tête des utilisateurs de l’IA. Mais les écarts d’appropriation par âge et CSP s’accentuent : les plus âgés et les moins diplômés utilisent moins l’IA et l’utilisent moins intensément.
La recherche d’information, l’aide à la rédaction et la traduction sont les usages phares de l’IA générative. « Parmi les utilisateurs de 18-24 ans (73 %) ou ceux qui sont diplômés du supérieur (69 %), le recours à l’IA pour rédiger, traduire ou améliorer du texte est plus important encore. » Là encore, c’est un peu comme si les différences d’usages s’intensifiaient auprès des utilisateurs les plus actifs. « Ce ne sont donc pas forcément les publics les plus fragiles qui se saisissent aujourd’hui des opportunités offertes par l’IA générative pour faciliter le rapport à l’écriture et pallier des difficultés en orthographe, syntaxe et autres », expliquent les auteurs du baromètre, venant confirmer des indices qu’on commence à lire ailleurs. Mêmes constats sur d’autres types d’usages comme le fait d’utiliser l’IA pour la programmation, le codage ou le traitement des données, qui restent des pratiques avancées, plus concentrées auprès des publics qui ont des pratiques intensives. Ceux qui ont des pratiques intensives expriment également une confiance plus grande dans ces outils.
A l’inverse, ceux qui utilisent le moins ces outils (les plus âgés, les non diplômés notamment), semblent s’en tenir d’autant plus éloignés que leurs habitudes numériques les en éloignent. Ils valorisent d’autres pratiques qu’ils maîtrisent mieux et justifient leur manque d’usage par un manque de pratique, un manque de compétence et un manque de confiance dans les réponses de l’IA. Reste que la confiance progresse. « Une majorité de Français (52 %) se déclarent méfiants, en règle générale, par rapport à l’IA, contre 46 % qui s’estiment confiants, même si la part de confiants progresse de 5 points en un an, sous l’effet de l’essor des usages ». « La confiance est cruciale pour expliquer l’usage. Parmi les utilisateurs de l’IA générative, 73 % ont confiance. Parmi les non-utilisateurs, c’est l’inverse qui prévaut : 75 % n’ont pas confiance. » C’est un peu comme si une forme de polarisation des usages se dessinait et s’enkystait, avec de fortes différences sociales, qu’on retrouve d’ailleurs ailleurs, dans les différences sur l’enthousiasme exprimé à l’égard de l’IA et le rapport ou la croyance productive de l’IA.
Signalons également que le Conseil de l’intelligence artificielle et du numérique vient de publier les résultats de la consultation en ligne qu’il a organisée et qui montre, là encore, l’ambivalence des usagers face à l’IA : anxiété et enthousiasme se disputent et semblent cliver la société.
|
💥 La ressource de la semaine |
L’association toulousaine spécialiste du dialogue science et société, Instant Science, propose au téléchargement Face à l’IA, un petit escape game sur l’IA, un jeu d’enquête pour 4 à 6 joueurs à partir de 12 ans. Le matériel à mettre en place nécessite un peu de préparation, mais les 8 petits jeux sous forme d’énigmes à résoudre en 45 minutes devraient ravir ceux qui aiment les défis logiques. Le guide du maître de jeu est très didactique et très complet et offre même des ressources à mettre dans les mains de tous.
|
Merci de nous avoir lus ! Si vous avez apprécié la lettre d’information de cette semaine, partagez-la ! Tout à chacun peut s’inscrire ici.
Comme d’habitude, n’hésitez pas à nous faire vos retours. Vous avez des questions, des remarques ou des suggestions ou vous souhaitez que nous abordions un sujet en particulier ? Nous sommes à votre écoute ! N’hésitez pas à répondre à ce mail ou à nous écrire à bonjour@cafeia.org. |
|
|
|