La lettre hebdomadaire de Café IA |
| |
|
Bonjour à toutes et à tous !
Nous sommes le vendredi 3 octobre 2025, bienvenue dans la lettre d’information de Café IA. Au menu de cette semaine, l’édito : Nos données pour entraîner des IA ? ✦ Le Café animation à venir : 9 octobre « Aborder l'impact énergétique de l'IA » ✦ Algo-Lit : appel à contribution ✦ La veille de Café IA ✦ Et toujours la liste des prochains Cafés IA.
Bonne lecture ! |
Dernier épisode de l’aspiration de nos données par les IA, LinkedIn |
Vous n’avez peut-être pas noté un mail récent de LinkedIn intitulé « Mises à jour de nos conditions générales». Dans ce message, LinkedIn annonçait qu’à compter du 3 novembre, vos données seront utilisées « pour optimiser l’intelligence artificielle générative ». Cette mesure avait été envisagée l’année dernière, avant d’être suspendue en Europe à la suite d’une intervention du régulateur britannique, certains évoquant des préoccupations en lien avec le RGPD. Elle soulève aujourd’hui de nombreuses questions : quelles données sont concernées, pourquoi et par qui seront-elles utilisées ?
Dans son avis de confidentialité, LinkedIn précise que les informations saisies par « vous ou des tiers » sur votre profil sont impliquées : nom, photos, publications, activité, relations, groupes, formations, localisations, compétences, recommandations, coordonnées, sujets d’intérêt, CV ... pour ne citer que quelques exemples. Mais ce n’est pas tout : des données privées et techniques sont également concernées, comme les adresses IP, l’historique des recherches, ou encore les pièces d’identité fournies lors de la vérification de profils. LinkedIn affirme que la base légale de ce traitement repose principalement sur l’intérêt légitime, avec des formulations assez vagues comme : pour « faciliter les processus de recrutement » ou « favoriser les opportunités économiques ». Une base de consentement est également mentionnée pour certains « outils et solutions », sans que ceux-ci soient clairement définis, ni que la répartition entre intérêt légitime et consentement soit précisée.
Selon la CNIL, pour qu’un traitement fondé sur l’intérêt légitime soit valable, cet intérêt doit être « nécessaire », « réel et présent », avec une définition « claire et précise ». Il doit aussi être mis en balance avec les droits et libertés des personnes concernées. Il reste donc à voir si les justifications de LinkedIn répondent réellement à ces critères, notamment en matière de nécessité et de précision.
Autre point flou : quels systèmes d’IA bénéficieront de ces données ? La propriété de LinkedIn par Microsoft et le partenariat de ce dernier avec OpenAI soulèvent des doutes. Si LinkedIn semble laisser la porte ouverte à l’utilisation des données par des services d’OpenAI pour les utilisateurs hors d’Europe, une incertitude demeure quant au partage des données des utilisateurs européens. Ce partage éventuel devrait être précisé dans le plus bref délais, afin que les utilisateurs soient en mesure de prendre une décision pleinement éclairée concernant l'utilisation de leurs données.
En attendant, si vous souhaitez vous opposer à l’utilisation de vos données sur LinkedIn pour entraîner l’IA, vous devez le faire avant le 3 novembre, en vous rendant sur votre profil dans la rubrique « Préférences et confidentialité », puis « Confidentialité des données_», et enfin « Données pour l’amélioration de l’IA
générative ». Les chemins vers nos droits sont décidément bien compliqués. |
Cet exemple de mise à jour des conditions d’utilisation de nos données n’est ni le premier ni le dernier. Mais, si nous sommes habitués à ces pratiques des grands acteurs de la tech, cela ne signifie pas que nous devons nous y résigner.
La semaine passée, Morgane Tual revenait dans un article pour Pixel sur les bots aspirateurs de données, leurs conséquences pour les sites qui sont ainsi régulièrement aspirés et les modes de défense que peuvent mettre en place leurs administrateurs. Car la question se pose de manière générale de savoir comment nous laissons de très nombreuses entreprises littéralement aspirer toutes les informations qui composent notre environnement sans que nous ayons notre mot à dire ou de rétribution quelconque. Plus tôt dans l’année, c’était Meta qui était concerné par des pratiques très similaires à celles de Linkedin aujourd’hui, mais nous pourrions généraliser la question à Tesla et toute voiture qui capte absolument toutes les données de notre environnement, comme le mettait en avant le Washington Post.
Dans AOC, en mai dernier, Jean Cattan l’expliquait : « pour entraîner leurs IA, les entreprises qui nous proposent aujourd’hui leurs services ne se sont pas embarrassées. Elles ont aspiré tout ce qui circulait sur Internet pour entraîner leurs modèles. C’est cette collecte massive qui fait leur richesse et probablement l’efficacité de leurs services.
Certaines autorités ont réagi face à cette situation. L’autorité italienne par exemple a interdit ChatGPT dès sa sortie, pour ensuite l’autoriser et légèrement sanctionner OpenAI. Mais, globalement, l’Europe et le reste du monde ont laissé faire. L’avis du 18 décembre 2023 émis par le CEPD, le collège des CNIL européennes, ne fait rien d’autres quand il rend compte des options qui s’ouvrent aux IA pour assurer la légalité de leur traitement. Celui-ci part du postulat qu’elles ne vont pas « désentrainer » leurs IA ou les retirer du marché et qu’elles ne vont pas non plus demander le consentement à tout le monde pour utiliser leurs données personnelles. C’est pourquoi, dans certains cas et à certaines conditions, elles pourront le faire sur la base de l’intérêt légitime, sans notre consentement préalable explicite, à condition par exemple de nous informer de l’exploitation de nos données et de nous demander si nous voulons « opt out » : en somme, qui ne dit mot consent.
C’est probablement cet avis qui justifie le fait que Meta nous ait informés dans la foulée qu’elle allait utiliser nos données personnelles publiées sur ses sites à moins que nous ne nous y soyons opposés avant le 27 mai. Cette situation – contestée par la société civile européenne, approuvée, comme à son habitude, par l’autorité irlandaise et soumise à un examen d’urgence par une autorité allemande, est particulièrement outrageuse et hypocrite. Ne serait-ce parce que les données d’Internet, elles, ne sont pas évoquées et pourront très probablement faire l’objet d’une aspiration massive. Pourtant, en publiant des informations sur Internet, nous n’avions jusque récemment probablement pas l’idée qu’elles se feraient aspirées par des machines à production de contenu synthétique, par exemple lorsqu’il s’agit de photos de nous. Surtout, l’intérêt légitime est très dur à manier pour le quidam. Par exemple, dans le cas pris au hasard d’une lettre d’information gratuite et sans intérêt commercial émanant d’une institution publique, cela nous serait probablement déconseillé. En tous les cas, l’idée fermement ancrée dans la société est que le consentement est la clef et que partout où il n’est pas sollicité, il y a une présomption de faute. A moins d’avoir un avis comme celui dont bénéficient désormais les IA génératives.
Mais les données personnelles ne sont qu’une dimension des données exploitées et, à vrai dire, considérer la seule question du consentement individuel a ses limites, ces données personnelles n’ayant de valeur que collective. C’est la somme de nos données qui a une valeur, dans le numérique en général et dans le cas de l’IA en particulier. Cette question devrait donc être collective, au moins en partie, et non seulement personnelle. Cela a été suffisamment dit par le passé : « Il n’y a aujourd’hui rien de plus collectif qu’une donnée personnelle et rien de plus public que l’ensemble d’enjeux soulevés par la vie privée » (A. Casilli il y a dix ans). Cette question doit relever d’un choix de société. Considère-t-on l’ensemble de nos informations (lesquelles ?) comme pouvant être mise à profit ? Et si oui de quoi ?
D’autant que l’on sait bien qu’une information anodine en elle-même révèle des aspects relevant de l’intime, lorsque combinée à d’autres données en apparence anodines. C’est entre autres choses ce qui fait la valeur, déjà reconnue par la Cour de justice de l’Union européenne notamment, des données de connexion : vous n’avez pas besoin de savoir ce que deux personnes se disent pour savoir quels liens les lient ou ce qu’elles font, et donc potentiellement ce qu’elles se disent.
Données non personnelles
Ainsi, nous rejoignons une autre question : celle de l’exploitation des données non personnelles, soit tout contenu, toute œuvre, tout travail, toute expression existante sous une forme numérisée. Là aussi, les grandes entreprises se sont servies avant de demander, dans la grande tradition du « move fast and break things ». Jusqu’à ce que la presse et certains auteurs s’opposent au mouvement et commencent à faire des procès ou à négocier.
Mais plus encore que de piller un journal ou un tableau de Picasso, les magazines américains Wired et The Atlantic ont révélé en début d’année, sur la base de pièces obtenues dans le cadre d’un procès intenté contre Meta, que l’entreprise s’était autorisé l’accès à LibGen, une base de ouverte et jugée illégale d’articles scientifiques originellement enfermés dans des bases de données ou à tout le moins protégées par le droit d’auteur. En toute conscience de leurs dirigeants, les grands systèmes d’IA de chez Meta, si ce n’est d’autres entreprises, auraient été entraînés sur une ressource protégée en droit et mise à disposition illégalement. Et ce, pour fournir des services d’IA qui ont, c’est le moins qu’on puisse dire, pignon sur rue.
[A l’inverse, l’IA] devrait être un terrain de prédilection pour penser, entre mille autres obligations, une forme de contribution généralisée à la culture de la part de ces grands organismes. Et aujourd’hui plus encore qu’hier, car en matière d’IA c’est l’ensemble des œuvres qui crée de la valeur et bien malin celui qui pourrait dire que telle œuvre a servi à produire tel contenu. L’IA devrait être le terrain pour promouvoir une approche en commun où les entreprises d’IA n’auraient le droit de prendre que les données figurant dans des communs de données, soit des espaces gérés par les personnes qui mettent au pot et ont une voix dans la gouvernance de ces données. Les IA ne devraient pas avoir le droit de se nourrir en dehors de ces communs. Mais ce n’est pas le sens de l’histoire contemporaine. Tout ou presque, et en particulier le droit européen, va dans le sens inverse. Les intermédiaires de données sont plus soumis à obligations et contraintes, notamment par le règlement européen sur la gouvernance des données, qu’identifiés comme des points de passages obligés et encouragés. »
|
☕ Les actualités de Café IA
|
Les prochaines sessions Café IA se dérouleront : -
le 4 octobre au RoseLab de Toulouse (31) ; Avec Les Échos Le Parisien Événements, la Région IDF organise ce 4 octobre 2025 de 9h à 17h, dans ses locaux à Saint-Ouen (93), la 6e édition Entrepreneur Coaching Day | Région Île-de-France, avec un Café IA France Num dédié aux entreprises.
-
le 7 octobre, à Vence (06), à Annecy (74), à Paris (75), à Strasbourg (67).
- Plusieurs dates avec le Réseau Canopé dans les Haut de France.
-
Du 10 au 12 octobre, au Mans et à Yvré-l’Evêque, à l’occasion de la fête de la Science, c’est par ici.
Retrouvez également tous les Cafés IA PME-TPE France Num par ici, dont des sessions à Troyes (10), Lorette (42) et Annecy (74).
📅Et les 29 et 30 octobre, nous serons à Strasbourg pour la 8e édition nationale de Numérique en Commun[s], pensez à réserver votre place !
|
|
|
☀️ L'équipe de Café IA sera présente à Marseille les 13 et 14 novembre 2025 pour la 3e édition du AIMSummit à l'Orange Vélodrome ! Deux jours pour déchiffrer, questionner, anticiper et orienter les développements actuels et futurs de l'intelligence artificielle et leur impact sur nos sociétés. Gilles Babinet, initiateur de Café IA, sera notamment présent pour présenter la démarche et pour échanger sur les manières de diffuser une culture populaire du numérique et de l'IA. Pour s'inscrire, c'est par ici.
|
🎨Les Cafés animation à venir !
|
|
|
Vous souhaitez animer un Café IA ou partager votre expérience ? Participez aux prochains cafés animations en ligne, le jeudi de 13h30 à 15h pour découvrir des formats d’animation, des ressources pédagogiques sur l’IA et faire part de vos retours d’expérience. Un moment convivial pour s’inspirer et apprendre ensemble ! Jeudi 9 octobre : Café IA « Aborder l'impact énergétique de l'IA ». Cette session sera animée par Augustin Remay, qui vous présentera 20 cartes pour aborder l’impact énergétique de l’IA générative. Jeudi 16 octobre : Café « IA la recette inratable ».
📅 Pour vous inscrire aux prochains échanges, c’est ici. |
|
|
Bienvenue à SB 53 !
L’Etat de Californie vient de promulguer une loi de régulation de l’IA - « Transparency in Frontier Artificial Intelligence Act » ou SB 53. Nourrie par un rapport publié en juin et dirigé par des chercheurs, la loi « impose des obligations de transparence quasi inédites pour les entreprises développant les modèles d’IA les plus complexes, en les contraignant de rendre public leurs protocoles de sécurité, de signaler les incidents graves en moins de quinze jours et de protéger les lanceurs d’alerte », rapportent Le Monde et l’AFP.
Ainsi, le texte « oblige les entreprises à signaler les comportements trompeurs dangereux de l’IA pendant les tests. Par exemple, si un modèle ment sur l’efficacité des contrôles conçus pour l’empêcher d’aider à fabriquer des armes biologiques ou nucléaires, les développeurs doivent dévoiler l’incident s’il augmente considérablement les risques de dommages ». Les grands développeurs d'IA devront aussi « publier sur leur site web un cadre décrivant comment l'entreprise a intégré les normes nationales, les normes internationales et les meilleures pratiques consensuelles du secteur dans son cadre d'IA de pointe.», explique The Verge. Egalement, « tout grand développeur d'IA qui met à jour son protocole de sécurité devra également publier cette mise à jour, ainsi que ses justifications, dans un délai de 30 jours ». Il leur demande enfin de « signaler d'éventuels incidents critiques de sécurité au Bureau des services d'urgence de Californie ».
Le web sous les vagues
En décembre 2021, une éruption volcanique dans l’archipel des Tonga a coupé l’internet… Enfin, pas seulement l’internet : tout a été coupé ! « Les propriétaires de pêcheries et de fermes de courges et d'arbres à pain n'ont pas pu remplir les formulaires de conformité et de quarantaine nécessaires à l'exportation de leurs produits. Les Tongiens vivant à l'étranger ne pouvaient pas transférer d'argent chez eux pour aider leurs familles – et à l'époque, les transferts de fonds internationaux représentaient 44 % du PIB du pays ». Ce n’est qu’en 2023, plus de 18 mois après l’éruption, que le câble a été réparé, explique le journaliste indien Samanth Subramanian dans le Guardian qui publie un long extrait de son livre, Le web sous les vagues (Columbia Global Reports, 2025, non traduit). Entre-temps, les liaisons satellitaires sont venues tenter de redonner un peu de connexion aux habitants des îles, rationnant les usages. « Les distributeurs automatiques de billets sont restés inactifs et les agences bancaires ne pouvaient débourser d'argent sans avoir au préalable vérifié le solde des comptes de leurs clients ». C’est toute l’économie de l’archipel qui a été ralenti…
La sécurité des câbles dans l'océan est en passe de devenir, partout autour du monde, un enjeu de sécurité nationale. « L'avenir d'internet passera par la militarisation de ses systèmes de câbles sous-marins », prédit le journaliste. Durant l’été 2024, le câble a été de nouveau rompu… Aux Tonga, la vie continue d’être ralentie.
L'IA altère-t-elle nos pensées ?
Dans le journal Le Monde du 3 octobre la philosophe Anne Alombert qui vient de faire paraître De la bêtise artificielle chez Allia et l'entrepreneur Jonathan Bourguignon auteur de Internet année zéro (Divergences, 2021) discutent de la façon dont « l'IA altère nos pensées ». Avec l'IA générative, nos ne déléguons plus seulement notre mémoire dans des outils technologiques, mais nos modes mêmes d'expression explique la philosophe. Les deux auteurs s'affrontent pour savoir si on peut dire que les machines raisonnent, si elles sont capables de créer de la nouveauté et si elles peuvent nous aider à apprendre. « Savoir si les IA génératives constituent un risque ou une opportunité pour les humains, implique d'oser poser cette question politique : qui les possède, qui les entraîne ? ».
La digitale
Connaissez-vous la digitale ? Un ensemble d’outils numériques, libres, gratuits et simples pour l’éducation (et au-delà) permettant de créer très simplement des activités collaboratives. Celles-ci vont des feuilles de calculs aux sondages et questionnaires en passant par des outils de design et d’animation. |
Algo->Lit : enquête en cours auprès des médiateurs numériques
Le projet Algo->Lit coordonné par Datactivist et la Mednum a publié un questionnaire à destination des médiateurs numériques pour identifier leurs besoins sur les enjeux algorithmiques et d’intelligence artificielle, afin de les aider à accompagner le grand public. Pour répondre au questionnaire, c’est par là !
|
Merci de nous avoir lu ! Si vous avez apprécié la lettre d’information de cette semaine, partagez-la ! Tout à chacun peut s’inscrire ici.
Comme d’habitude, n’hésitez pas à nous faire vos retours. Vous avez des questions, des remarques ou des suggestions ou vous souhaitez que nous abordions un sujet en particulier ? Nous sommes à votre écoute ! N’hésitez pas à répondre à ce mail ou à nous écrire à bonjour@cafeia.org. |
|
|
|