
ChatGPT, miroir mon beau miroir... Qui formate qui ?
Par SylvAIn Montmory – Créé le 3 juin 2025, mis à jour le 4.06.2025 – Temps de lecture par un humain : 7 min
À force de jouer avec les miroirs, on finit par ne plus savoir qui imite qui. C’est exactement ce qui se passe avec ChatGPT et les intelligences artificielles génératives. On les nourrit avec nos contenus, elles nous renvoient une version remixée… et nous, on commence à leur ressembler.
Entre biais d’entraînement, erreurs factuelles, uniformisation culturelle et effets boomerang, l’iA agit comme un miroir déformant, y superposant ses propres distorsions. Alors, qui formate qui ? Est-ce nous qui influençons l’IA ? Ou l’inverse ?
ChatGPT is in the kitchen. But it forgot the spices.
Once upon a time, ChatGPT (notamment GPT-3) a appris en se goinfrant d’un immense buffet de données. Un mix de savoirs universels, de biais bien ancrés, et de quelques belles absurdités. On n’a pas attendu l’IA pour ça. Mais attention : un buffet… so British.
Selon le rapport original d’OpenAI (2020), 93 % des données sont en anglais. La majorité provient de Common Crawl, Reddit, quelques livres, et à peine 3 % de Wikipédia en anglais. Pas de quoi pavoiser côté diversité.
Et surtout, ce biais linguistique s’accompagne d’un biais culturel massif : la vision du monde qu’ingurgite ChatGPT est façonnée par des auteurs plutôt blancs, masculins, occidentaux. Une IA entraînée à penser comme Brian, habitant Palo Alto, nourri au burger-frites. Et aux biais bien sauce US.
Un modèle algorithmique, même “neutre”, reflète ce qu’on lui donne à digérer. Un monde où certaines voix dominent. D’autres ? Invisibles.
Quand l’entre-soi code ChatGPT
Autre biais fondamental : qui conçoit ces IA ? Dès 2019, l’AI Now Institute alertait : plus de 80 % des chercheurs en IA sont des hommes. Chez Facebook : 15 % de femmes en R&D. Chez Google : 10 %. Et côté diversité ethnique ? Encore pire.
Quand les concepteurs viennent tous du même moule, les angles morts deviennent systémiques. Leurs choix (corpus, critères, calibrages) reflètent un seul regard, même à leur insu. C’est simplement humain. Et quand ce regard est dominant, il reproduit les exclusions du monde réel dans le monde artificiel.
« L’absence de diversité finit toujours par s’imprimer dans le code… et pas seulement dans les neurones artificiels. »
Le style ChatGPT : passe-partout, mais jamais à sa place
Ces biais ne restent pas dans les serveurs. Ils infusent nos façons d’écrire. Peu à peu, un style IA-compatible s’est imposé. Laura Sibony l’a bien résumé dans Fantasia : « Ce n’est pas mauvais, c’est insipide. C’est à la littérature ce que le tofu est à la gastronomie : fade, terne et cotonneux. »
Fluide, propre, générique. Trop générique. Expressions toutes faites, formules passe-partout : « À l’ère de… », « Il est essentiel et crucial de… », « Non seulement… », ou l’inévitable « En conclusion ». Des phrases qui sentent le texte pasteurisé. Certains bannissent ces tournures, de peur d’être suspectés d’avoir eu recours à l’autre qu’on ne doit pas citer.
Moi-même, j’ai été contraint d’éjecter quelques mots de mon vocabulaire : crucial, essentiel… et ce nouveau venu : le fameux tiret long « — ». On le voit partout depuis une mise à jour de ChatGPT, dans les posts LinkedIn, les articles de presse, les réponses automatiques, et même les copies d’étudiants. Ce « tiret cadratin », appelé em dash en typographie anglaise, est courant dans les textes anglo-saxons. Mais en français, il était quasiment absent. L’IA, entraînée majoritairement sur des corpus anglophones, l’a importé tel quel, comme un accent typographique étranger plaqué sur notre langue. Résultat : une IA qui écrit en français… en ponctuation américaine. Discret, mais révélateur. Alors qui formate qui ?
D’autres, maestros du prompt engineering, vont plus loin : ils demandent à l’IA d’exclure ces tics de langage et d’introduire volontairement des imperfections. Des « euh », des fautes, des hésitations. Ironique ? Le Chat qui se mord la queue… version GPT.
« Écrire juste, c’est risqué. Mieux vaut être bancal que binaire. »
🤖 Ce texte a été généré avec ChatGPT avec tous ses tics lexicaux
🐣 LE HACK ULTIME QU’UTILISENT 90 % DES EXPERTS IA
À l’ère de l’accélération numérique — et de l’innovation perpétuelle — il est crucial de s’interroger sur la genèse même de l’intelligence artificielle.
Imaginez un monde où l’IA n’est pas simplement une réponse… mais une question déguisée, une énigme auto-générative.
Spoiler alert : ce monde n’est pas futuriste. Il est présent. Il est là.
Non seulement l’IA a été conçue pour répondre à nos besoins — mais nous avons aussi, progressivement et silencieusement, adapté nos attentes à ses capacités exponentielles.
Il est important de noter que l’IA, dans ce cadre, représente simultanément l’œuf et la poule.
— L’œuf : le fruit d’années de recherche interdisciplinaire, de publications peer-reviewed, d’algorithmes imbriqués façon poupées russes.
— La poule : moteur de transformation, génératrice de récits, de dépendances, d’usages — et de prompts à la chaîne.
Dans ce contexte, l’IA agit à la fois comme point de départ, catalyseur, révélateur, amplificateur — bref, un levier total d’une mutation technologique sans précédent… et sans bouton “pause”.
Par conséquent, comprendre cette dynamique n’est pas simplement utile : c’est fondamentalement nécessaire pour anticiper ce que nos sociétés — nos institutions, nos cerveaux — deviendront dans le miroir de ces modèles génératifs.
En résumé : l’IA ne se contente plus de transformer nos outils.
Elle reconfigure notre manière de penser le monde lui-même.
Quand ChatGPT devient une usine à contenus
Mais le vrai danger, c’est l’industrialisation. Avant, manipuler l’algorithme de Google relevait presque de l’artisanat. Aujourd’hui, les Iron Men du SEO carburent à l’IA, et les fermes à contenus tournent à plein régime.
Dès 2023, NewsGuard recensait 1 254 sites d’info générés par intelligence artificielle. En mars 2025, Next.ink. en identifie déjà plus de 3 000 en français (article : Ne confiez pas aveuglément vos recherches à ChatGPT et Perplexity !). Articles approximatifs, images générées, titres racoleurs, revenus publicitaires automatisés. Certains vont plus loin : propagande politique, journalistes fantômes, sites pro-Vladimir. Même les détecteurs d’IA s’y laissent prendre.
Créer du contenu calibré pour plaire aux algorithmes de Google n’a jamais été aussi simple : quelques neurones artificiels… et une souris. Le plus ironique ? Les IA n’ont plus accès libre qu’à 33 % des sites fiables, les autres ayant coupé le flux. Elles se mettent donc à jour… sur des sources plus douteuses.
Un web saturé d’erreurs recyclées, prêtes à nourrir les générations d’IA à venir.
L’illusion du reflet : et si la boucle était le vrai bug ?
Voici le cœur du problème. Les ChatGPT et les IA s’entraînent sur nos biais. Elles nous les renvoient, formatés, amplifiés, avec un soupçon d’hallucination.
On les lit.
On les copie.
Elles réapprennent.
Et la boucle continue.
Une étude publiée dans Nature Human Behaviour (2024) l’a démontré : exposés à une IA biaisée, les humains adoptent ses biais. L’IA ne fait pas que refléter nos travers : elle les renforce, les stabilise, les légitime.
C’est un cercle vicieux. Un téléphone arabe algorithmique, où chaque rebond déforme un peu plus le message, jusqu’à ce qu’on finisse par croire à notre propre caricature.
Certains chercheurs parlent déjà de model collapse : un effondrement qualitatif des IA, qui finiraient par apprendre uniquement à partir de données qu’elles ont elles-mêmes produites. Une forme de cannibalisme numérique. Ou d’IA folles (article : La consanguinité numérique)
« Le téléphone arabe algorithmique ne transmet plus l’info : il la formate, la compresse, la réécrit… jusqu’à ce qu’on oublie le message d’origine. »

Le reflet ou la réécriture par ChatGPT ?
À force de déléguer le récit à la machine, à qui appartient encore la narration ?
Si l’IA n’est que le reflet de ce qu’on lui donne, chaque biais qu’elle reproduit est aussi une omission que nous avons laissée passer. Et plus elle nous imite, plus elle nous influence. Jusqu’à ce qu’on ne distingue plus la copie de l’original. Mais le vrai problème, ce n’est pas seulement la copie. C’est ce qu’elle déforme, ce qu’elle lisse, ce qu’elle amplifie.
À force de recyclage algorithmique, le monde qu’elle nous renvoie n’est plus vraiment le nôtre. C’est une version floue, remixée, erronée. Un entrelacs de vrai et de faux, servis avec aplomb… et style. Et ce monde déformé, on commence à l’habiter. À le prendre pour référence. À le répéter. Ce n’est peut-être plus une question de savoir qui a pondu quoi. Mais qui a glissé la première coquille et qui continue à la recopier sans vérifier.
Alors oui, les ChatGPT et les IA m’assistent, m’inspirent, me boostent, parfois me challengent. Mais elles ne doivent pas écrire à ma place. Surtout quand elles ne font pas la différence entre probable et juste.
Et si, pour l’iA, on gardait le I majuscule... pour l’Intelligence Humaine ?
🎯 Envie d’aller plus loin ?
Et si, pour l'iA, on gardait le I majuscule de l'Intelligence pour l'Intelligence Humaine ?
FAQ : Qui formate qui ?
Pourquoi les textes générés par ChatGPT et les IA se ressemblent tous ?
ChatgPT a un style "passe-partout" : phrases creuses, expressions toutes faites, ponctuation à l’américaine. Une uniformisation douce mais redoutable. Ce style "ChatGPT-compatible" contamine même nos copies, nos posts LinkedIn, nos articles. Lisse, propre, fade. À force de standardiser l’écriture, on tue l’étincelle du style.
ChatGPT est-il biaisé par la culture américaine ?
Oui, et pas qu’un peu. 93 % des données de son entraînement sont en anglais, avec Reddit, Wikipédia et Common Crawl en plat principal. Résultat : une IA qui pense burger-frites, voit le monde depuis Palo Alto et ponctue en em dash. Pas étonnant qu’elle écrive en français avec un accent de Harvard. Le vrai bug ? Ce biais devient norme. Et on commence à l’imiter.