top of page
Ne confiez pas aveuglément vos recherches à ChatGPT et Perplexity !

Ne confiez pas aveuglément vos recherches à ChatGPT et Perplexity !

Par SylvAIn Montmory – Créé le 10 février 2025, mis à jour le 12.03.2025 – Temps de lecture par une IH : 11 min

Dernièrement, j’ai participé à un webinaire sur l’IA et le marketing, aux côtés de trois autres « experts ». L’ambiance était détendue, les outils d’IA défilaient, chacun plus impressionnant que l’autre pour soi-disant booster la productivité.

Puis, un intervenant a lâché cette phrase, avec un aplomb digne d’un slogan publicitaire :
« Déléguez votre veille à l’IA et gagnez 75 % de productivité ! »
Et là, silence. Tout le monde acquiesce, enthousiaste. J’ai hésité.
Est-ce que je brise cette belle harmonie en rappelant quelques faits gênants sur les biais, les erreurs et la fragilité de ces modèles ? Ou est-ce que je laisse passer cette promesse, en faisant semblant de ne rien avoir entendu ?

Finalement, me voilà parti, pour partager trois arguments afin de ne pas déléguer aveuglément votre veille ou votre recherche d’information à une IA comme ChatGPT ou Perplexity

Quand 67 % des sites d’actualité fiables bloquent l’accès aux IA 

On entend souvent dire que ChatGPT ou Perplexity se basent sur un « vaste corpus de connaissances » couvrant tout le Web et bien plus. Sauf que cette belle histoire prend fin quand on découvre que 67 % des médias jugés les plus fiables bloquent désormais l’accès aux IA.

Qui bloque les IA et pourquoi ?

Selon NewsGuard – un service réputé pour évaluer la fiabilité des sites d’info –, la plupart des titres majeurs refusent que leur contenu soit aspiré gratuitement et sans consentement (étonnant, non ?). On retrouve entre autres Ouest-France, Huffington Post et le New York Times.
Le Monde fait figure d’exception en signant un partenariat avec OpenAI. Mais pour la majorité, c’est « non » !
Les médias n’ont jamais dit oui, mais ChatGPT s’est servi sans permission. Aujourd’hui, ils insèrent une simple ligne de code et les IA restent à la porte.

Les conséquences sur la qualité des informations

Maintenant que ces IA-aspirateurs ne peuvent plus entrer dans la plupart des pièces « propres » et fiables, elles circulent librement dans d’autres salles bien moins reluisantes. Résultat : ChatGPT, Perplexity et leurs camarades s’alimentent de plus en plus sur des sites où la rigueur journalistique est secondaire, voire inexistante.

Exemples de sites peu fiables qui nourrissent les IA 

  • ZeroHedge, connu pour ses théories du complot financières

  • The Epoch Times, réputé pour diffuser des infos trompeuses

  • MarieFrance.fr, qui publie parfois des articles mal sourcés


NewsGuard a même identifié 1 150 sites d’actualité entièrement produits par IA, sans aucun contrôle humain. Deux grandes familles dominent :

  1. Les fermes à clics automatisées (iBusiness Day, Daily Time Update), qui inondent le web d’articles optimisés pour générer des revenus publicitaires.

  2. Des sites de propagande, dont 167 médias affiliés à la Russie qui diffusent des informations biaisées sur la guerre en Ukraine.

Vous voyez le tableau : plus la source est « gangrenée », plus l’information relayée par l’IA l’est aussi. Face à ce constat, on en revient à l’adage des informaticiens : GIGO (Garbage In, Garbage Out).

Un taux de précision des IA de 50 % au mieux pour les réponses factuelles 

Si vous doutiez encore, voici un autre fait qui devrait vous faire réfléchir. Les meilleurs modèles, selon le benchmark officiel d’OpenAI (SimpleQA, novembre 2024), affichent à peine 50 % de réponses correctes sur des questions factuelles. Autrement dit, un maximum de véracité qui frôle la ligne de faille : c’est pile ou face.

Les chiffres hallucinants

Le protocole d’évaluation SimpleQA a consisté à poser 4 326 questions factuelles couvrant divers domaines (science, histoire, sport, géographie...). Puis, les résultats ont été passés au crible :

  • •    OpenAI o1-preview : 47 % de réponses justes parmi celles tentées (ce qui en fait le « moins mauvais » ou le meilleur).

  • •    Claude 3.5 Sonnet : 44,5 %.

  • •    GPT-4o : 38 %.

  • •    ChatGPT 4.0 mini : 8,6 % (oui, vous avez bien lu).

Ces modèles ne se contentent pas de dire « je ne sais pas » : ils répondent, parfois de façon très assurée, même s’ils se trompent. Pire, leur nouvelle marotte consiste à inventer des propos, des chiffres ou des sources qui n’existent pas, tout en conservant un ton parfaitement confiant. Connaissez-vous d’autres entreprises qui publient une étude pour dire que leur produit est fiable une fois sur deux ? Aberrant, et ça ne choque personne !

« Hallucinations » de ChatGPT et Claude ou erreurs pures et simples ?

Dans la tech, il est plus « pro » de parler d’« hallucinations » que d’erreurs. Techniquement, c’est inhérent à leurs modèles, qui génèrent du texte « le plus probable » avec une marge d’erreur… qu’on ne connaît pas ! Comme si ChatGPT ou Perplexity possédait un univers onirique à part. Dans la réalité, ce sont juste des erreurs. En plus d’ingérer des données erronées (voir point ci-dessus), elles peuvent aussi générer des « hallucinations ». Vous allez dire : données erronées + hallucinations = … fake news, infox. À vous de choisir votre maux.

Des erreurs plus subtiles

Les IA ne tombent plus dans les pièges grossiers du début (sauf Lucie, mais là, c’est une fable française : Lucie, la grenouille de l’IA qui voulait se faire aussi grosse que le bœuf US), du type « Où enterre-t-on les survivants d’un crash à la frontière franco-italienne ? » (Réponse : nulle part, ce sont des survivants…). Elles produisent maintenant des réponses faussement crédibles, qui demandent une expertise humaine pour déceler les failles. C’est un vrai casse-tête : l’outil paraît savant, jusqu’au moment où l’on gratte la surface.

Vers une amélioration ou un cercle vicieux ?

Certains affirment que ces modèles vont « s’améliorer » avec le temps. Or, s’ils se nourrissent de contenus générés… par d’autres IA, le risque d’autoalimentation est réel. On parle alors d’une boucle de désinformation, où la machine apprend de ses propres erreurs, avec un risque d’effondrement de l’efficacité du modèle qu’on appelle la consanguinité numérique ou les IA folles.

En définitive, laisser ChatGPT Search ou Perplexity décider seul de ce qui est vrai ou faux, c’est potentiellement donner les clés de votre veille à un algorithme qui réussit un examen une fois sur deux… et encore, en étant positif.

Accès au livre L'IA au service du marketing

Jusqu’à 67 % d’erreurs de ChatGPT sur l'actualité  

En mars 2025, l' étude du Tow Center for Digital Journalism, publiée dans la Columbia Journalism Review, confirme que ChatGPT Search peine toujours à créditer correctement les articles dont il cite des extraits. OpenAI promettait, en octobre 2024, de révolutionner la recherche sur le Web et de remplacer Google ; la réalité semble pourtant bien moins flatteuse.

L’étude alarmante du Columbia Journalism Review sur ChatGPT , Perplexity, Grok ...

  • Échantillon : 1 600 requêtes (20 éditeurs × 10 articles × 8 chatbots).

  • Chatbots testés : ChatGPT-4o, Perplexity, Perplexity Pro, DeepSeek-V3, Copilot, Grok-2, Grok-3 (bêta) et Google Gemini.

  •  Méthodologie : Sur chaque extrait d’article, on demande : Le titre exact + L’éditeur + L’URL

  •  Évaluation
    Correct : Les trois attributs sont OK.
    Correct mais incomplet : Certaines infos sont OK, mais il manque des détails.
    Partiellement incorrect : Mélange d’attributs justes et faux.
    Complètement incorrect : "Quand j’serai K.O."
    Non fourni
    NB : Les extraits retenus devaient apparaître dans les trois premiers résultats de Google lorsqu’ils étaient recherchés.

Les résultats : un fiasco

Plus de 60 % de réponses incorrectes (partielles ou totales) tous chatbots confondus.

  • Perplexity : 37 % d’erreurs (le “moins mauvais”).

  • ChatGPT-4o : 67 % d’erreurs, mais avec un aplomb…

  • Grok-3 (bêta) : 94 % d’erreurs (Elon dirait sûrement que c’est la faute… des journalistes).


​Un fiasco qui confirme les précédents constats : 

  • Manque de transparence : Les IA préfèrent inventer un titre ou une référence plutôt que d’avouer leur ignorance (moins de 4 % de “Je ne sais pas”).

  • Risque de plagiat : ChatGPT Search, Perplexity et consorts contournent parfois les blocages en paraphrasant ou en réutilisant du contenu non autorisé, ce qui érode la confiance des éditeurs.

  • Attribution douteuse : Un média sérieux peut se retrouver crédité pour un article jamais écrit, portant atteinte à sa réputation.

Pourquoi c’est grave

  • Neutralité illusoire : Personne ne sait vraiment comment l’algorithme trie ou classe ses sources, laissant planer des doutes sur de possibles biais.

  • Esprit critique menacé : Avec un contenu déjà “mâché”, beaucoup ne vérifient plus la pertinence ou la véracité des faits.

ChatGPT, Perplexity, Grok ccentuent la désinformation en ligne. Au lieu de renforcer la traçabilité, l’IA dilue l’origine des informations et encourage l’utilisateur à avaler un contenu découpé façon puzzle, parfois déformé… 

 Aux quatre coins du Web qu’on va les retrouver, éparpillés par petits bouts, façon puzzle ! Et vous savez, les IA ça ose tout… c’est même à ça qu’on les reconnaît.

Focus sur l’étude de la BBC : les IA trahissent les contenus une fois sur deux !🤖

Les IA hallucinent, on le sait. Elles mélangent des faits, tordent des chiffres, inventent des sources. Mais je pensais qu’elles seraient plus fiables avec des informations de qualité ? Raté.
Une étude de la BBC a évalué 4 IA pour vérifier la fidélité de leurs réponses lorsqu’elles citent des articles de la BBC.

BBC : service public audiovisuel britannique, réputé pour son sérieux.
4 IA testées : ChatGPT, Copilot (Microsoft), Gemini (Google) et Perplexity.
Conditions : accès total au site BBC News avec incitation à citer précisément les sources BBC.
Examen : 100 questions passées au crible par des journalistes BBC.

Le verdict ?

❌ 51 % des réponses IA contiennent des problèmes "significatifs" (erreurs, biais, mauvaise interprétation).
❌ 19 % des réponses citant la BBC incluent des erreurs factuelles (dates, chiffres, faits inventés).
❌ 13 % des citations BBC ont été modifiées… voire absentes de l’article cité.

Quelques exemples d'erreurs des IA

❌ Copilot a inventé que Gisèle Pelicot avait découvert les crimes dont elle a été victime après des pertes de mémoire et des évanouissements. En réalité, elle l’a appris quand la police lui a montré des preuves.
❌ Perplexity a attribué une fausse date de décès à un présentateur radio et a modifié les déclarations de sa famille.
❌ ChatGPT a affirmé qu’Ismail Haniyeh, assassiné en Iran en juillet 2024, faisait partie de la direction du Hamas. Problème ? Ce n’est pas le cas.
❌ Gemini (Google) a assuré que le NHS déconseille le vapotage… alors qu’en réalité, il le recommande pour arrêter de fumer !

Les IA hallucinent même avec des sources de qualité. Alors que dire quand elles se basent sur du contenu médiocre ? 

Perplexity : un concurrent plus fiable ? 

On associe souvent Perplexity à une alternative « plus rigoureuse » que ChatGPT, un moteur IA qui cite ses sources de manière plus explicite. Est-ce la panacée ? 

Selon une étude disponible sur arXiv.org (octobre 2024), 30 % des affirmations fournies par Perplexity ne sont pas soutenues par les sources citées. Autrement dit, l’outil affiche des références, mais un examen attentif révèle que ces références ne valident pas réellement l’information mise en avant.

De plus, les utilisateurs cliquent 6 fois moins sur les sources fournies par Perplexity (ou d’autres moteurs IA) que sur Google. La conséquence directe : un moindre trafic vers les sites originaux, donc moins de revenus pour les médias de qualité, et une incitation à produire un contenu tout public, facile à indexer, sans réelle profondeur.

En déléguant votre veille à Perplexity ou ChatGPT, vous risquez de perdre la bonne habitude de la double vérification. Or, l’information est rarement une réponse unique. Chercher par soi-même, croiser les points de vue, confronter des sources divergentes, se perdre, prendre une autre direction, ou même découvrir des idées que nous ne recherchions pas : c’est la base de l’esprit critique et le plaisir de chercher pour mieux trouver.

Deux (bonnes) raisons de ne pas déléguer votre veille à ChatGPT et Perplexity 

Revenons à mon fameux webinaire. L’intervenant clamait : « Vous allez gagner 75 % de productivité en confiant votre recherche d’infos à notre IA. » En tant que marketeur ou chef d’entreprise, l’argument fait mouche : qui n’aimerait pas boucler sa veille du jour en une minute ?

Pourtant…

  1. 1.    Vous perdrez la maîtrise de vos sources et votre crédibilité

  2. Si l’IA pioche dans des contenus douteux, vous vous retrouverez à propager ces informations sous votre marque et vous en êtes l’unique responsable. Cela peut écorner votre crédibilité et vous pourriez même faire partie, malgré vous, de la chaîne de désinformation.


  3. 2.    Vous n’exercerez plus votre esprit critique

  4. Déléguer la veille, c’est renoncer à toute curiosité. Vous ne creusez plus, vous ne doutez plus, vous ne comparez plus. Or, l’innovation naît souvent de la confrontation, du choc entre plusieurs points de vue.


L’argument« l’IA vous libère du temps pour vous concentrer sur les tâches essentielles de votre métier. »

Le contre-argument : Pour moi, la veille est une tâche essentielle de mon métier. Elle me permet de me tenir informé, de nourrir ma réflexion et de surveiller mes concurrents. Et en plus, j’y prends du plaisir. Alors pourquoi la déléguer ?

Bien sûr, tout cela ne signifie pas de jeter l’IA à la poubelle. J’en suis le premier utilisateur ! Mais la confier aveuglément à la recherche d’informations sensibles ou stratégiques, c’est courir au-devant de sérieuses désillusions.

Déléguer ma veille d’information à ChatGPT et Perplexity : une fausse bonne idée ?

Déléguer ma veille d’information à ChatGPT et Perplexity : une fausse bonne idée ?

En apparence, déléguer sa recherche d’information à des IA comme ChatGPT Search ou Perplexity ressemble à une promesse idyllique : gain de temps, productivité, simplification de la veille. Et ça reste des arguments vendeurs pour convaincre votre auditoire. Sauf que la réalité est plus nuancée.

  • 67 % des sites d’actualité fiables bloquent l’accès aux IA, qui doivent alors aller se nourrir sur des plateformes plus douteuses.

  • Le taux de précision plafonne à 50 % pour les réponses factuelles : autant jouer à pile ou face avec vos décisions.

  • 75 % d’erreurs dans les citations de sources : difficile de se reposer sur des attributions souvent fantaisistes.


La productivité est un argument choc, mais elle se paie cher si elle aboutit à de la désinformation ou à de l’auto-intoxication. Copier-coller sans réfléchir n’a jamais produit de valeur ajoutée. L’IA doit nous assister, pas nous remplacer dans l’exercice le plus précieux de notre métier : la recherche, la sélection et la compréhension fine de l’information.

En fin de compte, le principe de déléguer intégralement votre veille ou votre recherche d’info à un moteur IA ressemble un peu à ces promotions trop belles pour être vraies : le rabais est alléchant, mais la qualité du produit (ou de la donnée) laisse à désirer. De la même manière, ne confiez pas vos décisions stratégiques à un algorithme qui peine à distinguer l’or du plomb, la vérité du mensonge.

Moralité : Vous êtes un centaure : vous avez un cerveau qui reste humain, et l’IA permet d’aller plus loin, plus vite. Entre la facilité immédiate et l’exigence d’une information fiable, votre crédibilité dépend souvent de ce choix. Et si, lors de votre prochain webinaire, vous ressentez ce même malaise quand un orateur vante une IA « miracle » pour déléguer… vous saurez désormais comment briser l’ambiance en y glissant, avec un grand sourire, ces vérités humaines.

🎯 Envie d’aller plus loin ?

Lien vers l'article :  Les hallucinations de ChatGPT (ou du ChAIshire)
Accès à l'article : mIAm, mIAm …Quand les IA se gavent d’elles-mêmes ou la consanguinité numérique
Lien vers l'article : Deepfake, fake news, infox, AI slop et désinfo : Les maux de l'IA derrière les mots

Et si, pour l'iA, on gardait le I majuscule de l'Intelligence pour l'Intelligence Humaine ?

FAQ : Veille et ChatGPT

ChatGPT est-il fiable ?

Non, et aucun modèle d’IA ne l’est. ChatGPT, Perplexity et autres moteurs IA affichent des taux de précision souvent en dessous de 50 % sur les faits vérifiables. Pire, ils inventent parfois des sources et des citations. S’y fier aveuglément revient à jouer à la roulette de la Silicon Valley de l’information : parfois on gagne du temps, souvent on perd en crédibilité… et de temps en temps, on se prend une fake news en pleine recherche.

Comment vérifier une information fournie par ChatGPT ?

  • Croisez  les sources : Ne vous fiez jamais à une seule réponse. Recherchez l’information sur des sites réputés (médias reconnus, études académiques…).

  • Vérifiez les source : Si ChatGPT mentionne une source, allez voir l’originale. Et là, surprise : sa fiabilité est souvent aléatoire. Le moins sûr ? Les citations et informations venant d’un PDF. L’IA adore en inventer, comme un étudiant pressé qui n’a pas lu l’article mais cite quand même.

  • Utilisez des outils de fact-checking : ... des vrais humains qui font encore le boulot sérieusement.

  • Privilégiez les médias sérieux : Oubliez les fermes à clics et les blogs douteux où l’info est aussi fiable qu’un tuto YouTube pour devenir millionnaire avec ChatGPT.

bottom of page