top of page
facebook.png

Retour vers facebook : Quand Yann LeCun croyait à la modération avant que Mark Zuckerberg ne change de direction

Par SylvAIn Montmory – Créé le 20 janvier 2025 – Temps de lecture par une IH : 11 min

Vous êtes en juin 2024, vous regardez l’interview de Yann LeCun par Matthieu Stefani. Le Chief AI Scientist de Meta détaille alors les performances de l’intelligence artificielle appliquée à la modération sur Facebook et Instagram. Les chiffres impressionnent : 96 % de discours haineux détectés et supprimés, une quasi-chirurgie algorithmique capable d’intervenir dans toutes les langues. L’enthousiasme de la Silicon Valley semble à son zénith, comme si la plateforme avait trouvé l’algorithme magique pour réduire la désinformation et apaiser les débats en ligne.

« Nom de Zeus ! » s’exclamerait sans doute Doc Brown s’il voyait ces prouesses technologiques. Et puis, hop, nous revoilà le 7 janvier 2025. Mark Zuckerberg surgit pour annoncer un virage à 180°. Fini les fact-checkers, place aux « notes communautaires » à la mode X d’Elon Musk (résumé des épisodes précédents : ancien rival de Mark, devenu le grand allié de Donald, lui-même devenu le patron du pays). Les filtres se simplifient drastiquement, ne ciblant plus que les contenus illégaux les plus graves. Sujets comme l’immigration et le genre ? Retirés de la zone de haute surveillance. Un grand écart spatio-temporel digne d’une DeLorean filant à travers les époques, nous ramenant en 2017, lorsque Facebook laissait passer 77 % des discours de haine.

Le grand tournant de Zuckerberg pour Facebook et Instagram 

Le 7 janvier 2025 : Zuckerberg enterre le fact-checking sur Facebook et Instagram. (retourvez la tanscrption du la vidé ci-dessous)

Mark Zuckerberg déploie sa vision : même 1 % d’erreur dans la modération, appliqué à des milliards de publications, écarte injustement des millions d’utilisateurs. Mieux vaut, selon lui, restaurer la « liberté d’expression » plutôt que de se risquer à des censures involontaires en grand nombre. À la clé :
 

  • Fact-checkers : tous écartés, remplacés par des « notes communautaires » façon X.

  • Filtres automatiques : désormais réduits à l’essentiel, avec des seuils plus élevés pour déclarer un contenu « hors la loi ».

  •  Sujets sensibles : un retour en terrain libre sur des questions politiques ou sociétales, jusqu’ici modérées au nom du « vivre ensemble ».
     

Zuckerberg justifie ce virage ainsi :

« J’aime la liberté. Les systèmes complexes font trop d’erreurs. Et 1 % d’erreurs sur 2 milliards de comptes, c’est beaucoup. Alors on supprime les systèmes trop zélés. »

Difficile d’ignorer l’ironie de la situation : après avoir déménagé la modération hors de Californie pour la relocaliser au Texas, Zuckerberg défend une vision de liberté presque sans garde-fou.

« Alors, McFly, t’as les foies ? » aurait pu lancer Biff Tannen en voyant ce retournement sous la pression de Donald.

Transcription complète de la vidéo de Mark Zuckerberg annonçant la fin du programme de fact-checking aux États-Unis (janvier 2025)

"Bonjour à tous. Je veux parler aujourd’hui d’un sujet important, car il est temps de revenir à nos racines concernant la liberté d’expression sur Facebook et Instagram.

J’ai créé les réseaux sociaux pour donner une voix aux gens. Il y a cinq ans, j’ai donné un discours à Georgetown sur l’importance de protéger la liberté d’expression, et j’y crois toujours aujourd’hui. Mais beaucoup de choses ont changé ces dernières années.

Il y a eu de nombreux débats sur les potentiels dangers des contenus en ligne. Les gouvernements et les médias traditionnels ont poussé pour censurer de plus en plus. Une grande partie de cela est clairement politique, mais il y a aussi des contenus vraiment problématiques : drogues, terrorisme, exploitation d’enfants. Ce sont des problèmes que nous prenons très au sérieux, et nous voulons nous assurer de les gérer de manière responsable.


Nous avons donc construit des systèmes complexes pour modérer les contenus. Mais le problème avec les systèmes complexes, c’est qu’ils font des erreurs. Même s’ils censurent accidentellement seulement 1 % des publications, cela touche des millions de personnes.

Nous sommes arrivés à un point où il y a tout simplement trop d’erreurs et trop de censure. Les récentes élections semblent aussi marquer un tournant culturel vers une nouvelle priorité accordée à la liberté d’expression.


Nous allons donc revenir à nos racines et nous concentrer sur la réduction des erreurs, la simplification de nos politiques et le rétablissement de la liberté d’expression sur nos plateformes.
Voici plus précisément ce que nous allons faire :

👉 Premièrement, nous allons nous débarrasser des vérificateurs de faits et les remplacer par des notes communautaires similaires à celles de X, en commençant par les États-Unis. Après l’élection de Trump en 2016, les médias traditionnels n’ont cessé d’écrire que la désinformation était une menace pour la démocratie.

Nous avons essayé, de bonne foi, de répondre à ces préoccupations sans devenir les arbitres de la vérité. Mais les vérificateurs de faits se sont révélés trop biaisés politiquement et ont détruit plus de confiance qu’ils n’en ont créé, surtout aux États-Unis. Nous allons donc introduire un système plus complet de notes communautaires dans les mois à venir.

👉 Deuxièmement, nous allons simplifier nos politiques de contenu et supprimer un grand nombre de restrictions sur des sujets comme l’immigration ou le genre, qui sont simplement déconnectés du discours dominant. Ce qui avait commencé comme un mouvement pour plus d’inclusion a été de plus en plus utilisé pour étouffer des opinions et exclure des personnes ayant des idées différentes. Cela a été trop loin. Je veux m’assurer que les gens puissent partager leurs croyances et leurs expériences sur nos plateformes.

👉 Troisièmement, nous allons modifier notre manière d’appliquer les politiques pour réduire les erreurs qui représentent la grande majorité des cas de censure sur nos plateformes.
Nous avions des filtres qui scannaient toutes les violations de politiques. Maintenant, nous allons concentrer ces filtres sur les violations illégales et de haute gravité. Pour les violations de moindre gravité, nous allons compter sur le signalement par les utilisateurs avant d’agir.

Le problème, c’est que les filtres font des erreurs et suppriment beaucoup de contenu qu’ils ne devraient pas. En les réduisant, nous allons considérablement diminuer la censure sur nos plateformes. Nous allons également ajuster nos filtres pour exiger une bien plus grande confiance avant de supprimer un contenu.

La réalité, c’est que cela implique un compromis. Cela signifie que nous allons détecter moins de contenus problématiques, mais aussi réduire le nombre de publications innocentes supprimées par erreur.

👉 Quatrièmement, nous allons réintroduire des contenus civiques. Pendant un moment, la communauté demandait à voir moins de politique parce que cela stressait les gens, donc nous avons arrêté de recommander ces publications. Mais il semble que nous soyons dans une nouvelle ère, et nous commençons à recevoir des retours indiquant que les gens veulent à nouveau voir ce contenu.

👉 Cinquièmement, nous allons déplacer nos équipes de confiance et de sécurité, ainsi que nos équipes de modération de contenu, hors de Californie. Nos opérations de modération basées aux États-Unis seront relocalisées au Texas, pour promouvoir une meilleure expression libre.

Enfin, nous allons travailler avec le président Trump pour repousser les gouvernements qui s’attaquent aux entreprises américaines et poussent à davantage de censure.

Le fait est que, après des années passées à axer notre modération sur la suppression de contenu, il est temps de nous concentrer sur la réduction des erreurs, la simplification de nos systèmes, et sur nos racines : donner une voix aux gens.

J’ai hâte d’ouvrir ce nouveau chapitre. Restez positifs, et d’autres nouvelles à venir très bientôt."

Yann LeCun : l’IA comme bouclier des discours haineux et de la démocratie sur Facebook 

Le 5 juin 2024 (interview avec Matthieu Stefani), Yann LeCun évoquait les IA de modération de Facebook. 

Revenons à l’interview de juin 2024. Yann LeCun, récompensé par le prestigieux prix Turing (l’équivalent d’un « Nobel » de l’informatique), raconte l’évolution fulgurante de la modération algorithmique :
 

  • •    2017 : seulement 23 % des contenus haineux détectés automatiquement, le reste (77 %) étant validé par défaut et signalé ensuite par les utilisateurs.


  • •    2022 : bond spectaculaire à 96 % grâce à l’arrivée des Transformers et de l’apprentissage auto-supervisé.


LeCun vante ces avancées technologiques qui permettent de comprendre toutes les langues et toutes les nuances culturelles. Facebook parvenait enfin à limiter la prolifération de messages haineux.

« Ces outils représentent un progrès technologique et sociétal majeur », martèle LeCun, persuadé que l’IA contribue à protéger les processus démocratiques. Un véritable « Rupture du continuum espace-temps ! » comme pourrait le dire Doc Brown.

Accès au livre L'IA au service du marketing

Quand le « Far West » social refait surface sur Facebook et Instagram 

Le nouveau pari de Zuckerberg apparaît comme un retour aux sources : abandonner ce qui fonctionnait (à 96 %, tout de même) pour un modèle ultra-light. Cette volte-face soulève plusieurs questions :

 

  1. Adieu la technologie de pointe ?Pourquoi balayer d’un revers de main des années de recherche et de développements coûteux, alors que ces IA détectaient efficacement la quasi-totalité des discours haineux.
     

  2. Régression vers 2017 ?
    Avant ces améliorations, Facebook croulait sous la haine raciale et la désinformation. Sans barrières solides, trolls, complotistes et discours violents risquent de se faufiler à nouveau sans effort.

  3. Effet miroir avec X ?
    Les « notes communautaires » à la Musk ont parfois laissé la porte ouverte à des fake news massives et un climat tendu. Meta désire-t-il reproduire le même « buzz », quitte à alimenter la cacophonie ?
     

Zuckerberg invoque la liberté d’expression pour justifier ce grand ménage dans les filtres. Pourtant, même une modération imparfaite permettait un certain équilibre. Sans garde-fous, la propagation de contenus violents et clivants pourrait fracturer plus encore le débat public. Yann LeCun souligne, dans son interview, que l’IA n’est pas infaillible, mais qu’elle a fait ses preuves en réduisant significativement les discours haineux.

En supprimant ces protections, Meta (Facebook et Instagram) envoie un signal contradictoire : accroître la libre parole peut booster l’engagement, donc les revenus, mais au détriment d’une cohésion sociale déjà mise à l’épreuve.

« Fais comme un arbre et fiche le camp ! » aurait pu dire Biff, détournant sa fameuse phrase, face à ces filtres censés « dégager ».

Soyons rassurés, Clara veille 

Clara Chappaz, notre ministre déléguée chargée de l’Intelligence artificielle et du Numérique, a rapidement pris la parole pour clarifier la situation dans l’Hexagone. Elle affirme avoir échangé avec la branche française de Meta, qui assure que ce changement ne s’appliquera qu’aux États-Unis pour le moment.

« J’ai échangé avec la direction de Meta France ce soir qui m’assure que cette fonctionnalité ne sera déployée qu’aux États-Unis pour l’instant »,
a-t-elle déclaré sur la plateforme X.

La ministre promet de surveiller de près l’évolution de la situation et rappelle que toute modification devra respecter les régulations européennes, en particulier le Digital Service Act (DSA), imposant des normes strictes en matière de régulation des plateformes numériques.

« Personne… ne me traite de mauviette ! » pourrait reprendre Marty.

Facebook 2.png

Synthèse : un pari risqué pour Facebook et Instagram

Zuckerberg clamait autrefois l’importance de protéger les utilisateurs en période électorale, de surveiller la radicalisation et de combattre la désinformation. Aujourd’hui, il brandit la fameuse marge d’erreur de 1 % pour justifier la fin d’une modération pourtant efficace pour la majorité des cas.

Les utilisateurs, eux, se retrouvent dans une réalité parallèle, comme s’ils sortaient tout droit d’une saga temporelle, où Facebook et Instagram pourraient devenir le nouvel Ouest sauvage numérique. Les plus cyniques y verront un calcul purement commercial : plus de liberté, plus de clics, plus de profit.
 

En attendant la suite…

Peut-être qu’à l’approche de la prochaine élection américaine, Meta reviendra subitement à une politique de modération renforcée. Ou peut-être que Facebook et Instagram deviendront durablement un terrain où la loi du plus fort (ou du plus bruyant) fait régner sa marque.

Quoi qu’il en soit, les travaux de Yann LeCun, qui avaient fait franchir un cap à la modération, pourraient se retrouver mis de côté. Qu’en pense-t-il au fond de lui ? Doit-il avaler une couleuvre numérique ? L’entreprise qui investissait des ressources considérables pour combattre la haine en ligne semble aujourd’hui privilégier l’audience à tout prix, au nom d’une liberté d’expression sans balises.

« Ton avenir n’est pas encore écrit… personne ne l’est. Ton avenir sera ce que tu en feras. Alors fais qu’il soit beau ! » – conclurait Doc Brown.
 

🎯 Envie d’aller plus loin ?

Accès à l'article : Deepfake, fake news, infox et désinfo : Les maux de l'IA derrière les mots
Lien vers l'article :  ChatGPT, ou l’art de la toutologie : Quand l’éloquence masque le vide
Lien vars l'article : Scraper avec l’IA : l'impunité du plagiat décomplexé !

Et si, pour l'iA, on gardait le I majuscule de l'Intelligence pour l'Intelligence Humaine ?

bottom of page