Meta (Facebook, Instagram, WhatsApp) a annoncé mardi 7 janvier 2025 qu’il allait mettre fin à son programme de fact-checking aux Etats-Unis, marquant un recul majeur de la politique de modération des contenus du réseau social. « Nous allons nous débarrasser des fact-checkers et les remplacer par des notes de la communauté, similaires à X (anciennement Twitter), en commençant par les Etats-Unis », a déclaré le patron du groupe, Mark Zuckerberg, dans un message sur les réseaux sociaux. Selon Mark Zuckerberg, « les vérificateurs ont été trop orientés politiquement et ont plus participé à réduire la confiance qu’ils ne l’ont améliorée, en particulier aux Etats-Unis ». L’annonce de Meta intervient alors que les républicains ainsi que le propriétaire du réseau social concurrent X, Elon Musk, se sont plaints à de multiples reprises des programmes de fact-checking, qu’ils assimilaient à de la censure. « Les récentes élections semblent être un point de bascule culturel donnant, de nouveau, la priorité à la liberté d’expression », a estimé le patron de Meta.
Cette décision a pris une dimension politique exceptionnelle au point de faire l'objet d'interventions de nombreux politiques en particulier le Ministre du Numérique mais également de donner lieu, dès le 8 janvier, à un communiqué officiel du Ministère des Affaires étrangères particulièrement éloquent : « La France exprime son inquiétude face à la décision de l’entreprise étasunienne META de remettre en cause l’utilité de la vérification de l’information (fact-checking) pour limiter la circulation de fausses informations. Elle constate que cette d pécision est pour l’instant limitée au territoire des Etats-Unis. La France maintiendra sa vigilance pour s’assurer que META, ainsi que les autres plateformes, respectent leurs obligations au regard des législations européennes, et en particulier au Digital Service Act (DSA). Entré en vigueur en 2024, ce cadre réglementaire inédit responsabilise les plateformes quant aux contenus auxquels sont exposés les utilisateurs. Il est partie intégrante du bon fonctionnement démocratique de l’UE, et pour protéger nos concitoyens des ingérences étrangères et manipulations de l’information. La liberté d’expression, droit fondamental protégé en France et en Europe, ne saurait être confondue avec un droit à la viralité qui autoriserait la diffusion de contenus inauthentiques touchant des millions d’utilisateurs sans filtre ni modération. L’entreprise américaine META avait elle-même publiquement valorisé son programme de partenariat avec des « fact-checkers » comme un outil efficace ayant permis le bon déroulement des élections européennes en 2024. La France réitère son soutien aux acteurs de la société civile s’engageant, partout dans le monde, pour la défense et la résilience des démocraties face aux manipulations de l’information et aux actes de déstabilisation des régimes autoritaires. »
La vérification des faits ou le fact-checking est une technique consistant d'une part à vérifier la véracité des faits et l'exactitude des chiffres présentés dans les médias par des personnes publiques, notamment des personnalités politiques et des experts, et, d'autre part, à évaluer le niveau d'objectivité des médias eux-mêmes dans leur traitement de l'information. Cette notion est apparue aux États-Unis dans les années 1990 sous l'appellation de fact-checking (terme utilisé également dans les pays francophones). Mise en pratique par des journalistes dans le cadre de leur profession, la méthode s'est démocratisée grâce à des logiciels aidant les particuliers à vérifier les faits. Elle s'est même automatisée avec l'apparition en 2013 de robots conçus pour la pratiquer sans intervention humaine. Depuis 2016, les réseaux sociaux, Facebook, Twitter, etc., recourent à la vérification des faits, de nombreuses informations mensongères (dénommées aussi infox ou fake news) étant diffusées par leurs biais.
Les grandes plateformes numériques ont initié leur collaboration avec des fact-checkers tiers à partir de 2016-2017, principalement en réaction aux controverses sur la désinformation qui ont marqué l'élection présidentielle américaine de 2016. Cette évolution majeure dans la modération des contenus en ligne a été inaugurée par Facebook (désormais Meta) en décembre 2016, avec le lancement d'un programme de fact-checking externe impliquant des organisations certifiées par l'International Fact-Checking Network (IFCN).
Le processus de vérification des faits s'articule autour d'un dispositif à trois niveaux.
Google a adopté une démarche analogue en 2017 avec le lancement de son programme "Google News Fact Check". Ces collaborations sont encadrées par des contrats qui garantissent l'indépendance éditoriale des fact-checkers tout en établissant des standards de qualité stricts. Les vérificateurs sont rémunérés pour leur travail, généralement selon un modèle basé sur le volume de contenus vérifiés.
L'efficacité de ces programmes suscitait déjà – avant la décision très médiatisée de Marc Zuckerberg du 7 janvier dernier - des débats au sein de la communauté juridique et universitaire. Certains observateurs soulignent les limites de ces dispositifs face au volume croissant de contenus à vérifier, tandis que d'autres mettent en avant leur rôle essentiel dans l'écosystème global de lutte contre la désinformation en ligne. Cette tension illustre les défis persistants de la régulation des contenus sur les plateformes numériques, à l'intersection du droit de la communication, de la protection des données personnelles et de la régulation économique des acteurs du numérique.
Cette approche de la modération des contenus a été considérablement renforcée par l'adoption du Règlement européen sur les services numériques ou Digital Services Act (DSA) du 19 octobre 2022, qui impose désormais aux très grandes plateformes en ligne la mise en place de mesures effectives de lutte contre la désinformation, incluant expressément la collaboration avec des vérificateurs de faits indépendants.
Cette décision de META ne semble pas directement contraire aux dispositions du Digital Service Act (DSA), et en particulier à celles de son article 35 « Atténuation des risques » qui liste de façon purement indicative les mesures que doivent prendre les fournisseurs de très grandes plateformes en ligne pour lutter contre les risques systémiques de désinformation ; ainsi, cet article dispose :
Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne mettent en place des mesures d’atténuation raisonnables, proportionnées et efficaces, adaptées aux risques systémiques spécifiques recensés conformément à l’article 34, en tenant compte en particulier de l’incidence de ces mesures sur les droits fondamentaux. Ces mesures peuvent inclure, le cas échéant (…)
- la mise en place d’une coopération avec les signaleurs de confiance, ou l’ajustement de cette coopération, conformément à l’article 22, ainsi que la mise en œuvre des décisions prises par les organes de règlement extrajudiciaire des litiges en vertu de l’article 21;
- la mise en place d’une coopération avec d’autres fournisseurs de plateformes en ligne ou de moteurs de recherche en ligne, ou l’ajustement de cette coopération (…) ;
- le recours à un marquage bien visible pour garantir qu’un élément d’information, qu’il s’agisse d’une image, d’un contenu audio ou vidéo généré ou manipulé, qui ressemble nettement à des personnes, à des objets, à des lieux ou à d’autres entités ou événements réels, et apparaît à tort aux yeux d’une personne comme authentique ou digne de foi, est reconnaissable lorsqu’il est présenté sur leurs interfaces en ligne, et, en complément, la mise à disposition d’une fonctionnalité facile d’utilisation permettant aux destinataires du service de signaler ce type d’information. »
Les mesures qui sont envisagées par le DSA pour réduire les risques systémiques (en ce compris les mesures de coopération avec les « signaleurs de confiance ») sont donc essentiellement indicatives (comme l'indique l'expression « le cas échéant » qui figure à l'article 35 ci-dessus) et peuvent être complétées par d'autres mesures au choix des plateformes et en particulier des notes de communauté comme celles qui ont été évoquées par Mark Zuckerberg dans sa récente communication.
Le Digital Services Act a donné lieu à l'adoption du "Code renforcé de bonnes pratiques contre la désinformation" (Strengthened Code of Practice on Disinformation) adopté le 16 juin 2022. Ce Code, qui tire sa force contraignante de l'article 35 du DSA, rassemble 34 signataires, incluant les principales plateformes numériques comme Meta, Google, TikTok et Microsoft, ainsi que des acteurs de la publicité, des organismes de fact-checking et des organisations de la société civile.
Les engagements pris dans ce Code s'articulent autour de plusieurs axes majeurs. Dans le domaine publicitaire, les signataires s'engagent à mettre en œuvre une politique de « démonétisation » des contenus identifiés comme relevant de la désinformation, tout en renforçant la transparence sur les publicités à caractère politique et en encadrant strictement les techniques de ciblage publicitaire. S'agissant de l'intégrité des services, le Code prévoit des mesures concrètes pour lutter contre la manipulation artificielle, notamment par la détection des faux comptes et des réseaux de bots, ainsi que par une vérification renforcée des comptes disposant d'une large audience.
En matière de lutte contre les fake news, le Code impose aux très grandes plateformes en ligne des obligations spécifiques de transparence et d'action. Les signataires s'engagent notamment à mettre en place des systèmes de détection rapide des campagnes de désinformation, à réduire la visibilité des contenus identifiés comme trompeurs, et à collaborer avec des fact-checkers indépendants certifiés. Le Code prévoit un mécanisme de supervision rigoureux impliquant des rapports réguliers à la Commission européenne. Les signataires doivent fournir des données détaillées sur les mesures prises pour identifier et limiter la propagation des fausses informations, particulièrement durant les périodes électorales.
Le Code accorde également une place centrale à l'autonomisation des utilisateurs, en prévoyant le développement d'outils de signalement plus efficaces et d'initiatives d'éducation aux médias. La coopération avec la communauté scientifique constitue un autre pilier majeur, avec la mise en place d'un cadre facilitant l'accès des chercheurs aux données des plateformes.
En janvier 2024, ce dispositif a été substantiellement renforcé par l'adoption d'engagements complémentaires, particulièrement axés sur les nouveaux défis technologiques. Ces engagements portent notamment sur la détection et le marquage systématique des contenus générés par intelligence artificielle, ainsi que sur des mesures spécifiques de protection du processus démocratique en période électorale et de protection des mineurs face à la désinformation. Concernant spécifiquement les contenus générés par l'IA, les engagements imposent une identification claire des deepfakes et autres contenus synthétiques susceptibles de tromper les utilisateurs.
La durée de validité initiale du Code est de quarante mois à compter de sa signature, avec une clause de révision permettant son adaptation aux évolutions technologiques et aux nouveaux défis de la désinformation en ligne. L'effectivité de ces engagements est garantie par un mécanisme de supervision confié à la Commission européenne, celle-ci disposant de pouvoirs de sanction en cas de manquements caractérisés aux obligations souscrites.
Cette architecture normative originale, mêlant soft law et hard law, illustre l'approche européenne de la régulation des plateformes numériques, privilégiant la responsabilisation des acteurs tout en conservant un pouvoir de contrainte effectif. Elle s'inscrit dans une approche de co-régulation innovante, combinant des engagements volontaires avec le pouvoir de sanction de la Commission européenne en cas de non-respect des obligations souscrites.
Il va de soi que le comportement de META dans la mise en œuvre des mesures prévues par ce Code de bonnes pratiques sera particulièrement surveillé, et la possible dénonciation pour l'Europe également dans un second temps des accords avec les fact-checkers tiers pourrait d'être considérée comme une violation de l'esprit et de la lettre de ce Code.
Et si cette décision était en réalité que la manifestation de deux approches juridiques et philosophiques distinctes de la liberté d'expression qui sépare la France des Etats-Unis ?
Le Premier Amendement de la Constitution américaine consacre une protection quasi-absolue de la liberté d'expression ("Congress shall make no law [...] abridging the freedom of speech, or of the press"), limitant drastiquement toute restriction préalable à la publication, y compris en matière de diffamation ou de fausses informations. La jurisprudence New York Times v. Sullivan (1964) illustre cette approche en exigeant la preuve d'une "actual malice" pour condamner la diffamation envers des personnages publics.
À l'inverse, le droit français, héritier de la loi du 29 juillet 1881 sur la liberté de la presse, encadre strictement l'exercice de cette liberté. Il sanctionne pénalement la diffamation (article 29), l'injure (article 33) et la diffusion de fausses nouvelles (article 27). Cette approche restrictive s'est renforcée avec la loi du 22 décembre 2018 relative à la manipulation de l'information, qui permet au juge d'ordonner le retrait rapide de "fausses informations" durant les périodes électorales. Plus récemment, la loi du 8 novembre 2023 visant à sécuriser et réguler l'espace numérique (SREN) renforce ce dispositif en instaurant une obligation pour les plateformes en ligne de lutter contre la diffusion de contenus manipulés ou générés artificiellement ("deepfakes"), notamment en les signalant clairement aux utilisateurs.
Cette divergence fondamentale reflète deux philosophies distinctes : la tradition américaine privilégie un "libre marché des idées" où la vérité émergerait naturellement du débat public, tandis que le droit français, influencé par son histoire, considère que la liberté d'expression doit être encadrée pour protéger tant les droits individuels que l'intérêt général, particulièrement face aux nouvelles menaces technologiques comme les deepfakes qui peuvent porter atteinte à l'intégrité du débat démocratique.
Il conviendra de suivre attentivement les annonces de META et des autres grandes plateformes américaines dans les prochains mois pour voir si l’annonce du 7 janvier, aujourd'hui limitée au seul territoire américain, s’étendra bientôt à l'Europe avec les nombreux remous politiques et juridiques qui en découlerait immanquablement. Affaire à suivre !