Téléchargez gratuitement notre eBook "Pour une stratégie d'entreprise éco-responsable"
télécharger
French
French
Les opérations de Carve-Out en France
DÉcouvrir
Découvrez le Livre Blanc : "Intelligence artificielle : quels enjeux juridiques"
DÉcouvrir
Intelligence Artificielle : quels enjeux juridiques ?
Actualité
19/5/25

Diffamation et intelligence artificielle : l’affaire Starbuck contre Meta ouvre un contentieux inédit devant la Cour supérieure du Delaware

Le 29 avril 2025, une plainte en diffamation a été déposée devant la Superior Court of the State of Delaware par Robert Starbuck, journaliste et réalisateur américain, contre Meta Platforms, Inc., société mère de Facebook, Instagram et WhatsApp. Ce contentieux met en cause les réponses générées par le système Meta AI, l’agent conversationnel basé sur les modèles de langage de type LLaMA, et soulève, pour la première fois devant une juridiction étatique américaine, la question de la responsabilité civile d’un opérateur d’intelligence artificielle générative pour des contenus diffamatoires produits sans intervention humaine directe.

Les allégations formulées par le demandeur

Selon les termes de la plainte, Meta AI aurait diffusé, à compter d’août 2024, des réponses affirmant à tort que M. Starbuck aurait participé à l’assaut du Capitole le 6 janvier 2021, plaidé coupable d’un délit de désordre public, soutenu des thèses négationnistes, ou encore représenté un danger pour ses propres enfants. Ces affirmations, que le demandeur qualifie de « manifestement fausses », auraient été générées à la fois par l’interface textuelle et par la fonctionnalité vocale de Meta AI, provoquant un préjudice moral, professionnel et familial important.

Le demandeur soutient que Meta aurait été alertée à plusieurs reprises de ces contenus erronés, sans toutefois procéder à un retrait immédiat ni publier de rectification publique. Il invoque à ce titre une faute grave, susceptible de caractériser un comportement animé par une « actual malice » au sens de la jurisprudence, qui conditionne la responsabilité des organes de presse et assimilés en cas de diffamation visant une personnalité publique.

La plainte repose sur le fondement de la diffamation per se, une catégorie de la common law dans laquelle l’imputation publique de faits criminels, de comportement déshonorant ou d’incompétence professionnelle est présumée causer un préjudice, sans besoin de démonstration spécifique du dommage. Le demandeur invoque également une demande de dommages-intérêts punitifs (punitive damages) en raison de la persistance alléguée du comportement fautif malgré les mises en garde.

Un cadre juridique encore en construction

Il convient de rappeler que les faits présentés dans la plainte devront faire l’objet d’un débat contradictoire. En défense, Meta pourrait soulever plusieurs moyens, parmi lesquels :

  • la non-imputabilité juridique directe des réponses générées par une IA autonome,
  • l’application éventuelle du régime de responsabilité limitée prévu par la Section 230 du Communications Decency Act, sauf à démontrer que Meta est à l’origine de la génération fautive,
  • ou encore le rôle des avertissements de type disclaimer insérés dans l’interface utilisateur de l’IA.

La question centrale porte donc sur le statut juridique des contenus générés par IA : s’agit-il d’une forme d’expression contrôlée engageant la responsabilité éditoriale de son opérateur, ou d’un flux autonome dont les erreurs ne peuvent être reprochées qu’indirectement ? La jurisprudence américaine n’a, à ce jour, pas encore statué sur cette articulation.

Une affaire emblématique aux enjeux systémiques

Cette affaire, qui semble être la première au niveau international à articuler une action en diffamation autour de la production autonome d’un modèle d’IA générative, interroge le droit sur plusieurs plans :

  • la définition du fait générateur dans un environnement algorithmique,
  • les obligations de diligence applicables aux opérateurs d’IA générative,
  • la mesure du préjudice amplifié par la viralité technologique,
  • et les mécanismes de réparation et de rectification envisageables dans un contexte d’automatisation massive.

Au-delà du cas individuel de M. Starbuck, ce litige pourrait ainsi contribuer à façonner un cadre jurisprudentiel structurant sur la responsabilité algorithmique.

À notre connaissance, les juridictions françaises n'ont pas encore été saisies de cas similaires sur le fondement de notre loi de 1881 sur la liberté de la presse  et de la diffamation ou de l'injure à ce jour ; un sujet que tous les avocats et juristes spécialisés en droit de la communication devraient suivre attentivement dans les prochains mois.

Vincent FAUCHOUX
Image par O.J. via Wikipedia
Découvrez l'eBook : Les opérations de Carve-Out en France
Télécharger
Découvrez le Livre Blanc : "Intelligence artificielle : quels enjeux juridiques"
Télécharger
Intelligence Artificielle : quels enjeux juridiques ?

Abonnez vous à notre Newsletter

Recevez chaque mois la lettre du DDG Lab sur l’actualité juridique du moment : retrouvez nos dernières brèves, vidéos, webinars et dossiers spéciaux.
je m'abonne
DDG utilise des cookies dans le but de vous proposer des services fonctionnels, dans le respect de notre politique de confidentialité et notre gestion des cookies (en savoir plus). Si vous acceptez les cookies, cliquer ici.