Plusieurs géants de la tech (Google, OpenAI) s’apprêtent à lancer des outils d’intelligence artificielle capables d’écrire des articles de presse ou des outils d’images génératives. Ces outils collectent des informations et génèrent automatiquement du contenu d’actualité. De grands médias américains (New York Times, Washington Post) ont déjà été approchés pour qu’ils utilisent ces nouveaux logiciels d’assistance aux journalistes.
L’utilisation de ces outils dans les salles de rédaction suscitent dans le public et chez les journalistes des inquiétudes légitimes au regard de l’exactitude des informations et du devoir de vérification. Il ressort d’un rapport sur l’état des médias publié en mai 20231, pour lequel plus de 3.000 journalistes provenant de 17 pays ont été interrogés sur ce qu’ils pensaient de l’utilisation de l’IA en journaliste, que plus de la moitié des personne sondées se disent préoccupées par « l’exactitude des information », « les biais » induits par la technologie, et la difficulté croissante à discerner « les faits de l’opinion »2.
Pour encadrer l’utilisation de ces outils d’intelligence artificielle par les journalistes et « s'assurer que les progrès de l'IA sont mis au service d'une information de qualité délivrée au public », le Conseil de déontologie journalistique et de médiation (CDJM) a publié, le 3 juillet 2023, une recommandation recensant les bonnes pratiques à adapter dans ce contexte nouveau et incertain.
À l’instar du projet de règlement sur l'intelligence artificielle (Artificial Intelligence Act) examiné actuellement en trilogue par les institutions européennes, la recommandation du CDJM classe les utilisations possibles de l’intelligence artificielle selon trois catégories de risques : les utilisations à risque faible (I), celles à risque modéré (II) et enfin celles à proscrire (III) au regard du respect de la déontologie journalistique.
L’objectif n’est pas de proscrire l’utilisation de l’IA dans la pratique du journalisme mais bien de s’assurer que les progrès permis par cette technologie soient mis au service d’une information honnête et de qualité délivrée au public.
Le CDJM a considéré que l’utilisation d’outils tels que des logiciels de correction d’orthographe ou de grammaire, de traduction automatisée de textes, de transcription d'enregistrements, des brouillons pour les réseaux sociaux, des titres pour le référencement, du tri de contenus sur les réseaux, de l'analyse et de la synthèse de dossiers ou encore des vérifications d'affirmations, n’A pas à être notifiée au public, du fait de leur absence d’incidence sur l’information délivrée au public.
Les d’outils d’IA à risque modéré sont susceptibles d’avoir un impact sur l’information et doivent rester sous la responsabilité directe des éditeurs et des journalistes.
De plus, à chaque fois qu’un contenu diffusé ou publié a été réalisé à l’aide d’un tel outil, il faudra signaler explicitement son utilisation pour en informer le public. Tel en sera le cas par exemple lorsque des visuels auront été générés par des outils d’IA.
Le CDJM recommande d’accompagner toute image synthétique par une légende de type « image générée par une IA ».
Les journalistes et les éditeurs devront par ailleurs veiller, lors de la configuration de ces outils ou leur développement en interne, que ceux-ci ne portent pas atteinte aux principes déontologiques de la profession.
Enfin, les outils d’IA utilisés pour personnaliser l’information ne devront pas priver les équipes de la maîtrise de la ligne éditoriale. Si ces outils se contentent de permettre de proposer un contenu adapté au profil d’un visiteur d’un site d’information, en fonction par exemple de son âge, de sa localisation, de ses centres d’intérêts ou préférences, la ligne éditoriale des équipes n’en sera en rien impactée. En effet, de tels outils n’entrent pas en conflit avec les choix éditoriaux effectués dans le traitement de l’information.
Selon le CDJM, l’utilisation par un journaliste d’un outil d’IA pour générer des images, des sons ou des vidéos dont le réalisme risque de tromper le public sur la réalité des faits ou de le laisser dans l’ambiguïté, en lui soumettant une information contraire à la réalité des faits, est à proscrire.
En effet, avec ou sans IA, la publication d’un faux reste une faute déotologique majeure.
Par exception, il sera possible d’utiliser de tels visuels s’ils ont pour but illustrer des sujets destinés à alerter le public sur la création et la circulation de fausses images. Il sera alors recommandé de préciser explicitement que les visuels en cause sont de fausses images. De surcroit, leur diffusion devra se faire exclusivement sous la supervision des journalistes.
En conséquence, aucun doute sur le caractère artificiel des images ou contenus éditoriaux générés à l’aide d’outils d’intelligence artificielle ne doit être permis pour l’audience visée.
Au-delà de ses recommandations, le CDJM encourage tous les journalistes et rédactions à se montrer proactifs sur les sujets d’IA. En effet, le CDJM considère qu’une meilleure appréhension et utilisation des outils d’IA et des risques associés induit nécessairement une formation des journalistes en amont et une collaboration avec des professionnels du secteur.
Pour aller plus loin : « Journalisme et intelligence artificielle : les bonnes pratiques »
1 Study Finds AI and EmergingTechnologies Increasing Tension as Journalists Face Growing Challenges toMaintain Accuracy and Truth (prnewswire.com).
2 Article de Courrier International : "Google s'apprête à lancer un outil d'intelligence artifielle capable d'écrire des articles de presse".