Ethique (bas latin ethica, morale, du grec êthikon) : nom féminin ; 1. Partie de la philosophie qui envisage les fondements de la morale ; 2. Ensemble des principes moraux qui sont à la base de la conduite de quelqu'un.
Intelligence artificielle : nom féminin ; ensemble des théories et des techniques mises en œuvre pour réaliser des machines dont le fonctionnement s'apparente à celui du cerveau humain.
Le Règlement européen sur l’intelligence artificielle (« IA Act »), en vigueur à partir d'août 2024, établit un cadre juridique visant au développement et à l'utilisation éthique de l'intelligence artificielle (IA), dont l'application sera progressive entre 2025 et 2026. Mais comment ce règlement aborde-t-il les questions éthiques dans le cadre d’un développement et d’une utilisation plus responsable de l’IA ? En réalité, l’IA Act est non seulement ancrée dans les valeurs fondamentales de l’Union européenne (UE) mais aborde l’éthique comme partie intégrante du cadre légal, bien au-delà d’une simple invitation des opérateurs à l’auto-régulation.
En 2018, un rapport1 a révélé que l'algorithme de recrutement d'Amazon discriminait les candidatures féminines. Formé sur 10 ans de données internes, l'algorithme avait appris à partir de tendances historiques où les hommes dominaient, surtout dans les postes techniques. En conséquence, il pénalisait systématiquement les CV contenant des termes associés aux femmes, comme des références à des écoles ou clubs féminins, reproduisant ainsi des biais sexistes favorisant les hommes pour ces postes.
Comment l’IA Act lutte-t-il contre les discriminations et biais ?
Durant les élections municipales à Delhi, début 2024, des vidéos manipulées attribuant de fausses déclarations à des candidats politiques ont circulé sur les réseaux sociaux, nécessitant l'intervention de la Commission électorale indienne.
Que préconise l’IA Act ?
Un exemple d'abus aux États-Unis est l'accusation portée en mai 2024 par l'actrice américaine Scarlett Johansson contre OpenAI et son PDG, Sam Altman, pour avoir délibérément copié sa voix sans son consentement après qu'elle a refusé de participer au système actuel ChatGPT 4.0. Cependant, par respect pour Scarlett Johansson et peu de temps après sa critique publique, l'entreprise a retiré la voix. Ces évolutions récentes permettent une utilisation contrôlée et plus sûre de l'IA.
Que prévoit l’IA Act ?
N.B. Les questions relatives aux données à caractère personnel sont principalement couvertes par le RGPD, à l'exception des questions spécifiques liées à l'IA, ce qui implique une approche cumulative des deux réglementations.
Retournons à notre exemple concernant l’algorithme de recrutement d’Amazon. De manière autonome, l’algorithme s’est auto-appris à pénaliser systématiquement les CV de femmes. Sans supervision humaine, les systèmes d'intelligence artificielle (IA) déployés dans des secteurs sensibles, tels que les services de santé, de transport, de recrutement ou les services bancaires, peuvent provoquer des failles de sécurité graves. Par exemple, une IA utilisée pour interagir avec les clients pourrait accidentellement divulguer des informations personnelles ou financières à des tiers non autorisés.
Quelles sont les exigences de l’IA Act concernant la supervision humaine des systèmes d’IA ?
Au-delà de la question des grands principes éthiques théoriques, l’utilisation responsable de l’IA pose des problématiques éminemment concrètes, techniques et complexes. Elles se traduiront souvent par des normes techniques imposées aux opérateurs ou volontairement choisies par ces derniers dans le cadre d’une auto-régulation.
Ces principes éthiques, transcrits dans des normes techniques (par ex. anonymisation ou pseudonymisation des données, etc.), auront la flexibilité suffisante pour s’adapter aux caractéristiques de chaque secteur économique ; par exemple, on admettra aisément que les normes techniques qui garantiront les grands principes éthiques susmentionnées seront très différentes pour l’industrie des drones militaires, pour l’industrie cosmétique, ou encore pour la presse. Fort heureusement, le juriste aura toujours un rôle à jouer dans ce processus d’endiguement de l’IA (cf. la théorie de Mustapha Suleymann) et de « customisation » des principes éthiques avec des normes techniques évolutives et spécifiques à chaque secteur – celui de rédacteur de chartes éthiques « sur mesure » pour une utilisation responsable de l’IA, dans un cadre légal européen visionnaire.
Un remerciement chaleureux à Noa Arfi, stagiaire DDG, pour son aide précieuse à la préparation de cet article.