Tous les consommateurs ont été aujourd’hui confrontés à un Chatbot à l’occasion de l’achat d’un billet d’avion ou de la réservation d’une place de théâtre. Le Chatbot qui fait partie aujourd’hui des applications de l’intelligence artificielle est un programme informatique qui simule une conversation humaine en interagissant avec le consommateur afin de répondre à des interrogations plus ou moins simples. Il existe toute une série de Chatbot et notamment les « déclaratifs » (pour les questions les plus basiques, « à quelle heure ouvre le musée ? ») ou les « prédictifs » (interactifs et personnalisés tel le Siri d’Apple). L'intérêt de l'utilisation de ces robots pour l’entreprise est économique. Il permet en effet aux entreprises de réduire les coûts du service clients (gain de temps pour les requêtes simples).
Mais que se passe-t-il lorsque le Chatbot induit en erreur le consommateur ? Qui est responsable du préjudice qui peut être attaché à la délivrance de l’information erronée ? Le développeur de l’IA ? Le déployeur de l’outil ? L’utilisateur qui aurait dû être plus vigilent ?
C’est à toutes ces questions inédites que répond une Cour dite des petites créances de Colombie-Britannique (une province Canadienne) le 14 février 20241 dans un jugement qui mérite d’être transposé dans le cadre du droit français2.
Voilà une personne qui souhaite voyager de Vancouver à Toronto pour se rendre aux funérailles d’un membre de sa famille.
Elle se rend sur la page du site de la compagnie aérienne dédiée aux conditions spéciales pour les voyages liés à une urgence familiale et, avant d'acheter ses billets, converse avec le Chatbot qui l'informe qu'elle peut bénéficier d’un tarif réduit après l’achat de son billet. L’internaute achète donc son billet et demande le remboursement de ce qui a été indument payé conformément à l’information de l'agent conversationnel. Air Canada refuse cette demande et l’invite à saisir la Cour des petites créances (que l’on pourrait assimiler à notre juge de proximité si ce n’est qu’ici les décisions semblent être prises en ligne).
Le jugement finit de reconnaître la responsabilité d'Air Canada du fait des conseils erronés par le Chatbot, et condamne la Compagnie à rembourser au client la différence entre le prix payé et le tarif spécial.
Qui était fautif dans cette affaire ? Pour la Compagnie, il n’y a pas de doutes. Le Chatbot est une personne morale autonome qui engage sa responsabilité.
L’argument fait écho à l’ancienne position (2017) de notre Parlement européen pour qui il était important de reconnaître3 une « personnalité juridique spécifique aux robots, pour qu'au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables ». Une position qui a été défendue en France par certains auteurs4.
Comme nous l’avons montré5, pour la doctrine favorable à cette responsabilité de l’IA, l’octroi de la personnalité juridique à un système d’intelligence artificielle est à la fois possible (par le recours à une personnalité technique, fonctionnelle, exemple des personnes morales) et souhaitable (afin de pouvoir tirer toutes les conséquences de leur autonomie d’action, notamment en termes de responsabilité). Nous n’allons pas ici aborder ce débat.
Pour le juge Canadien, « bien qu'un chatbot ait une composante interactive, il n'est qu'une partie du site web d'Air Canada ». Il est donc « évident pour Air Canada qu'elle est responsable de toutes les informations figurant sur son site web ». Pas de responsabilité du robot donc et pas plus de responsabilité de l’internaute. Pour la Compagnie qui n’est pas à court d’argument, la réponse du Chatbot renvoyait vers une page du site internet qui, elle, donnait une réponse exacte à la question du client. Le consommateur devait donc être curieux et poursuivre son investigation. Pour le juge, il n’y aucune raison de donner plus d’importance à l’information donnée de manière statique qu’à l’information donnée de manière dynamique à la suite d’un échange avec le robot. Il ne faut pas oublier que la Cour de cassation, dans un arrêt du 10 décembre 2009 a jugé que la difficulté d’accès à une information pouvait être constitutif d’une faute civile6. Dans tous les cas l’information était ici donnée de manière contradictoire.
La décision de la Cour Colombie-Britannique est rendue sur le fondement de la Common Law. Le fondement relève donc du tort law et non du droit civil québécois.
Pour aller à l’essentiel, l’on peut dire que le juge sanctionne ici la négligence de la compagnie Canadienne. Un professionnel doit s’assurer de pas tromper le consommateur en diffusant des informations (ici par le biais d’un Chatbot). La lecture du jugement nous apprend que Air Canada avait déployé son propre outil conversationnel, à l'inverse de nombreuses sociétés qui utilisent généralement une solution commercialisée par d’autres entreprise. Elle n'était donc pas un déployeur (au sens du Règlement IA adopté en mai 2024) ce qui lui aurait permis d'appeler en garantie le développeur de l'IA utilisé (sous réserve des clauses limitatives).
Dans un contexte français, la solution aurait été vraisemblablement rendu sur le fondement des articles L. 111-1 du Code de la consommation ou 1112-1 du Code civil.
Dans les deux cas, le professionnel a manqué à son obligation d’information. Il aurait dû fournir une information à même de permettre au consommateur de s’engager en connaissance de cause.
Précisons enfin que le consommateur a prouvé ses prétentions au moyen d’une copie écran de la réponse du Chatbot. Une preuve certainement recevable en France contre un commerçant (preuve par tous moyens, voir L. 110-3 Code du commerce). Quant à la Compagnie, elle a retiré semble-t-il son Chatbot en attendant les améliorations. Sage précaution.
1 Cour des petites créances de Colombie-Britannique, affaire Jake Moffatt vs Air Canada, 14 févr. 2024, 2024 BCCRT 149
2 Pour un commentaire en France voir Com. com. électr. 2024 Etude 13 Géraldine Goffaux Callebaut
3 Résolution du Parlement européen du 16 février 2017, contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2013(INL)), pt AC.
4 Voir en particulier : A. Bensoussan, « Droits des robots : science-fiction ou anticipation ? », D. 2015. 1640
5 J.-M. Bruguière et B. Gleize, « Droits de la personne », Lefevbre-Dalloz 2023 n°394 et s
6 Cass. 2e civ., 10 déc. 2009, RLDI 2010/56, nº 1868