Actualités
Responsabilité des détaillants et applications de l’IA
novembre 2025
La question de savoir si l’utilisateur (consommateur) ou le fournisseur d’une application d’IA est responsable de la violation des droits de propriété intellectuelle résultant de l’utilisation d’une application d’intelligence artificielle est intéressante et de plus en plus pertinente pour les détaillants, car ils déploient de plus en plus d’applications d’IA. La récente décision Getty Images c. Stability AI du 4 novembre 2025 a apporté un peu plus de lumière sur cette question épineuse.
Responsabilité des intermédiaires : une vieille histoire
La question du niveau de responsabilité des intermédiaires dans la chaîne d’approvisionnement et de promotion au détail n’est pas nouvelle. Comme indiqué dans la décision Getty Images c. Stability AI, la Cour de justice de l’Union européenne (« CJUE ») a rendu des arrêts concernant la responsabilité des plateformes de moteurs de recherche telles que Google en matière de publicité par mots clés dans l’affaire bien connue Google France SARL et Google Inc. c. Louis Vuitton Malletier SA (C-236/08), en ce qui concerne le stockage et l’expédition de marchandises dans l’affaire Coty Germany GmbH c. Amazon Services Europe Sàrl et autres (C‑567/18) et en ce qui concerne l’utilisation de marques par des annonceurs tiers dans l’affaire Daimler AG c. Együd Garage Gépjárműjavító és Értékesítő Kft. (affaire C‑179/15). Dans toutes ces affaires, l’intermédiaire a été jugé non responsable de la violation de marque, essentiellement sur la base de la défense de l’absence de connaissance active de toute activité illicite et du fait que les plateformes/parties n’étaient essentiellement pas actives dans l’activité illicite. En substance, les parties ont été jugées ne pas utiliser les marques concernées dans le cours des affaires, une condition préalable essentielle à la constatation d’une violation de marque.
Passons maintenant à l’IA
Passons maintenant à la question de la responsabilité des applications d’IA, qui est un nouveau phénomène à prendre en compte. Stability AI a tenté d’utiliser le raisonnement avancé dans les affaires Google France, Coty et Daimler dans l’affaire Getty et a fait valoir que c’était l’utilisateur, et lui seul, de ses plateformes d’IA qui contrôlait le résultat potentiel d’images illicites créées par lui via les invites que l’utilisateur (consommateur) entrait dans les applications d’IA. Stability AI soutenait essentiellement qu’elle n’était pas responsable ; qu’elle n’était qu’un outil et non une partie active dans toute activité illicite. Ici, le tribunal examinait la question de la violation de marque basée sur la production des marques GETTY IMAGES et ISTOCK dans les images produites par les applications Stability AI. Sur ce point, Stability AI a perdu.
L’avocat de Stability AI, lors d’un contre-interrogatoire avec un témoin, a fait valoir :
« le modèle est un outil contrôlé par l’utilisateur et plus l’invite est détaillée, plus le contrôle est imposé. »
En réponse, le témoin a répondu :
« C’est partiellement vrai. L’utilisateur a le contrôle sur ce qui est demandé. Cependant, ce sur quoi l’utilisateur n’a pas le contrôle, c’est sur quoi le modèle est entraîné. Nous n’avons aucun contrôle là-dessus. Ce sur quoi l’utilisateur n’a pas le contrôle, ce sont les garde-fous sémantiques qui pourraient être mis sur l’invite et les garde-fous sémantiques que nous mettons sur la sortie. Absolument, l’utilisateur a le contrôle sur ce qu’il a demandé, mais n’a pas un contrôle à 100 % sur ce qui sort de l’autre côté. »
Stability AI a perdu ce point parce que (a) elle contrôlait les données sur lesquelles ses applications d’IA étaient entraînées et (b) dans l’affaire Getty au moins, le juge semblait être influencé par le fait que la plupart des utilisateurs ne voulaient pas que les marques GETTY IMAGES ou ISTOCK apparaissent sur leurs images produites, de sorte qu’on pouvait soutenir qu’ils n’essayaient pas activement de produire des images illicites.
Passons maintenant à la responsabilité des détaillants et des utilisateurs
L’échange entre Stability AI et le témoin cité ci-dessus met en évidence, selon moi, certaines des questions clés de la responsabilité des applications d’IA. Une question clé semble être le contrôle. Il semble que la responsabilité ne puisse pas être transférée à l’utilisateur si celui-ci n’a pas un contrôle absolu sur le résultat de l’application d’IA. Des invites détaillées encourageant une activité illicite, comme la recherche de produits contrefaits, pourraient rendre plus probable que la responsabilité puisse être transférée à l’utilisateur. Cependant, étant donné qu’un utilisateur aurait rarement un contrôle total sur les résultats d’une application d’IA, après tout, c’est le but d’une application d’IA.
Il semble que les détaillants pourraient souhaiter se concentrer davantage sur les activités d’atténuation pour contrer les activités illicites via leur application d’IA que d’essayer de refiler la patate chaude à l’utilisateur. Nous devons donc tenir compte des garde-fous. Il est intéressant de noter que Stability AI avait mis en place une soi-disant « fonctionnalité de filtrage » afin que les applications ne rendent pas des ressemblances photoréalistes de personnalités publiques connues, qui ont été ajoutées pour lutter contre les préoccupations concernant les fausses nouvelles et la propagande. Les invites ont été analysées à la recherche de noms de célébrités. Elle était donc au moins consciente du potentiel de certaines activités préoccupantes via ses modèles d’IA.
Alors, quelles sont les principales conclusions pratiques pour un détaillant ayant une application d’IA en place ? Pour qu’un détaillant évite au mieux sa responsabilité et se situe dans le raisonnement exposé dans les affaires Google France, Coty et Daimler, il doit, à mon avis :
- Examiner les données d’entraînement de l’application d’IA pour éviter tout contenu illicite.
- Mettre en place des garde-fous dans l’application d’IA pour dissuader les utilisateurs de toute activité illicite.
- Mettre en place des procédures de retrait pour supprimer toute activité illicite lorsqu’elle est portée à son attention.
Ce qui précède pousserait le détaillant autant que possible dans le groupe des facilitateurs inactifs du commerce, semblable à une plateforme de publicité par mots clés telle que Google, et non un participant actif à toute activité illicite. Après tout, les affaires Google, Coty et Daimler concernaient toutes une activité que l’on pouvait qualifier d’illicite, mais ces parties ont obtenu gain de cause dans leurs défenses parce qu’elles étaient considérées comme n’étant pas actives dans une telle activité.
Ce que l’affaire Getty c. Stability AI semble toutefois clairement indiquer, c’est qu’une fois que l’application d’IA est réputée utiliser le signe illicite dans le cours des affaires, la responsabilité incombera au propriétaire/contrôleur de l’application d’IA, et cela pourrait à l’avenir être un détaillant.
Cet article a été préparé par l’Associé et Conseil en marques Lee Curtis



