POLITIQUE

Intelligence artificielle : une proposition de directive encadre enfin la responsabilité


L’intelligence artificielle (IA) est associée au progrès et aux améliorations technologiques. Elle a le potentiel de transformer les entreprises, mais que se passe-t-il lorsque quelque chose tourne mal ? Un drone qui s’écrase sur le toit d’une maison, une voiture autonome qui renverse un piéton, un algorithme qui discrimine un candidat lors d’un entretien d’embauche, qui est responsable lorsqu’une technologie cause un dommage et quelle compensation pour les personnes lésées ? Jusqu’à présent, il n’y avait aucune règle harmonisée à l’Europe. La Commission européenne vient de dévoiler une proposition de directive pour faciliter la réparation des dommages causés par un produit ou un service doté d’un système d’apprentissage automatique. Le texte proposé introduit pour la première fois une présomption de causalité en matière de dommage causé et l’accès aux informations détenues par les entreprises du secteur est facilité. L’objectif : mieux protéger les consommateurs et favoriser l’innovation.

Devenue depuis quelques années une technologie clé, l’IA a envahi nos vies. Mais, comme pour de nombreuses technologies, le contraste est grand entre le développement rapide des systèmes d’IA et le processus plutôt lent de création d’un cadre juridique qui régit l’IA. Jusqu’à présent, il n’existait pas de régime de responsabilité spécifique à l’IA dans l’UE. Par conséquent, dans la plupart des États membres de l’UE, la responsabilité de l’IA était régie par le droit de la responsabilité civile.

Cependant, il est largement non harmonisé, à l’exception de la responsabilité des fabricants de produits défectueux, qui est régie par la directive 85/374/CE relative à la responsabilité du fait des produits défectueux. Aboutissement d’un long processus entamé en 2017, c’est à présent également le cas en matière d’IA.

Une législation obsolète réactualisée

La Commission européenne a présenté ce 28 septembre une proposition de directive sur la responsabilité en matière d’intelligence artificielle. L’objectif est de « donner aux personnes des instruments de recours en cas de dommages causés par l’IA, de sorte qu’ils bénéficient du même niveau de protection que celui offert pour les technologies traditionnelles », a expliqué Vera Jourová, vice-présidente chargée des valeurs et de la transparence, dans un communiqué.

« Les nouvelles règles garantiront que tout type de victime (qu’il s’agisse d’un particulier ou d’une entreprise) peut avoir une chance équitable d’obtenir réparation en cas de dommage causé par une faute ou une omission d’un fournisseur, d’un développeur ou d’un utilisateur d’IA. De plus, investir dans la confiance et établir des garanties en cas de problème, c’est investir dans le secteur et contribuer à sa pénétration dans l’UE ».

Une définition large de l’IA

Pour ce qui est de la définition de l’IA, le texte renvoie à la proposition de règlement sur l’IA présentée en avril 2021 dernier. Il s’agit « d’un logiciel (…) capable, pour un ensemble donné d’objectifs définis par l’homme, de générer des résultats tels que du contenu, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels ils interagissent ». Cette définition a le mérite d’être assez large pour englober de nombreuses situations. Le texte précise également d’emblée qu’il ne traite pas des règles relatives à la responsabilité pénale.

Un recours facilité pour les victimes

Qu’il s’agisse de particuliers ou d’entreprises, le texte introduit en faveur des victimes une présomption réfragable de causalité : les juridictions nationales présument « le lien de causalité entre la faute du défendeur et le résultat produit par le système d’IA ou l’incapacité de celui-ci à [en produire un] ».

La Commission européenne explique avoir choisi d’instaurer une présomption réfragable – c’est-à-dire qu’il est possible de la contredire ou de la réfuter par la production d’une preuve contraire – pour « éviter d’exposer les fournisseurs, les opérateurs et les utilisateurs (…) à des risques plus élevés en matière de responsabilité ». Dans le cas contraire, le risque serait d’entraver l’innovation dans ce secteur.

Droit d’accès aux éléments de preuve

Les victimes disposeront aussi d’un plus grand nombre d’outils permettant de prouver la faute et le dommage et demander réparation en justice, grâce à l’introduction d’un droit d’accès aux éléments de preuve auprès des entreprises et des fournisseurs, lorsque des systèmes d’IA dits à « haut risque » sont utilisés. Les victimes pourront ainsi demander à la juridiction d’ordonner la divulgation d’informations concernant les systèmes d’IA, tels que la biométrie ou la reconnaissance faciale. Des garanties sont néanmoins prévues pour préserver le secret des affaires.

Avant de définir définitive, cette proposition de directive doit encore être adoptée par le Parlement européen et le Conseil.