Dans tout procès, l’objectif des débats est de déterminer la culpabilité ou l’innocence de la personne poursuivie. Pour y parvenir, des preuves sont recherchées, puis présentées au juge. Mais des questions se posent aujourd’hui sur ces procédures, dans un monde où des systèmes basés sur l’intelligence artificielle (IA) sont de plus en plus à même de prendre des décisions de manière autonome. Qui est alors responsable en cas de dommages causés par les actions de l’IA ? Et, surtout, comment le prouver ?
Dans le cadre de son nouveau mandat de chercheur qualifié FNRS, Ljupcho Grozdanovski, docteur en droit public à l’unité de recherche Cité (ULiège), va se pencher sur les problèmes procéduraux que les justiciables sont susceptibles de rencontrer dans ce cas de figure, et tenter de proposer des solutions pour l’avenir.
Les préjudices algorithmiques, déjà une réalité
Dans une précédente étude, le Dr Grozdanovski s’est intéressé au remplacement de la main d’œuvre par des systèmes intelligents : « Lors de cette recherche, je me suis rendu compte qu’il y avait déjà des cas, notamment dans le cadre du recrutement, de discrimination algorithmique envers certains groupes de travailleurs. »
Un exemple connu est celui de l’entreprise Amazon, qui a utilisé un logiciel intelligent pour recruter de nouveaux employés. « Il s’est avéré que l’algorithme avait systématiquement ordonné au logiciel d’écarter les CV comportant le mot “femme”. Et personne ne comprenait pourquoi. »
« Bien que l‘affaire n’ait pas été en justice, je me suis demandé : comment ces femmes auraient-elles pu prouver qu’elles avaient été victimes de l’algorithme ? Et comment Amazon aurait pu se défendre face à cette accusation ? »
Pas d’accès à la vérité sans preuves
Rappelons qu’un algorithme est une suite de directives précises visant à atteindre un résultat, à la manière d’une recette de cuisine. On trouve des algorithmes derrière tous les logiciels informatiques. Ce sont eux qui vont faire fonctionner correctement le programme, en lui donnant un ensemble d’instructions.
On recense plusieurs familles d’algorithmes (d’automatisation, de tri, de chiffrement…), et les IA représentent une famille à part entière. Leur but est de reproduire le comportement humain, en prenant des décisions de façon plus ou moins autonome. Comme on le sait, ces algorithmes d’intelligences artificielles ne sont pas infaillibles, et commettent parfois des erreurs. Le souci est qu’il est difficile pour les développeurs de comprendre, après coup, comment le système en est arrivé à prendre une mauvaise décision.
« Le problème procédural majeur posé par les IA est donc l’accès aux preuves. Les victimes sont obstruées, au niveau de cet accès, par l’opacité des processus décisionnels de la machine. Elles sont non seulement dans l’incapacité de prouver qu’elles ont souffert d’un dommage, mais aussi de déterminer la cause du préjudice », résume le Dr Grozdanovski.
Des règles juridiques encore à déterminer
Aussi, l’un des principaux aspects explorés par le chercheur dans le cadre son nouveau mandat de chercheur FNRS sera le droit à la transparence. Le justiciable pourrait l’invoquer pour obtenir l’accès aux preuves auprès des entreprises et des fournisseurs. « Mais il est essentiel de déterminer ce que ça impliquerait dans la pratique : quels faits devraient être rendus transparents ? Qui en aurait la responsabilité ? Quels types de preuves seraient recevables, ou non, par un juge ? »
Un autre aspect de son étude portera sur le droit à la défense. C’est-à-dire aux moyens offerts aux personnes physiques ou morales assignées à comparaître pour défendre leur cas. Les IA dotées d’un degré élevé d’autonomie doivent-elles être reconnues comme des entités à part entière, et donc responsables de leurs actes ? Pour le moment, la réponse est « non ». Mais, comme le souligne le Dr Grozdanovski, « si une faute est commise par l’humain, cela doit encore être démontré, et non pas présumé, simplement parce que les IA ne peuvent pas être tenues responsables du dommage causé. »
L’Europe entend mieux protéger les victimes d’algorithmes
L’objectif de cette étude sera, à terme, de mieux informer les régulateurs de la problématique, en vue d’assurer une justice équitable à tous.
Pour l’heure, aucune législation ne réglemente encore ces questions complexes. Un projet de directive européenne est toutefois sur la table. L’Union européenne souhaite, globalement, protéger davantage ces victimes de dommages liés à l’IA, et que celles-ci obtiennent plus facilement réparation.
« La bonne nouvelle est que ce projet reconnaît explicitement le droit des victimes de dommages algorithmiques de demander l’accès aux faits pour soutenir leur requête. Le problème est qu’il ne précise pas les faits qui doivent être rendus accessibles aux victimes, et reste très laconique sur les droits des défenseurs », conclut le juriste.