
Yves Poullet se base sur deux de ses conférences récentes en France et en Italie pour publier «La dignité humaine à l’heure de l’IA et des neurosciences» dans la collection L’Académie en poche.
Le recteur honoraire de l’UNamur, professeur émérite de la Faculté de droit, analyse l’entrée en force du numérique dans le domaine du vivant. Examine les enjeux liés à la puissance des grandes entreprises technologiques, les ‘big tech’. Décrypte les risques des technologies émergentes.
Des décisions axées sur l’IA
Yves Poullet plaide notamment pour le droit de participer à la construction de la société de l’information. Aux décisions axées sur l’intelligence artificielle (IA). «On connaît les dangers liés aux ‘deepfakes’, aux informations générées sans contrôle éditorial ou sans modération par l’intelligence générative.»
L’article 50 de l’Acte sur l’intelligence artificielle de l’Union européenne (AI Act) impose la transparence. «Ce devoir vaut aussi pour les systèmes dits d’hypertrucage ou de génération automatique de texte», souligne l’expert auprès du Conseil de l’Europe et de l’UNESCO. «Mais également pour les utilisations de systèmes d’IA de reconnaissance d’émotions.»
L’apprentissage automatique
Pour le membre de la Classe technologie et société de l’Académie royale de Belgique, les changements radicaux provoqués par l’irruption des capacités infinies des technologies émergentes imposent que «le droit à la dignité, droit doublement fondamental, d’une part, revête de nouvelles facettes. Et d’autre part, conduise à de nouvelles obligations de l’État. Du moins si en tant que citoyens nous souhaitons que ce monde nouveau nous accueille autonomes et égaux.»
«À côté des indéniables bénéfices, comment ne pas reconnaître, dans le développement inouï et sans boussole des applications d’une technologie foisonnante, des risques d’atteinte à la dignité humaine?», souligne le conférencier au Collège Belgique.
Ces développements s’opèrent dans un environnement de plus en plus opaque et complexe. Comme pour le ‘machine learning’. Une forme d’IA qui permet à l’ordinateur d’apprendre, de s’améliorer sans avoir été programmé. «Le principe du fonctionnement réside dans la confiance totale ou partielle en l’ordinateur. Sur base de paramètres dont le nombre peut, dans certains cas, dépasser le milliard et à partir de corrélations aléatoires et spontanées entre données hétérogènes pouvant être collectées dans des contextes différents. Ou sans lien avec la finalité poursuivie.»
Remplacer des gènes déficients
Les nanotechnologies, biotechnologies, informatique et sciences cognitives (NBIC) permettent de remplacer des gènes déficients. De modifier le bagage génétique et les performances humaines. «L’eugénisme n’est pas loin!», réplique Yves Poullet. «Le rêve transhumaniste, voire celui du post-humanisme, deviendrait-il réalité?»
Faut-il appliquer le principe de précaution pour minimiser les risques soulevés par les technologies émergentes? «Au moins le devoir d’évaluation si possible collective», pense l’ancien directeur du Centre de recherche information, droit et société (CRIDS) de l’UNamur. «Et, le cas échéant, de diminution de ces risques. Le parallèle avec le droit de l’environnement, qui a vu naître ce devoir de précaution, se justifie pleinement: l’information et ses traitements, ne constituent-ils pas notre environnement?»
Ne pas compromettre les libertés individuelles
Yves Poullet conclut qu’il s’agit «d’affirmer pour tout un chacun, en particulier bien sûr pour les concepteurs et utilisateurs de ces nouvelles technologies, le devoir d’utiliser de manière raisonnable et soutenable les technologies de l’IA et des neurosciences. Afin que ces dernières ne compromettent pas nos libertés individuelles. Ne conduisent pas à des discriminations. Ne mettent pas à mal l’environnement, la règle de droit et nos démocraties».
«Cet objectif implique la responsabilité sociétale de ceux qui prennent le risque de concevoir, de mettre sur le marché et d’utiliser ces outils», ajoute le membre du Namur Digital Institute (NADI). «C’est sur base de cette responsabilité sociétale qu’est affirmé, dans tous les textes réglementaires – ceux de l’UNESCO, du Conseil de l’Europe, de l’OCDE, de l’Union européenne – le devoir des entreprises et administrations d’évaluer, de manière pluridisciplinaire et en associant les représentants des différents intérêts, les risques liés aux technologies. Il faut également que des outils leur soient offerts pour répondre à ce devoir. Voire à cette obligation.»