Un cadre juridique pour freiner d’urgence la folle accélération de la désinformation

13 octobre 2023
par Laetitia Theunis
Durée de lecture : 11 min

Série : JournaBot (4/6)

ChatGPT et les autres intelligences artificielles (IA) génératives sont en roue libre. Aucune législation n’encadre à ce jour leurs produits, notamment les élégants textes bourrés d’erreurs factuelles qu’elles rédigent, ouvrant la voie à la désinformation massive. A noter que leur utilisation par les journalistes est toutefois soumise au Code de déontologie. Quant aux livres et articles de presse dont ces IA ont abondamment été nourries, leur usage s’est fait sans consentement ni rémunération de leur auteur, faisant fi des droits de propriété. Alors que de profonds grondements de crainte et de mécontentement se font entendre, l’Union européenne tente de construire la toute première législation mondiale d’envergure en matière d’intelligence artificielle.

Une législation, vite !

Son nom ? AI Act. Son objectif ? Placer l’Europe dans la course à l’innovation, tout en garantissant la protection des libertés individuelles, de la vie privée, de la liberté d’expression, mais aussi du droit à la propriété intellectuelle.

Les avancées fulgurantes d’outils d’IA génératives compliquent ses efforts. En effet, si ses travaux ont débuté en 2021, ils ont dû composer dare-dare avec le tsunami créé par la mise sur le marché de ChatGPT fin novembre 2022.

Cela n’empêche, le processus de négociation arrive peu à peu à sa fin.« La Commission européenne ayant pris l’initiative de proposer un règlement au Parlement européen et au Conseil européen, ces deux-ci doivent se mettre d’accord sur un texte commun. Le premier a adopté sa position, mais le second a pris du retard. La raison ? Il n’y a jamais eu autant de lobbies pour un texte européen ! Cela reflète le fait que les enjeux économiques, politiques et sociaux de l’adoption de cet instrument sont très importants », explique Enguerrand Marique, maître de conférence en droit à l’UCLouvain et professeur junior à l’Université de Radboud (Pays-Bas).

Et de poursuivre, « on espère qu’il y aura un accord au sein du Conseil européen d’ici la fin de cette année. Ensuite, viendra le trilogue : tant le Conseil européen, qui représente les états membres de l’UE, que le Parlement européen, qui représente les citoyens européens, devront se mettre d’accord sur un texte commun, et en discuter avec la Commission européenne. Cela pourrait aboutir au premier trimestre 2024. »

« La dernière version du texte disponible, celle sur laquelle le Parlement européen a voté au mois de juin 2023, contient quelques dispositions encadrant les IA génératives, avec des obligations de savoir sur quel corpus les IA ont été entraînées. Mais le texte n’est pas encore définitif », analyse Pr Alain Strowel, professeur à la faculté de droit de l’UCLouvain et de l’Université Saint-Louis, spécialiste du droit d’auteur et du droit des médias.

Cela irait en tout cas dans le sens des attentes émises, en août 2023, par dix organismes de presse parmi les plus influents au niveau mondial. Dans une lettre ouverte adressée aux décideurs politiques et aux dirigeants d’entreprises, ils réclament la création d’un cadre juridique approprié.

Plus spécifiquement, ils demandent la divulgation des documents sources sur lesquels sont entraînées les IA génératives, et qui servent donc à ces dernières de matière première pour leur propre production. Actuellement, il règne une quasi-omerta sur ce point. Bien que certaines entreprises, comme Meta avec son IA open source LLaMA, paraissent un peu plus promptes à davantage de transparence.

Respect de la propriété intellectuelle

« Les IA génératives sont souvent entraînées à l’aide de contenus médiatiques […]. Ces modèles peuvent ensuite diffuser ce contenu et ces informations à leurs utilisateurs, souvent sans aucune considération, rémunération ou attribution aux créateurs originaux. De telles pratiques sapent les modèles économiques fondamentaux de l’industrie des médias, qui reposent sur le lectorat et l’audience (comme les abonnements), l’octroi de licences et la publicité », mentionne la lettre ouverte.

« Outre la violation de la législation sur les droits d’auteur, ces pratiques ont pour effet de réduire considérablement la diversité des médias et de compromettre la viabilité financière des entreprises qui investissent dans la couverture médiatique, ce qui réduit encore l’accès du public à des informations fiables et de qualité. »
Suite à quoi, les 10 organismes de presse réclament qu’il soit demandé aux détenteurs de droits de propriété intellectuelle leur accord pour que leur travail soit utilisé pour entraîner les IA. Et que cet usage puisse être rémunéré.

Actuellement, rien ne distingue au premier regard des textes générés par les IA de ceux écrits par des humains. C’est pourquoi les organismes de presse demandent également que tout usage d’un contenu émanant d’une IA soit clairement mentionné.

Image libre de droit

Les textes émanant d’IA, une source parmi d’autres

Pour Muriel Hanot, secrétaire générale du CDJ (Conseil de déontologie journalistique), il s’agit surtout pour le journaliste de mentionner sa source au public si cela est pertinent, comme le mentionne l’article 1 du code de déontologie journalistique. « Face à un contenu généré par une IA, le ou la journaliste doit avoir la même attitude que face à toute autre source. Les règles de déontologie ont été édictées quel que soit le support, elles s’appliquent donc ici aussi. »

Toutefois, une nuance s’impose. « Est-ce pertinent de dire au public que, pour réaliser le démarrage d’un article, on a consulté Wikipédia ? Non, car ensuite le journaliste creuse l’information, l’analyse. C’est la même chose pour l’IA : si elle a été utilisée pour synthétiser des notes, puis que cette dernière a été approfondie par d’autres recherches, enrichie d’autres éléments, il n’y a pas de raison de le signaler. Mais globalement, si le journaliste utilise un algorithme pour écrire un texte, rechercher des infos, produire de l’information, il doit agir en toute transparence. »

Quid de la paternité du texte ? « Dans le cas où un texte d’une IA serait retravaillé par un journaliste, qu’il y apporterait une contribution originale, celui-ci a le droit que son nom soit associé au texte final », explique Pr Alain Strowel.

« Si le texte du journaliste reprend stricto sensu du contenu généré par une IA, il faut la mentionner entre guillemets ou en italique, comme on le ferait avec toute autre source. Il faut aussi, bien sûr, vérifier les informations données par cette source, qu’il n’y ait pas d’atteinte au droit des personnes, que l’on reste indépendant par rapport à cette source », ajoute Muriel Hanot. « Au risque, sinon, de s’exposer à tromper le public en lui faisant croire que c’est lui, le journaliste, qui parle, en reprenant à son compte un propos dont il n’est pas fondamentalement responsable et dont il n’aurait pas vérifié la teneur. »

A côté des IA génératives, basées sur l’auto-apprentissage, il existe des IA à base de règles dont certaines rédactions se servent pour diffuser les résultats des matches de football locaux ou rédiger des chroniques boursières. « Pour ces pratiques journalistiques particulières, il est important de mentionner que l’information est produite par un algorithme. De plus, la rédaction doit être responsable. C’est-à-dire qu’il doit y avoir soit une vérification des données qui permettent à l’algorithme de fonctionner et de produire l’info, soit une vérification avant diffusion », poursuit Muriel Hanot.

Fautes déontologique et civile

La course à la productivité et aux parts d’audience dans certaines rédactions fait craindre que certains journalistes finissent par reprendre intégralement un texte émanant d’une IA pour le publier tel quel, le signant de leur nom sans vérifier ni le contenu ni les sources. Selon la législation actuellement en vigueur en Belgique, « concernant un texte entièrement pondu par une machine, il n’y a pas de droit d’auteur, pas de droit de paternité », explique Pr Alain Strowel. OpenIA ne pourra jamais réclamer de droits par rapport aux contenus générés par ChatGPT. Par ailleurs, un journaliste reprenant stricto sensu et dans son intégralité un texte généré par une IA ne peut, bien entendu, pas y apposer son nom.

En cas d’erreurs dans le texte, qui est responsable ? Le journaliste ? Le concepteur de l’IA ? Dans les conditions générales d’utilisation de ChatGPT, il y a des exclusions de responsabilités. « Il faudrait vérifier si elles sont valables et conformes à notre législation européenne », mentionne en préambule Marc Isgour, avocat au Barreau de Bruxelles, spécialisé en droit de la communication et de l’information ainsi qu’en droit des médias.

« Mais c’est en tout cas de la responsabilité du journaliste. Il y a une faute déontologique. C’est-à-dire qu’il n’a pas fait correctement son métier. Il pourrait être sanctionné par le conseil de déontologie journalistique, qui est susceptible de rendre un avis pointant le manquement déontologique, mais ne lui infligerait pas de condamnation autre », poursuit-il.

« A cette faute déontologique, s’ajoute la faute civile. Une personne qui se sentirait lésée par l’article qui aurait été écrit par l’IA et qui contiendrait un tas d’erreurs pourrait engager une action devant les juridictions civiles et demander des dommages et intérêts ou un droit de réponse », analyse l’avocat.

Bien sûr, des articles journalistiques aux informations non recoupées, écrits trop vite, contenant des erreurs, cela existait avant l’avènement de ChatGPT. Toutefois, le fait d’avoir recours à l’IA aggrave la situation. « Il y a deux niveaux de gravité supplémentaires qui n’existaient pas dans un texte non vérifié non produit par une IA. »

« En mettant sa signature sous un texte qu’il n’a pas écrit, le journaliste se présente comme auteur d’un texte qu’il n’a pas rédigé. C’est un contrefacteur supplémentaire. Par ailleurs, il utilise un texte généré par une machine qui, elle-même, a probablement reproduit des extraits de textes protégeables ou protégés par le droit d’auteur : la machine elle-même a commis un acte de contrefaçon. Et en signant sous un article qu’il n’a pas écrit qui a utilisé des textes antérieurs, le journaliste fait non seulement un acte de contrefaçon au sens du droit de reproduction et de communication, mais également une atteinte au droit moral de l’auteur réel des extraits ou textes écrits et reproduits par ChatGPT», analyse Marc Isgour.

La désinformation, le cancer à combattre

Un mal bien pire encore, qui avait déjà montré son visage lors de la pandémie de Covid-19, n’attend qu’à bondir et à s’étendre sur la toile: la désinformation massive hors journalisme. Il est en effet à craindre que les outils d’IA générative de textes soient utilisés par des quidams à des fins malveillantes de propagation de fausses vérités pour détourner l’attention du public et occulter la réalité. Et ce, à très large échelle, via les réseaux sociaux, par exemple dans le cadre de campagnes électorales.

C’est dans ce paysage que s’inscrit REMEDIS (REgulatory and other solutions to MitigatE online DISinformation), un projet de recherche financé notamment par le FNRS sur la réglementation et d’autres solutions pour atténuer la désinformation en ligne.

Pour ce faire, quatre doctorants et deux chercheurs postdoctorants de l’UCLouvain, de l’Université Saint-Louis et de l’Université de Luxembourg en droit numérique, en sciences sociales, en information et communication, en histoire et en informatique mettent leurs neurones en commun. Ils visent à fournir, d’ici 2026, des cadres réglementaires innovants et des solutions sociotechniques conformes à la loi pour surveiller la désinformation en ligne et ses effets.

Plus spécifiquement, dans le domaine juridique, il s’agira de vérifier l’effet du Digital Service Act (DSA). Cette législation européenne sur les services numériques qui entrera pleinement en vigueur en février 2024 et qui vise à renforcer la responsabilité, par rapport au contenu qu’elles véhiculent, des plateformes proposant un service d’intermédiation. « Nous regarderons si, grâce à ce texte, les utilisateurs européens sont bel et bien davantage tenus éloignés des contenus toxiques. Nous évaluerons s’il y a quelque chose de complémentaire à faire en Belgique pour lutter contre la désinformation. C’est délicat d’intervenir dans ce domaine, car la contrainte de la liberté d’expression est très forte », conclut Pr Alain Strowel, coordinateur du projet REMEDIS.

 

 

Cette large enquête sur le journalisme automatisé par l’intelligence artificielle a bénéficié du soutien du Fonds pour le journalisme en Fédération Wallonie-Bruxelles.

JournaBot 1/6 : Face aux IA génératives, les journalistes sont plus que jamais essentiels

JournaBot 2/6 : Quand les médias rejoignent le portefeuille client d’entreprises informatiques

JournaBot 3/6 : À l’heure de l’IA, les journalistes doivent jouer leur rôle de certificateurs de l’information

JournaBot 4/6 : Un cadre juridique pour freiner d’urgence la folle accélération de la désinformation

JournaBot 5/6 : La nature du travail journalistique en pleine mutation

JournaBot 6/6: Une avalanche d’outils à découvrir, à maîtriser, et (peut-être) à utiliser

Haut depage