«Bienvenue dans un domaine en constante évolution qui révolutionne notre manière de penser la créativité, la communication et la technologie», souhaite Véronique Cabiaux aux lectrices et aux lecteurs du livre «Face aux défis de l’intelligence artificielle générative» paru dans la collection «L’Académie en poche» . «La classe Technologie et Société de l’Académie royale des Sciences, des Lettres et des Beaux-arts a décidé de contribuer à la réflexion sur ces enjeux», précise sa directrice.
Membres de l’Académie, les coauteurs éclairent différentes facettes des intelligences artificielles (IA) génératives. Dont l’apprentissage profond, le Deep Learning. L’absence d’information fiable. La nécessité d’avoir l’esprit critique. L’impact sur l’économie et l’emploi. La protection des droits fondamentaux.
Véronique Cabiaux est convaincue que c’est en abordant toutes ces questions avec lucidité que nous construirons des outils et des compétences qui permettront une relation humain-machine équilibrée.
L’esprit critique s’émousse
Professeure émérite en histoire de l’art et archéologie de l’Université libre de Bruxelles (ULB), Catheline Périer-D’Ieteren relève des côtés pervers des IA. «Le public est d’une certaine façon trompé par le terme “intelligence” qui est emprunté à l’anglais pour désigner la gestion des données et le traitement de l’information. Ce qui n’a rien à voir avec le sens français du mot qui inclut l’esprit critique, la capacité à créer des concepts et à raisonner. Autant d’aptitudes qui rassurent l’humain.»
«L’enseignement doit s’intéresser en premier lieu à développer l’esprit critique, car à la suite de trop de sollicitations et de discours fallacieux et répétitifs, cette faculté s’émousse dramatiquement.»
En histoire de l’art? «Les étudiants qui étaient déjà confrontés depuis des années à des peintures reproduites comme motifs publicitaires assistent, dès 2019, au portrait de Rembrandt “à la manière de” créé par IA à l’aide du Deep Learning avec assistance humaine. À l’avenir, comment l’étudiant va-t-il distinguer des créations de l’IA, de celles exécutées de manière traditionnelle?»
«Il est temps de s’interroger sur la manière de transmettre le savoir en employant les outils récents. De choisir des manières pertinentes alliant passé et présent. Et débouchant sur des objectifs futurs innovants.»
ChatGPT hallucine, crée sa vérité
Le professeur d’informatique à l’ULB Hugues Bersini s’inquiète de l’apparition des modèles de langages, tels ChatGPT, dans son domaine de recherche, l’IA.
«ChatGPT est victime, du fait de sa nature intrinsèquement statistique, des stéréotypes sociétaux les plus éculés. À tout moment, il peut se mettre à halluciner et à créer sa propre vérité. L’autre problème très sérieux est l’extraordinaire dépense énergétique de ces logiciels connus pour être des gouffres de consommation électrique. Le numérique est responsable aujourd’hui de plus de 5% des émanations mondiales de CO2. Et des logiciels comme ChatGPT ne vont faire qu’accroître cette pollution de manière exponentielle.»
«L’extraordinaire mise à la disposition par les GAFAM (Google, Apple, Facebook, Amazon et Microsoft) des outils logiciels et de la puissance de calcul pour les exécuter se fait malheureusement au désavantage de la réflexion de nos étudiants.»
Au détriment des travailleurs
Pour l’économiste Bruno Colmant, «il est important de noter que la façon dont les gains de productivité de l’IA sont redistribués est en grande partie une question de choix de politique économique et sociale. Les entreprises, les gouvernements et les syndicats ont un rôle à jouer pour s’assurer que les gains de productivité de l’IA profitent à tous, y compris aux travailleurs.»
«Sans intervention, il est probable que l’IA continuera à absorber une partie des gains de productivité au détriment des travailleurs», pense le conférencier au Collège Belgique, enseignant à l’ULB, l’UCLouvain, l’UCLouvain Saint-Louis Bruxelles, la Vlerick Business School, l’Institut catholique des hautes études commerciales.
Atteinte aux droits et libertés
Benoît Frydman, directeur du Centre Perelman de philosophie du droit de l’ULB, et David Restrepo Amariles, directeur du Smart Law Hut au Hi! Paris pour l’IA, se concentrent sur la régularisation juridique et technique de l’IA.
Les chercheurs élaborent l’hypothèse «d’un glissement rapide des règles et institutions juridiques classiques vers des dispositifs techniques au niveau européen et global. »
«Le but principal est de réduire les risques, notamment d’atteinte aux droits et libertés, et les dommages, susceptibles d’être causés aux personnes et à la société par les usages d’IA. Mais aussi de fixer les règles de responsabilité afin de déterminer qui devra réparer ces dommages.»