« En cette période particulière, il est très important d’interroger notre esprit critique. Notre cerveau peut nous berner. C’est en discutant avec d’autres, en confrontant nos points de vue et nos perceptions, que l’on peut espérer toucher du doigt la complexité du monde et de notre société. » C’est par ces mots que Cécile Parthoens, codirectrice du Centre d’Action Laïque de la Province de Liège, ouvre l’exposition « Illusions. Qui a tort ? Qui a raison ? », qui se tient à la Cité Miroir (Liège) jusqu’au 30 août 2025. Outre surprendre avec des illusions d’optique, tactiles et auditives, elle invite à une exploration interpellante et ludique de notre cerveau. Elle fait suite à l’exposition « Illusions, vous n’allez pas y croire » qui s’était déroulée en 2021, en pleine pandémie de Covid.
La caution scientifique est apportée par Albert Moukheiber, docteur en neurosciences cognitives et psychologue clinicien. Il intervient dans de nombreuses capsules explicatives tout au long du parcours, interrogeant notre esprit critique. Nous l’avons rencontré en marge de l’exposition. Entretien.
Daily Science (D.S.) : Les IA génératives, comme ChatGPT, sont victimes d’hallucinations. Or, selon certains scientifiques, plus on délègue nos réflexions à l’IA, moins on questionne ses réponses. Qu’en pensez-vous ?
Albert Moukheiber (A.M.) : Dans l’histoire de notre espèce, on a toujours fait confiance à nos instruments. Nous ne sommes pas habitués à ce que ces instruments nous « mentent ». Par exemple, si un thermomètre indique que ma température corporelle est de 37 °C, je ne me dis pas que c’est peut-être 42 °C. Quand je conduis ma voiture et que 80 km/h s’affichent au compteur, je ne me dis pas que je roule peut-être à 120 km/h et que je vais me prendre un PV. On fait confiance ! Et cette confiance, on est en train de l’étendre à l’IA, une technologie qui n’en est pas encore digne, car pas encore assez mûre.
Nous ne contestons pas les réponses de l’IA parce que nous ne sommes pas habitués à remettre en question un instrument. Prenez une calculatrice, faites 2423 x 4663 et appuyez sur égal. Jamais vous ne vous douterez de la véracité de la réponse donnée. Il est ancré en nous que l’instrument ne se trompe pas.

D.S. : Quand on discute avec une IA générative, on pourrait facilement croire que c’est un humain qui nous répond …
A.M. : La confusion humain-ChatGPT vient du fait que chacun d’eux traite l’information, mais d’une façon fondamentalement différente. Les IA génératives sont des machines probabilistes non incarnées. Elles n’ont jamais évolué dans le monde réel. ChatGPT n’a jamais pris le train, n’est jamais allé dans un restaurant, n’a jamais senti l’odeur d’urine dans le métro, etc. C’est juste un modèle basé sur le langage.
Les humains, au contraire, sont dotés d’un cerveau incarné dans un corps, lui-même incarné dans un environnement. Si vous prenez un humain, que vous le mettez dans une pièce et que vous lui apprenez tout (qu’est-ce qu’une voiture, une fraise, une banane, etc.) mais sans lui donner l’opportunité d’en faire l’expérience subjective, de prendre le volant, de goûter une fraise et une banane, sa vision du monde sera différente du même humain qui en a fait l’expérience.
Nous sommes dans une illusion, dans un processus généralisé d’anthropomorphisation de ChatGPT.

D.S. : Cet usage de l’intelligence artificielle, pourrait-il affecter, voire affaiblir, notre esprit critique ?
A.M. : Affaiblir, c’est un grand mot. L’affecter serait davantage correct. Tout va dépendre de notre façon de réagir, d’appréhender cette technologie. Si nous adoptons une approche critique de l’IA — en reconnaissant qu’elle n’est pas toujours digne de confiance —, nous mettrons en place les mécanismes que nous utilisons d’habitude pour ne pas se faire confiance entre humains : le doute, la vérification des sources, le questionnement collectif. Une telle attitude permettra une meilleure utilisation de cette technologie. Un autre cas de figure plausible est que l’IA progresse au point de ne plus être sujette aux hallucinations ni aux biais.

D.S. : Comment l’intelligence artificielle impacte-t-elle nos processus cognitifs ?
A.M. : Pour le moment, on n’en sait rien. ChatGPT est apparu en novembre 2022, cela fait à peine 2 ans et demi. Actuellement, la littérature scientifique ne comporte que des articles préliminaires.
A titre de comparaison, prenons la découverte de l’électricité. C’est l’une des plus grandes révolutions de l’humanité. Au début, c’était une boîte noire pour la plupart des gens. Beaucoup ne comprenaient pas comment un fil pouvait amener de la lumière. Ça a été la folie, on a fait n’importe quoi : des essais avec des voltages à 100.000 volts, on a électrocuté des éléphants, etc. Il a fallu du temps avant que le courant alternatif à 110 ou 220 volts soit branché partout. Pour l’IA, même si la temporalité s’est accélérée en la mettant dans les mains de tout le monde quasi instantanément, il faut aussi laisser du temps au temps : des chercheurs et des chercheuses qui travaillent sur cette technologie, des politiciens et des politiciennes qui légifèrent, des études d’impact sur l’économie, sur l’école, sur l’apprentissage, sur les adultes, sur l’esprit critique, etc. Il faut prendre conscience que tout ce processus sera long… et accepter de vivre dans une certaine incertitude.
