Demain, l’IA sera-t-elle vraiment intelligente ?

9 avril 2025
par Laetitia Theunis
Temps de lecture : 4 minutes

L’intelligence artificielle (IA) générative (comme ChatGPT) fonctionne par prédiction, sur base de probabilités d’associations de mots dans des milliards de textes ingurgités. Mais cette IA, pourrait-elle apprendre une langue tel que le fait un enfant ? C’est-à-dire grâce à des interactions avec le monde qui l’entoure ? Des chercheurs de l’UNamur et de la VUB apportent un nouvel éclairage sur cette question.

Interactions et contexte significatif

Pour apprendre une langue maternelle, les interactions que le petit enfant établit avec les personnes de son entourage sont capitales.

«Lorsque l’enfant entend de nouveaux mots, il émet des hypothèses quant à leur sens, compte tenu de l’environnement dans lequel il se situe. Au fur et à mesure des répétitions, ses hypothèses deviennent de plus en plus fiables. C’est ainsi que peu à peu, il apprend une langue, et qu’il acquiert un vocabulaire de plus en plus abstrait », explique Pr Paul Van Eecke, chercheur au sein de l’Artificial Intelligence Laboratory (VUB).

« En jouant et en expérimentant avec le langage, l’enfant essaie d’interpréter les intentions de ses interlocuteurs. Il apprend ainsi progressivement à comprendre, mais aussi à utiliser des constructions linguistiques. Ce processus interactif et contextuel constitue le cœur de l’acquisition du langage humain », ajoute Katrien Beuls, professeure en intelligence artificielle à l’UNamur au sein du Namur Digital Institute.

Des hallucinations au coût climatique

Quant aux grands modèles de langage (LLM), tels que ChatGPT ou les traducteurs de textes, il en est tout autre. Leur apprentissage d’une langue est basé sur le décodage et l’analyse d’une quantité considérable de textes. Sur cette base, ils remarquent quels mots apparaissent souvent à proximité les uns des autres. Et tentent ensuite de générer des textes semblables à ceux produits par des humains.

Ce genre de modèle mathématique de langage n’est ni conscient ni intelligent, n’a aucune mémoire, et ne comprend pas un traître mot des textes qu’il propose. C’est ainsi qu’il fournit parfois des textes aux bêtises monumentales.

« Ces modèles présentent, en effet, un certain nombre de limitations inhérentes. Ils sont ainsi sujets à des hallucinations et des biais. Ils ont souvent des problèmes avec le raisonnement humain. De plus, si un LLM peut accomplir extrêmement vite une requête, nous n’avons aucune garantie quant à la qualité et la véracité du résultat. Et ce n’est pas en les gavant davantage de données que l’on résoudra ces problèmes», poursuit Pr Van Eecke.

Par ailleurs, alors que l’humanité est en crise climatique et énergétique, « ces modèles nécessitent d’énormes quantités de données et donc d’énergie pour être construits et utilisés. » Les géants du numérique et de l’IA, tels que Microsoft, Amazon et Oracle, ont ainsi récemment acquis des réacteurs nucléaires exclusivement dédiés à faire tourner des LLM

Une IA qui pense

Les Prs Beuls et Van Eecke proposent, dans une série d’expériences, un modèle alternatif d’apprentissage du langage, plus fiable et bien moins gourmand en ressources énergétiques.

« Nous modélisons des agents artificiels autonomes dotés de capteurs et qui communiquent les uns avec les autres. Cela permet de simuler des interactions humaines, de faire vivre aux agents virtuels, en quelque sorte, une expérience du monde. Ainsi, ils développent des constructions linguistiques directement liées à leur environnement et à leurs perceptions sensorielles », expliquent-ils.

Ces agents virtuels sont moins sujets aux hallucinations et aux biais que les LLM, car leur compréhension du langage est basée sur une interaction directe avec le monde. De plus, ils sont davantage ancrés dans la signification des mots et l’intention de l’interlocuteur, ce qui leur permet de comprendre le langage et de le contextualiser. « A terme, on pourrait arriver à des modèles d’IA qui parviendraient à penser et à acquérir un type de raisonnement humain. »

« D’ici 5 ans, il pourrait y avoir un glissement des LLM vers des agents artificiels autonomes capables d’apprendre des choses et de prendre des décisions. » Un autre monde est à nos portes…

Haut depage