Et de onze! Le onzième institut de l’Université de Namur (UNamur) vient de voir officiellement le jour. Son nom? NaDI (Namur Digital Institute). Cette structure, qui intègre les compétences de cinq centres de recherche et de 150 chercheurs de diverses spécialités (informaticiens théoriciens, spécialistes du génie logiciel, experts en innovation, sociologues, juristes, gestionnaires ou encore philosophes) concentre cette année une partie de ses travaux sur l’intelligence artificielle. Et ce n’est pas le travail qui manque!
Du frigo intelligent au drone tueur
« Nous utilisons l’intelligence artificielle pour nous guider, pour filtrer nos spams, pour nous aider à traduire des messages. On la retrouve dans des domaines aussi variés que la santé, la robotique, l’éducation, l’accompagnement de personnes âgées, nos frigos qui deviennent « intelligents », les voitures autonomes ».
Ce florilège proposé par le Pr Yves Poullet, ancien recteur de l’Université de Namur et codirecteur du NaDI, se double d’un autre constat. « Avec l’accès à de multiples et gigantesques bases de données, l’AI est capable de reconnaître et de traduire une voix, mais aussi identifier nos goûts musicaux. Dans le même temps, d’autres applications utilisant l’AI sont beaucoup plus contestables. Je pense par exemple à l’exercice de la Justice, à l’usage de drones intelligents qui deviennent armes de guerre, à l’usage de la reconnaissance faciale pour le recrutement de candidats. Cela pose immédiatement des problèmes éthiques importants », souligne-t-il.
« Tous ces exemples montrent clairement que le phénomène « intelligence artificielle » ne peut être abordé que d’un seul point de vue disciplinaire. D’où l’importance de la démarche interdisciplinaire initiée au NaDI pour répondre aux attentes légitimes d’une région ou d’une entreprise qui souhaite investir dans la matière ».
Risque de dérive eugénique
Le risque sinon? « C’est celui d’une dérive eugénique », estime de son côté le Pr Pierre Giorgini, Président-recteur de l’Université Catholique de Lille (France), et auteur de « La tentation d’Eugénie, l’humanité face à son destin ».
Algorithmes, calculateurs, bases de données… « La science poursuit son œuvre de dévoilement et le discours scientifique, son œuvre d’universalisme. Mais si nous n’y prêtons pas garde, son imbrication avec le monde de la technique et la mondialisation pourrait engouffrer l’homme dans le statut de stock disponible, au même titre que les ressources matérielles ou techniques. Il deviendrait alors le simple objet d’un processus sans sujet. Cela précipiterait son extinction telle que nous la connaissons », indique-t-il.
Machine hyperhumaine ou homme en réseau
« On voit que deux tendances s’opposent dans l’analyse de l’impact des TIC sur la vulnérabilité des foules à une propagande organisée volontairement par une institution quelconque », écrit-il.
« Machine en réseau devenue sujet hyperhumain ou cyberhumain ou homme en réseau devenu objet, voilà une question associée à celle de la « tentation d’Eugénie » dans la sociosphère. Au cœur de ce débat se trouve celui de la possibilité ou non pour la machine de dépasser globalement les capacités du cerveau humain. On le voit clairement dans le débat sur le deep learning ou apprentissage profond ».
Deep learning biomimétique
« L’apprentissage profond est un ensemble de méthodes d’apprentissage automatique basées sur la modélisation à haut niveau d’abstraction, c’est-à-dire très à distance de la problématique concrète à résoudre ».
« C’est une forme de capacité apprenante universelle quelle que soit la nature du problème. Elles ont fait l’objet de lourds investissements par le GAFA, notamment, et ont produit des avancées significatives dans tout ce qui concerne la reconnaissance de formes (signal, image, son, face, etc.) ainsi que dans l’apprentissage rapide de règles. On parle d’apprentissage non supervisé et biomimétique, en ce sens qu’il tente de reproduire les mécanismes d’apprentissage du cerveau face à une complexité nouvelle ».
« Il est non supervisé, en ce sens qu’il est indépendant du type d’apprentissage concerné. Il cherche comme pour le cerveau humain des modèles d’apprentissage adaptés à toute situation complexe demandant l’élaboration de réponses (action, décision, etc.) dont l’expérience crée des réponses qui évoluent ».
Apprentissage non supervisé
“Ces réponses s’affinent, augmentent leurs performances par l’historicité, la réussite, l’échec de tentatives inédites. Dans ce cas, il n’y a aucun a priori sur la nature de la sortie du processus (production).
Dans l’apprentissage non supervisé, il y a en amont un ensemble de données collectées. Ensuite le programme traite ces données comme des variables aléatoires en cherchant à regrouper les signaux analogues. Les données considérées comme les plus similaires sont associées au sein d’un groupe homogène, et au contraire les données considérées comme différentes se retrouvent dans d’autres groupes distincts.
L’objectif est de permettre une extraction de connaissance organisée à partir de ces données quelle qu’elles soient. En fait il s’agit d’un système théoriquement capable de créer des classifications et de les manipuler sans a priori sur leurs caractéristiques logiques.
C’est à partir de là que naît l’idée qu’à un terme à définir, l’intelligence artificielle ne dépasse les performances de l’intelligence humaine”.
Abus de confiance
« Au nom de l’éthique, faudra-t-il décider de ne pas savoir ou de retarder volontairement l’échéance d’un progrès du savoir scientifique au nom des risques incontrôlables en l’état des connaissances qu’elles font courir à l’humanité ? D’autres transhumanistes, comme Raymond Kurzweil, considèrent avec enthousiasme que c’est le début d’une ère nouvelle offrant prospérité, bonheur et victoire contre la souffrance.
De nombreux spécialistes des TIC n’hésitent pas à parler d’abus de confiance, pour ne pas dire d’escroquerie, car l’explosion annoncée risque de faire long feu.
L’une des raisons principales qui font que les choses vont certainement ne pas se passer comme prévu est la présence inévitable d’erreurs de logiciels : les bugs. Il est impossible d’éviter les erreurs, mais on sait, dans certains cas, compenser leurs effets.
Par exemple, les circuits électroniques des puces de nos smartphones, tablettes, etc. sont sensibles aux rayonnements cosmiques, car les particules alpha sont assez énergétiques pour faire basculer un transistor ; ce qui fait qu’un 1 va se transformer en 0, ou réciproquement.
Les codes correcteurs d’erreurs compensent ce type d’aléas. Mais, avec le logiciel, le problème de validation/correction change d’ordre de grandeur à cause des combinatoires induites qui sont immenses, si on ne les contrôle pas soigneusement ».
Regard universel et intelligence… humaine
« Juste pour donner un exemple de cette immensité, prenons le cas d’un logiciel qui utilise 1 mégaoctet de données de mémoire de travail pour stocker ses états internes. Le nombre de configurations d’états possibles est 256 exposant 1.048.576. En faisant 1 test à la seconde, sachant que l’âge de l’univers est de 13,7 milliards d’années, soit 4x10exp17 secondes, le temps de test dépasse largement celui de l’univers.
Pour éviter le mur de la combinatoire, il faut être astucieux et créatif, bref, être un bon programmeur, et non une machine avec sa force brute qui, ici, ne sert à rien. C’est déjà ce que disait Turing dans son dernier article « Solvable and Unsolvable » (1954). »
A Namur, le Pr Poullet est confiant. « L’Université, précisément par le regard universel qu’elle peut porter et par son intelligence… humaine doit apporter son regard constructif face à ce défi. Ce n’est que par le croisement de ces divers regards que nous pourrons répondre aux inquiétudes de la société face aux défis que ces nouvelles technologies posent. Notamment en matière de réorganisation des entreprises qui intégreront l’intelligence artificielle dans leurs organisations », conclut-il.