L’ordinateur de demain mimera-t-il le cerveau humain ?

par Laetitia Theunis Durée de lecture : 9 min

Série (5/6) « Inspiré par la nature »

L’informatique, c’est-à-dire le traitement de l’information, est partout. Du bolet à la baleine en passant par l’humain et le ficus, les êtres vivants sont traversés de flux d’informations traitées en continu. Leurs cellules calculent physiquement, opérant au niveau moléculaire. Le vie se sert en effet de l’agencement tridimensionnel des agents chimiques pour identifier, catégoriser, déduire et décider quoi faire.

En 3,8 milliards d’années d’existence, la nature a eu l’occasion d’effectuer de nombreux tests en matière informatique.  A force d’essais/erreurs, c’est le calcul basé sur la forme qui a finalement été retenu. Il est au cœur des interactions hormone-récepteur, des correspondances antigène-anticorps, du transfert de l’information génétique et, entre autres, de la différenciation cellulaire. Nulle trace d’informatique au silicium dans le vivant.

Et pourtant, c’est sur cette voie-là, contre nature, que l’homme a tout misé. Et c’est symboliquement, au moyen de longues chaînes de 0 et de 1, que nos ordinateurs traitent l’information. S’en départir, abandonner la voie du silicium, semble improbable à court terme. Mais s’inspirer du fonctionnement du vivant pourrait conduire à une réduction de l’excessive consommation énergétique des ordinateurs.

Amours et désamours cérébraux

Il serait erroné de conclure que l’homme a construit ces machines extraordinaires sans patron. Au départ, l’inspiration lui est venue de son cerveau. Dans les années 50, c’est en copiant les neurones que John von Neumann inventait la notion de transistors, lesquels sont à la base des ordinateurs. Des chercheurs ont ensuite commencé à penser les premiers réseaux de neurones, des systèmes informatiques inspirés du cerveau. Puis, dans une histoire qui serait trop longue à raconter ici, l’inspiration matérielle cérébrale est tombée en désuétude avant de revenir à l’avant-plan, pour à nouveau être reléguée au rayon des vieilleries. « Parmi les chercheurs et ingénieurs, des tensions ont toujours existé entre s’inspirer de la matérialité physique du cerveau (donc des neurones, des synapses, de leur connectivité) ou s’inspirer simplement de la production du cerveau. Autrement dit de sa capacité à raisonner, à penser », explique Hugues Bersini, professeur d’informatique à l’ULB.

Traduire la biologie en langage informatique

Et aujourd’hui, quelle est la tendance? « On s’inspire du cerveau mais on ne le copie pas », voilà la démarche menée par les spécialistes des réseaux de neurones informatiques, lesquels peuvent être identifiés comme des fonctions mathématiques.

Au cours de l’apprentissage humain, les neurones changent leur connectivité les uns avec les autres. « Par le passé, des chercheurs ont bien essayé de reproduire ces mécanismes fins sur des machines, sans succès. Par contre, quand ils ont entrepris de juste s’en inspirer et de les traduire en fonctions de base implémentables en informatique, là, ça a commencé à bien fonctionner. Le deep learning, un ensemble de méthodes d’apprentissage qui a le vent en poupe, c’est un peu ça », explique Guillaume Drion. Ingénieur électricien, il a fait sa thèse de doctorat en sciences biomédicales et pharmaceutiques. Créer des ponts entre biologie et informatique, c’est son quotidien. Chargé de cours à l’ULiège, il mène des recherches sur la neuromodulation. Dans ce domaine d’expertise aussi, il convient de traduire la biologie en langage informatique :

 

Mieux comprendre le fonctionnement de nos neurones grâce au deep learning ?

Il est parfois des retournements de situation inattendus. Même si les données neuroscientifiques s’accumulent, on est encore à mille lieues de comprendre le fonctionnement du cerveau humain. « C’est un peu comme quand on essayait de percer le mystère des étoiles sans avoir les équations de Newton. A cette époque lointaine, il fallait noter au quotidien la position de chaque étoile dans un carnet. En neurosciences, on en est là, explique le Dr Drion. Etudier le machine learning peut aider à comprendre les neurones biologiques. En regardant comment l’architecture se construit, par exemple pour résoudre le jeu de go, on observe des choses qu’on n’est peut-être pas capable de comprendre dans le système biologique. Ça ouvre des possibilités de compréhension du monde biologique. » Pour, qui sait, peut-être un jour davantage s’en inspirer?

Un p’tit déj suffit à faire tourner le cerveau

« Ce qui est épatant, c’est la quantité d’opérations que le cerveau de l’homme est capable de faire avec juste un petit-déjeuner dans l’estomac. Quand on compare avec une centrale de calculs pour faire la même tâche, il y a clairement encore du progrès à faire », lance Gilles Louppe, chargé de cours en intelligence artificielle (IA) à l’ULiège.

Une fois un bon petit-déjeuner englouti, voilà le cerveau humain en forme pour effectuer une matinée de calculs, de dessin, de lecture ou de coupe de bois. Il utilise en effet efficacement comme énergie le glucose des aliments ingérés. Sa façon de procéder reste toutefois largement un mystère vu sa structure et les contraintes métaboliques. Quant à l’ordinateur, pour traiter numériquement des données via des composantes électroniques comme les circuits intégrés ou les processeurs, il est autrement plus glouton. Il requiert une quantité d’électricité bien supérieure, énergétiquement parlant, au taux de glucose fourni par un croissant et un pain au chocolat.

Le secteur informatique, toutes disciplines confondues (ordinateurs, internet, centres de stockage de données, etc.) est un gouffre énergétique. Selon le rapport Clicking Clean, publié le 10 janvier 2017 par Greenpeace, il représente environ 7 % de la consommation mondiale d’électricité. Et, du fait notamment de l’augmentation de la consommation personnelle de données et du nombre croissant d’utilisateurs à l’échelle mondiale, qui devrait passer de trois milliards à plus de quatre milliards d’ici 2020, le secteur informatique pourrait peser pour 20% dans la consommation électrique de la planète d’ici quelques années. Face à ce constat, une question se pose : ne faudrait-il pas désormais aller plus loin dans le mimétisme avec le cerveau? N’y aurait-il pas des leçons à tirer de la biologie cérébrale en termes de consommation énergétique ?

La question demeure globalement ouverte. Pour Guillaume Drion, les ordinateurs consommeront certainement moins d’énergie une fois qu’ils parviendront à sélectionner les informations importantes, comme le fait le cerveau humain de façon inconsciente.

Un filtre pour sélectionner les infos essentielles

Qu’entend-il par là ? Lorsque nous observons une scène, alors que nous pensons brasser la totalité de l’environnement qui s’offre à nous, nous n’en voyons en réalité qu’une fraction. Parmi tout ce qui passe par la rétine, le thalamus effectue sciemment un filtrage et ne garde que les informations essentielles. Le reste de l’environnement est reconstruit cérébralement de façon prédictive, en fonction de notre apprentissage et de notre expérience.

Un exemple ? Prêtez-vous au test suivant : dans cette courte vidéo, il s’agit de compter le nombre de passes de ballon effectuées entre les personnes du groupe.


Selon les statistiques de ce test créé par des chercheurs de l’Université de Harvard, en ce moment, pas moins de 50 % d’entre vous se sentent interpellés par le résultat du test. Ce phénomène, bien connu en psychologie, se nomme inattentional blindess ou cécité d’inattention. Autrement dit, on est aveugle à des détails pour se concentrer sur une action.  « En informatique, explique Dr Drion, on ne parvient pas encore à réaliser un tel filtrage qui permettrait de ne traiter que l’information essentielle. » Et par là de consommer bien moins d’énergie par rapport à la situation où l’ordinateur doit analyser le flux total d’informations disponibles à chaque instant.

Passage du « in silico » au « in organico » ?

Le carbone (C), principale brique du vivant, et le silicium (Si), principale brique des ordinateurs, sont tous deux de valence 4, alignés dans le tableau de Mendeleïev. Leurs propriétés chimiques sont donc assez proches. Et si l’on envisageait un ordinateur utilisant des chaînes carbonées au lieu du supraconducteur silicium ?

En 1994, le laboratoire de Leonard Adleman au sein de l’université de Californie du Sud réalisait les premières expériences de calcul utilisant l’ADN. Depuis, à quelques reprises, des groupes de recherche ont évoqué la naissance probable et prochaine d’un ordinateur à ADN, mais jamais on n’a vu le bout de son nez.

« Aucune des tentatives de biologisation de l’informatique n’a pas abouti car la biologie est lente par rapport à l’électronique basée sur des électrons. Et aussi parce que c’est un peu sale. Il y a plus de recherches aujourd’hui en informatique quantique ou optique qu’en informatique biologique. L’optique pourrait supplanter l’électronique car, en remplaçant les électrons par des photons, il y a un gros potentiel d’accélération du traitement des données. Et puis, à plus long terme, l’informatique quantique, qui est la quintessence du parallélisme », explique Hugues Bersini. Parallélisme, le mot est lâché.

Pour accélérer l’ordinateur, on copie le parallélisme du cerveau

En termes de vitesse de traitement de l’information, l’ordinateur grimpe sur la première marche du podium. Dans le cerveau humain, le transfert d’un signal d’un neurone à l’autre requiert une milliseconde. Un ordinateur va un million de fois plus vite : en une nanoseconde, un transistor bascule pour passer d’une position à l’autre, comme un interrupteur. Cette vitesse explique pourquoi nos ordinateurs fonctionnent au gigahertz. Mais, dans un monde atteint de la fièvre de la vélocité, on veut que les opérations informatiques se fassent encore plus vite.

« Même s’ils sont très puissants, on est en train d’arriver à la limite des performances des ordinateurs séquentiels. La loi de Moore est en train de plafonner. On n’arrive donc plus tellement à accélérer le fonctionnement des ordinateurs classiques pour faire tourner les réseaux de neurones, explique le Pr Bersini. Le cerveau fait tout cela de façon rapide, de manière assez efficiente et en consommant peu d’énergie. Or nos ordinateurs sont très très gourmands en matière énergétique. On revient donc à l’architecture du cerveau pour améliorer la performance des réseaux de neurones, sur l’idée de paralléliser. » C’est ainsi qu’on utilise les cartes graphiques vidéo GPU pour faire tourner les réseaux de neurones

Dans les prochaines années, la rupture viendra vraisemblablement de la mise en place de processeurs optiques. En utilisant les propriétés de la lumière, le transfert d’information se ferait à 10exp-15 secondes, soit un million de fois plus vite que l’ordinateur actuel. « Il y a là un potentiel d’accélération extraordinaire. Beaucoup de travaux vont dans ce sens », poursuit le Pr Bersini.

Le prochain défi : traduire les facultés d’adaptation du vivant en langage informatique

Laissons le mot de la fin et des perspectives à Guillaume Drion. Selon lui, l’un des grands challenges des 15 prochaines années sera de reproduire en langage informatique les facultés d’adaptation qu’on observe chez l’humain et chez tous les organismes vivants. Et ce, que ce soit en contrôle ou en IA, ou en combinant les deux :

 

 

 

Cette enquête a bénéficié du soutien du Fonds pour le journalisme en Fédération Wallonie-Bruxelles

Print Friendly, PDF & Email