Laetitia Theunis

En bruxellois, Smart City se dit Big Brother

Durée de lecture : 4 min

Les « smart cities », ou villes intelligentes, font l’objet de nombreuses attentions depuis quelques années. La Région de Bruxelles-Capitale n’échappe pas à cette tendance. Dans les smart cities, on mise notamment sur un usage pointu des outils numériques pour rendre la ville plus efficace, plus durable, plus agréable à vivre: en un mot, mieux gérée.

À Bruxelles, cependant, ce concept se traduit surtout par une plus grande… surveillance de ses usagers. Telle est la conclusion à laquelle arrive Nicolas Bocquet, doctorant à l’Institut de sciences politiques Louvain-Europe de l’UCLouvain, venu partager le résultat de ses recherches à l’Irib, Institut de recherches interdisciplinaires sur Bruxelles.

Transformer la Région en capitale du numérique

« Il n’existe pas vraiment de définition unifiée de la notion de smart city », indique Nicolas Bocquet. « C’est un peu un concept fourre-tout que chaque ville peut s’approprier pour y insérer ce qu’elle souhaite. »

La Commission européenne les définit comme des villes utilisant les technologies et le numérique au profit de réseaux de transports urbains plus efficients, d’un meilleur approvisionnement en eau, d’installations de traitement des déchets améliorées, d’une administration plus réactive ou encore d’espaces publics plus sûrs et adaptés aux besoins de tous.

Dans la capitale belge, le concept s’est principalement développé dans le cadre de l’accord de gouvernement 2014-2019, suite à certaines frustrations. « Bien que certaines politiques régionales étaient déjà “intelligentes” en 2014, Bruxelles se retrouvait plutôt mal classée dans les comparaisons internationales », analyse le chercheur. « Le gouvernement de l’époque misa dès lors sur le concept de smart city pour transformer la Région en capitale du numérique. L’idée étant de développer une plate-forme favorisant les partenariats et échanges de données entre les différents acteurs urbains. »

Centralisation de la vidéosurveillance

À l’autopsie, le chercheur constate que cette politique s’est surtout soldée par la centralisation de la vidéosurveillance du territoire. Les caméras de tout poil ont fleuri aux quatre coins de la Région. En 2016, on en dénombrait quelque 8.000. « En 2025, dans les seules infrastructures de la Stib , il devrait y en avoir pas moins de 15.000», indique-t-il. En parallèle, la qualité des images et des logiciels qui les analysent ne cesse de s’améliorer, constate le chercheur. Et au final, ces images bénéficient surtout aux six zones de police qui quadrillent le territoire des 19 communes.

Pourquoi ce succès sécuritaire et non celui d’autres applications estampillées « smart city » ? « Outre quelques événements malheureux survenus à Bruxelles, dont l’agression mortelle d’un superviseur de la Stib, le soutien du Ministre-Président a été décisif au développement de la vidéosurveillance centralisée », indique Nicolas Bocquet. Il souligne aussi que la thématique de la sécurité est consensuelle pour l’ensemble des partis de la coalition. Un enjeu sécuritaire encore plus présent suite aux attentats qu’a connu la ville.

Un échec en matière de mobilité

« En ce qui concerne l’amélioration de la mobilité urbaine, par contre, la politique de smart city bruxelloise reste un échec », constate Nicolas Bocquet. En cause: l’organisation institutionnelle de la Région bruxelloise qui induit une série de freins potentiels à des politiques publiques transversales. Mais aussi à cause de raisons politiques. « Les partis n’ont pas tous la même vision de la mobilité. C’est un exemple de cloisonnement caricatural », estime-t-il.

« En juillet 2019, le Gouvernement nouvellement formé, toujours dirigé par le même Ministre-Président socialiste, publie son accord de majorité 2019-2024. La centralisation de la vidéosurveillance régionale – que l’Exécutif souhaite étendre, désormais à des institutions privées telles que les centres commerciaux – est présentée comme réponse modèle à la fragmentation des compétences. »

« Les autorités développent leur “ambition smart city” sur deux pages et annoncent qu’elles souhaitent “se doter d’une politique numérique transversale, transcendant les délimitations de compétences”. La mobilité, en lien avec l’intelligence artificielle et l’open data, est à nouveau évoquée ainsi que toute une série d’enjeux liés au numérique. Néanmoins, c’est d’abord le volet économique de la smart city qui est mis avant ; signe qu’après le recours aux TIC à des fins sécuritaires, l’investissement dans ces outils pour stimuler la croissance économique représente probablement un autre terrain d’entente pour les autorités politiques bruxelloises », conclut-il.

Recherche scientifique et créativité artistique font bon ménage

Durée de lecture : 4 min

Mêler art et sciences pour faire progresser les connaissances et pour mieux les partager avec le public: une bonne idée? Un saut aux Halles Saint-Géry, à Bruxelles, aide à répondre à cette question. L’exposition « Perspectives » met en lumière, et de manière imagée, le travail de scientifiques de l’ULB revisité par les étudiants de La Cambre. De quoi mieux cerner, par exemple, des projets de recherche portant sur la mécanique des ions dans la lutte contre la mucoviscidose, la valorisation des sédiments issus du dragage du canal Bruxelles-Charleroi ou encore l’utilisation des signaux WiFi afin d’analyser les mouvements d’une foule.

« Cette exposition retrace trois éditions du projet académique et interdisciplinaire «Recherche en Perspective » pour lesquelles des étudiants de Master en Communication Visuelle et Graphique (ENSAV La Cambre) et des chercheurs de l’ULB issus de disciplines variées ont collaboré », indique Ohme, l’association bruxelloise à l’origine de cette expo.

Susciter une émotion

« Ensemble, ils ont co-créé et produit des supports de communication illustrant de manière attractive et visuelle des contenus scientifiques parfois difficiles à appréhender et à communiquer . »

Bref, à travers ces exercices, il s’agit d’explorer d’autres manières de rapprocher la science de leurs utilisateurs finaux, les citoyens, et ce via le design graphique.

Que représente l’art pour un scientifique? « Il suscite une émotion », indique Gilles Bruylants, responsable du Laboratoire « Engineering of Molecular NanoSystems », de l’École polytechnique de Bruxelles (ULB). Quant aux sciences, « elles permettent de comprendre le monde », estime Nicolas Rome, coordinateur pédagogique de l’atelier de Communication visuelle et graphique de l’ENSAV La Cambre.

Résidence d’artistes au cœur de la science

Les deux mondes, sont-ils pour autant cloisonnés? Ou connaissent-ils de subtiles et fructueuses relations?  « On parle de plus en plus des Stem (Sciences, techniques, ingénierie et mathématiques) quand on évoque les filières liées aux sciences et aux techniques », indique Marie Carmen Bex, Directrice adjointe d’Innoviris, l’agence bruxelloise de financement de la recherche.

« Ces filières sont aujourd’hui au cœur de stratégies publiques. Nous avons besoin de ces métiers. Y adjoindre la dimension artistique a du sens. Il n’y a pas si longtemps, l’art et les sciences étaient intimement liées. Aujourd’hui, on observe un regain d’intérêt pour cette convergence. La multiplication des résidences d’artistes au sein d’institutions scientifiques, comme au CERN, par exemple, en atteste »

« Les binômes art et sciences qui ont fait dialoguer les chercheurs de l’ULB et les étudiants de la Cambre constituent un exemple de synergies réussies entre ces deux univers », analyse Arthur Dubois, étudiant de l’ENSAV La Cambre.

« Cette expérience a permis la transmission de concepts d’une recherche à un non scientifique, qui ensuite s’en saisit pour les mettre en images, ce qui donne à les visualiser. Ces confrontations permettent de mieux comprendre ce que perçoit l’interlocuteur, et par-delà, le public. Cela nous amène à nous remettre en cause, dans notre communication. A retourner à des notions qui parfois nous semblent évidentes », dit Nicolas Rome. « Toute la difficulté réside dans l’équilibre entre le respect d’une certaine rigueur scientifique et la qualité, l’attractivité du rendu artistique ».

Poster © Christian Du Brulle

Le poster à l’honneur

Avec ces rencontres provoquées, il ressort clairement que la science peut aussi transmettre des émotions. La preuve en images, ou plus exactement en posters: ceux présentés dans cette exposition par les étudiants de La Cambre.

Le poster est un des supports privilégiés de la communication scientifique. Il présente un résumé académique d’un travail de recherche. « Il constitue, avec les présentations orales, le support de communication le plus utilisé par les scientifiques pour faire part de l’avancée de leurs travaux de recherche lors de colloques ou de conférences », rappelle Ohme.

« Il s’agit d’un support de présentation séduisant, car il reste accessible et dure plus longtemps qu’une intervention orale. Ainsi, il permet de toucher un public plus large et moins spécialiste, et peut susciter des rencontres et des discussions informelles. »

Pour l’opération « Recherche en Perspective », les graphistes et les scientifiques ont naturellement été orientés vers ce support, la co-création du poster constituant la base de la collaboration.

Pour certains binômes et dans un second temps, ce fut également l’occasion d’explorer la vidéo, l’édition ou encore le jeu vidéo. Et ce, toujours dans l’objectif de rendre accessible la connaissance issue de domaines variés. Autant de créations à découvrir d’ici la fin de l’année, aux Halles Saint-Géry.

Un robot jardinier pour optimiser la culture d’une plante potentiellement anti-covid

Durée de lecture : 3 min

Un robot hautement innovant vient d’être installé au sein des cultures d’armoise de Gembloux Agro-Bio Tech ULiège. Dans le cadre du projet OptiBiomasse, il va apporter la puissance de l’intelligence artificielle aux recherches menées depuis 2020 sur l’armoise, plante aux propriétés notamment antipaludiques et antivirales. Et aux propriétés potentielles anti-Covid-19.

Depuis 2017, le projet OptiBiomasse  vise à produire à grande échelle, et à coût minimal, de la biomasse végétale orientée vers des molécules d’intérêt pharmaceutique et parapharmaceutique. Et à optimiser l’environnement dans lequel croissent les plantes. Y ont été successivement étudiés : le chanvre, l’euphorbe, le pélargonium et l’échinacée afin d’en extraire les principes actifs les plus efficients.

A l’intérieur d’un container : culture d’armoise, plante aux propriétés potentiellement anti-COVID ©Michel Houet / ULiège

Déambulation robotique

Désormais, focus est mis sur l’armoise. Ce projet agronomique à valeur médicale ajoutée vient de se voir adjoindre de l’intelligence artificielle. En effet, dans cette agriculture d’un nouveau genre, les humains sont remplacés par un robot progressant parmi les cultures, doté de deux caméras hyperspectrales couplées à un logiciel.

« C’est en cela que cette installation est innovante en comparaison avec les cultures assistées par de la robotique existant à ce jour : avant, les plantes défilaient devant un robot ; à présent, le trio robot-caméra-logiciel évolue parmi les cultures », explique le Professeur Haïssam Jijakli, coordinateur du projet OptiBiomasse, au C-RAU (Centre de Recherches en Agriculture Urbaine), à Gembloux Agro-Bio Tech ULiège.

« L’avantage de ce type de système polyvalent et mobile est qu’il ne perturbe pas les plantes. De plus, ce robot peut non seulement se frayer un passage dans des espaces exigus, mais il est aussi capable de collecter des informations encore indécelables à l’œil nu. Par exemple, repérer rapidement si la plante manque d’eau ou de nutriments particuliers ou encore estimer si celle-ci a atteint le degré de maturité requis avant récolte. »

Plate-forme robotisée de phénotypage

L’étude n’est ni de plein champ ni de pleine terre, mais en container et hors-sol.

« Entre autres avantages, le container constitue un environnement où l’on peut contrôler divers paramètres tels que la lumière, l’humidité relative, l’irrigation… et donc placer d’entrée de jeu les cultures dans un contexte de rendement optimal. »

« De plus, le container offre l’opportunité de faire croître en masse, et sur un espace restreint, ces plantes à haute valeur ajoutée. Enfin, la culture hors-sol (hydroponie) qui y est pratiquée requiert peu d’eau. Une fois toutes ces conditions optimales réunies et appliquées, le robot opère alors. Ce système est appelé « plate-forme robotisée de phénotypage ».

Schéma du robot qui va assister les recherches sur l’armoise © Gembloux Agro-Bio Tech ULiège.

Des scientifiques aux producteurs

Actuellement de niveau premium et aux mains de la Recherche & Développement, cette technologie vise à identifier des protocoles de cultures efficients. Ceux-ci seront ensuite adressés aux fermiers, notamment urbains et péri-urbains.

Ces producteurs pourraient donc valoriser des espaces non utilisés en ville ou en périphérie, ou encore envisager de cultiver là où cela aurait été a priori improbable (sols pollués, friches industrielles…).

« Une façon de se réapproprier l’espace au plus juste, mais aussi de repenser son métier. Ceci avec la certitude de produire des plantes selon des protocoles éprouvés, et avec pour point de mire l’augmentation durable de la productivité », conclut Pr Jijakli.

Un dépistage du cancer du sein adapté à chaque femme, bientôt une réalité ?

Durée de lecture : 4 min

Connu en Belgique sous le nom de « Mammotest », ce programme de dépistage du cancer du sein invite toutes les femmes de 50 à 69 ans à réaliser une radiographie des seins (mammographie) gratuite, tous les deux ans. Le but : détecter le plus tôt possible l’apparition d’un cancer afin de le traiter rapidement et, ainsi, de sauver des vies.

Néanmoins, même si ce système a prouvé son efficacité, il ne tient pas en compte des facteurs de risque individuels. Or, il pourrait être utile de prescrire un dépistage plus fréquent aux femmes à haut risque de développer un cancer du sein. Inversement, diminuer la fréquence de dépistage profiterait à celles présentant un faible risque.

Dès lors, ne serait-il pas préférable de personnaliser la méthode au regard du risque individuel ? C’est ce que va tenter de déterminer le projet européen My PeBS (My Personal Breast Cancer Screening), réunissant 27 partenaires internationaux, dont 10 centres hospitaliers belges soutenus par la Fondation contre le Cancer.

Antécédents, densité des seins et génétique

L’objectif du projet sera d’évaluer, via une étude clinique sur 85.000 femmes de 40 à 70 ans, les bénéfices d’un point de vue médical, mais aussi psychologique et financier, d’un dépistage personnalisé, par rapport au programme de dépistage actuel.

Pour le déterminer, l’étude comparera, durant quatre ans, le suivi de deux groupes de participantes. Le premier proposera le dépistage standard actuel (une mammographie tous les deux ans). Quand le second préconisera une stratégie personnalisée, basée sur le risque des candidates de développer un cancer du sein dans les 5 ans.

Celui-ci sera mesuré par l’analyse des antécédents personnels (cas de cancer ou de biopsies suspectes) et familiaux (cas de cancer au 1er et 2e degrés), la densité mammaire (des seins denses sont composés de davantage de tissu glandulaire et de tissu fibreux que de tissu graisseux), et le paysage génétique.

« Grâce aux techniques de séquençage ADN, un simple test salivaire permet de réaliser un screening génétique, et ainsi d’identifier la présence, ou non, d’un ou plusieurs polymorphismes génétiques », explique le Dr Jean-Benoît Burrion, chef de la clinique de prévention et dépistage à l’Institut Jules Bordet et coordinateur du projet My PeBS pour la Belgique.

« Pour rappel, notre ADN se compose de plusieurs milliards de nucléotides, et 4 à 5 millions d’entre eux varient d’une personne à l’autre. C’est ce qu’on appelle des polymorphismes génétiques. Dans le cas du cancer du sein, plusieurs centaines de polymorphismes sont associés à un petit risque supplémentaire de développer la maladie. Plus on en présente, plus le risque augmente. »

Une fréquence de dépistage revue

En combinant ces différents facteurs de risque (antécédents, densité du sein, risques polygéniques), les scientifiques établiront « un score de risque global » pour chaque participante.

« Si ce risque est inférieur à 1 %, un dépistage tous les quatre ans sera recommandé à la candidate. Si le risque se situe entre 1 et 1.66%, le risque est considéré comme moyen et un dépistage tous les deux ans continuera à être proposé. Pour un risque compris entre 1.66% et 6%, on parle de risque élevé. Dans ce cas, la participante sera invitée à réaliser un examen annuel. Enfin, pour un risque très élevé (supérieur à 6%), une mammographie et une IRM seront préconisées, en alternance, tous les 6 mois », informe le Dr Burrion.

À noter qu’en cas de sein dense, une échographie tous les deux ans sera demandée. Et ce, quel que soit le pourcentage de risque.

Le dépistage personnalisé, la solution aux problèmes de la méthode actuelle ?

« Nous supposons qu’en proposant un dépistage plus fréquent aux femmes présentant des risques élevés, on diminuera le taux de cancer d’intervalle. C’est-à-dire de cancers diagnostiqués entre deux dépistages. Cela devrait permettre de faire chuter le nombre de cancers à un stade avancé. »

« En parallèle, en diminuant la fréquence de dépistage pour les femmes à faible risque, on limitera les problèmes de faux positifs (des anomalies détectées qui se révèlent finalement bénignes) et de surdiagnostics (le dépistage d’un cancer qui n’aurait causé ni symptôme ni décès) », note le responsable belge du projet.

À côté de l’intérêt médical, l’étude évaluera aussi si les coûts d’une telle stratégie de dépistage sont justifiés, au regard des résultats cliniques obtenus. Par ailleurs, les chercheurs mesureront l’impact psychologique de ce système. « L’annonce d’un niveau de risque peut, en effet, générer de l’inquiétude chez certaines femmes. Il faut donc aussi faire attention à cet aspect-là ».

 

N.B.: Vous désirez participer à l’étude clinique? Voici la liste de centres participants : Institut Jules Bordet (Bruxelles), CHU St Pierre (Bruxelles), CHU Brugmann (Laeken), Hôpitaux Iris Sud – Site Ixelles (Ixelles), UZ Brussel (Jette), CHIREC DELTA (Auderghem), Cliniques Universitaires St Luc (Woluwe Saint Lambert), UZ Leuven (Leuven), Centre de Sénologie Drs Crevecoeur (Liège), Centre Hospitalier de Wallonie Picarde (Tournai)

Le dihydrogène, une solution énergétique ?

Durée de lecture : 7 min

Alors que le prix de l’énergie fossile et de l’électricité flambe, le dihydrogène, particulièrement celui produit au départ d’eau, cristallise les espoirs d’une alternative à la fois verte et au prix compétitif. Si la recherche sur la pile à combustible est globalement délaissée par les universités au profit des industriels, les académiques se concentrent sur l’électrolyse de l’eau, sur la production « verte » de dihydrogène (H2). Lors d’une conférence organisée par Liège Créative, Aurore Richel, professeure ordinaire en chimie des ressources renouvelables à Gembloux Agro-Bio Tech-ULiège, a fait le tour de la question.

Des teneurs terrestres marginales

S’il est largement répandu dans l’Univers, notamment au sein d’étoiles, sous forme de gaz ou de plasma, le dihydrogène est, par contre, rare sur Terre. Tout au plus en trouve-t-on de l’ordre de 0,5 à 0,55 ppm dans l’atmosphère. Et dans quelques rares gisements sous-terrain, tels des sources californiennes très basiques et les feux éternels sur le mont Chimère en Turquie, lesquels brûlent du H2 depuis plus de … 2500 ans.

Au vu de sa rareté terrestre, et dans une optique industrielle, l’hydrogène se doit d’être synthétisé en laboratoire.

Des énergies renouvelables pour un hydrogène vert

Entre 1975 et 2018, la production d’H2 n’a cessé d’augmenter, passant de 30 millions de tonnes à 115 millions de tonnes, dont pas moins de 98 % sont issues de ressources fossiles – principalement le gaz naturel et le charbon -. C’est ce qu’on dénomme l’hydrogène gris.

98 % de l’H2 est produit au départ de charbon et de gaz naturel ; contre 2 % au départ d’eau © Laetitia Theunis – capture d’écran de la présentation d’Aurore Richel – Cliquez pour agrandir

 

Production de H2 et d’O2 par une électrolyse de l’eau © Laetitia Theunis – capture d’écran de la présentation d’Aurore Richel – Cliquez pour agrandir

Actuellement, seuls 2 % de l’offre d’H2 actuelle sont synthétisés au départ d’eau. C’est l’électrolyse de l’eau. Mais pour dissocier H2O en O2 et en H2, il faut fournir de l’électricité entre les deux électrodes métalliques, et celle-ci provient encore majoritairement de combustibles fossiles. « Si l’H2 n’est pas carboné en lui-même, sa production repose sur des ressources fossiles carbonées, émettant des gaz à effet de serre. On estime schématiquement que la production d’une tonne de H2 au départ d’eau génère de 9 à 11 tonnes de CO2. »

Sauf si l’électrolyse est réalisée au départ d’énergies renouvelables. C’est le H2 vert. Des chercheurs de l’ULiège planchent sur cet aspect. « Actuellement, le H2 vert est plus cher que le H2 gris. Cela est lié aux investissements industriels, mais aussi aux difficultés technologiques rencontrées lors de l’électrolyse de l’eau. Nous travaillons, notamment, à améliorer les métaux, la nature des électrodes. » Un autre challenge pour la recherche sera de diminuer la quantité d’énergie, actuellement gigantesque, requise pour réaliser l’électrolyse de l’eau de façon industrielle.

À gauche : amélioration des surfaces métalliques en créant de nouveaux alliages, des porosités contrôlées à la surface des électrodes, qui permettraient de générer davantage d’H2 par unité de temps, et donc d’avoir des rendements satisfaisants pour une exploitation industrielle.
À droite : Stratégie de photocatalyse. C’est-à-dire séparation de H2O avec deux électrodes métalliques, et ajout d’un catalyseur opérationnel avec l’apport d’énergie lumineuse. De quoi améliorer la décomposition de l’eau en O2 et en H2 © Laetitia Theunis – capture d’écran de la présentation d’Aurore Richel – Cliquez pour agrandir

La production d’engrais, gourmande en H2

Le dihydrogène fascinait les scientifiques de la fin du 19e siècle et du début du 20 e siècle. C’est à cette période que la majorité des connaissances le concernant ont été acquises. C’est aussi à ce moment qu’il fut imaginé de l’employer pour fabriquer d’autres composés chimiques.

Ainsi, Sabatier, un chimiste français, a décrit des réactions de combinaison de H2 avec du CO2 pour générer du méthane. Dans la foulée, deux autres réactions d’intérêt voient le jour : la production de méthanol et celle d’ammoniac, toujours au départ de H2.

« Tant le méthanol que l’ammoniac sont aujourd’hui considérés comme des molécules plates-formes, des molécules de base pour l’industrie chimique. L’ammoniac sert notamment à synthétiser des engrais azotés », explique Pre Richel. Sur les 115 millions de tonnes d’H2 produits en 2018, 27,4 % ont été consommés pour fabriquer de l’ammoniac et 10,4 % pour le méthanol.

Sur les 115 millions de tonnes d’H2 produits en 2018, 27,4 % ont été consommés pour fabriquer de l’ammoniac, 10,4 % pour le méthanol, 33,2 % pour le raffinage du pétrole et 28,9 % pour la métallurgie, le médical , l’aérospatial, les transports et l’agroalimentaire © Laetitia Theunis – capture d’écran de la présentation d’Aurore Richel – Cliquez pour agrandir

Autre glouton, le raffinage du pétrole

« Le H2 est également utilisé en pétrochimie, plus précisément dans le processus de fabrication des carburants. Notamment, en enlevant le souffre par des procédés de désulfurisation, ce qui facilite leur transport aérien, maritime, et routier. En 2018, 36 millions de tonnes d’H2 (soit 33,2%) ont été destinées au raffinage du pétrole.»

Et les 28,9 % restants ? Ils sont partagés entre différents secteurs. Par exemple, la métallurgie, le médical et l’agroalimentaire. Notamment via l’hydrogénation catalytique, méthode qui transforme une huile végétale liquide en margarine.

Mais aussi dans la propulsion aérospatiale. « Alors que les premières missions Apollo étaient affrétées avec l’H2 liquide, cette solution technologique est encore envisagée par la Nasa pour les prochaines missions spatiales. L’agence spatiale américaine détient encore de nombreux brevets dans ce domaine. Et d’autres sociétés aérospatiales, comme Blueorigin, continuent d’en déposer », précise Aurore Richel.

La pile à combustible, le Graal des transports électriques?

Enfin, le dihydrogène pourrait se faire une place de choix dans le domaine du transport. Et ce, via la pile à combustible ou pile à H2.

Lorsque H2 se combine avec O2, cela donne H2O. « Cette réaction est très exothermique, c’est-à-dire qu’elle dégage beaucoup de chaleur : trois fois plus que le méthane ou les carburants de roulage traditionnel (essence ou diesel). Elle dégage également beaucoup d’électricité qui pourrait être mise à profit pour les moyens transports électriques. »

Grâce à son absence d’émissions carbonées, et l’eau étant son seul élément chimique résiduel, cette réaction de pile à combustible est considérée comme propre. Et intéresse en ce sens moult industriels automobiles et autres, qui déploient massivement de la R&D dans ce domaine. C’est d’ailleurs la principale raison qui explique le désintérêt de la recherche universitaire autour de la pile à combustible.

«  A peine 1000 publications scientifiques sont émises par an sur la pile à combustible. C’est bien moins que sur les carburants de roulage liquide issus des ressources renouvelables (5000 en 2020). La pile à combustible n’est plus tellement à la mode en recherche fondamentale au sein des universités car elle représente beaucoup d’enjeux : les industriels s’en sont emparé.»

Le stockage, la pierre d’achoppement

L’hydrogène présente un problème majeur : son stockage.

Aux pression et température terrestres, le dihydrogène est un gaz parfait, doté de très bas points de fusion et d’ébullition. « Dès lors, pour le faire passer à l’état solide ou liquide, et ce, afin de faciliter son stockage, il faut appliquer une température basse et/ou une pression relativement élevée. Et cela nécessite d’utiliser beaucoup d’énergie. »

Le dihydrogène est la molécule la plus légère et la plus menue du monde de la chimie. « Avec sa petite taille, elle passe parfois entre les parois des matériaux qui servent à le stocker. Il faut donc également concevoir des matériaux imperméables à l’H2 », conclut Pre Richel.

Le satellite belge Proba 1 a vingt ans et est toujours vaillant

Durée de lecture : 6 min

C’est un succès spatial et technologique belge époustouflant. Le premier satellite belge « Proba », placé en orbite par une fusée indienne en octobre 2001, est toujours fidèle au poste et est bien actif. Un record du genre pour ce type d’engin.

« Ce satellite, qui ne devait fonctionner à l’origine que pendant deux ans, affiche une longévité exceptionnelle », s’exclame René Wittmann. À la station de poursuite des satellites de l’ESA (Agence spatiale européenne) située à Redu, dans la province de Luxembourg, cet ingénieur, qui surveille Proba 1 de près, ne tarit pas d’éloge pour ce démonstrateur technologique. « Bien sûr, les technologies dont il devait démontrer l’efficacité dans l’espace ont vieilli. En vingt ans, les progrès ont été énormes. Malgré tout, Proba reste un outil intéressant et opérationnel en orbite. Il a même permis de tester de nouvelles procédures que nous n’imaginions pas lors de son lancement. »

Démontrer une certaine autonomie en orbite 

Ce premier satellite « PROBA » («  PRoject for On Board Autonomy ») est doté de caméras, dont le spectromètre imageur compact à haute résolution « CHRIS », capable d’enregistrer des détails de l’ordre de 17 à 34 mètres au sol à travers une sélection de longueurs d’onde.

Les objectifs de Proba-1 portaient notamment sur la démonstration en orbite de nouvelles technologies pour engins spatiaux promis à une grande autonomie. Dans ce cadre, un usage intensif a été fait des fonctions automatisées à bord du vaisseau spatial. « C’est bien simple, avec des satellites de ce genre, nous pouvons passer nos week-ends à la maison, et non devant les écrans de contrôle », précise René Wittmann.

Proba passe deux fois par jour au-dessus de Redu. C’est l’occasion pour le personnel de la station de l’ESA de lui envoyer des commandes spécifiques, de lui expédier son plan de travail pour les prochaines heures ou les prochains jours, d’actualiser son programme d’observations, mais aussi de ramener au sol les images récemment prises par le satellite. Ensuite, Proba a carte blanche. Il gère lui-même sa (ses) journée(s) de travail. « En semaine, nous ne passons en moyenne que deux heures par jour à préparer le programme du satellite et à communiquer avec lui », précise l’ingénieur.

Proba 1 © ESA

Des petites maladies vite soignées

Bien sûr, en vingt ans, le petit satellite (de la taille d’une machine à laver) a connu quelques petites maladies en orbite. « Mais rien de grave », indique Christian Baijot, responsable des opérations à Redu. « Je pense, par exemple, à des soucis de logiciels qu’on peut résoudre facilement, instrument par instrument, en relançant les programmes informatiques concernés, voire en ‘rebootant’ tout le satellite ».

« En 2012, nous avons, par contre, dû faire face au problème de la dérive du satellite », reprend René Wittmann. « Il se décalait de plus en plus pour, finalement, ne plus pouvoir prendre des images de la Terre que dans la pénombre, ce qui n’est pas optimal. Avec ce genre d’engin, on souhaite prendre des images du sol selon un bon angle d’éclairage. Au cours d’une demi-orbite, Proba voit la partie de la Terre bien éclairée. L’autre demi-orbite lui fait survoler la partie plongée dans la nuit. Être tout le temps dans la pénombre n’est pas vraiment intéressant. »

«  Trois ans plus tard, le problème de dérive s’est finalement réglé de lui-même. Les zones survolées par le satellite étaient à nouveau bien éclairées. Par contre, nous avons dû innover. Au lieu de prendre des images côté jour lors de la phase « descendante » de l’orbite, il a fallu reprogrammer le satellite pour qu’il travaille durant sa phase « ascendante », et modifier ainsi sa logique de contrôle. Bref, cela lui a donné encore plus d’autonomie, et nous n’avons ainsi pas perdu la mission.»

Photo prise par Proba 1 © ESA

Une mort annoncée… dans 18 ans

Proba est désormais capable de prendre des séries de cinq images d’une même cible à deux minutes d’intervalle. Pas de quoi permettre d’obtenir des vues stéréoscopiques détaillées d’un point sur Terre. Mais cette innovation a, par contre, offert de nouvelles opportunités aux scientifiques, par exemple tenter de différencier les types d’arbres sur certaines parcelles.

Si techniquement Proba 1 est toujours opérationnel, ses jours sont cependant comptés. Enfin, ses jours, c’est une façon de parler. Parlons plutôt de ses années opérationnelles. « Si aucun souci technique ne se manifeste, il pourrait encore rester actif pendant maximum… 18 ans », précise Christian Baijot. «  Après cela, l’altitude de son orbite aura tellement diminué qu’il se frottera aux hautes couches de l’atmosphère et s’y consumera. »

À moins qu’il ne permette encore une autre innovation? « C’est possible », reprend l’ingénieur. « Par exemple dans le cadre du projet ADRIOS (Active Debris Removal/ In-Orbit Servicing) de l’ESA. Un projet qui vise à mettre au point un système de récupération de débris spatiaux, afin de nettoyer la proche banlieue terrestre. Ce système de récupération et de désorbitation de vieux satellites devenus inutiles pourrait être testé avec Proba 1. Mais rien n’est encore décidé.»

Pas de quoi émouvoir les équipes de Redu cependant. « Nous sommes complémentaires aux équipes de l’Esoc, (le grand centre de contrôle des satellites européens de l’ESA, qui est situé à Darmstadt, en Allemagne). « Nos activités sont centrées sur les petits satellites et sur les démonstrateurs technologiques. Outre Proba 1, nous sommes aussi en charge, notamment de Proba 2 (un engin du même genre dédié à l’observation du Soleil) et à Proba Vegetation (qui surveille le couvert végétal de la planète). Et nous attendons Proba 3 avec intérêt », précise encore Christian Baijot.

Avec Proba 3, un duo de satellites doit démontrer qu’il est possible de voler en formation dans l’espace avec un très haut niveau de précision. Cette mission devrait prendre le chemin de l’orbite l’an prochain. Et c’est, bien sûr, avec Redu qu’il sera en étroite communication.

 

N.B. : Redu siège de la cybersécurité spatiale européenne : Cette semaine, le directeur général de l’ESA était en visite à Redu. En compagnie du Secrétaire d’Etat belge à la Politique scientifique fédérale, le PS Thomas Dermine, il a annoncé la volonté de l’ESA de voir Redu se positionner comme plaque tournante de la cybersécurité spatiale en Europe. Un projet pour lequel l’ESA investirait une trentaine de millions d’euros entre 2022 et 2025.

Covid-19 : la face cachée de la science

Durée de lecture : 4 min
"Covid-19, science et politique", par Michel Claessens. Editions Les 3 Colonnes. VP 22 euros, VN 12,99 euros
“Covid-19, science et politique”, par Michel Claessens. Editions Les 3 Colonnes. VP 22 euros, VN 12,99 euros

Avec la covid-19, «le monde de la recherche s’est retrouvé au cœur, et acteur, d’une crise sanitaire qui a porté sur le devant de la scène ce binôme improbable composé du scientifique et du politique», constate Michel Claessens. «Le public assiste presque en direct autant aux avancées qu’aux lenteurs de la recherche. Il constate à la fois les progrès de nos connaissances et l’immensité de nos lacunes dans le domaine de l’épidémiologie et des maladies infectieuses. Il s’est introduit dans les coulisses de la recherche, découvrant les arcanes et les rouages de la science.»

Comme scientifique et journaliste, l’enseignant à l’ULB décrit cette face cachée dans «Covid-19, science et politique» aux éditions Les 3 Colonnes. En recommandant de se concentrer sur l’essentiel. De développer la connaissance. De lutter contre l’ignorance. De penser solidarité et coopération.

Des milliers de morts en trop

L’expert en communication scientifique et relations science-société s’appuie sur le site de l’Université étatsunienne Johns Hopkins pour retracer les grandes étapes de la maladie causée par le SARS-CoV-2, le coronavirus responsable de la covid-19. Il dégage les grands axes de la crise en examinant les stratégies adoptées par les pays en première ligne. Plus particulièrement la Chine, la France, le Royaume-Uni et les États-Unis.

«Globalement, ces stratégies ne montrent pas de grandes différences. Pratiquement tous les pays ont été confrontés à une pénurie de masques, un manque de tests de dépistage et une sous-capacité de lits de réanimation. Avec cependant des problèmes moins aigus en Corée du Sud, au Japon, à Taiwan, en Allemagne et en Chine, notamment.»

«Mais il ressort clairement des retards incompréhensibles et une défaillance globale du processus de décision qui a créé de véritables bombes à retardement. Les politiques sont en première ligne même s’il faut reconnaître que, dans nos régimes démocratiques, nous avons tous notre part de responsabilité. Au-delà de ce panorama peu glorieux, il n’en reste pas moins que la solidarité citoyenne a été remarquable.»

Outre-Atlantique? «Aux États-Unis, l’histoire de la covid-19 restera l’un des grands paradoxes de la pandémie. Nul autre pays n’était sans doute mieux armé pour affronter celle-ci du point de vue scientifique, technique et industriel. Et pourtant, en 3 mois, plus d’Américains sont morts de la covid-19 que de la guerre du Vietnam, qui a duré 20 ans.»

Une science politisée

Les gouvernements ont souvent consulté des scientifiques. «Comme l’illustrent les événements, il est permis de douter de la qualité et de l’utilité de certains échanges entre les sphères scientifiques et politiques», pense Michel Claessens. «L’expertise scientifique était pourtant de haut niveau.»

Les gouvernants ont choisi les experts. «Sur des bases scientifiques. Mais aussi selon d’autres critères comme l’affinité politique. La visibilité médiatique ou des relations personnelles.»

«Et l’alchimie ne prend pas toujours. On peut même affirmer que, une fois dans l’arène politique, la science n’est plus scientifique. Les médias raffolent des comités scientifiques. Leurs membres sont des figures respectées. Ils donnent en général des avis… avisés. Et certains sont en phase, ou en emphase, médiatique.»

«Mais les journalistes « mainstream » (passionnés de sujets à la mode) perçoivent moins clairement la complexité du positionnement de ces experts qui, conscients de leur forte exposition publique, doivent à la fois être partie prenante des choix politiques. Tout en se tenant à bonne distance du pouvoir. Ce faisant, ils brouillent également l’image de la science et des scientifiques.»

Ne pas se placer au-dessus de la science

La pandémie a mis au grand jour le fonctionnement de la recherche. Pointant les désaccords scientifiques. Les querelles d’experts.

«La pandémie a montré que la science sous pression ne donne pas le meilleur d’elle-même», souligne le docteur en sciences. «Elle a également mis en évidence notre relation difficile avec les chiffres. Lorsque le fameux R0 (indicateur de la situation épidémiologique) dépassait l’unité, les autorités se contentaient le plus souvent d’appeler à la vigilance ou de suivre de près la situation. Alors qu’une évolution exponentielle, donc explosive, était en cours.»

«Nos dirigeants, à de rares exceptions près, ne semblent pas considérer comme indispensable de comprendre le fondement scientifique des décisions qu’ils ont à prendre. Si nos gouvernants ont parfois tendance à se placer au-dessus des lois, ils ne peuvent se placer au-dessus de la science.»

«Nous n’avons pas encore trouvé le bon mécanisme pour tirer le meilleur de la science et orienter l’action politique», conclut Michel Claessens. «Tant que notre société n’aura pas une approche plus saine et plus honnête du monde, de telles crises seront inévitables.»

Une base de données informe les chercheurs des alternatives à l’expérimentation animale

Durée de lecture : 4 min

D’après les derniers chiffres de 2019, un peu moins de 500.000 animaux d’expérience (majoritairement des souris) ont été utilisés à des fins scientifiques ou éducatives en Belgique. Parmi eux, 45% ont été employés dans la recherche fondamentale, principalement en oncologie et dans les études sur le système immunitaire. En Europe, les tests sur les animaux ne sont permis qu’à partir du moment où il n’existe pas d’alternative pour étudier le sujet de recherche. Et, dans ce cas, le nombre d’animaux utilisé doit être limité au minimum nécessaire pour obtenir des résultats scientifiquement fiables.

Afin de mieux informer les chercheurs des méthodologies permettant d’éviter ou de réduire l’expérimentation animale, une base de données a été lancée il y a plus de deux ans dans le cadre du projet RE-Place, coordonné par Sciensano et la Vrije Universiteit Brussel (VUB).

In vitro, in silico

Dans la branche de la toxicologie réglementaire (visant à élaborer des règlements pour réduire et contrôler l’exposition humaine, animale et environnementale aux produits chimiques dangereux), ces «New Approach Methodologies» (NAMs) sont employées dans certains cas avec succès depuis plusieurs années. Des progrès importants ont notamment été fait dans les études de toxicité locale, comme les irritations oculaires ou dermiques. Celles-ci se réalisent essentiellement aujourd’hui par des tests in vitro, c’est-à-dire sur des tissus, des organes ou des cellules isolés.

Néanmoins, dans les études de toxicité chronique, en lien avec la reproduction, ou encore dans la recherche biomédicale, il reste encore difficile de se passer de l’utilisation d’animaux comme organismes modèles.

« Il y a toutefois eu beaucoup d’avancées ces dernières années dans le développement de nouvelles technologies dans les sciences de la vie qui aident à limiter, et parfois d’éviter dans certaines situations, les tests sur les animaux », informe Birgit Mertens, scientifique chez Sciensano et co-coordinatrice du projet RE-Place avec la Pre Vera Rogiers de la VUB.

Parmi elles, citons, les méthodes in silico qui permettent de prédire les propriétés et le comportement de certaines molécules et/ou certains composants par simulations informatiques.

« L’objectif du projet RE-Place, soutenu par les régions bruxelloise et flamande, est de mieux faire connaître ces techniques innovantes auprès des chercheurs belges, en leur fournissant des informations fiables et à jour. »

Un outil en libre accès et simple d’utilisation

Pour ce faire, les porteurs du projet ont créé un outil en ligne où les scientifiques peuvent encoder dans une base de données les NAMs qu’ils appliquent dans leur recherche. «L’inspiration vient de la base de données européenne existante, tout en essayant de rendre son utilisation la plus simple possible. Avec notre outil, cela prend au chercheur 10-15 minutes maximum pour soumettre ses méthodes», précise Mieke Van Mulders, scientifique chez Sciensano et à la VUB, responsable de la base de données et de la partie flamande du projet RE-Place.

Cette base de données, en libre accès, facilite le partage de connaissances entre chercheurs. « Grâce à elle, les scientifiques peuvent s’informer des NAMs appliquées dans tel ou tel domaine de recherche, et ainsi trouver des méthodes n’impliquant pas d’animaux pour compléter ou optimiser leur stratégie de recherche », indique encore Birgit Mertens. De fait, les recherches où l’expérimentation animale est remplacée à 100% par des NAMs sont encore rarement possibles.

« L’autre intérêt de la plate-forme est d’initier de nouvelles collaborations, en communiquant les noms des experts et des centres de recherche où ces techniques peuvent être apprises et, à terme, les améliorer.»

Plus d’une centaine de méthodes alternatives recensées en Belgique

À ce jour, 169 méthodes ont été recensées sur le site. « Ce qui est un chiffre plutôt important quand on sait que la base de données européenne, qui réunit donc les méthodes de tous les états membres de l’UE, en compte 350 », note Mieke Van Mulders.

« En outre, la majorité de ces 169 techniques sont appliquées dans les recherches biomédicales. Ce qui est une bonne nouvelle puisque la plupart des animaux sont utilisés dans ce domaine d’étude. Nous pensons néanmoins qu’il ne s’agit que d’une fraction de l’expertise disponible en Belgique. C’est pourquoi nous nous efforcerons de promouvoir le projet RE-Place dans les années à venir », ajoute la chercheuse.

Même si cela prendra du temps, l’évolution et la multiplication de ces nouvelles technologies aideront, à terme, à réduire le nombre d’animaux testés en laboratoire.

 

Le cyclotron de l’UCLouvain, 50 ans et toujours une référence européenne

Durée de lecture : 3 min

En 1970, démarrait un premier chantier d’envergure qui allait mener à l’inauguration, 2 ans après, du cyclotron de l’UCLouvain. Premier bâtiment universitaire achevé sur ce site et, à l’époque, le plus important cyclotron d’Europe. Pour commémorer une expérience inédite (l’accélération d’ions radioactifs de courte durée de vie) tenue en ses murs en décembre 1990, le bâtiment vient de recevoir le titre de « site historique » décerné par la société européenne de physique.

La protonthérapie en star

De la recherche fondamentale à la recherche appliquée, au fil des ans, le cyclotron de l’UCLouvain a permis de nombreuses découvertes scientifiques et avancées technologiques, notamment dans le traitement des cancers. Il a aussi permis l’émergence et le développement de sociétés, telle IBA, spin-off de l’UCLouvain créée en 1986 et désormais leader mondial en technologie de protonthérapie, qui emploie plus de 1400 personnes et est présente aux quatre coins du globe.

La protonthérapie est une forme de radiothérapie dans la lutte contre le cancer. Son mode de dosage unique permet de cibler la tumeur de façon plus efficace, tout en réduisant les effets secondaires. Les protons déposent l’essentiel de leur énergie dans une zone contrôlée, en limitant l’impact sur les tissus sains environnant la tumeur.

Plusieurs milliards de trous par cm2

Et aujourd’hui ? 50 ans après son inauguration et alors que de nombreuses améliorations y ont été apportées, le cyclotron de l’UCLouvain est l’un des trois centres de référence reconnus en Europe et soutenus par l’agence spatiale européenne (ESA).

En 2021, les deux principales applications du cyclotron sont les tests de résistance aux radiations de matériaux et de composants électroniques et la production de membranes nano- et micro-poreuses.

La technologie utilisée au cyclotron permet par exemple de percer jusqu’à plusieurs milliards de trous sur un seul centimètre carré de membrane. Ces membranes ainsi traitées pourront être utilisées dans l’univers biomédical (filtration du sang…) ou les biotechnologies.

Main dans la main avec les entreprises

Outre la recherche, le cyclotron de l’UCLouvain accueille de nombreuses entreprises : « le centre de ressources du cyclotron (CRC), l’une des plus importantes plateformes de l’UCLouvain, est autofinancé à 95% », détaille Nancy Postiau, responsable du CRC.

Pour y parvenir, des « heures-faisceaux » sont réservées et vendues à des institutions, des universités ou des centres de recherche, mais aussi à des entreprises internationales – comme Airbus ou Thalès – ou locales, comme IT4IP, spin-off de l’UCLouvain installée à quelques encablures du cyclotron et qui développe des membranes poreuses.

Et demain ? « L’expertise du cyclotron de l’UCLouvain est reconnue internationalement », souligne Nancy Postiau, « mais il faut qu’on poursuive nos efforts pour rester concurrentiels et compétitifs.» Notamment dans les domaines du spatial (via des composants commerciaux de satellites miniaturisés) et de la radiobiologie.

La fatigue musculaire mieux cernée

Durée de lecture : 5 min

Comment mesurer efficacement la fatigue musculaire ? Répondre à cette question n’est pas aussi simple qu’il y parait. Si le phénomène de la fatigue musculaire est bien documenté, la mesurer avec précision reste un défi. Un nouveau dispositif vient de voir le jour en Wallonie. Myocène, une start-up liégeoise, promet, en effet, des mesures précises, rapides et reproductibles de cet état de fatigue.

« Surveiller la fréquence cardiaque est une des mesures utilisées actuellement  dans le monde sportif pour apprécier l’état de fatigue d’un athlète », indique le Dr Pierre Rigaux, spécialisé en médecine du sport.

« Mais cela reste approximatif. Divers paramètres peuvent influencer ce type de mesures. Avec notre nouveau dispositif, nous mesurons le comportement réel des fibres musculaires. Dans notre cas, c’est le quadriceps qui est placé sous surveillance. Un muscle important dans toute une série de sports. Une séance de deux minutes comprenant 48 mesures suffit à déterminer avec une grande précision l’état de fatigue de ce muscle. »

De meilleures performances athlétiques

La fatigue musculaire se traduit par une diminution de la force et de la vitesse des contractions musculaires. Or, quand il est fatigué, l’athlète devient moins performant et risque de développer des blessures.

« La fatigue musculaire est de deux types », reprend Pierre Rigaux. « Elle peut être de courte durée, par exemple, quand on monte des escaliers ; ou de longue durée, quand elle perdure plus de quelques heures. Dans le premier cas, on récupère ses pleines fonctions au terme d’une courte période de repos. Par contre, en ce qui concerne la fatigue de longue durée, également appelée fatigue calcique, la récupération est plus longue. Plusieurs jours peuvent être nécessaires avant de retrouver une forme optimale. »

« Déterminer cet état de fatigue est donc primordial pour les athlètes, afin de mieux gérer leurs entraînements et leurs périodes de repos avant une compétition. »

Les réactions du quadriceps sous surveillance

Pierre Rigaux, ancien patron de la société Cefaly, avait déjà mis au point un dispositif externe et non-médicamenteux pour réduire l’intensité des migraines. Ce système stimule le nerf trijumeau via des petites impulsions électriques. Pour Myocene, il a repris l’idée d’utiliser des électrodes afin de mesurer l’état de fatigue musculaire.

« La littérature scientifique à ce sujet est abondante », dit-il. « Au début des années 2000, certains fabricants de capteurs envisageaient déjà d’exploiter cette technologie pour déterminer la fatigue musculaire. Mais cela n’a pas été mené à terme. »

Le nouveau dispositif se présente donc sous la forme d’une série d’électrodes et d’un système de mesure de force du quadriceps. Le quadriceps est cet imposant muscle de la jambe qui intervient dans quantité de sports: football, handball, hockey, cyclisme, ski…

« Pour commander une contraction, les nerfs moteurs envoient des influx nerveux aux muscles qui se contractent en réponse à cette commande nerveuse. Plus les influx nerveux sont nombreux, plus leur fréquence augmente, plus la force de contraction est élevée », précise le médecin.

« Ainsi, pour un nombre déterminé d’influx nerveux envoyés à un muscle, une contraction d’une certaine force est produite. Mais lorsque le muscle est fatigué, il n’est plus capable de produire la même force que lorsqu’il est reposé. C’est sur l’enregistrement de cette perte de force à influx nerveux constant que se base le dispositif pour calculer l’indice de fatigue musculaire. »

Indice de fatigue fiable

La séance de mesures est réalisée sans mouvement volontaire de la part du sportif. Les électrodes disposées sur la jambe agissent comme un neuro-stimulateur qui permet de produire des contractions musculaires parfaitement quantifiées avec un nombre d’influx nerveux exactement déterminé et constant.

À chaque stimulation, le muscle se contracte, ce qui entraîne un mouvement du tibia. La force ainsi générée est mesurée par une jauge de contrainte. Le tout est analysé par un algorithme spécialement développé pour cet exercice. Il livre au final, après une séance de deux minutes et de 48 neurostimulations musculaires, un indice de fatigue fiable.

La fréquence de l’influx nerveux appliqué au muscle (échelle horizontale) entraîne sa contraction. La force de contraction est, quant à elle, mesurée sur l’échelle verticale. Avec la fatigue, la force tend à diminuer. En comparant les courbes, obtenues au repos et après un exercice, le système affiche un index de fatigue musculaire © Myocene

Un système adopté par le médaillé olympique John-John Dohmen

« Jusqu’à présent, on utilisait deux types de mesure de la fatigue », explique le joueur belge de hockey John-John Dohmen, médaillé d’or aux Jeux olympiques de Tokyo et premier utilisateur de ce nouveau dispositif.

« Soit via un formulaire où chaque sportif indique son propre ressenti de la fatigue sur une échelle d’un à dix, basé par exemple sur les douleurs aux jambes. Mais cela ne fonctionne pas, ce n’est pas assez objectif. Soit via des données GPS. Celles-ci enregistrent l’exercice fourni: déplacements, nombre de sprints, d’accélérations, de décélérations et leur évolution dans le temps. Cela génère beaucoup de données, mais n’indique par vraiment notre état de fatigue. Ces performances dépendant aussi de facteurs externes, comme les derniers entraînements, leur intensité, les adversaires sur le terrain, etc. », précise le sportif, par ailleurs ostéopathe et entraîneur d’une équipe féminine de hockey.

Depuis qu’il a adopté le dispositif liégeois, l’athlète est conquis. « Cela permet de personnaliser l’entraînement des sportifs en fonction de leur état individuel de fatigue. On évite dès lors le surentraînement et ses effets néfastes sur leurs performances. »

Les innovateurs à la barre de Myocene espèrent voir leur système adopté par les clubs sportifs, les centres de préparation, les fédérations, les universités… En Europe, puis ensuite aux Etats-Unis.

Rendez-vous aux prochains J.O. pour observer un bond dans les performances sportives ? À moins que le système ne trouve aussi une utilité en médecine? « D’autres applications potentielles portent, en effet, sur la santé cardiaque, les traitements oncologiques qui entraînent une certaine sarcopénie (perte de masse musculaire) ou encore pour lutter contre le vieillissement », indique le Dr Rigaux. Qui conclut: « pour l’heure, c’est surtout aux sportifs de haut niveau que notre dispositif s’adresse. »

1 2 3 56