Laetitia Theunis

Douze quasars d’Einstein découverts

Durée de lecture : 4 min

Grâce à des techniques d’intelligence artificielle (IA), une équipe internationale de chercheurs, parmi lesquels des astronomes de l’ULiège, a découvert une douzaine de nouveaux quasars. La lumière de ces derniers est si fortement déviée par les galaxies d’avant-plan qu’ils sont visibles sous la forme de quatre images distinctes, ressemblant à des trèfles cosmiques à quatre feuilles. Ces joyaux célestes constituent des outils uniques pour mieux connaître la matière noire et le taux d’expansion de l’Univers.

Plisser l’espace-temps

Les résultats ont été obtenus en combinant des outils d’intelligence artificielle avec des données provenant de plusieurs télescopes terrestres et spatiaux. Notamment la mission Gaia de l’Agence spatiale européenne (ESA), le Wide-field Infrared Survey Explorer (WISE) de la NASA, l’observatoire W. M. Keck à Maunakea, à Hawaï, l’observatoire Palomar de Caltech, le New Technology Telescope de l’Observatoire européen austral au Chili et le télescope Gemini Sud au Chili.

L’idée que la gravité puisse amener des objets massifs comme les galaxies à plier le tissu de l’espace-temps, et donc à agir comme une lentille et à dévier la lumière provenant d’objets distants, avait déjà été prédite par Einstein en 1912. Mais la première image double d’un quasar à lentille n’a été découverte qu’en 1979, et la première image quadruple en 1985. Les trèfles cosmiques à quatre feuilles sont rares, et depuis 1985, seule une soixantaine a été découverte.

Les quasars à images multiples sont des outils uniques pour mesurer les paramètres cosmologiques fondamentaux tels que la constante de Hubble-Lemaître, c’est-à-dire le taux d’expansion actuel de l’Univers (dont la valeur est toujours contestée), ou la matière noire dans l’Univers.

En étant capable d’étudier le ciel avec une résolution spatiale sans précédent, le télescope européen Gaia change la donne dans la détection, complexe, de nouveaux trèfles cosmiques. Les 12 trèfles découverts augmentent de 20% le nombre de trèfles confirmés.

 

Quatre des nouveaux quasars ayant fait l’objet d’une imagerie à partir du sol. Le point flou au milieu des images est la galaxie « lentille », dont la gravité divise la lumière du quasar derrière elle de manière à produire quatre images du quasar. En modélisant ces systèmes et en surveillant la variation de la luminosité des différentes images dans le temps, les astronomes peuvent déterminer le taux d’expansion de l’univers et aider à résoudre les problèmes cosmologiques © The GraL Collaboration – Cliquez pour agrandir

 

Ce diagramme illustre la façon dont les quasars à image quadruple, ou quads en abrégé, sont produits sur le ciel. La lumière d’un quasar lointain, situé à des milliards d’années-lumière, est courbée par la gravité d’une galaxie massive qui se trouve devant lui, vue de notre point de vue sur Terre. La courbure de la lumière donne l’illusion que le quasar s’est divisé en quatre objets similaires entourant la galaxie de premier plan, ressemblant à un trèfle à quatre feuilles © R. Hurt (IPAC/Caltech)/Collaboration GraL – Cliquez pour agrandir

Le rôle actif des astronomes de l’ULiège

Les astronomes de l’Université de Liège Ludovic Delchambre, chercheur au Groupe d’astrophysique des hautes énergies de l’Unité de Recherches STAR, Dominique Sluse, collaborateur scientifique au sein du Département AGO (Astrophysics, Geophysics, Oceanography ) de l’ULiège et Jean Surdej, directeur de recherche honoraire du F.R.S.-FNRS et actuellement professeur visiteur à l’Université de Poznan (Pologne), font partie de l’équipe internationale qui annonce la découverte de ces nouveaux quasars multiples.

Leur intérêt pour ces mirages gravitationnels remonte au début des années 1980, quand de nombreux scientifiques doutaient encore de l’existence de ces phénomènes prédits dans le cadre de la relativité générale d’Einstein.

En 1987, le Professeur Jean Surdej a proposé que ces mirages soient facilement identifiables parmi les astres les plus lumineux de l’Univers, des quasars situés à environ 10 milliards d’années-lumière. Plusieurs exemples de mirages ont alors été découverts. Il a ensuite proposé, en 2002, de rechercher ces mirages cosmiques parmi le milliard d’astres qui seraient détectés au moyen de l’observatoire spatial européen Gaia.

Les nouveaux quasars d’Einstein découverts à l’aide d’intelligence artificielle témoignent de la pertinence de cette proposition. Les astronomes de l’ULiège ont très activement participé à la recherche de ces mirages, à leur modélisation ainsi qu’à la réduction et à l’analyse de spectres obtenus avec de grands télescopes terrestres.

Antarctique : nos garants contre la montée du niveau des mers en péril

Durée de lecture : 5 min

Pas moins de 34 % des plates-formes de glace en Antarctique pourraient disparaître d’ici à la fin du siècle si la planète se réchauffe de 4°C par rapport aux températures préindustrielles. Et cette fonte pourrait entraîner une hausse significative du niveau des mers. Cette vision sombre de l’avenir est le fruit d’un travail réalisé conjointement par l’ULiège et l’Université de Reading (Angleterre).

Un édifice fragile

« La glace qui vient du continent antarctique s’écoule par gravité, de tout son poids, progressivement sur les bords du continent. Cette glace étant plus légère que l’eau de mer, elle flotte. C’est ce qui forme les plates-formes de glace », explique Dr Christoph Kittel, chercheur post-doctorant au Laboratoire de Climatologie au sein de l’Unité de recherche SPHERES de l’ULiège.

« Le rôle de ces plates-formes de glace est identique à celui des piliers latéraux de la Cathédrale Notre-Dame de Paris. Sans eux, les murs tombent. Sans les plates-formes de glace, des quantités énormes de glace continentale antarctique se répandront directement dans l’océan, entraînant une augmentation importante du niveau des mers. »

Or, la hausse des températures atmosphériques menace leur existence. « En été, sous l’action du réchauffement, la glace fond en surface des plates-formes, et de l’eau liquide s’infiltre alors dans la glace où elle agit comme un marteau-piqueur, cassant la glace en morceaux. S’il regèle rapidement, l’eau fait office de ciment qui consolide l’édifice. Mais à chaque fois qu’elle fond, de nouvelles voies se créent, et petit à petit, la glace se fragilise.»

En 2002, la plate-forme glaciaire de Larsen B (nord-ouest de la mer de Weddell) s’est rompue de façon spectaculaire. En l’espace d’une poignée de jours, elle a totalement disparu, libérant quelque 3250 km2 de glace – soit une superficie analogue à celle de la province de Liège – qui se sont déversés dans l’océan.

Cet exemple constitue l’un des plus grands effondrements jamais observés. L’événement fut largement étudié, ainsi que ses conséquences. Ce qui a permis de mettre en évidence le rôle essentiel joué par les plates-formes de glace.

Time-lapse (du 31 janvier au 13 avril 2002) de la rupture de la plate-forme glacière Larsen B © Nasa – Cliquez pour agrandir et faire défiler les images

Quatre zones à haut-risque

Au moyen du modèle climatique MAR développé à l’ULiège, l’étude menée par le Dr Kittel a permis d’identifier les quatre plates-formes les plus à risque de rupture. Trois sont situées sur la côté ouest  de l’Antarctique – Larsen C (voisin de Larsen B), Wilkins et Pine Island – tandis que la plate-forme de glace de Shackleton est située sur la côte est.

« D’ici 100 ans, on peut craindre qu’elles aient toutes les quatre entièrement disparu. Leur rupture ne sera certainement pas subite, mais progressive. Comme le fut celle de Larsen B, avec des premiers bouts cassés en extrémité de plate-forme dès 1994, puis une accélération 8 ans plus tard », poursuit le climatologue.

Carte des plates-formes glaciaires en Antarctique pour lesquelles d’importantes quantités de fontes sont prévues dans un climat de 4°C plus chaud que les températures préindustrielles, et donc potentiellement vulnérables. Les cercles orange montrent des plates-formes précédemment identifiées comme résiliente à la fracturation par l’eau de fonte alors que les cercles rouges montrent celles qui sont vulnérables selon la dernière étude du Dr Kittel © Gilbert & Kittel, Geophysical Research Letters, 2021- Cliquez pour agrandir

Des risques sous-évalués

Dans ses modèles et rapports, le GIEC prend-il en compte les risques liés à la rupture de plates-formes de glace ? Jusqu’ici, selon le Dr Kittel, ce n’était pas le cas. Ce sera chose faite dans le prochain rapport. Le chercheur a, par ailleurs, publié récemment une étude qui suggère que les changements climatiques en Antarctique pourraient avoir été sous-estimés dans les précédents rapports du GIEC à l’horizon 2100.

« Selon les précédents modèles du GIEC et leurs différentes incertitudes, d’ici 2100, l’Antarctique devrait contribuer à modifier le niveau marin de – 7 cm (dans le cas d’un scénario avec un réchauffement assez faible, de la neige s’accumulerait sur le continent, de sorte que l’Antarctique stockerait de la masse) à + 30 cm (dans le cas d’un scénario chaud, le continent Antarctique perdra de la masse, entraînant une hausse du niveau marin) », poursuit le Dr Kittel.

« Nos premières estimations de l’impact de la désintégration des plates-formes de glace prédisent une augmentation du niveau des mers de 2.8 cm. Or, cette étude, qui sera la seule sur laquelle va se baser le prochain rapport du GIEC, a sous-estimé le nombre de plates-formes qui vont se désintégrer. Il est donc possible que l’effet soit bien plus important encore qu’une hausse de 2,8 cm, de sorte que seules des valeurs positives soient possibles pour la modification du niveau marin due à l’Antarctique. »

La modélisation du processus complexe de rupture des plates-formes glacières n’en est qu’à ses débuts. A cette recherche, viendra se greffer sous peu une étude de la dynamique glacière.

Une nouvelle porte d’entrée des virus dans les cellules identifiée à l’UCLouvain

Durée de lecture : 4 min

Au Louvain Institute of Biomolecular Science and Technology (LIBST), le Pr David Alsteens et son équipe étudient les interactions biophysiques qui interviennent à la surface des cellules. Ces recherches sont menées grâce à un outil de pointe: la microscopie à force atomique. Cette machine permet, non seulement, de manipuler des objets minuscules, aussi petit qu’un virus, d’observer l’endroit où ils se lient à une cellule, et de mesurer les forces en présence quand ils entrent en contact les uns avec les autres.

C’est grâce à cette technique que le Pr Alsteens, chercheur qualifié FNRS, vient d’identifier un nouveau récepteur moléculaire cellulaire. Ce récepteur, une sorte de serrure située à la surface d’une cellule, permet au virus qui dispose de la bonne clé de pénétrer dans sa cible pour l’infecter.

Récepteur moléculaire fonctionnel

« Nous venons de découvrir l’existence d’un nouveau récepteur », indique le Pr Alsteens, « et nous avons pu démontrer qu’il était fonctionnel. Quand un virus entre en contact avec ce récepteur, une ouverture vers l’intérieur de la cellule se produit. Les protéines présentes à l’intérieur de la cellule sont alors mobilisées et « attirent » le virus à l’intérieur de la cellule. C’est un mécanisme complet que nous venons de mettre en lumière. »

Ce récepteur, dont les virus tirent parti pour infecter la cellule, s’appelle bêta 1-intégrine. « Cette protéine bêta 1-intégrine est utilisée par la cellule pour adhérer à divers supports, pour se lier à d’autres cellules, ou encore lors de la migration cellulaire », précise le Pr Alsteens. « Ici, le virus détourne en quelque sorte l’action de cette protéine pour entrer dans la cellule. »

Une même méthode pour étudier divers types de virus

Les recherches menées au LIBST portaient jusqu’alors sur une certaine famille de virus: des réovirus. Ces virus sont responsables d’infections respiratoires et intestinales.

« Toutefois, la méthode que nous avons utilisée, et sur laquelle nous travaillons depuis plusieurs années, peut également être utilisée pour étudier d’autres virus », reprend le chercheur.

C’est par exemple le cas des rotavirus, responsables des gastroentérites chez les enfants, ou encore sur d’autres types de réovirus qui pourraient jouer un rôle dans l’intolérance au gluten ». Le Dr Alsteens avait décroché, dans ce cadre, une bourse de recherche de l’ERC: le Conseil européen de la Recherche.

En ce qui concerne sa dernière découverte, elle pourrait aussi présenter un intérêt en matière de lutte contre le coronavirus. « Quelques articles scientifiques récents suggèrent en effet que cette protéine pourrait également interagir avec lui », dit-il. « En septembre dernier, nous avons déjà publié un article scientifique concernant le coronavirus à l’origine de la pandémie actuelle. »

« Le coronavirus et les réovirus sont deux types de virus différents. Mais toute la panoplie de méthodes d’investigation que nous avons pu mettre au point pour étudier ces interactions est utile, quel que soit le type de virus étudié. »

Utiliser les réovirus pour lutter contre le cancer

En ce qui concerne les réovirus, l’avancée réalisée à l’UCLouvain pourrait aussi s’avérer intéressante dans un tout autre domaine, celui de la lutte contre le cancer.

« Les réovirus ont la capacité de tuer des cellules de l’intérieur. Si on réussit à les diriger vers des cellules cancéreuses, ils peuvent les tuer de l’intérieur, en déclenchant un phénomène d’apoptose cellulaire », dit encore le Pr Alsteens.

« Dans ce cadre, le but n’est plus de tenter d’empêcher le virus de pénétrer dans la cellule, mais bien de lui faciliter la tâche. Cette technique semble particulièrement prometteuse dans le cadre du traitement du cancer du sein. Un traitement alternatif prometteur, aux côtés d’autres thérapies contre le cancer. »

Des particules d’or reprogramment la machine immunitaire

Durée de lecture : 4 min

« La recherche sur le cancer a eu tendance, ces dernières décennies, à se focaliser sur la meilleure manière d’attaquer les cellules cancéreuses qui forment les tumeurs. Or, dans une tumeur, on trouve aussi des cellules du système immunitaire, que l’on peut exploiter à notre avantage », indique Anne-Catherine Heuskin, chargée de cours à l’UNamur et chercheuse à l’Unité de recherche en analyses par réactions nucléaires (LARN).

De ce constat, est né le projet REPTAM. Financé par le FNRS, il a pour ambition de reprogrammer les globules blancs présents au sein même des cellules tumorales afin de provoquer une meilleure réponse de l’organisme face au cancer.

Pour y parvenir, l’équipe du projet mise sur l’association innovante de nanoparticules d’or et de protonthérapie, une technique de radiothérapie basée sur l’irradiation par protons.

Reconfigurer la réponse inflammatoire dans une tumeur

Les scientifiques s’intéressent à des cellules immunitaires spécifiques : les macrophages. Dans le micro-environnement tumoral, on en trouve de deux types : les M1 et le M2.

« Les macrophages de phénotype M1 auront une action pro-inflammatoire au sein de la tumeur et joueront un rôle bénéfique, en stimulant le système immunitaire du patient. Au contraire des M2, dont l’action est anti-inflammatoire, et qui freineront, en quelques sortes, les défenses de l’organisme », informe la Dre Heuskin, coordinatrice du projet.

Récemment, une thèse menée dans son laboratoire a montré qu’il est possible de reprogrammer, partiellement, les macrophages du type M2 vers le M1, en les irradiant avec un faisceau de protons. « Les protons vont favoriser la production de radicaux libres dans l’environnement du macrophage. Ce qui va encourager sa reprogrammation. »

Pour augmenter encore la présence de ces radicaux libres, et donc optimiser la reconfiguration des macrophages M2, les scientifiques comptent exploiter des nanoparticules d’or. « Nous savons que l’injection de ce matériau dans une cellule va inhiber sa capacité à éliminer les radicaux libres », indique encore la responsable de l’étude.

Le projet REPTAM visera à étudier les effets de la combinaison de ces deux techniques sur les macrophages du type M2.

Quand les radicaux libres reprogramment les globules blancs

Les scientifiques namurois réaliseront des expériences in vitro, puis in vivo, dans un modèle de tumeur du pancréas.

« L’idée est de développer un nouveau modèle de nanoparticules d’or, que l’on va injecter directement dans la masse tumorale. Elles iront d’abord infiltrer son micro-environnement, puis les macrophages M2. Une fois à l’intérieur de ces derniers, la nanoparticule les empêchera de détruire les radicaux libres, favorisant ainsi leur accumulation », développe la docteure en physique.

« En parallèle, on exposera ce macrophage à un faisceau de protons, ce qui amplifiera davantage la production de radicaux libres. Et conduira, finalement, à la reprogrammation complète du macrophage vers le type M1. »

L’hypothèse étant qu’une présence accrue de cellules pro-inflammatoires dans l’environnement tumoral augmente les chances de l’organisme de combattre cette tumeur. Et ce, de l’intérieur. « À terme, nous nous attendons à ce que la taille de la tumeur décroisse », confirme la chercheuse. Rendant la prise en charge du patient plus aisée.

L’espoir d’un nouveau traitement ciblé

Les intérêts de ces deux techniques sont multiples. L’or étant biocompatible, il ne provoque aucune toxicité. Par ailleurs, le couplage de nanoparticules d’or avec un anticorps spécifique aux M2 permet de cibler et de localiser des cellules avec plus de précision. C’est également l’un des avantages de la protonthérapie. Contrairement au faisceau de photons (rayons X), les protons permettent de mieux viser les tumeurs, et épargnent de cette façon davantage les tissus sains qui les entourent.

Mettre en place cette solution pose encore toutefois quelques difficultés. « Comme pour tous les autres médicaments, l’action du foie pose problème dans les tests in vivo. De fait, un de ses rôles consiste à capter et à éliminer, via les reins, toutes les substances étrangères qui se trouveraient dans notre organisme. Y compris les nanoparticules. Plusieurs études planchent actuellement sur une solution. »

Si cette nouvelle méthode de traitement porte ses fruits, elle représentera une arme supplémentaire et peu invasive pour certains patients, dans leur lutte contre le cancer.

À l’ULiège, des outils pour rester zen tout au long de la thèse

Durée de lecture : 5 min

Se lancer dans un doctorat est une très belle aventure. Défendre sa thèse avec succès également. Mais entre ces deux extrêmes, la vie du (de la) doctorant(e) peut souvent devenir compliquée. Et ce, pour toute une série de raisons. À tel point qu’un doctorant sur deux ne défend pas sa thèse.

L’Université de Liège n’échappe pas à cette réalité. Pour les doctorants qui ont entamé leur thèse lors de l’année académique 2010-2011, on remarque, sept ans plus tard, 54 % de réussite, 32 % d’arrêt, tandis que 14 % des thèses sont toujours « en cours ». Un gâchis?

Lutter contre l’isolement et le décrochage

Pour améliorer le taux de réussite, des encadrements spécifiques et des soutiens sont mis en place dans les diverses universités de la Fédération Wallonie-Bruxelles. À l’ULiège, une nouveauté a vu le jour au cours de cette année académique : le projet « zen-en-thèse ».

« Les mesures sanitaires prises depuis plus d’un an ont, bien sûr, motivé l’université à mener diverses actions pour éviter le décrochage des étudiants », explique Evelyne Favart, de l’administration de la recherche. « C’est là un des buts de la campagne « gardons le contact ». Pour les doctorants, plus spécifiquement, « zen-en-thèse » propose une série de modules de formation. »

Plusieurs sessions à la carte sont proposées avec l’objectif global de contribuer à assurer un cheminement en thèse le plus serein possible. Et ce, tant au niveau des interactions avec l’entourage professionnel qu’au niveau des tâches de recherche (gestion des données, écriture, …). Ce programme vise aussi à renforcer la motivation de ces jeunes chercheurs et à les amener à partager leurs expériences entre eux.

Bien-être, réussite et maîtrise du temps

Trois mots-clés caractérisent ce programme : bien-être, réussite, maîtrise du temps (soit de la durée de la thèse). Un programme qui s’est jusqu’à présent concrétisé par l’organisation de six ateliers riches de quelque 25 séminaires, répartis tout au long de l’année.

« Au départ, nous souhaitions organiser ces séminaires essentiellement en présentiel, » souligne Mme Favart, du service des Affaires doctorales, à l’administration de la recherche. « Mais, avec la pandémie, ils ont pris une tournure plus virtuelle. Cela nous a permis d’intégrer plus facilement des doctorantes et des doctorants qui ne se trouvent pas nécessairement à Liège : ceux qui sont en séjour à l’étranger, ou qui font leur doctorat à Gembloux, par exemple. Et si ces séminaires en groupe sont virtuels, cela n’empêche pas de mener à la demande des entretiens individuels. »

Les deux premiers ateliers concernent plus particulièrement les étapes d’une recherche. Par exemple, l’écriture de la thèse. « C’est quelque chose que les étudiants ont parfois tendance à ne pas considérer dès le départ », souligne Evelyne Favart. « Ou encore la gestion des données, qui fait souvent toute la qualité d’une recherche. »

Deux autres ateliers sont plutôt introspectifs. Pour les chercheurs, il s’agit d’apprendre à bien gérer le stress lié au doctorat, à maintenir intactes ses motivations. « Le tout dans un cadre évidemment bienveillant et confidentiel.»

Enfin, les deux derniers ateliers proposés cette année portent plus particulièrement sur la gestion des relations professionnelles, comme celles entretenues entre le doctorant et son superviseur, dont la qualité est également importante pour la réussite de la thèse. « Dans le cadre de ces deux derniers ateliers, la question de l’interculturalité est également abordée », poursuit Mme Favart. « L’idée est de faire passer un message aux futurs chercheurs. S’ils travaillent dans un espace de mise en commun, nous voulons les encourager à passer d’un concept d’interculturalité à celui de multiculturalité.»

Apprendre à concilier vie professionnelle et vie privée

Ce nouveau programme connaît déjà un beau succès. « Sur les 2200 doctorants que compte l’université, plus de 300 sont inscrits à zen en tête cette année. 20 % sont en début de parcours, 60 % en milieu de parcours et 20 % en fin de thèse. Sur les 323 inscriptions, on dénombre 197 femmes et 126 hommes. »

Un atelier complémentaire, qui devrait les intéresser, est encore à l’étude. Il porte sur la gestion de la fin de thèse et de son corollaire, apprendre à pouvoir faire la distinction entre vie professionnelle et vie privée. De quoi rester zen tout au long de sa vie de chercheur.

Charte du bien-être 

Si l’idée derrière « Zen-en-thèse » est notamment de lutter contre l’isolement des doctorants, notons encore que l’administration de la recherche n’est pas la seule, à l’ULiège, à relever ce défi. Le Réseau des doctorants de l’université, une association d’étudiants, travaille aussi en ce sens.

« Nous voulons permettre aux doctorants de l’université de se rencontrer, d’échanger, de nouer voire de renouer des liens entre eux, quels que soient les domaines de recherche et les facultés », explique Kathleen Jacquerie, une doctorante active dans l’association.

« Notre association développe également toute une série d’activités pendant l’année académique. Comme une journée spécifiquement consacrée au bien-être des jeunes chercheurs. Un de nos projets, dans ce contexte, porte sur l’élaboration d’une charte au service du bien-être et de relations entre doctorants et promoteurs. Nous aimerions pouvoir la proposer à la prochaine rentrée académique. Un projet que nous menons en toute transparence avec l’ARD (Administration de la Recherche et Innovation) et le bureau du doctorat de l’université », conclut-elle.

 

Un nouvel outil pour étudier l’environnement radiatif de la Terre

Durée de lecture : 3 min

Impossible de voyager dans l’espace – et ce, que ce soit à des fins commerciales ou scientifiques – sans tenir compte de l’environnement spatial radiatif. Car une fois que l’on quitte la bulle protectrice que constitue le champ magnétique terrestre, on est exposé aux particules énergétiques qui ont été piégées à l’intérieur de la magnétosphère, une vaste région encapsulant la Terre et à l’intérieur de laquelle toutes les particules chargées électriquement doivent obéir aux règles du champ magnétique de notre planète. Les aurores boréales sont une preuve visuelle de cette séquestration de particules.

Les ceintures de radiation de la Terre et les trajectoires des particules piégées (flèches bleues et jaunes ) ©NASA

Les propriétés physiques de la magnétosphère, avec ses nombreuses sous-structures et interactions complexes, demeurent un sujet d’étude important. A mesure que le nombre de satellites envoyés dans l’espace croît et que leur technologie se complexifie, connaître précisément l’environnement radiatif dans l’espace devient une nécessité.

Un consortium 3D

« C’est l’objectif principal d’un nouvel instrument, appelé le « 3 Dimensions Energetic Electron Spectrometer » ou 3DEES (spectromètre à trois dimensions d’électrons énergétiques), que nous préparons dans le cadre d’un consortium avec l’Université catholique de Louvain (Centre des radiations spatiales) et QinetiQ Space », explique-t-on à l’Institut royal d’Aéronomie Spatiale de Belgique.

Au sein de ce consortium, l’IASB est responsable de la conception et de la fabrication mécanique de l’instrument et du développement d’un équipement mécanique de soutien au sol (MGSE) qui sera utilisé pour les tests fonctionnels et d’étalonnage.

Représentation de l’instrument 3DEES © ESA

Affiner les prévisions météorologiques spatiales

A bien des égards, l’espace interplanétaire est loin d’être vide, mais ce qui intéresse le nouvel instrument 3DEES, ce sont spécifiquement les particules à haute énergie extrêmement variables qui peuplent la magnétosphère. Celles-ci peuvent perturber les mesures des satellites, et dans des cas extrêmes, entraîner leur perte, comme ce fut le cas pour le Satellite « Hitomi » de la JAXA en 2016.

L’instrument 3DEES couvre les gammes d’énergie des électrons et des protons (100 keV-10 MeV et 4 MeV-50 MeV respectivement) nécessaires pour alimenter les modèles de météorologie spatiale, mais aussi pour permettre d’inventer des technologies des futures missions européennes rencontrant l’environnement des ceintures de radiation.

Pour améliorer la prévision de la météo spatiale et prendre les mesures nécessaires, la caractérisation de ces particules à haute énergie dans l’environnement spatial de la Terre est cruciale. Cela consiste à identifier leur source (résultent-elles d’événements solaires ou de rayons cosmiques galactiques ?), leur distribution angulaire (de quelle direction arrivent les particules et combien de particules proviennent de chaque angle ?), leur distribution énergétique (quelle est l’énergie des particules et combien de particules trouve-t-on à chaque niveau d’énergie ?), ainsi que leur accélération (comment sont-elles accélérées le long des lignes de champ magnétique ?).

« Ces caractéristiques déterminent la dynamique complète de la population hautement énergétique de la magnétosphère. 3DEES sera en mesure de fournir les informations nécessaires, en temps quasi-réel. Il permettra de mesurer, pour la première fois, l’énergie ainsi que les flux d’électrons et de protons simultanément dans différentes directions (jusqu’à 6 angles couvrant environ 180° dans un plan). Comme les particules sont piégées dans le champ magnétique terrestre, cela permet de déduire leur distribution en d’autres endroits également, plus éloignés du lieu où 3DEES effectue ses mesures. »

L’instrument 3DEES devrait être lancé en avril 2023 à bord du satellite PROBA-3 de l’Agence spatiale européenne.

 

100.000 étoiles visibles jour et nuit, à Bruxelles

Durée de lecture : 4 min

Qu’il pleuve, qu’il neige, que le ciel soit couvert ou que le Soleil culmine au zénith, il est possible d’observer n’importe quel jour de l’année quelque 100.000 étoiles en levant les yeux. Ou plus exactement, en levant les yeux… vers la voûte du Planétarium de l’Observatoire royal de Belgique.

Son système de projection vient de subir un fameux lifting. Le nouveau système numérique, inauguré voici quelques jours, offre une qualité d’image époustouflante. Le ciel nocturne est au rendez-vous, bien sûr. Mais pas uniquement celui visible depuis le sol. Le nouveau système de projection et sa riche (et rigoureuse) base de données offrent une reproduction dynamique de la voûte céleste. Il permet aussi de voyager à l’intérieur de notre système solaire, voire de changer de perspective, en naviguant dans la galaxie.

Un héritage de l’Année internationale de l’astronomie

« L’ancien système de projection numérique datait de 2009 », explique Ronald Van der Linden, le directeur général de l’Observatoire royal de Belgique. Dans le cadre de l’année internationale de l’astronomie de l’Unesco, il avait lui-même remplacé l’ancien système de projection optique. Mais la technologie change très vite. Et le système de 2009 a présenté des faiblesses non prévues initialement.

Projection dans le dôme du Planetarium avec l’ancien système optique © Christian Du Brulle

« Diverses pièces ont dû être remplacées prématurément, à des coûts importants. Un scénario qui allait se répéter régulièrement. Il était temps de passer à un système de dernière technologie, et neuf. » Le projet, d’un coût de quelque 400.000 euros, a été soutenu par la Politique scientifique fédérale (Belspo) et la Loterie Nationale.

Les lampes des anciens systèmes ont désormais fait place aux lasers à LEDs pour assurer le spectacle. La résolution des images en a largement profité. La robustesse du système également. « Les nouveaux projecteurs devraient garder leur performance de départ pendant au moins vingt ans », assure la firme belge Barco qui a fourni le nouveau système.

Spectacle du Planetarium de l’Observatoire royal de Belgique © Christian Du Brulle

Les étoiles sont à l’honneur, ainsi que le vivant et les changements climatiques

Le nouvel outil est polyvalent. Outre les projections « astronomiques »,  par exemple « Terre, Lune, Soleil », « Fureurs dans l’Univers »,  « Explore » ou encore « Les colères du Soleil », qui sont actuellement à l’affiche, le Planétarium propose aussi de découvrir divers films spécialement produits pour ce genre d’écran à 360 degrés. Ces films sont en lien avec d’autres thématiques, notamment le monde du vivant ou les changements climatiques, une thématique qui intéresse beaucoup les chercheurs d’Uccle.

« Il est évidemment beaucoup question d’astronomie au Planétarium», reprend le Dr Ronald Van der Linden. « Mais au plateau d’Uccle, où se situe l’Observatoire, deux autres institutions scientifiques fédérales sont également présentes: l’Institut royal Météorologique et l’Institut royal d’Aéronomie spatiale de Belgique. Avec le concours d’autres institutions scientifiques, nous travaillons à la mise sur pied d’un Centre belge du climat

« Le Planétarium de Bruxelles est un des plus grands d’Europe », précise de son côté Rodrigo Alvarez, le directeur du Planétarium. « Il offre 350 places assises aux amateurs d’étoiles. Bien entendu, avec les mesures sanitaires actuelles, nous n’accueillons plus autant de personnes lors de nos séances. Leur nombre est désormais dix fois moins important. Mais les séances se déroulent comme prévu depuis la réouverture des musées fédéraux, en décembre dernier. Seuls les groupes scolaires restent absents, pour le moment. Par contre, les familles sont très nombreuses à nous rendre visite. » Certains des spectacles à l’affiche s’adressent aux enfants dès 6 ans. Une séance spécifique est même accessible dès 3 ans.

Planetarium © Christian Du Brulle

Un nouveau musée sous le dôme?

Pour l’avenir, le Planétarium affiche de belles ambitions. Si l’Observatoire royal de Belgique dont il dépend est installé au plateau d’Uccle, c’est au Heysel, quasi à l’ombre de l’Atomium, que le dôme astronomique se situe. « Un endroit stratégique », souligne Ronald Van der Linden, le directeur général de l’Observatoire. « Le plateau du Heysel affiche une belle offre culturelle, avec l’Atomium, Kinepolis ou encore Mini Europe. Ce que nous proposons est complémentaire. De plus, le bâtiment du Planétarium ne se limite pas au seul dôme de projection. Aux niveaux inférieurs du bâtiment, nous disposons de très vastes espaces disponibles. Lesquels pourraient accueillir un nouveau musée. Un musée dédié aux changements climatiques, par exemple. »

Le Planétarium a accueilli l’an dernier quelque 50.000 visiteurs, malgré les péripéties, fermetures et autres mesures sanitaires ayant notamment empêché les groupes scolaires de lui rendre visite. « Avec son nouveau musée, il pourrait recevoir jusqu’à 300.000 visiteurs par an», conclut Ronald Van der Linden.

 

Faut-il avoir peur des plantes génétiquement modifiées ?

Durée de lecture : 4 min
«Des plantes OGM qui vous veulent du bien!», par Marc Boutry. Editions de l’Académie royale de Belgique. VP 18 euros, VN 3,99 euros

La première plante transgénique, aussi appelée organisme génétiquement modifié (OGM), est décrite en 1983. Quelque 36 ans plus tard, 12% des surfaces cultivées mondiales sont attribuées à des plantes résultats de l’introduction d’un gène d’une espèce dans une autre. Le bio-ingénieur Marc Boutry invite à dépasser les préjugés, les dogmatismes et les critiques inconciliables avec les données scientifiques dans «Des plantes OGM qui vous veulent du bien!» . Publié par l’Académie royale de Belgique.

Domestiquer les plantes

Des millénaires de sélections humaines ont modifié la plupart des plantes cultivées. Le chou est exemplaire. «L’espèce de chou sauvage Brassica oleracea se trouve encore dans la nature en Europe, mais est peu propice à la consommation», explique le docteur en sciences naturelles appliquées. «Cependant, elle a conduit à la sélection d’un nombre impressionnant de variétés comestibles dont les plus connues sont les choux pommés, le chou-fleur, le brocoli, le chou-rave, le chou kale ou encore le chou de Bruxelles.»

Le processus peut être naturel. «Le chou-fleur orange se caractérise par une accumulation de bêta-carotène, ou provitamine A, le pigment typique de la carotte, résultant de l’insertion naturelle d’un transposon dans un gène de régulation. Les transposons sont des fragments d’ADN mobiles qui peuvent se déplacer au sein du génome (ensemble des gènes). Lorsqu’ils s’insèrent dans un gène, les transposons interrompent son fonctionnement normal.»

Domestiquer des plantes ne se limite pas à améliorer leur morphologie, leurs parties comestibles. Des propriétés sont recherchées. Pour les adapter au sol et au climat. Résister aux insectes, bactéries, virus.

Le génie génétique apparaît

Le génie génétique regroupe des méthodes qui permettent de transférer directement un ou plusieurs gènes dans le génome de l’espèce receveuse. Cette transformation génétique, ou transgenèse, bénéficie de 3 avancées scientifiques des années 1970. La découverte chez des bactéries de plasmides, des molécules d’ADN autonomes et de taille réduite pouvant intégrer des gènes et les transporter dans l’espèce receveuse. D’enzymes capables de couper ou de ligaturer des fragments d’ADN. Et des méthodes pour introduire de l’ADN dans des cellules sans les détruire.

«L’essor du génie génétique a été essentiel aux progrès réalisés en recherche fondamentale dans les sciences du vivant», souligne le membre de la Classe des sciences de l’Académie royale de Belgique. «Par exemple, la consultation du contenu de tomes récents de la revue Plant Physiology, fondée en 1926 et très cotée parmi les chercheurs, révèle que plus de 80% des articles de recherche firent appel à des expériences de génie génétique.»

Traverser la barrière des espèces

En Europe, traverser la barrière des espèces inquiète toujours. «Toutes les techniques d’amélioration modifient le génome», admet le chercheur. «Et, intrinsèquement, elles ne sont ni bonnes ni mauvaises. Ce sont les applications dont il faut évaluer les risques.»

Le nombre d’essais en champ diminue. Environ une dizaine par an. «Dans la pratique, il faut distinguer les demandes d’autorisation de culture de plantes transgéniques sur le sol européen et celles qui visent à autoriser l’importation en Europe de produits issus de plantes transgéniques cultivées sur d’autres continents. Environ 70 variétés transgéniques ont été autorisées à l’importation.»

«Le soja provient notamment du Brésil où il est cultivé en partie sur des territoires grappillés sur la forêt», poursuit le bio-ingénieur. «Pourtant l’Europe dispose de plantes protéagineuses intéressantes comme le pois, le lupin ou la féverole. Seulement, ces espèces offrent des rendements faibles et peu stables. Elles souffrent d’un déficit d’investissement dans l’amélioration génétique en vue de les rendre davantage résistantes aux conditions climatiques, aux maladies et aux insectes.»

Les chercheurs devraient intervenir

Les produits qui apparaissent dans l’alimentation humaine doivent être étiquetés comme issus de plantes transgéniques, sauf si la teneur est inférieure à 0,9%. L’European Food Safety Agency (EFSA) les évalue. Financée par l’Union européenne, l’agence fonctionne indépendamment des institutions européennes et des États membres.

Pour que les plantes transgéniques nous veuillent du bien, «il faudra remettre en question les réglementations lourdes et onéreuses qui empêchent, en Europe, les instituts de recherche et les petites sociétés semencières de participer à l’essor des plantes transgéniques», conclut Marc Boutry. «Souvent financés par les pouvoirs publics, les chercheurs devraient avoir à cœur d’intervenir dans les débats de société.»

Un triathlon des glaces au service de la recherche sur le climat

Durée de lecture : 4 min

Traverser en autonomie complète la calotte polaire groenlandaise d’ouest en est. Longer ensuite la côte en kayak sur mille kilomètres. Réaliser enfin une ascension verticale d’une des plus grandes parois du sud du Groenland. L’expédition Nanok, des Belges Gilles Denis et Nathan Goffart, est assurément sportive. Elle est aussi scientifique.

Les deux hommes, qui se préparent activement à mener cette expédition glaciale en avril 2022, vont doubler leurs exploits sportifs d’une série de prélèvements de données à l’usage de scientifiques restés en Belgique. Actuellement en Suède, dans le Sarek, le vaste parc national du nord du pays, pour tester le matériel, le duo souhaite recueillir un maximum de données sur les environnements qu’il vont rencontrer.

Affiner les modèles numériques avec des données de terrain

« Au cours de la traversée de l’inlandsis, la calotte polaire groenlandaise, nous allons collaborer avec des chercheurs de l’Observatoire Royal de Belgique (ORB), mais aussi de l’université libre de Bruxelles (ULB) et de l’Université de Liège (ULiège) », explique Gilles Denis, physicien de l’UCLouvain.

« Sur nos pulkas (les lourds traîneaux qu’ils vont tirer derrière eux sur 600 km), il y aura une antenne GNSS et son récepteur satellite. L’idée est d’emmagasiner des données sur la qualité de l’ionosphère, mais également de mesurer en continu l’élévation de la calotte de glace que nous traversons. Ceci afin de comparer ces informations de terrain avec ce que disent les modèles numériques utilisés par les chercheurs. Le but étant de mieux pouvoir les calibrer à l’avenir. »

Skieur tirant une pulka © Gilles Denis et Antoine Denis

Le phosphore modifie l’albédo de la glace

À intervalles réguliers, les deux hommes vont également récolter, durant cette traversée glaciaire, des échantillons de neige et de cryoconite, cette couche de particules foncées qui s’accumulent à la surface de la neige et des glaciers. Ces échantillons seront ensuite expédiés à l’ULB où leurs différents composants seront analysés.

« De quoi permettre de déterminer la provenance des poussières contenues dans chaque échantillon », reprend Gilles Denis. En analysant ces poussières et en déterminant leurs origines, les chercheurs devraient pouvoir mieux calibrer leurs modèles de la circulation atmosphérique globale.

Les traces de phosphore retrouvées dans la neige seront également identifiées. « Cet élément permet la croissance d’un certain type d’algues sur la glace », précise le physicien. « Une algue qui, quand elle se développe, modifie l’albédo de la glace. En la rendant plus foncée, elle induit une accélération de sa fonte sous l’effet du rayonnement solaire. »

Essai du matériel © Guille Gil
Gilles Denis et Nathan Goffart © Guille Gil

Relevé des précipitations

Le troisième volet scientifique de cette traversée de l’inlandsis devrait bénéficier aux chercheurs de l’ULiège, mais également du GEUS, le Centre de recherche géologique du Groenland et du Danemark.

Chaque soir, il s’agira pour les deux aventuriers de creuser une fosse dans la neige et de déterminer le profil vertical des différentes couches rencontrées. L’idée est de calculer la profondeur des précipitations annuelles. Un peu comme les cernes de croissance d’un arbre racontent à leur manière les conditions météorologiques rencontrées au cours d’une année, ces strates neigeuses donnent une indication sur le volume des précipitations totales de l’année sur la calotte glaciaire. De quoi, encore une fois, affiner les modèles numériques.

Chasse aux micro-plastiques marins

Lors de la seconde partie de leur triathlon des glaces, quand ils longeront sur un millier de kilomètres la côte Est du Groenland en kayak, en direction de la pointe sud de cette île grande comme trois fois la France, c’est un dispositif aquatique qui sera mis en œuvre par les deux hommes, au profit d’une recherche portée par l’ULB.

« Doté d’une petite hélice, il mesurera des débits d’eau. Il récoltera également sur une distance quotidienne d’un kilomètre les micro-plastiques flottant dans cette partie de l’océan. En théorie, ces eaux côtières devraient encore être particulièrement préservées de ce type de pollution.»

L’expédition Nanok démarrera dans un an, en avril 2022. Le test actuel du matériel réalisé en Laponie suédoise doit permettre d’identifier les éventuels problèmes techniques et d’y remédier. Mais aussi de déterminer les meilleurs protocoles de récolte des données ainsi que les volumes optimaux d’échantillons à recueillir.

La Lune, au centre d’un projet d’envergure internationale

Durée de lecture : 4 min

Prédites par Albert Einstein il y a un siècle et observées pour la première fois en 2015, les ondes gravitationnelles – d’infimes soubresauts de l’espace-temps – ouvrent la voie à de nouvelles découvertes en physique et en astronomie pour comprendre les événements de notre Univers, comme le Big Bang.

En complément des télescopes sur Terre, tel le télescope Einstein qui pourrait voir le jour à quelques kilomètres de chez nous, pourquoi pas sur la Lune ? C’est ce qu’une équipe scientifique internationale, à laquelle appartiennent des chercheurs de l’UCLouvain et de l’ULiège, souhaite faire, soit utiliser la Lune elle-même comme un support de détection des ondes gravitationnelles.

Représentation d’une onde gravitationnelle © ESA

Une future expédition lunaire en vue

Les ondes gravitationnelles sont produites par la collision d’éléments célestes, comme des trous noirs ou des étoiles à neutrons. Lors de ces événements extrêmes, une vibration traverse le tissu de l’espace-temps : c’est la toile élastique sur laquelle se révèlent tous les événements de l’Univers. Détecter ces vibrations induites par les ondes gravitationnelles nécessite des équipements ultra-sensibles.

« Nous avons soumis à l’ESA  et à la NASA le projet d’installer un détecteur d’ondes gravitationnelles sur la Lune. Une belle idée pour une future mission scientifique lunaire, et nous avons l’intention de transformer ce concept passionnant en réalité », déclare Jan Harms, professeur au Gran Sasso Science Institute (Italie).

« Construire quelque chose d’aussi complexe qu’un détecteur d’ondes gravitationnelles sur la Lune est une entreprise extrêmement difficile. Nous devons donc faire preuve d’ingéniosité », poursuit-il. Il est à la tête d’une équipe de plus de 80 scientifiques venus d’Italie, de Belgique, des Pays-Bas, du Danemark, des États-Unis, de Suisse et du Royaume-Uni réunis au sein du projet Lunar Gravitational Wave Antenna (LGWA).

Un premier essai dans les années 70’

L’idée de détecter les ondes gravitationnelles sur la Lune a été mise en pratique pour la première fois par Joseph Weber au début des années 1970. Un gravimètre de surface lunaire a été déployé en 1972 sur la Lune avec la mission Apollo 17 dans le but d’observer les vibrations lunaires causées par les ondes gravitationnelles.

Mais une erreur de conception du gravimètre a rendu impossible la réalisation de l’expérience prévue.
« Nous savons aujourd’hui que même un gravimètre en état de marche n’aurait pas été assez sensible pour voir les signaux astrophysiques. Il est donc nécessaire de développer une nouvelle génération de sismomètres lunaires », explique Joris van Heijningen, chercheur à l’UCLouvain et collaborateur du projet.

Des technologies de pointe

« L’UCLouvain fabrique actuellement les premiers prototypes du cœur du détecteur : le sismomètre. Il s’agira du capteur le plus sensible au monde qui fonctionnera dans des conditions cryogéniques », poursuit-il.

Grâce à de nouvelles technologies et en tirant parti des conditions environnementales favorables au pôle sud de la Lune, l’étude révèle un vaste champ d’opportunités de recherche en astrophysique.

« Nous serions en mesure de voir les signaux de binaires compactes composées de naines blanches galactiques jusqu’aux trous noir massif à haut décalage vers le rouge », assure Roberto Della Ceca, directeur de l’Observatoire astronomique INAF de Brera, « avec un potentiel de découvertes révolutionnaires. »

Dans le même temps, les capteurs sismiques de l’antenne à ondes gravitationnelles lunaires observeraient les événements sismiques lunaires avec une précision sans précédent. « La plate-forme sismique développée dans le cadre du projet SILENT que je mène à l’Université de Liège est un excellent simulateur de l’environnement lunaire, qui permettra de tester et de valider les sismomètres ultra-précis nécessaires au LGWA », explique le Pr Christophe Collette, Directeur du laboratoire de mécatronique de précision à l’Université de Liège.

Marco Olivieri, sismologue de l’INGV de Bologne, estime que « les données provenant du LGWA seraient d’une grande valeur pour la science lunaire, car elles permettraient de faire la lumière sur la structure interne de la Lune, les mécanismes de ses tremblements et l’histoire de sa formation. »

Le projet entre dans une phase d’études détaillées des technologies scientifiques et de déploiement. « Il ne fait aucun doute que quelques défis doivent être surmontés, mais le regain d’intérêt pour la Lune de la part des principales nations spatiales et l’expertise exceptionnelle de l’Europe en matière de technologies et d’exploration spatiales seront à notre avantage », conclut Jan Harms.

1 2 3 43