Laetitia Theunis

Un tissu naturel en chanvre wallon

Durée de lecture : 6 min

Diversifier les débouchés pour les cultivateurs de chanvre tout en développant une filière textile en Wallonie, voilà l’objectif du projet de recherche mené par Valbiom et financé durant 5 ans par la Wallonie. Depuis le 1er juillet 2019, cette asbl est mandatée par le Gouvernement wallon pour coordonner les actions liées au développement de la filière chanvre en Wallonie.

La mise au point de textiles à base de chanvre n’est pas un pari gagné d’avance. Pendant plusieurs décennies, la culture du chanvre a été interdite dans notre contrée. Le savoir-faire artisanal, lié à la transformation textile de cette plante, s’est perdu. Les entreprises de transformation du textile se font désormais rares et peu voire pas adaptées au chanvre d’un point de vue technologique. Le défi est de taille.

Manteau en chanvre wallon, création de Marie Anne Dujardin ©Marie Anne Dujardin

Un premier prototype de tissu wallon

Durant les six derniers mois, Valentine Donck, chargée du projet Fibres Textiles chez Valbiom, a affiné le prototype qui avait été précédemment mis au point par l’asbl Chanvre wallon. « Le premier tissu en fibres naturelles né sur le sol wallon est un mélange. Le tissu écru, c’est-à-dire non blanchi et non teint, est composé d’un tiers de chanvre wallon, d’un tiers de laine locale – provenant du nord de la France, de Belgique et de Hollande – et d’un tiers de lin wallon. »

« Avec un peu plus de 350 g/m², il est assez épais. C’est un tissu d’ameublement, qui peut également servir à la conception d’accessoires, comme un coussin ou un sac à dos de ville, mais aussi de manteaux. » Comme la création de Marie Anne Dujardin, présentée récemment au MAD- Brussels Fashion and Design Platform.

Une première production timide

La première production de tissu wallon en fibres naturelles est volontairement limitée, recherche en cours oblige. A peine 200 mètres de tissu écru et 90 mètres de tissu chiné bleu sont sortis des ateliers. « L’idée était de montrer des exemples d’applications, pas de lancer directement une commercialisation à large échelle », indique la chargée de projet Fibres Textiles chez Valbiom, asbl œuvrant pour le développement d’une économie circulaire et durable.

Une partie du tissu produit est destiné à des écoles de stylisme. « Des étudiants vont intégrer cette matière dans leurs cours pratiques. Comme ceux de la section Ecodesign de la haute école Francisco Ferrer et ceux du master en mailles de l’Académie royale des beaux-arts. On leur donnera des explications sur le chanvre, comment il se travaille, quel est son intérêt, etc. Par ailleurs, certains étudiants réaliseront un travail sur le chanvre en explorant d’autres pistes comme le chanvre non-tissé. Nous allons pouvoir mélanger nos idées et évoluer ensemble. »

Les recettes paieront les prochains tests de conception

Les citoyens qui souhaitent acheter un pan de ce tissu du terroir peuvent se rendre dans l’un des cinq points de vente en Wallonie et à Bruxelles. Quant aux designers et autres personnes souhaitant une quantité grossiste, ils doivent passer par Valbiom.

« Les recettes de la vente du tissu vont nous permettre de faire d’autres essais de conception de tissu à partir de fibres de chanvre. On est au tout début du processus, poursuit-elle. Notre premier prototype est intéressant, mais il n’est pas polyvalent. Il ne convient pas pour la confection de t-shirts ou de différentes sortes de jupes. On doit encore progresser dans la recherche. »

Champ de chanvre wallon ©Valbiom

Un nouveau mode de culture du chanvre pour des fibres plus longues ?

Pour créer de longues fibres conduisant à un tissu et à des fils très fins, il faudra très probablement cultiver le chanvre comme on le fait avec le lin. Afin que les machines puissent les récolter, les tiges, toutes d’une certaine longueur, doivent être couchées parallèlement sur le champ. Cette disposition est cruciale pour façonner des bottelées particulières, mais aussi pour les installations de teillage qui séparent la fibre de la tige.

« Travailler le chanvre comme le lin est une piste très intéressante. Mais cela exigera de semer des variétés particulières, avec une densité particulière et une moissonneuse spéciale, que l’on n’a pas. Par contre, des installations de teillage de lin existent, on pourrait imaginer y traiter le chanvre. On essaie, avec les installations industrielles existantes, en Belgique et dans les pays limitrophes, de faire au mieux et de diversifier les débouchés du chanvre », explique Valentine Donck

Et d’ajouter, « on a des prémisses de contacts avec des industriels. Au niveau européen, face à la concurrence asiatique, ils s’intéressent à inclure le chanvre dans leur offre. »

Le large panel de débouchés du chanvre

Les atouts du chanvre sont multiples. Cette plante, cousine du cannabis, mais dénuée de psychotropes, est un puits à carbone. Elle a une croissance rapide, produit une grande quantité de biomasse et bien adaptée à notre climat. De plus, elle nettoie les sols et n’a nullement besoin de traitement pesticide contre les maladies ou les ravageurs. Par ailleurs, outre le textile, ses débouchés embrassent des domaines aussi variés que l’alimentation, la construction et l’automobile.

Avec leur goût de noisette, les graines de chanvre, entières ou décortiquées (voire torréfiées), entrent dans l’alimentation humaine pour égayer salades, viandes ou yaourts. Les animaux, oiseaux, poissons et chevaux en sont aussi friands. Au départ de ces graines bios, PurChanvre (Neufchâteau) fait aussi de l’huile.

Isolation des habitations et plasturgie automobile

Avec la fibre (extérieur des tiges) de chanvre, outre du fil et du tissu, on confectionne des panneaux isolants écologiques pour la construction. Le pouvoir d’isolation acoustique du chanvre est meilleur que celui des laines minérales, bien que moins bon en isolation thermique. Le chanvre est plus résistant à l’humidité et plus sain lors du placement. Aussi la chènevotte (soit l’intérieur des tiges que l’on broie) peut être déversée en vrac dans les caissons des combles ou mélangée avec de la chaux et de l’eau pour faire un béton de chaux-chanvre. Isohemp à Fernelmont en fait des blocs préfabriqués.

Autre débouché : la plasturgie automobile. Les fibres de chanvre renforcent et allègent les éléments composites en plastique de l’arrière du coffre et dans les portières. L’usage des fibres naturelles permet un gain de 25 voire 30% en poids, intéressant pour un secteur qui doit produire des véhicules plus légers émettant moins de CO2.

Le numérique en renfort des digues fluviales

Durée de lecture : 5 min

Avec trois fleuves et plus de cinquante rivières, la Belgique n’est pas à l’abri des inondations. Les rives de certains cours d’eau canalisés sont particulièrement exposées en cas de fortes précipitions. On parle de risques de « surverses ». Ces débordements peuvent rapidement conduire à la rupture des digues fluviales, aggravant du même coup l’inondation.

Carte des bassins hydrographiques belges – source FWB

Afin de mieux comprendre, et surtout de prévenir ce phénomène, plus de 54 expériences ont été menées au sein de l’unique laboratoire en Wallonie spécialisé dans la modélisation physique et numérique en hydraulique. Cette étude est supervisée par le Pr. Benjamin Dewals et le Dr. Sébastien Erpicum de l’Unité de recherche HECE  (Hydraulics in environmental and civil engineering) à l’ULiège.

Leurs observations ont été rassemblées en une base de données récemment mise à la disposition de la communauté scientifique internationale.

Un enjeu mondial

« Les ruptures des digues fluviales figurent comme une problématique mondiale puisque la majorité des cours d’eau dans le monde sont aujourd’hui endigués. Il existe aussi des ouvrages le long des barrages et des mers » précise le Docteur Sébastien Erpicum, chercheur au HECE.

Rupture de digue par surverse ©Université de Stanford

En cas de rupture, les conséquences varient. « Tout dépendra du cours d’eau, du volume d’eau présent et de l’endroit susceptible d’être inondé » nuance le Professeur Michel Pirotton, chercheur au HECE. « Si une brèche se formait, par exemple, sur une des digues du Canal Albert, on pourrait fermer une porte en amont. Il y aurait bien une inondation, mais elle resterait contrôlée et locale. En revanche, si une digue venait à rompre sur un cours d’eau aux Pays-Bas, un grand volume d’eau se déverserait sur des territoires situés en dessous du niveau de la mer jusqu’à stabilisation du niveau de part et d’autre de la brèche. Les pertes matérielles et humaines seraient alors très élevées ».

Afin d’anticiper au mieux les risques et les interventions à réaliser, il est primordial d’étudier les mécanismes à la base des formations de brèches.

En collaboration avec le Laboratoire d’Hydraulique Saint-Venant (Paris), les chercheurs Benjamin Dewals, Sébastien Erpicum, Michel Pirotton et Pierre Archambeau, aidés de plusieurs doctorants et étudiants, ont analysé la manière dont les digues fluviales s’effondrent en cas de surverse latérale : en passant par-dessus l’ouvrage, la force du courant est capable d’éroder les matériaux, lesquels sont emportés et finissent par créer une brèche. Elle est l’une des causes les plus courantes de rupture de digues.

Des inondations aux labos

La recherche s’est reposée sur la modélisation car il est impossible de mesurer in situ le phénomène. « Installer des instruments de surveillance sur les milliers de kilomètres de digues belges n’est pas envisageable », déclare le Dr Erpicum. « Et quand on se rend sur le site par après, on ne peut que constater les dégâts. Nous ignorons alors comment la surverse et la brèche se sont produites » poursuit le Pr Pirotton.

Les ingénieurs ont effectué une cinquantaine d’expériences reproduisant le débordement d’un cours d’eau le long de digues miniatures. « Nous avons étudié diverses configurations géométriques et hydrauliques en faisant varier la hauteur et l’épaisseur de la digue, ou encore le débit et la hauteur d’eau dans la rivière », précise Dr Erpicum.

Afin de mesurer l’évolution des dégâts occasionnés sous l’eau, les scientifiques ont développé une technique innovante de profilométrie laser. Celle-ci a permis de réaliser des reconstructions 3D à haute résolution de la géométrie de la brèche au cours du temps.

Les deux scientifiques soulignent qu’en dehors du système de mesure, la gestion même du modèle réduit est original et unique, vu sa complexité. « L’interaction entre la brèche et l’écoulement est complexe dans le cas des cours d’eau, car même s’il y a une brèche, un flux persistera dans la rivière. Il a fallu par ailleurs drainer la digue pour éviter sa rupture par érosion interne » explique Sébastien Erpicum. « L’eau continuera à s’écouler dans la rivière, tout en ayant la possibilité de s’engouffrer à droite ou à gauche à travers la brèche. L’écoulement devient alors bi- voire tridimensionnel » détaille à son tour Michel Pirotton.

À l’avenir, des risques de surverse plus fréquents

Une fois ces modèles de rupture de digues validés numériquement, les scientifiques s’attelleront à développer à l’avenir un logiciel permettant de prédire le comportement d’ouvrages réels. « L’objectif final reste de développer des outils numériques pour prévenir les risques lors de surverse sur des digues réelles. De façon à anticiper leurs conséquences et, au mieux, les éviter » indiquent les deux ingénieurs.

Il est d’autant plus urgent de s’y intéresser que le risque de surverse va probablement augmenter dans le futur. « La surverse est due à l’augmentation du niveau d’eau dans le cours d’eau, elle-même causée par de fortes précipitations. Et le changement climatique est susceptible de faire augmenter les débits », poursuivent les chercheurs.

Selon les scénarios les plus pessimistes de l’IRM, les hivers seront nettement plus pluvieux © IRM

Selon les scénarios les plus pessimistes de l’IRM, les hivers seront effectivement « nettement plus pluvieux et, en moyenne, aucune ou seulement une légère baisse de pluviosité est prévue en été ». Le SPF environnement  confirme que la Belgique « connaît une augmentation lente mais significative des quantités moyennes annuelles de précipitations. Une augmentation qui suit un profil linéaire de 5 mm par décennie ».

Avec la sécheresse, le sol wallon se tasse

Durée de lecture : 4 min

Le problème n’est pas rare. Durant cet été et en ce début d’automne, de nombreux citoyens ont été confrontés à l’affaissement de leur terrasse. Effondrées dans le sol, étendue de béton et ribambelle de clinkers font pâle figure. Tassement, voilà le nom du phénomène géologique à l’œuvre. Il compte parmi les plus courants des mouvements du sol wallon. Et le changement climatique risque bien de faire flamber son incidence.

Depuis juillet 2016, la sécheresse fait son nid en Wallonie. Cette année, alors que février et mars ont connu une pluviosité supérieure à la moyenne, elle s’est à nouveau emparée du territoire. La canicule de cet été a asséché les argiles, lesquelles se sont contractées. Au contraire, les pluies abondantes espérées durant cet automne devraient les ré-engorger d’eau. Attention, soumis à ces variations extrêmes, le sol bouge.

« Lors des épisodes secs de tassement du sol, particulièrement les sols argileux, puis des épisodes pluvieux qui le font gonfler, nous recevons beaucoup de demandes d’informations pour expliquer les fissurations dans des habitations », explique Daniel Pacyna, responsable de la Direction des Risques Industriels, Géologiques et Miniers du service géologique de Wallonie.

« Les terrasses et les annexes sont régulièrement construites sur des fondations plus légères que celles du volume principal. On observe alors du tassement différentiel : d’un côté, les fondations bien conçues vont très peu se tasser, mais de l’autre coté, le tassement va être de grande ampleur. Si bien que les parties du bâtiment se décollent l’une de l’autre. C’est un grand classique. »

Sécheresse et fortes pluies sont les conditions les plus dangereuses

En cas de sécheresse, les smectites et autres argiles se rétractent. Alors qu’elles perdent de volume, la partie supérieure du sol s’affaisse. Ce mouvement provoque des fissures dans les constructions sises en surface. Une fois la pluie revenue en abondance, les roches se gonflent et les fissures reprennent leur course de plus belle.

Les dégâts sont rarement structurels. Les premiers signaux ? Des carrelages qui se soulèvent et se fendillent, du plâtre et des encoignures de fenêtres qui se fissurent.

Pour les maisons déjà construites, refaire les fondations est impossible. Mais, moyennant des travaux d’un coût élevé, il est possible de les renforcer.

Examen géologique et avis sur permis de bâtir

Quid des bâtiments à construire ? « Avec les changements climatiques en cours, on recommande de ne pas lésiner sur de bons essais de sol pour voir la portance des terrains. S’il est constitué d’argiles particulièrement sensibles, il est crucial de prendre en compte leurs cycles de saturation/désaturation. Et ce, en faisant quelques essais de laboratoire standardisés qui caractérisent le matériau et permettent de savoir de combien une argile peut gonfler. On peut alors adapter les fondations. Par exemple, en réalisant un radier, soit une dalle de béton sur laquelle est installée la maison. » En cas de mouvement de terrain, c’est toute la dalle qui monte ou descend. Adieu fissures.

Le coût ? Comptez de 1500 à 2000 € pour un essai de sol et quelques centaines d’euros pour les tests de laboratoire. « Ce n’est pas excessivement cher et permet d’éviter des travaux ultérieurs… Refaire les plafonnages d’une maison, ça revient vite au coût d’un radier », conseille Daniel Pacyna.

Les dommages sont plus fréquents dans les habitations modernes

Jadis, les constructeurs étaient souvent originaires du coin et connaissaient très bien la qualité des argiles des soubassements. Ils adaptaient les fondations et les bâtiments en fonction. « Relativement peu de maisons anciennes subissent de gros dommages liés au tassement. Les plus fragiles sont les maisons modernes, clés en main, faites ailleurs, construites par des architectes qui ne font pas d’essais de sol ou des essais de sol superficiels et qui pensent, à tort, que la situation observée à un moment donné est représentative de toute l’année, sans accorder d’importance aux variations saisonnières extrêmes », poursuit le responsable de la Direction des Risques Industriels, Géologiques et Miniers.

Les zones les plus à risque sont situées dans le Hainaut, particulièrement dans le nord où des formations argileuses annoncent les Flandres. Mais aussi en région liégeoise avec sa bande de smectite, sur les Hauts-Plateaux vers les Cantons de l’Est et en Ardenne où les roches sont complètement altérées et transformées en argile.

 

Que manger pour gagner des années de vie en bonne santé?

Durée de lecture : 5 min

Une alimentation saine et variée maximise les chances d’une vie en bonne santé. Mais concrètement, au-delà du mantra, que manger au quotidien ? Internet regorge de conseils dont il est souvent difficile d’en vérifier l’exactitude scientifique ainsi que la portée réelle. De plus, ils sont souvent incomplets et non hiérarchisés. En concertation avec les autorités compétentes du pays, le Conseil Supérieur de la Santé (CSS) a pris la question à bras le corps. Il a élaboré un avis exposant les priorités en matière de choix alimentaires devant contribuer efficacement à maintenir et promouvoir notre santé.

Eliminer les aliments malsains

Ce rapport scientifique de 88 pages est le fruit du travail indépendant, « à l’abri de toute influence extérieure possible de type commerciale ou économique », d’une trentaine d’experts belges. Ils se sont basés sur une méthodologie développée au niveau européen et l’ont adaptée à notre pays.

Après avoir analysé les principales causes de maladies et de décès en Belgique, ils ont identifié les facteurs de risque liés à l’alimentation. Ils se sont concentrés sur les affections cardiovasculaires, les cancers, le diabète de type 2, les affections bronchiques, les troubles musculo-squelettiques, la cirrhose du foie, les troubles neurocognitifs, la dépression et les troubles anxieux et enfin, les carences nutritionnelles en fer, iode et protéines.

En identifiant les aliments et nutriments qui contribuent de manière importante à ces problèmes de santé et en établissant un lien avec la consommation et les habitudes alimentaires récemment bien répertoriées en Belgique, ils ont pu extraire des recommandations alimentaires simples et faciles à mettre en œuvre et les ont classifiées par ordre d’importance.

Parmi les 12 recommandations, 5 règles d’or se dégagent

Chaque jour, il convient de consommer au moins 125 g de céréales complètes. Afin de profiter de leurs bienfaits, il est préférable de privilégier le pain intégral ou complet au pain blanc, les pâtes complètes aux pâtes blanches, etc.

Manger quotidiennement 250 g de fruits, soit deux fruits par jour, constitue la deuxième règle d’or. « Pour éviter un excès de sucres et/ou de graisses ajoutés, privilégiez les fruits frais sans adjonction de sucre ou de graisses. Recherchez la variété en vous laissant guider par l’offre saisonnière et locale. Lavez toujours, et pelez si nécessaire, les fruits avant de les manger. » A raison d’au moins 300 g quotidiens, les légumes, cuits ou crus, locaux et de saison, ont aussi la part belle dans les assiettes.

Chaque semaine, les légumineuses (lentilles, haricots, fèves, pois chiches) devraient faire partie de certains repas. « Remplacez au moins une fois par semaine la viande par des légumineuses. La culture et la production de ces végétaux ont en outre l’avantage d’un faible impact sur le climat. »

Pour la santé de votre cerveau, croquez chaque jour de 15 à 25 g de noix ou de graines sans enrobage salé ou sucré. A titre indicatif, une poignée correspond à environ 30 g. « Il est important de choisir des produits riches en acides gras de type oméga 3. »

Le sel est un ennemi des artères. Il faut donc choisir des produits pauvres en sel et éviter d’en ajouter lors de la préparation des repas ou à table. Les herbes aromatiques et les épices non salées sont des alternatives savoureuses.

Veillez à ne pas consommer plus de 30 grammes Mangez au maximum 30 g de viande transformée (charcuteries, viandes préparées) par semaine.

Pas plus de 300 g de viande rouge par semaine

Consommez entre 250 et 500 ml de lait ou de produits laitiers par jour. « En cas de consommation inférieure, il faut être attentif aux apports d’autres sources de protéines, de calcium et de vitamines. »

Mangez du poisson, des crustacés ou des fruits de mer une à deux fois par semaine dont une fois du poisson gras. Privilégiez les produits durables riches en acides gras oméga 3.

« Limitez la consommation de viande rouge à 300 g par semaine au maximum. Elle peut être remplacée par des légumineuses, du poisson, de la volaille, des œufs ou d’autres substituts qui représentent une alternative à part entière de la viande rouge », préconise le conseil supérieur de la santé.

« Mangez au maximum 30 g de viande transformée (charcuteries, viandes préparées, etc.) par semaine. Remplacer les charcuteries par des conserves de poisson, des garnitures à base de légumineuses, des fruits ou des fromages frais. »

Pour une bonne santé, il convient de consommer entre 250 et 500 ml de lait ou de produits laitiers par jour.

Haro sur les sodas, le beurre et les huiles tropicales

Buvez le moins possible de boissons contenant des sucres ajoutés (sodas, nectars de fruits, etc.). L’eau reste le premier choix pour étancher la soif.

Veillez à un apport suffisant en calcium (950 mg/jour) via diverses sources naturelles dont le lait et ses dérivés.

« Veillez également à un apport suffisant en acides gras polyinsaturés (dont les oméga 3) en privilégiant les huiles de colza, de soja et de noix et en consommant des fruits à coque et des graines. Remplacez les margarines dures et le beurre par des huiles non tropicales, des matières grasses tartinables et des matières grasses de cuisson liquides. »

Partager ses repas, mais les arroser avec modération

Manger ensemble est profitable tant à l’individu qu’à la société dont il fait partie. « Il est important de prendre le temps de partager ses repas non seulement à la maison, mais aussi à l’école, au travail, dans les centres de soins et dans d’autres situations. Néanmoins, une mise en garde s’impose. L’alcool figure de très loin en tête de la liste des aliments avec un impact négatif sur la santé et ce dernier fait régulièrement partie des habitudes liées aux activités sociales.Une consommation « modérée » d’alcool signifie : pas plus de 10 verres « standard » par semaine mais l’idéal reste de ne pas en consommer du tout », conclut le Conseil Supérieur de la Santé.

Cent infarctus pour mettre un stent résorbable à l’épreuve

Durée de lecture : 5 min

Réparer une artère malade en lui implantant un dispositif mécanique qui disparaît de lui-même quand les choses vont mieux: les spécialistes du cœur en rêvent. À Bruxelles, au service de cardiologie de l’hôpital Saint-Pierre, le Dr Quentin de Hemptinne y travaille intensivement.

« Nous menons, depuis le mois de février dernier, une recherche sur l’utilisation d’un nouveau type de stent résorbable », explique le médecin formé à l’ULB. « Il s’agit d’un stent de seconde génération que nous souhaitons utiliser chez des patients jeunes (moins de 50 ans) et en situation d’urgence, quand ils viennent de faire un infarctus ».

Un stent est un petit dispositif médical placé dans une artère bouchée par un caillot ou dont le diamètre est réduit à cause d’une plaque qui se développe sur les parois du vaisseau. Introduit dans l’artère, ce dispositif permet de dilater le vaisseau et de lui rendre un profil optimal.

« Ce genre de dispositif est classiquement placé à vie chez un patient. Ce qui ne va pas sans entraîner parfois des complications avec le temps. Ce corps étranger dans l’organisme peut être source d’infection ou être à l’origine de la formation d’un nouveau caillot. D’où les espoirs placés dans les stents résorbables: des dispositifs qui disparaissent d’eux-mêmes, une fois le travail effectué. »

Depuis février dernier, le Dr Quentin de Hemptinne mène une recherche sur l’utilisation d’un nouveau type de stent résorbable © Christian Du Brulle

Du métal plutôt que du plastique

« J’avais commencé à m’intéresser à ce type de stents lors de mon séjour de deux ans à l’Institut de cardiologie de Montréal, au Canada », précise le spécialiste bruxellois. « À l’époque, le sujet était encore assez neuf. Nous travaillions sur des stents résorbables de première génération, fabriqués en polymères ».

Depuis son retour en Belgique, il y a trois ans, le Dr de Hemptinne a continué ses recherches sur ce type de dispositifs. « À la différence que cette fois, nous nous intéressons aux stents de seconde génération, des stents résorbables de nature métallique. Ils sont fabriqués au départ d’un alliage en magnésium et sont disponibles depuis 2016.

Au CHU Saint-Pierre, où il est spécialisé en cardiologie interventionnelle, Quentin de Hemptinne vient donc de lancer une vaste recherche clinique sur l’utilisation de ces stents résorbables de seconde génération.

« Idéalement, nous espérons recruter des patients de moins de 50 ans qui font un infarctus du myocarde », précise le spécialiste. « C’est-à-dire ceux qui sont susceptibles de vivre longtemps après le placement d’un stent. Dans l’étude multicentrique que nous avons lancée, et comprenant une dizaine d’hôpitaux, nous souhaitons recruter jusqu’à une centaine de patients. En utilisant chez eux le stent résorbable, nous espérons limiter les complications ultérieures potentielles comme des réactions inflammatoires ou des thromboses tardives ».

Une première génération décevante

À ce propos, la première génération de stents résorbable n’a pas tenu ses promesses. « Au contraire il a même entraîné certains événements indésirables du type thrombose », précise le médecin. « Les premières études avec le stent de seconde génération livrent, par contre, de bons résultats. Du moins sur des patients ciblés, avec des lésions coronaires faciles à traiter ».

La spécificité de la nouvelle étude consiste à utiliser ce nouveau stent dans une situation clinique d’urgence absolue: l’infarctus. « Il survient quand brusquement une artère coronaire se bouche, à cause d’un caillot de sang. Il faut alors la déboucher le plus rapidement possible, au risque sinon de voir mourir le muscle cardiaque », explique le médecin.

« Dans le cadre de l’infarctus du myocarde, nous avons affaire à des rétrécissements artériels assez mous. Ils résultent du déchirement d’une plaque de cholestérol qui va former un caillot. De plus en plus, cela affecte des patients jeunes, de moins de 50 ans, généralement en bonne santé, mais qui présentent divers facteurs de risque bien connus pour la santé cardiovasculaire: tabagisme, hypercholestérolémie, sédentarité, diabète… »

Premier essai encourageant

« Nous avons déjà mené un premier essai clinique très limité dans ce cadre. Et ses résultats sont encourageants. Nous venons donc d’initier, depuis le début de cette année, un deuxième essai clinique multicentrique plus ambitieux, dans toute la Belgique, impliquant une dizaine d’hôpitaux. Nous espérons pouvoir traiter une centaine de patients. »

Parallèlement à cette étude clinique, une autre recherche, plus fondamentale, et soutenue par le Fonds pour la chirurgie cardiaque, a également été lancée.

Cette étude porte sur les caractéristiques intrinsèques de l’alliage de magnésium qui est utilisé dans le stent de seconde génération. Selon les premiers résultats, il semblerait que cet alliage ait des propriétés anti-thrombopéniques. Il diminuerait le risque de formation de caillots de sang. « Enfin, nous allons également tester, avec la collaboration du laboratoire de médecine expérimentale du CHU de Charleroi, les propriétés de cet alliage en matière de coagulation », dit encore le Dr de Hemptinne.

Une étude à long terme

« Notre étude n’est pas une étude comparative », dit-il encore en guise de conclusion. « Notre espoir est de confirmer que l’utilisation de ce type de stent est intéressant pour traiter l’infarctus. Du moins qu’il ne pose pas de problème de sécurité et que les patients évoluent bien ».

« Si nos résultats sont favorables, cela montrerait qu’il serait alors judicieux de lancer une étude comparative entre les stents conventionnels (permanents) et les stents résorbables. Et ce, afin de déterminer s’il y a un bénéfice de l’un par rapport à l’autre pour la santé du patient. Bien entendu, ce sont des bénéfices qui vont se mesurer à long terme. Ces résultats ne se verront donc pas immédiatement… »

Objectif : observation de la Terre pour la Wallonie

Durée de lecture : 4 min

Ce sera assurément un des tiercés gagnants des cinq prochaines années en Wallonie. Un tiercé qui vise un objectif: développer les compétences, les connaissances et l’utilisation des données d’observation de la Terre dans la Région pour assurer sa gestion optimale et son développement.

Tiercé gagnant? En quelques jours, trois acteurs majeurs wallons ont réaffirmé leur intérêt pour la  thématique spatiale. À commencer par le gouvernement wallon. Dans sa déclaration de politique régionale, le nouvel exécutif martèle que ce secteur sera au centre de ses préoccupations. Concrètement, il entend « développer la compétitivité du secteur et une meilleure coordination des acteurs (administration, universités et centres de recherche) avec le secteur industriel pour soutenir les projets de recherche et pour structurer la force de proposition spatiale wallonne ».

L’intelligence artificielle à la rescousse

Le nouveau gouvernement peut compter sur le soutien de Skywin à ce propos. Ce pôle de compétitivité wallon axé notamment sur le secteur aéronautique et spatial organisait, voici quelques jours à Bouge, un colloque sur les apports stratégiques de l’intelligence artificielle appliquée à l’observation de la Terre.

Une rencontre de haut vol, où l’urgence de saisir au bond la balle de l’intelligence artificielle n’aura échappé à personne. C’est que le traitement automatique des images dans le domaine de l’observation de la Terre est loin d’être optimal. Pour les opérateurs spatiaux wallons, il y a là un potentiel économique important à saisir.

Pour digérer rapidement les données satellitaires et les rendre plus accessibles, il devient impératif de miser sur le deep learning. « Il faut concevoir des machines et des algorithmes capables d’apprendre par eux-mêmes, capables de gérer de grandes bases de données, de reconnaître des données caractéristiques et pertinentes», y indiquait Pierre-Philippe Mathieu, de l’Agence spatiale européenne.

Quatorze recommandations pour la télédétection 

Le bénéfice économique d’une meilleure exploitation des données d’observation de la Terre grâce à l’intelligence artificielle est évident pour XiaoXiang Zhu, professeure de traitement du signal à l’Université technique de Munich (Allemagne), mais également membre de l’Agence spatiale allemande (DLR). « On estime aujourd’hui qu’un euro investi dans le programme européen d’observation de la Terre Copernicus génère 3,8 euros de revenus commerciaux », indique-t-elle. Grâce à l’intelligence artificielle, les revenus pourraient doubler.

Le troisième clou enfoncé dans le développement de la valorisation des données provenant du secteur spatial l’est par l’administration wallonne elle-même: le SPW, mais aussi l’Institut scientifique de service public (Issep).

« En matière de télédétection, nous formulons 14 recommandations, indique Eric Hallot (Issep). « Elles résultent de trois années de réunions du GTEO, le Groupe de travail « Observation de la Terre », qui réunit divers acteurs publics et privés actifs dans ce domaine ».

« Nos recommandations visent à renforcer l’utilisation et les techniques d’observation de la Terre au sein de l’administration wallonne, d’informer les décideurs de ce que recouvre cette notion de télédétection ».

Un nouveau plan stratégique géomatique

Nathalie Stéphenne, attachée au Secrétariat général du SPW et spécialiste en géomatique abonde: « la géomatique, soit la numérisation de l’environnement géographique, permet de mieux comprendre les relations que l’Homme entretient avec celui-ci. Et clairement, pour l’administration, et donc aussi pour le citoyen, géomatique et télédétection forment un duo gagnant ».

De quoi plaider pour l’élaboration d’un Plan stratégique géomatique wallon? Le ministre Willy Borsus, qui a notamment la Recherche, l’Économie, l’Agriculture et les Technologies nouvelles dans ses compétences, a bien reçu le message.

« Je mesure à quel point l’adoption d’un nouveau plan stratégique géomatique de cinq ans est importante », dit le ministre. « Un plan qui forme un ensemble intégré et dynamique, qui offre des opportunités entrepreneuriales, de nouveaux services aux citoyens, des perspectives de croissance ».

« Ce n’est pas un fait du hasard si le nouveau gouvernement réserve une large place dans son programme au numérique, aux nouvelles technologies et au spatial. Nous voulons aller de l’avant dans ces domaines. Et il y a des échéances proches, comme la réunion ministérielle de l’Agence spatiale européenne qui doit se tenir à la fin de l’année à Séville. Une réunion où des décisions stratégiques vont être prises pour les années à venir. Notre objectif est clair: permettre au pôle spatial wallon d’acquérir une dimension plus large, de développer son écosystème ».

 

L’UNamur, l’ULB et l’UCLouvain mettent le cap sur le Québec

Durée de lecture : 4 min

Insuffisance cardiaque, nouveau médicament supramoléculaire, glande salivaire imprimée en 3D, gestion du risque forestier, alternative aux antibiotiques ou encore différenciation cellulaire. Six projets de recherche menés conjointement par des chercheurs des universités de la Fédération  Wallonie-Bruxelles (FWB) et des chercheurs québécois démarrent ce 1er octobre. Ils bénéficient d’un budget global de 2,5 millions d’euros. Celui-ci est pris en charge pour moitié par le FNRS et par les Fonds de recherche du Québec (FRQ) pour l’autre moitié.

« Il s’agit des six projets sélectionnés dans le cadre du programme de recherche collaborative entre le Québec et la FWB initié en 2017 » , précise la Pre Véronique Halloin, Secrétaire générale du F.R.S.-FNRS.

Des projets financés pendant trois ans

Ce programme en est à sa seconde édition. Le projet pilote, lancé en 2017, avait été un succès. « Il avait été mis sur pieds à l’initiative de l’Agent de liaison scientifique de Wallonie-Bruxelles International (WBI) à Montréal », se rappelle Véronique Halloin. Les six agents de liaison scientifique de WBI oeuvrent à rapprocher les chercheurs de la FWB avec leurs homologues étrangers.

Lors du premier appel à projets, quatre équipes mixtes FWB/Québec avaient été financées pendant deux ans. « Désormais, ce sont six équipes qui bénéficient de ce programme et pour une période de trois ans », précise le Pr Rémi Quirion, Scientifique en chef du Québec, qui a fait spécialement le déplacement à Bruxelles pour inaugurer cette nouvelle fournée de projets scientifiques communs.

Seules trois universités de la FWB bénéficient actuellement de ce programme. L’ULB, L’UNamur et l’UCLouvain voient chacune deux de leurs chercheurs financés par ce programme bilatéral. Du côté québécois, les partenaires se situent dans les universités du Québec à Montréal, Mc Gill et de Sherbrooke, ainsi qu’à l’Institut de Cardiologie de Montréal et à l’Institut national de la recherche scientifique.

Six projets de recherche sont financés par le second appel du programme de recherche collaborative entre le Québec et la FWB.

« Ce programme commun nourrit plusieurs ambitions, précise Pre Halloin. Il vise à combiner nos forces et nos expertises scientifiques. Mais nous avons aussi l’espoir, vu l’excellence de chaque partenaire, de réaliser à terme quelques percées scientifiques majeures ».

Une supramolécule pour lutter contre la maladie de Parkinson

À Namur, le Pr Benoît Champagne est ravi de cette opportunité de recherche menée en collaboration avec le Pr Yves Dory, son collègue de l’Université de Sherbrooke.

Leur projet vise à développer une nouvelle classe d’agents thérapeutiques supramoléculaires qui déstabiliseront et désassembleront d’autres complexes supramoléculaires impliqués dans la maladie de Parkinson.

Les maladies neurodégénératives occupent une position de plus en plus importante dans le palmarès des troubles de santé les plus coûteux pour notre société. Le but principal de ce projet est d’explorer une nouvelle voie qui permettrait l’inhibition des plaques amyloïdes responsables de la plupart des maladies neurodégénératives.

« Nous allons surtout travailler sur la simulation de ces complexes supramoléculaire », précise le Pr Champagne.

« Notre approche est innovante et prometteuse », précise le Pr Dory. « Nous proposons une nouvelle stratégie qui n’a jamais été explorée jusqu’à présent ».

Les forêts face aux changements climatiques

À Louvain-la-Neuve, un des deux projets financés concerne la forêt et son évolution face aux changements climatiques. Le Pr Quentin Ponette (UCLouvain) travaillera avec son collègue Christian Messier de l’Université du Québec à Montréal sur la réponse de deux régions forestières, l’une au Québec et l’autre en Wallonie.

« Les résultats de cette recherche permettront, d’une part, de comprendre les mécanismes impliqués dans la résilience des forêts face aux changements globaux. Et, d’autre part, d’identifier les combinaisons optimales de gestion forestière et de politiques à mettre en place pour des scénarios de changements climatiques et globaux contrastés ».

Faut-il avoir peur du nucléaire?

Durée de lecture : 4 min

Daniel Soumillion a attendu d’avoir 80 ans pour proposer ses idées aux lecteurs de «Ce que je pense». Sur la vie, l’écologie, les religions, les syndicats, les médias… L’ancien ingénieur civil de l’UCLouvain donne son avis sur le nucléaire. Un domaine qu’il connaît bien. Pendant une dizaine d’années, il a dirigé une société états-unienne spécialisée dans la décontamination de centrales nucléaires. Tant en Belgique, à Doel, Tihange et Mol qu’en France, Suède, Finlande, Allemagne.

Selon l’expert, il est sage d’écouter le Belge Christian de Duve. Le prix Nobel de physiologie et de médecine en 1974, fondateur de l’Institut de pathologie cellulaire rebaptisé Institut de Duve, disait à 95 ans: «Les gens n’ont pas appris à raisonner avec la rigueur et l’honnêteté intellectuelle qu’essaient d’observer les scientifiques. Ils manquent d’objectivité et sont obnubilés par des croyances et des certitudes qui ne se fondent sur aucune réalité démontrable.»

“Ce que je pense” par Daniel Soumillion. Editions 180° – VP 19 euros

Des fissures dans les réacteurs

On parle de fissures observées lors de contrôles des réacteurs Doel 3 et Tihange 2. «Pourquoi ne pas informer le public que les fissures en question ne sont visibles que grâce à des détecteurs ultrasoniques et sont présentes dans le métal depuis plus de 40 ans, lors de la coulée initiale des cuves des réacteurs?», réplique l’expert. «De plus, il ne s’agit pas de fissures, mais bien de bulles d’hydrogène en position laminaire et incluses dans l’épaisseur de la cuve. Toutes les autorités compétentes considèrent qu’elles ne présentent aucun risque de sécurité. Le temps l’a démontré.»

En service depuis 9 ans, le réacteur numéro 4 explose le 26 avril 1986 à Tchernobyl, en Ukraine. Trente morts sur place et des menaces de cancers dans les abords de la centrale nucléaire. «Plusieurs raisons techniques, liées au mode de fonctionnement et de construction du réacteur RMBK, expliquent la perte de contrôle des opérations menées ce jour-là. Le réacteur n’était pas protégé par un bâtiment de confinement, mais tout simplement installé à l’intérieur de l’usine nucléaire!»

«On ose imaginer ce qu’aurait pu être Tchernobyl si cette centrale soviétique avait été protégée par seulement la moitié du nouveau programme de sécurité EPR, European Pressurized Reactor (réacteur pressurisé européen). À l’épreuve d’une chute d’avion, ce ‘containment building’, doté d’une double enceinte de béton armé de 2,6 m d’épaisseur, constitue à lui seul un enfermement total de la production nucléaire. Seules les installations classiques des turbines et alternateurs sont situées en dehors du bâtiment. Le Japon, la Chine et la Grande-Bretagne sont en passe de mettre en production cette nouvelle filière EPR.»

Des explosions à Fukushima

La catastrophe de Fukushima au Japon, en 2011, est aussi classée au niveau 7. Le degré le plus élevé dans l’échelle internationale des événements nucléaires. «À l’origine, l’accident de Fukushima n’a rien de nucléaire», souligne Daniel Soumillion. «Le tsunami et la déferlante qui l’accompagne ont détruit les circuits de refroidissement et par voie de conséquence entraîné les surchauffes de 3 réacteurs suivies de leurs explosions. L’erreur est indiscutablement la localisation géographique de la centrale japonaise, totalement incompatible avec le risque sismique du rivage de l’océan Pacifique.»

«On comprend l’effroi des populations devant de telles catastrophes. Mais pas les conclusions rapides d’y associer les centrales occidentales construites et protégées par des technologies d’une rare exigence. Chaque implantation est analysée selon la fragmentation terrestre locale possible, tenant compte de la structure des sols et du passé sismique historique du lieu.»

Renoncer au nucléaire pour le gaz

«Dire que l’on va abandonner le nucléaire en Belgique n’est qu’une promesse politique. Son irréalisme entraîne d’ailleurs les reports consécutifs de son application. La réponse proposée aujourd’hui est la combustion du gaz. En oubliant qu’elle produira des quantités non négligeables de CO2! À l’échelle européenne, une telle option induit une consommation gigantesque de ce produit fossile.»

Pour l’ingénieur civil, l’avenir du nucléaire est avant tout une question de connaissance et d’information du grand public.

À 52 ans, Daniel Soumillion s’est inscrit en philosophie et lettres à l’Université Libre de Bruxelles (ULB) dans la section histoire. Il devient conférencier spécialisé dans l’époque médiévale. «Après 5 années d’études et d’examens, je pense être devenu un autre homme», conclut-il. «Ni meilleur ni moins bon, simplement plus prudent. Observateur du monde, des hommes et de l’histoire.»

La Chine et l’Inde: deux points noirs sur la carte de la résistance aux antibiotiques vétérinaires

Durée de lecture : 4 min

Le Pr Marius Gilbert n’est pas médecin. Mais il connaît bien la problématique des antibiotiques. Principalement ceux utilisés dans le secteur de l’élevage. Ce secteur est le premier consommateur d’antibiotiques au monde.

Après avoir d’abord travaillé sur une estimation globale de l’utilisation d’antibiotiques dans les élevages dans le monde, Marius Gilbert, Maître de recherche du F.R.S.-FNRS à l’Université Libre de Bruxelles, s’est fendu d’une analyse sur l’impact que pourraient avoir diverses politiques publiques en vue de réduire cette consommation.

En vingt ans, une progression significative des résistances chez le poulet et le porc 

Aujourd’hui, avec des collègues de l’université de Princeton et le Pr Van Boeckel, bioingénieur de l’ULB désormais à l’Ecole Polytechnique de Zurich (ETH), Marius Gilbert vient de publier la première cartographie globale de la résistance aux antibiotiques dans le monde.

En un coup d’oeil, le problème saute aux yeux. Entre 2000 et 2018, la proportion d’antimicrobiens présentant plus de 50% de résistance aux antibiotiques est passée de 15% à 41%.

Distribution géographique de la résistance antimicrobienne dans les pays à revenus faibles ou intermédiaires. Le P50 est la proportion de composés antimicrobiens présentant une résistance supérieure à 50 %.
Distribution géographique de la résistance antimicrobienne dans les pays à revenus faibles ou intermédiaires. Le P50 est la proportion de composés antimicrobiens présentant une résistance supérieure à 50 %.

Pour arriver à ces constats, les chercheurs ont compilé des dizaines de milliers de publications réalisées par des vétérinaires dans le monde. Il en est sorti une base de données intégrée renseignant la présence de bactéries résistantes dans les élevages. Les antimicrobiens présentant les taux de résistance les plus élevés étaient également ceux qui sont le plus utilisés en production animale, à savoir les tétracyclines, les sulphonamides, la pénicilline, et les quinolones.

« Nous parlons ici de la résistance aux antibiotiques utilisés dans le secteur de l’élevage et dans les pays émergents », précise d’emblée le Pr Gilbert, directeur du Laboratoire d’épidémiologie spatiale, à l’école de bioingénieurs de l’ULB.

Manque de régulations en Afrique

« Et plus précisément des élevages de poulets et de porcs. C’est dans les élevages de poulets que les chiffres ont le plus augmenté. La proportion d’antimicrobiens présentant plus de 50% de résistance y a augmenté de 15% à 41%. Pour les porcs, nous constatons une augmentation de 13% à 34%. »

« Au cours de la même période, une autre tendance apparaît également », précise le chercheur. « Sur base des échantillons de viande récoltés et analysés régulièrement, nous remarquons que l’usage des antibiotiques dans le secteur de l’élevage, et dans les pays émergents, a également augmenté ».

Pourquoi ces hausses? « Essentiellement pour éviter que les animaux tombent  malades et deviennent donc impropres à la consommation », explique encore le chercheur. « Il ne s’agit pas, dans la majorité des cas, d’un usage destiné à favoriser la croissance des animaux. Sauf en Afrique, où cette pratique n’est pas régulée ».

L’usage croissant des antibiotiques dans les élevages de ces pays fait écho à la demande toujours plus grande des consommateurs de ces pays pour une alimentation riche en protéines animales. « Cependant, si l’utilisation à grande échelle d’antimicrobiens a permis une production animale intensive, elle a également entraîné une augmentation de l’apparition de maladies infectieuses résistantes aux antimicrobiens chez les animaux. Des résistances qui passent parfois vers les êtres humains », indique la revue Science, qui publie les résultats de cette recherche.

« Hot spots » émergents au Brésil et au Kenya

L’étude à laquelle le Pr Gilbert vient de collaborer révèle aussi quelques « Hot spots » en matière de résistance aux antibiotiques.

Selon ces données, la Chine et l’Inde – qui abritent plus de la moitié des porcs et des poulets du monde – sont les plus concernées par cette problématique. Les chercheurs remarquent aussi que de nouveaux « points chauds » émergent au Brésil et au Kenya.

“Les régions touchées par les niveaux les plus élevés de résistance devraient prendre des mesures immédiates pour préserver l’efficacité des antimicrobiens essentiels en médecine humaine, en limitant leur utilisation dans la production animale “, préconisent les chercheurs. Seront-ils entendus?

Depuis 50 ans, l’IRM surveille l’ozone au-dessus de la Belgique

Durée de lecture : 4 min

Trois fois par semaine, depuis 50 ans, un gros ballon blanc s’élève au-dessus de Bruxelles pour gagner la stratosphère. Ce ballon-sonde de l’Institut Royal Météorologique (IRM) emporte une série d’instruments de mesure de l’atmosphère dont un est consacré à l’ozone, cette molécule composée exclusivement de trois atomes d’oxygène.

« C’est à la fin des années 1950 que les scientifiques ont commencé à s’intéresser aux éléments chimiques présents dans l’atmosphère et à comprendre le rôle important qu’ils y jouent », explique le Dr Daniel Gellens, directeur général de l’Institut Royal Météorologique. « Notamment de l’ozone, qui est un polluant au niveau du sol, mais qui, en altitude, protège les êtres vivants de notre planète des rayons ultraviolets provenant du Soleil ».

L’ozone, molécule amie et ennemie

L’ozone ne représente que 0,001% de l’atmosphère terrestre. À haute altitude (15 à 30 km), il protège la vie sur Terre en bloquant les rayons ultraviolets du Soleil. Plus bas, au niveau de la surface de la Terre, ce composé est nocif pour la santé. Formé par une combinaison de lumière solaire et d’un cocktail de gaz polluants, il peut entraîner des problèmes respiratoires chez les enfants ou les personnes sensibles.

La connaissance et l’évolution temporelle des concentrations d’ozone en fonction de l’altitude sont extrêmement importantes pour la vie sur Terre. Cela permet de mieux comprendre les processus de formation, de dégradation et de répartition de l’ozone dans l’atmosphère et à mieux évaluer l’efficacité des mesures à prendre.

Calibrage des instruments satellitaires

Les ballons-sondes de l’IRM prennent depuis 50 ans des mesures du « profil » de l’ozone. « Leurs instruments mesurent la concentration précise en ozone de l’atmosphère tout au long de leur ascension », précise Daniel Gellens. « Cela nous donne une bonne vision de sa répartition. Pour ce composé chimique, nous disposons d’une des plus longues séries de mesures au monde. Cela a une valeur scientifique, mais a aussi une application directe, pour les satellites par exemple. »

Ces sondages atmosphériques, comme on dit dans le jargon, sont essentiels pour assurer le suivi de la pollution. « On intègre ces données dans les modèles de prévision du temps chimique », indique M. Gellens.

Ils sont aussi cruciaux pour le calibrage des instruments scientifiques présents sur les satellites. Les ballons-sondes mesurent la présence et la concentration réelles des éléments chimiques dans l’atmosphère. Ces données permettent de calibrer et de valider les mesures faites depuis l’espace.

Certes, ces mesures sont plus globales que les mesures localisées. « Mais les données des satellites ne sont jamais que des mesures de bandes d’absorption et de rayonnements réfléchis par certains éléments présents dans l’atmosphère. Pour s’assurer que ces observations spatiales sont correctes, il faut pouvoir confronter leurs résultats à des mesures réalisées in situ. C’est là que les ballons-sondes présentent un bel intérêt », explique le scientifique. « Surtout que nos données sont homogènes ».

Des phénomènes globaux détectés localement

Les mesures locales de l’IRM permettent aussi de détecter différents phénomènes globaux. Par exemple, celui lié au problème du trou dans la couche d’ozone. « C’est surtout du côté du Pôle Sud et dans une moindre mesure du Pôle Nord que cet affaiblissement de la couche d’ozone stratosphérique a été observé », rappelle M. Gellens.

Toutefois, « au-dessus de la Belgique  également, nous avons pu observer une diminution de la concentration en ozone stratosphérique ». Une situation qui, depuis quelques années, semble se résorber. L’interdiction d’utiliser certains polluants destructeurs de la couche d’ozone (protocole de Montréal) commence à porter ses fruits.

Autre phénomène visible dans les séries de données de l’IRM : l’impact des quantités phénoménales de particules émises dans l’atmosphère lors de l’éruption du volcan Pinatubo, aux Philippines, en 1991. Certains des éléments chimiques expédiés dans l’atmosphère lors de l’éruption ont affaibli temporairement la couche d’ozone stratosphérique. Cela se lit dans les données récoltées par l’IRM.