|
|
Edito
Avons-nous encore de nombreux projets portés par l’audace ?
Le 26 mars dernier, le TGV japonais "Shinkansen" a transporté pour la première fois des voyageurs jusqu'à l'île septentrionale majoritairement agricole de Hokkaido. Ce train nippon, reconnaissable à son profil très allongé, s'est élancé de la gare centrale de Tokyo et a parcouru 863 kilomètres en quatre heures, avec une vitesse de pointe de 260 km/h.
Depuis plus de 50 ans, les Japonais vouent une véritable passion au Shinkansen, l'équivalent de notre TGV et celui-ci a joué un rôle moteur dans le redressement économique remarquable du Japon de l'après-guerre. L'archipel a inauguré la première de ces lignes entre Tokyo et Osaka en 1964, année des jeux Olympiques de Tokyo.
Ce nouveau tronçon inauguré il y a quelques jours porte sur une distance de 149 kilomètres, dont 54 kilomètres dans un tunnel ferroviaire sous le détroit de Tsugaru qui sépare Hokkaido de l'île principale du Japon, Honshu. Le gouvernement japonais ne compte pas s'arrêter en si bon chemin et prévoit de prolonger, à l'horizon 2035, ce réseau à grande vitesse jusqu'à la ville de Sapporo, chef-lieu de la préfecture.
Rappelons que le Japon dispose déjà du fameux tunnel du Seikan, mis en service en 1988 après 17 ans de travaux. Il s’agit d’un tunnel ferroviaire long de 53,8 km, creusé sous le détroit de Tsugaru au Japon. Il relie Aamori, dans l'île de Honshu, à l'île de Hokkaido. C'est actuellement le plus long tunnel en exploitation du monde, et il le restera jusqu'à l'ouverture commerciale du nouveau tunnel de base du Saint-Gothard prévue à la fin de cette année. Il est légèrement plus long que le tunnel sous la Manche et comporte un tronçon de 23,3 km sous le fond marin (le tronçon sous-marin du tunnel sous la Manche mesure 37,5 km). C'est aussi le tunnel le plus profond.
En Europe, le tunnel sous la Manche, inauguré le 1er juin 1994, et qualifié, non sans raison, de « Chantier du siècle », a définitivement relié la Grande-Bretagne et le continent par le chemin de fer, après deux siècles de projets non aboutis. Composé de deux tubes extérieurs parcourus par des trains, et d'un tube central de service plus petit, il est long de 50,5 kilomètres dont 38 percés sous la mer. C'est actuellement le tunnel ayant la section sous-marine la plus longue du monde. Il est légèrement moins long que le tunnel du Seikan entre les iles d'Honshu et Hokkaido au Japon. En 2015 ce tunnel transmanche a vu passer plus de 10 millions de passagers et près d’1,5 million de camions. Depuis sa mise en service, c’est plus de 330 millions de passagers et 340 millions de tonnes de marchandises qui sont passés par cette liaison ferroviaire sous-marine, des chiffres qui dépassent de loin les prévisions les plus optimistes réalisées à l’époque de l’entrée en service de ce tunnel.
Six ans après l'inauguration du tunnel sous la Manche, le pont-tunnel de l’Öresund a été mis en service entre la Suède et le Danemark, devenant un puissant moteur du développement économique de cette région transfrontalière de Malmö-Copenhague et favorisant la synergie entre grand pôles urbains, tels que Göteborg-Oslo et Stockholm-Helsinki. Un tunnel de 4 km de long, une île artificielle tout aussi longue, Peberholm, et un pont de huit kilomètres de long, forment l’ensemble de cette liaison de 16 km de l’Öresund, qui relie enfin par un lien fixe le continent européen et la péninsule scandinave. Le trafic augmente chaque année et aujourd’hui plus de 70 000 personnes empruntent le pont chaque jour, en train ou en voiture. En 2010, ce pont-tunnel unique au monde a été complété par un tunnel sous la ville de Malmö, relié au pont de chemin de fer, ce qui raccourcit sensiblement le temps de voyage pour Copenhague.
Mais on ne s’en étonnera pas, sept des dix ponts les plus longs du monde actuellement en service sont chinois et deux de ces ouvrages méritent vraiment le qualificatif de pharaonique : le pont Danyang-Kunshan et le Grand viaduc de Tianjin. Le pont Danyang-Kunshan est depuis 2011 le plus long pont du monde, toutes catégories confondues. Ce viaduc ferroviaire appartenant à la LGV Pékin - Shanghai est continu sur 164,8 kilomètres entre les villes de Danyang et Kunshan. Quant au grand viaduc de Tianjin, également inauguré en 2011, c’est un viaduc ferroviaire qui relie les villes de Langfang et Qingxian et fait également partie de la ligne à grande vitesse Pékin-Shanghai. Il est reconnu comme étant le deuxième plus long pont au monde avec une longueur totale d'environ 113,7 km !
Mais si les routes et voies ferrées ne cessent d'étendre leurs toiles sur notre planète, les canaux sont loin d'appartenir au passé et jouent plus que jamais un rôle-moteur dans le transport et les échanges commerciaux. Depuis quelques semaines, le canal de Panama, dans sa version élargie pour permettre le passage de bateaux plus grands, est opérationnel après neuf ans de travaux. Initiés en 2007, les travaux d'élargissement devaient initialement être terminés en 2014, pour le centenaire de ce canal de 80 km qui a bouleversé le commerce mondial. L'expansion, d'un coût estimé au départ de 5,25 milliards de dollars, permettra de faire passer des bateaux transportant jusqu'à 14.000 conteneurs, le triple de sa capacité actuelle. Avec cet élargissement et ses seize nouvelles portes d’écluses, l'Etat du Panama espère multiplier par trois le milliard de dollars de recettes que rapporte actuellement le canal aux finances publiques.
En aout 2015, le canal de Suez, inauguré en 1869, a fait l'objet d'une modernisation et d'un élargissement considérable : 37 des 193 kilomètres du canal existant ont été élargis et approfondis et 35 kilomètres de voie parallèle large de 317 mètres ont été construits par 43.000 ouvriers pour un coût total de 7,8 milliards d’euros. Aujourd'hui, ce canal vital pour l'économie mondiale permet une circulation croisée (et non plus alternée) des navires sur son parcours, et de gagner ainsi beaucoup de temps et donc de flux.
En Europe, le vieux projet de canal à grand gabarit Rhin-Rhône (inscrit au "Plan" dès 1961), chaînon manquant d'une grande liaison fluviale entre la Mer du Nord et la Méditerranée, a été réactivé en juillet 2014 et pourrait permettre, à l'horizon 2030, la circulation de convois allant jusqu'à 4 400 tonnes et l'accès aux 2 000 km du réseau fluvial européen grand format. Cet axe essentiel deviendrait alors un vecteur économique et écologique de développement pour accompagner l'essor inévitable du transport et des échanges de marchandises au sein de notre continent.
Si les voies d'eau reviennent en force dans les transports européens et internationaux, les voies ferrées de nouvelle génération étendent également leur toile en Europe. Les gouvernements français et italien ont signé le 8 mars dernier à Venise, lors d'un sommet franco-italien, un Protocole additionnel aux accords internationaux de 2001, 2012 et 2015 qui permet d’entrer de manière effective dans la réalisation de la liaison ferroviaire Lyon-Turin. Les travaux préparatoires pour le tunnel de base de 57 kilomètres, reliant Saint-Jean-de-Maurienne à Suse seront lancés en 2017 et les travaux définitifs débuteront en 2018.
Cette liaison Lyon-Turin deviendra un maillon central du « corridor méditerranéen », l’un des grands axes prioritaires identifiés par l’Europe pour le transport des voyageurs et des marchandises entre la péninsule ibérique (Algesiras) et l’Europe centrale (Budapest). Le grand pari de cette liaison transalpine est qu'elle permettra un report massif de la route vers le rail. Il est vrai qu'en matière de fret, la France accuse un sérieux retard : la part du rail entre la France et l’Italie n’est que de 10 %, contre 25 % entre l’Autriche et l’Italie et 65 % entre la Suisse et l’Italie
Objet d'un vif débat, cette liaison Lyon-Turin doit être replacée dans une contexte spatial et temporel à sa mesure : elle constituera le quatrième maillon d’un ensemble transalpin cohérent qui comporte trois autres infrastructures en cours de réalisation, qui visent à connecter l’Italie au nord de l’Europe, le tunnel du Lötschberg, 36 kilomètres reliant Milan à Bâle, mis en service en 2007, le tunnel du Saint-Gothard, qui sera mis en service en décembre prochain et le tunnel du Brenner, qui passera sous l’Italie et l’Autriche et sera mis en service en 2025.
Contrairement aux idées reçues, le trafic potentiel du Lyon-Turin est aujourd’hui sous-estimé. Au trafic total de fret Franco-Italien, il convient en effet d'ajouter le trafic Espagne-Italie, qui passe par la Côte d’Azur et pourrait lui aussi se reporter sur le rail, soit au total 2 700 000 camions par an. Il faut en outre souligner que l’Italie est le seul pays voisin de la France non connecté à son réseau à grande vitesse, si bien que les déplacements entre la France et l’Italie du Nord s’effectuent essentiellement par avion (3 millions de passagers par an, autant qu’entre Paris et Toulouse) et par la route.
Selon les opposants au projet, la voie ferrée existante de Maurienne suffirait pour transférer le trafic routier de fret sur le rail. Or elle culmine à 1 300 m d’altitude et présente des rampes de plus de 3 % : ses coûts d’exploitation sont supérieurs de 40 % à ceux d’une ligne de plaine. Le problème n’est pas sa capacité mais son manque de compétitivité face à la route : les camions, eux, empruntent des infrastructures performantes (tunnels du Mont-Blanc et du Fréjus, A40, A43).
Le trafic routier Allemagne-Italie n’est que de 1 200 000 camions par an. Mais les Suisses, soucieux de leur environnement, ont déjà percé deux tunnels ferroviaires de base, le Lötschberg, ouvert en 2007, et le Gothard, qui le sera en 2016. Ces choix stratégiques de nos voisins helvètes se sont avérés judicieux et devraient nous faire réfléchir : depuis l’ouverture du Lötschberg, le trafic Bâle-Milan par voie ferrée est passé de 4 à 12 millions de tonnes par an...
Le tunnel de base du Saint-Gothard est un tunnel ferroviaire bi-tube de 57 km de long passant sous le Massif du Saint-Gothard, en Suisse, et en construction depuis 1996. Reliant les cantons d’Uri à Erstfed et du Tessin à Bodio, il sera inauguré en juin prochain et mis en service à la fin de l’année.
En avril 2011 a également commencé la construction du tunnel de base du Brenner, en Autriche. Le tunnel ferroviaire de base du Brenner constitue la pièce maîtresse de la nouvelle liaison entre Munich et Vérone. Projet commun à l’Italie et à l’Autriche, il traverse les Alpes et passe sous le col du Brenner qui relie les deux pays. Cette ligne servira au transport de personnes et de marchandises.
Ce tunnel ferroviaire de 55 km, le plus ambitieux projet d'infrastructure européen, doit permettre de désengorger à partir de 2025 le col du Brenner, principal point de passage entre le Nord et le Sud des Alpes. Ce corridor de ferroutage, entre Innsbruck et Franzensfeste en Italie, est financé par l'Autriche, l'Italie et l'Union européenne pour un montant estimé à 9,7 milliards d'euros. Une fois relié au contournement souterrain existant au sud d’Innsbruck, ce tunnel totalisera 64 kilomètres. Le coût total de l’ouvrage se chiffre à 8,5 milliards d’euros, dont 40 % seront payés par l’Union européenne, l’Italie et l’Autriche se partageant la part restante.
Quant à l'effort financier réel que représente cette nouvelle liaison transalpine Lyon-Turin, il est, une fois déduite la contribution européenne, de l’ordre de 200 millions d’euros par an sur dix ans, l’équivalent d’une trentaine de km d’autoroute par an. Un tel effort est-il insurmontable pour notre Pays ? S'agissant enfin du bilan-carbone de ce chantier, une étude réalisée par des experts indépendants – Gérard Mathieu, Jacques Pavaux et Marc Gaudry – a démontré que les émissions de carbone lors de la construction de l’ouvrage seraient compensées par les effets des reports de trafic sur le rail en moins de dix ans, contrairement à ce qu'affirment les opposants irréductibles à cette liaison d'avenir.
Comme le souligne avec force Xavier Dulin, Président de la Communauté d’agglomération de Chambéry, « Le tunnel de base améliorera la performance ferroviaire, puisqu'il viendra capter les flux à Saint-Jean-de-Maurienne, en évitant la montée jusqu'à Modane. La pente actuelle vers Modane ne permet pas la performance du transport de fret, et elle ne permet donc pas un plein report modal efficace. Or, de nos jours, les temps de transport influent directement sur les coûts et sur la capacité des entreprises à exporter. A long terme il faudra pouvoir aussi absorber de nouveaux flux de trafic à travers les Alpes, ce que doit permettre de faire le nouveau tunnel. »
Il est parfois utile, pour éclairer les débats actuels, de se pencher sur la genèse et l'histoire des grandes infrastructures construites par nos prédécesseurs. A cet égard, l'exemple du métro parisien est riche d'enseignements. Commencé en 1898, l’immense chantier du métro parisien fut mené tambour battant, sous la houlette de l’ingénieur Fulgurance Bienvenüe, grand serviteur de l’Etat qui dirigea et supervisa tous les grands projets d’aménagement urbain de Paris jusqu’à sa mort en 1936. Dès le 19 juillet 1900, la première ligne (Vincennes-Neuilly) fut ouverte au public. Quinze ans après les premiers travaux, à la veille de la Première Guerre mondiale, le réseau de métropolitain totalisait déjà dix lignes et un réseau de 91 km de longueur. Quant au nombre de voyageurs transportés, il passe de 55 millions en 1901 à 467 millions en 1913.
En 1939, le métro de Paris comptait 159 kilomètres de voies en exploitation et 332 stations. Pourtant, ce métro parisien, aujourd’hui séculaire et totalement inséparable du mode de vie dans la capitale, avait fait l’objet d’une vive opposition au premier temps de sa construction. Comme pour la réalisation de la Tour Eiffel quelques années plus tôt, des riverains mais également des personnalités du monde politique, culturel et scientifique contestèrent, parfois avec véhémence, l’utilité de ce réseau métropolitain. Heureusement, la ville de Paris et l’Etat eurent la volonté politique de mener à bien, sur la durée, cette entreprise remarquable, ce qui permet aujourd’hui, plus de cent ans plus tard, de se déplacer rapidement et facilement dans Paris, alors que la circulation automobile y devient de plus en plus difficile.
Enfin, dans cette liste non exhaustive des grandes infrastructures hors normes, comment ne pas évoquer l’extraordinaire viaduc de Millau, réalisé en seulement trois ans et inauguré fin 2004. Ce pont routier superbe, qui comporte à la fois les deux piles les plus hautes au monde et le tablier le plus long pour un pont haubané (2 460 mètres) fait aujourd’hui la fierté de l’immense majorité des habitants de l’Aveyron et l’admiration des touristes du monde entier. Et pourtant on oublie que ce pont fut lui aussi, avant sa construction, violement contesté, certains opposants allant jusqu’à affirmer qu’il défigurerait à jamais la vallée du Tarn… Mais quiconque a eu la chance de découvrir ce magnifique ouvrage le matin, lorsqu'il émerge de la brume et semble posé dans le ciel, tel un immense voilier, comprend immédiatement que ce viaduc, loin d'enlaidir ce site splendide, le magnifie !
On peut s’en réjouir ou le déplorer, le monde avance. Il change sans cesse et avec lui les besoins des sociétés, des économies et des hommes ne cessent d’évoluer. Le canal du Midi, qui relie sur près de 250 km la Garonne à la mer Méditerranée et fut réalisé en seulement 15 ans, de 1667 à 1682, reste la magnifique illustration d’une volonté politique forte au service de l’intérêt général et du développement économique et humain d’une région et d'un pays tout entier. Deux siècles plus tard, le canal de Suez et celui de Panama et les premiers grands réseaux ferroviaires transcontinentaux, avec les ouvrages d’art si remarquables pour l’époque, constituèrent également des avancées décisives pour raccourcir les distances et faciliter le transport des hommes et des marchandises.
Au cours du dernier siècle, de nouvelles infrastructures, repoussant toujours plus loin les limites techniques, je pense au tunnel sous la Manche ou au réseau ferré à grande vitesse, ont permis un nouveau bond en avant dans le rapprochement des hommes et la facilitation des échanges de toute nature.
Demain, grâce au nouveaux grands équipement en cours d’achèvement ou en construction, tunnel du Saint Gothard, presque achevé, tunnel du Brenner, en cours de réalisation et tunnel Lyon-Turin, à présent définitivement lancé, notre continent disposera d’un réseau de transport des hommes et des marchandises à la fois plus sûr, plus performant et plus respectueux de l’environnement. Souhaitons que ce siècle, sous l’impulsion de visionnaires à la volonté inébranlable, continue à aller de l’avant et se concrétiser de nouveaux grands projets d’équipement qui reculeront encore les limites du génie humain et nous surprendront par leur beauté et par leur audace.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
La société grenobloise id3 Technologies a réussi à faire tourner son algorithme de comparaison biométrique d'empreintes digitales sur de simples cartes à puce. Cette entreprise est la première entreprise au monde à avoir décroché la conformité Minutiae Interoperability Exchange (Minex) de niveau III, établie par le National Institute of Standards and Technology (Nist) américain.
Plus connue sous l'expression « match-on-card », cette technologie d'algorithme de comparaison d’empreintes digitales sur carte à puce est censée offrir une sécurité bien meilleure pour l'utilisateur que les systèmes traditionnels de reconnaissance biométrique. Ce type de protection supprime en effet le recours aux bases de données extérieures à la carte elle-même. Les données personnelles des utilisateurs sont donc préservées des pirates. C'est cette avancée décisive qui garantit la confidentialité des données biométriques car elle intègre à la fois les fonctions de stockage et de comparaison au sein même de l’élément sécurisé qu’est la carte à puce.
Au plan technique, les utilisateurs ont aussi la garantie que l’exécution est très rapide et ne nécessite que très peu de ressources mémoire. Ce qui facilite son portage sur les plates-formes sécurisées existantes. Autre point fort, la certification Minex III démontre que les taux de fausse acceptation sont bas et garantis, quelle que soit l’empreinte digitale comparée. Enfin, « ce nouvel algorithme s'accompagne d'une fonction de fusion multi-doigts qui permet à l’utilisateur de s’authentifier à l’aide de plusieurs doigts simultanément afin d’accroître encore la sécurité du système », explique Jean-Louis Revol, président et cofondateur d’id3 Technologies.
Les applications de cette technologie sont nombreuses. Dans le domaine bancaire, l'entreprise iséroise cible les achats en ligne, les services de banque en ligne et, bien sûr, les cartes de crédit. Dans différents secteurs institutionnels, elle vise à améliorer la protection de l’identité et de la vie privée des personnes avec les cartes d’identité, le vote électronique ou les services de santé. Des applications sont aussi possibles sur les passeports et autres documents d’identité en permettant l’identification plus rapide et plus sécurisée des personnes aux frontières. Sans oublier les badges contrôle d'accès aux bâtiments ou aux ordinateurs.
Article rédigé par Georges Simmonds pour RT Flash
ExpoProtection
|
|
|
|
|
|
|
|
Selon une étude de l'IRENA, l'agence internationale pour les énergies renouvelables, doubler la part des énergies renouvelables de 18 % (chiffres de 2014) à 36 %, d'ici 2030, permettrait de réaliser jusqu'à 4 200 milliards de dollars d'économie par an à l'échelle de la planète. Comment ? Principalement en faisant des économies sur les dépenses liées à la lutte contre la pollution et le changement climatique. Autre atout majeur, 4 millions de décès liés à la mauvaise qualité de l'air pourraient aussi être évités, rapporte Le Monde.
Pour atteindre cet objectif et la barre des 36 %, il faudrait en amont consentir des investissements conséquents. La transition énergétique "augmenterait le coût du système énergétique mondial de 290 milliards de dollars par an d'ici à 2030, mais les économies réalisées par ce doublement, grâce aux dépenses évitées sur la pollution de l'air et du changement climatique, sont 15 fois supérieures à ce coût", souligne l'Irena. Si les plans nationaux des 40 pays suivis par l'Irena dans le champ de cette étude restent en l'état, cette part ne devrait atteindre que 21 % à l'horizon 2030.
Des efforts sont déjà en cours dans le secteur de l'électricité, où la part du renouvelable devrait atteindre 30 % d'ici à 2030, contre 23 % actuellement, soulignent les experts de l'agence. "La prochaine étape nécessitera de s'intéresser davantage aux transports, aux systèmes de chauffage et de climatisation", ajoute l'Irena.
Article rédigé par Georges Simmonds pour RT Flash
IRENA
|
|
|
|
|
|
|
|
Des chercheurs du laboratoire de la Faculté de chimie du Technion, en Israel, ont réussi à produire de l'hydrogène à partir de l'eau en utilisant l'énergie solaire et cette découverte du Professeur Lilach Amirav pourrait constituer une percée majeure.
L'eau et le soleil sont accessibles pratiquement sans limites sur toute la planète et ne sont pas soumis à des contingences politiques ou économiques. Contrairement aux énergies fossiles, l'hydrogène est une source d'énergie non polluante et inépuisable. De plus, il est stockable sans aucune difficulté. La revue scientifique Nano Letters a publié les résultats de l'étude des chercheurs israéliens et constaté que leur procédé permettait de produire 100 % de carburant hydrogène par photocatalyse, alors que les techniques utilisées jusqu'à présent ne parvenaient pas à dépasser les 60 %.
Le système israélien de photocatalyse absorbe la lumière et convertit l'énergie en deux charges électriques positive et négative, qui vont entraîner la réaction chimique de craquage de l'eau. Les chercheurs ont réussi à résoudre les problèmes qui rendaient le procédé dangereux, en particulier la rencontre entre oxygène et hydrogène qui peut conduire à des explosions.
Une particule de dimension nanométrique attire les charges positives, tandis que les charges négatives s'accumulent sur une pointe de platine. C'est la séparation entre ces deux charges qui est la clé du procédé qui va transformer l'eau en hydrogène. Deux photons pourront former une molécule d'hydrogène sans aucune perte. Avec une parfaite conversion, une seule nanoparticule peut produire jusqu'à 360 000 photons d'hydrogène par heure. Le meilleur résultat jamais obtenu.
Article rédigé par Georges Simmonds pour RT Flash
Science Alert
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Un cinquième environ du réchauffement climatique provient des émissions de CO2 issues du secteur industriel. Dans ce contexte, beaucoup d’usines tentent de stocker leurs rejets de CO2. C’est ce que sont en train de faire les deux plus grandes usines de traitement du nickel françaises situées en Nouvelle-Calédonie.
En effet, la production de nickel par fusion puis oxydation du minerai brut (pyrométallurgie) génère des scories qui se comptent en millions de tonnes. Ces déchets sont stockés ou réutilisés par exemple pour des remblais. Avec ce gisement de scories quasi inépuisable, l’île dispose ainsi d’une ressource valorisable. « Un récent projet a en effet montré que non seulement les scories peuvent absorber le CO2, mais que couplée à un procédé innovant dit d’attrition, cette capacité peut être grandement améliorée », explique Solène Touzé, ingénieure au Bureau de recherches géologiques et minières (BRGM).
Cette innovation, qui n’existe encore nulle part ailleurs, a été développée dans le cadre du projet Carboscories (2014-2015). Son principe consiste à immerger les scories dans une eau à 180°C et sous haute pression (20 bars), contenant du CO2 dissous. Une partie des scories se dissout alors, les éléments chimiques réagissent entre eux, et se transforment en minéraux solides. Le CO2 est ainsi minéralisé sous forme de carbonate de magnésium. Au final, les ingénieurs ont obtenu un stockage de CO2 évalué entre 200 kg et 300 kg par tonne de scorie, soit 30 à 50 % de la totalité de CO2 produit par chacune des deux usines calédoniennes. Un résultat encourageant, mais qui ne permettra pas de stocker tout le CO2 produit.
« À la sortie du procédé, on obtient de la poussière de scories, dont la taille est proche du micromètre et dont les propriétés physiques permettraient d’envisager une réutilisation comme ciment », indique Solène Touzé. Ces tests ont pour l’instant été menés sur des quantités réduites (50 g de scories), en laboratoire. Il convient de valider ces résultats en changeant d’échelle, grâce à un pilote de démonstration d’une capacité de plusieurs kilos.
Article rédigé par Georges Simmonds pour RT Flash
BRGM
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Deux études, l'une suédoise, l'autre américaine (1.620 adultes dans l’étude menée en Suède et 1.159 adultes dans celle réalisée aux États-Unis), confirment que le rôle neuroprotecteur du café s'exerce aussi pour la sclérose en plaques. Dans ces études, les sujets atteints par cette maladie ont été comparés à respectivement 2.788 et 1.172 témoins exempts de la maladie et appariés pour l’âge et le sexe. La consommation de café a été évaluée depuis l’adolescence jusqu’à l’apparition des symptômes de la sclérose en plaques.
Les résultats sont similaires dans les deux études, avec une consommation clairement plus faible de café parmi les personnes ayant développé la sclérose en plaques. Dans l’étude suédoise, la consommation de 6 tasses et plus de café par jour (à partir de 900 ml), le risque estimé de sclérose en plaques à 5 et 10 ans est diminué de 28-30 %. Dans l'étude américaine, la réduction du risque est de 26-31 % pour une consommation quotidienne de plus 948 ml.
Si le mécanisme de protection reste à élucider, les auteurs rappellent que la caféine possède des propriétés neuroprotectrices et qu’elle peut réduire la production de composés impliqués dans la réponse inflammatoire.
Article rédigé par Georges Simmonds pour RT Flash
BMJ
|
|
|
|
|
|
|
|
Peut-on imaginer, d'ici quelques années, que les personnes à risque de développer une maladie d'Alzheimer se voient proposer un implant sous-cutané pour prévenir la maladie neurodégénérative ? C’est possible, si l'on en croit les recherches menées à l’École polytechnique fédérale de Lausanne (EPFL).
L’équipe suisse présente, en effet, les résultats d’une étude sur la souris “Alzheimer”. Par un système ingénieux, un implant injecté sous la peau délivre des anticorps en continu pendant plusieurs mois dans la circulation sanguine. Les anticorps franchissent la barrière hémato-encéphalique et atteignent le cerveau, stimulant les défenses immunitaires de l’animal. Résultat : la pathologie cérébrale de l’animal est sensiblement réduite ! “Cette thérapie, peu invasive, pourrait être utilisée avant que la maladie ne se développe”, assure Bernard Schneider, coauteur de l’étude.
Pour comprendre le principe il faut se rappeler que la maladie d’Alzheimer se caractérise par l’accumulation au fil du temps d’une protéine cérébrale anormale, l’amyloïde bêta, qui s’agrège en plaques. Cette accumulation proviendrait, selon les études précédentes, d’un mauvais nettoyage (clairance) du cerveau. À long terme, les plaques amyloïdes déclenchent une tauopathie, une altération d’une protéine (Tau) du neurone qui aboutit à leur neurodégénérescence, à l’origine des symptômes (pertes de mémoire, désorientation, confusion, troubles comportementaux...), selon l’hypothèse de la “cascade amyloïde”, en tout cas, étayée par des preuves génétiques solides.
Bloquer l’accumulation et l’agrégation de l’amyloïde bêta en début du processus est une stratégie privilégiée actuellement par de nombreux essais cliniques. Une des méthodes consiste à stimuler le nettoyage déficient du cerveau, en stimulant les défenses immunitaires. Une sorte de vaccin ou immunothérapie.
Pour cela, on injecte des anticorps dirigés contre l’amyloïde bêta, qui vont se fixer sur les protéines anormales et attirer les cellules nettoyeuses du cerveau. Plusieurs essais thérapeutiques de phase 2 et 3 sont en cours (Aducanumab, crenezumab et Solanezumab). “Aujourd’hui les essais sont menés par l’injection d’anticorps en intraveineuse, une fois par mois, qui nécessite une hospitalisation, souligne Bernard Schneider. Outre le fait que c’est contraignant, cela provoque un pic important d’anticorps soudain dans l'organisme, qui n’est pas sans poser de problème".
C’est pourquoi l’équipe de l'EPFL a eu l’idée de créer un implant spécifique pour diffuser ces anticorps anti-amyloïdes. Pour cela, les scientifiques ont encapsulé de véritables usines à fabriquer des anticorps : des cellules musculaires de souris, génétiquement modifiées pour produire les précieuses molécules.
Une fois que la capsule de 27 millimètre de longueur sur 12 de largeur est placée sous la peau, elle libère des petites doses journalières d'anticorps qui rejoignent alors la circulation sanguine, jusqu’au cerveau. Et ce, pendant dix mois ! Les résultats sont prévus en 2022. S'ils sont probants, l’implant prendra tout son intérêt. “Il pourrait être injecté aux patients à risque, dix ans avant les premiers symptômes, dans l’espoir de les retarder”, conclut le chercheur. Une véritable espoir de prévention est né.
Article rédigé par Georges Simmonds pour RT Flash
Brain
|
|
|
|
|
|
|
|
Les acides gras apportés par l'alimentation semblent jouer un rôle important dans la prolifération des cellules cancéreuses : selon leur nature, ils peuvent favoriser ou à l'inverse inhiber la croissance tumorale. Plusieurs études ont montré que le DHA, un acide gras majeur au sein de la famille des omega-3, peut limiter le risque et l'évolution des cancers colorectaux. Cette régulation repose sur les propriétés anti-inflammatoires de la molécule, dont des chercheurs Inserm ont voulu mieux décrire le fonctionnement.
Leur travail a confirmé que le DHA agissait en conduisant à l'inhibition dose-dépendante de plusieurs médiateurs inflammatoires et l'augmentation de l'apoptose des cellules tumorales. Conduite sur des cellules de tumeur colorectale en culture, cette étude a en outre mis en lumière un phénomène inattendu : le DHA conduit également à l’augmentation de la production de l'un des médiateurs clés du processus d'inflammation, le TNFα.
L'inflammation est une composante indissociable du cancer : non seulement elle favorise la cancérogenèse dans différents types de tumeurs, mais elle permet aussi le maintien d'un microenvironnement favorable à la croissante tumorale. Dans ce paysage, "le TNFα est un médiateur paradoxal, explique Mickael Rialland qui a dirigé l'étude. Selon l'environnement local, il favorise la croissance des cellules tumorales ou, au contraire, leur mort par apoptose ou nécrose programmée".
Les chercheurs ont voulu comprendre pourquoi le TNFα était augmenté par le DHA, au contraire des autres messagers de l'inflammation. Pour cela, ils ont étudié le phénomène chez des souris porteuses de tumeurs colorectales humaines, un système permettant de distinguer le TNFα produit par les cellules tumorales de celui produit par les souris. Résultat : "lorsque le DHA est administré à l'animal, le TNFα humain augmente tandis que le TNFα murin diminue. L'oméga-3 provoque donc une production autocrine de TNFα par les cellules tumorales qui favorise leur propre mort". La cascade moléculaire dirigeant le phénomène implique notamment des microARN, dont le rôle de régulateur d'expression génique a été récemment décrit.
Le TNFα est donc un médiateur inflammatoire qui joue un rôle important dans la croissance des tumeurs colorectales et dans le mécanisme anti-inflammatoire du DHA. Ces études pourraient aussi permettre de comprendre les relations structure-activité des oméga-3, et de déterminer le profil moléculaire des tumeurs sensibles à l’effet anti-cancéreux de ces acides gras.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Le brocoli n'en finit pas de dévoiler ses effets bénéfiques sur la santé. Alors qu’une étude a montré son influence positive sur la réduction des risques de cancer du foie, des recherches réalisées à l’Ecole polytechnique fédérale de Zurich (EPFZ) ont montré que ce légume de la famille des choux améliorerait l’efficacité d’un médicament destiné au traitement contre le cancer du côlon.
Cette découverte n’est pas anodine, car ce genre de traitement n’est pas sans conséquences. « Les médicaments anti-cancer ont souvent des effets secondaires importants. Toute approche qui permettrait de réduire les doses médicamenteuses tout en maintenant l’efficacité est donc la bienvenue », estime Shana Sturla, professeur à l’unité des sciences et technologies de la santé à l’ETHZ et auteur principal de l’étude.
Le sulforaphane est un composé présent dans les légumes crucifères comme le brocoli, mais aussi les choux de Bruxelles et les choux-fleurs. Les chercheurs ont testé son effet sur une variété de cellules saines ou cancéreuses de l’intestin et du côlon, à des concentrations correspondant à l’équivalent d’un repas contenant des brocolis.
Ils ont alors remarqué que le sulforaphane faisait grimper la concentration dans les cellules d’une enzyme particulière, AKR1C3. Mais pas dans tous les cas. Lorsque la concentration d’AKR1C3 était faible, il n’avait aucune action. En revanche, quand elle était déjà élevée, il la faisait encore augmenter.
Cette découverte est intéressante pour deux raisons : la présence de l’enzyme dans les cellules est accentuée par le cancer, et elle active la molécule du traitement, qui voyage jusqu’au côlon sous une forme inoffensive. En mangeant un peu de brocoli, les cellules visées seraient donc à la fois plus exposées, et plus sensibles. Les doses de médicament pourraient donc être réduites.
« Ce qui est intéressant avec le sulforaphane, c’est qu’il est présent naturellement dans notre alimentation, et qu’il n’est pas toxique aux doses pour lesquelles nous l’avons testé », précise le Professeur Sturla. « En plus, son effet n’a été observé que sur les cellules cancéreuses, et pas sur les tissus sains, ce qui pourrait s’avérer important pour éviter les effets secondaires néfastes de la combinaison ». Les chercheurs souhaitent maintenant avancer les recherches et étudier l’effet du brocoli sur des patients sous traitement, mais aussi étudier l’effet de la combinaison de médicaments avec d’autres aliments ordinaires.
Article rédigé par Georges Simmonds pour RT Flash
PLOS
|
|
|
|
|
|
|
|
Une alimentation excessive en glucides pourrait-elle augmenter le risque de développer un cancer du poumon, y compris chez les non-fumeurs ? Peut-être, selon une nouvelle étude intitulée Glycemic Index, Glycemic Load, and Lung Cancer Risk in Non-Hispanic Whites.
Ces recherches se sont focalisées sur la consommation d'aliments avec un indice glycémique élevé, comme le pain blanc, la purée de pommes de terre ou le riz soufflé. 1 905 patients récemment diagnostiqués d’un cancer du poumon ont été recrutés ainsi que 2 413 individus en bonne santé. Tous ont été interrogés sur leur alimentation à l’aide d’un questionnaire. Les résultats montrent qu’un régime alimentaire riche en glucides à indice glycémique élevé est associé à un risque accru (+49 %) de développer la maladie, en particulier chez les non-fumeurs.
Plus un aliment a un index glycémique élevé, plus il a la capacité d’augmenter la glycémie dans le sang et plus l'insuline est libérée pour réguler cette élévation. Selon les auteurs, la présence d’insuline en grande quantité dans le sang élèverait les niveaux d'un certain type d’hormones de croissance dites "IGF" ou "IGF-1" ("Insulin-like Growth Factor"), suspecté de favoriser le risque de cancer du poumon.
Article rédigé par Georges Simmonds pour RT Flash
NCBI
|
|
|
|
|
|
|
|
Chaque année, trois-cents millions de tonnes de plastique sont produites dans le monde et l'on estime que d'ici 2050, il y aura plus de plastique dans l'océan que de poissons. Face à un tel constat, les spécialistes tentent de découvrir de nouvelles méthodes de traitement de ces déchets et une équipe japonaise vient de dévoiler une piste plutôt inattendue. Elle a en effet identifié une espèce de bactérie capable de décomposer un type de plastique contenu dans la plupart des contenants jetables, d'après l'étude publiée dans la revue Science.
Le micro-organisme en question a été baptisé Ideonella sakaiensis. Selon ses découvreurs, le spécimen pourrait assimiler complètement le polytéréphtalate d’éthylène (PET), un plastique de type polyester saturé que l’on retrouve dans un grand nombre d’emballages plastiques comme les bouteilles de boissons gazeuses par exemple.
La légèreté et résistance du PET en font un matériau aussi bien privilégié par les industries que redouté par les organisations environnementales qui pointent du doigt sa difficulté à se biodégrader. Pour remédier au problème, plusieurs projets de recherche ont été menés afin de développer de nouvelles techniques de traitement permettant d’éliminer cette matière plastique.
Le PET étant un polymère, à savoir une macromolécule constituée d’une répétition de molécules plus petites, sa décomposition consiste grossièrement à casser les liaisons entre chacune des sous-unités. De précédentes études avaient déjà identifié quelques espèces de champignon capables d’une telle entreprise. Toutefois, jamais cette faculté n’avait été observée jusqu’à présent chez une bactérie. La bactérie pionnière Ideonella sakaiensis est la première de son genre.
L’organisme décompose le plastique en sécrétant deux enzymes ciblant spécifiquement les liaisons moléculaires. Sa découverte a été réalisée en récoltant et en passant au crible 250 échantillons de PET recueillis dans le sol et les eaux usées d’un site utilisé pour le recyclage des déchets plastiques. Grâce à ces analyses, les chercheurs ont mis en évidence la colonie de bactéries mangeuses de plastique vivant sur ces échantillons.
L’activité nécessite deux réactions enzymatiques pour transformer d’abord le support en un produit intermédiaire puis pour décomposer celui-ci et produire, par la même occasion, le carbone nécessaire à leur croissance. A terme, l’activité de dégradation pourrait être intensifiée ou identifiée sur d’autres micro-organismes plus efficaces pour obtenir des solutions tangibles.
Article rédigé par Georges Simmonds pour RT Flash
Science
|
|
|
|
|
|
|
|
Une étude américano-japonaise, dirigée par le Prix Nobel 1987 de Médecine Susumu Tonegawa, vient accréditer l'idée que, dans la maladie d'Alzheimer, le souvenir du passé n'a probablement pas été effacé, mais est simplement inaccessible. "Etant donné que la mémoire des humains et des souris tend à fonctionner sur un principe similaire, notre découverte laisse penser que les patients atteints de cette maladie, du moins dans les premiers stades de développement, conservent peut-être aussi les souvenirs dans leur cerveau, ce qui offre l'espoir d'un traitement", a expliqué Susumu Tonegawa, directeur du Riken-MIT Center for Neural Circuit Genetics (de l'Institut public japonais Riken et du Massachusetts Institute of Technology aux Etats-Unis), qui a mené les travaux.
Les scientifiques débattent depuis de nombreuses années sur le fait de savoir si l'amnésie provoquée par un traumatisme crânien, le stress ou des maladies comme Alzheimer, résulte de dommage de cellules cérébrales spécifiques qui, dans ce cas, rendraient impossible de recouvrer la mémoire, ou si l'accès à ces souvenirs en est la cause.
Pour trancher entre ces deux hypothèses, l'équipe a placé des souris dans une cage où elles ont reçu, à 24 heures d'intervalle, une faible décharge électrique dans les pattes. Résultat : les souris bien portantes ont alors manifesté leur peur, se remémorant le désagréable choc ressenti un peu plus tôt.
En revanche, celles "atteintes" d'Alzheimer sont restées sans réaction mais, quand les chercheurs ont stimulé avec une lumière bleue le réseau de neurones dits "engrammes", associés à la formation d'un souvenir, elles ont recouvré la mémoire de la décharge. Les scientifiques ont utilisé une technologie de réactivation appelée optogénétique, qui consiste à ajouter des protéines aux neurones pour les rendre sensibles à la lumière.
En outre, en examinant la structure physique du cerveau des souris, les chercheurs ont constaté que les malades avaient moins de synapses (connexions entre les neurones). Or, des stimulations lumineuses répétées ont permis d'en augmenter le nombre à des niveaux comparables à ceux recensés chez les autres rongeurs.
Pour M. Tonegawa, "Cela signifie que les symptômes de la maladie d'Alzheimer ont disparu". "La maladie, à un stade précoce, pourrait être soignée à l'avenir si est développée une nouvelle technologie qui remplit les conditions éthiques et de sécurité".
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Les jeunes enfants constituent le principal réservoir deStreptococcus pneumoniae, puisque plus de la moitié abritent ce germe dans leur nasopharynx. A cet égard, ils peuvent, davantage que les adultes, contribuer à la survenue de streptococcies invasives (pneumonies, septicémies, méningites, etc.), en particulier chez les patients ayant des comorbidités.
Une équipe de Barcelone s’est donc demandé si l’introduction dans le calendrier vaccinal pédiatrique des vaccins antipneumococciques conjugués a eu un effet sur la mortalité de la population adulte. Ils ont distingué trois périodes : 1994‐2001 (intervalle de référence), 2002‐2009 (années d’utilisation du vaccin conjugué heptavalent), 2010‐ 2013 (années d’utilisation du vaccin conjugué à 13 valences).
Globalement, les infections invasives correspondant aux sérotypes ciblés par le vaccin à 7 valences étaient associées à une augmentation des décès. Cependant, pour la tranche d’âge 18-64 ans, la mortalité s’est abaissée régulièrement entre 2002 et 2013 puisqu’elle était de 22 % au cours de première période étudiée, de 14 % entre 2002 et 2009 puis de 12 %. De plus, cette diminution était en rapport avec le déclin des sérotypes du vaccin heptavalent et des décès liés de façon spécifique à ces derniers.
Cette étude catalane a ainsi permis de montrer que la vaccination des enfants contre le pneumocoque entraîne une baisse de la mortalité au cours des infections pneumococciques graves de l’adulte, vraisemblablement via un effet indirect de protection de groupe, les sérotypes pneumococciques visés par le vaccin étant également en baisse.
Article rédigé par Georges Simmonds pour RT Flash
Journal Of Infection
|
|
|
|
|
|
|
|
Une étude présentée par la Fondation de recherche contre le cancer de la prostate de Rotterdam, lors du congrès de l'Association européenne d'urologie à Munich, a confirmé l'intérêt d'une surveillance active chez les patients atteints d'un cancer de la prostate de bas grade.
Le cancer de la prostate reste le plus courant chez les hommes avec 400 000 nouveaux cas chaque année en Europe. Le traitement standard – chirurgie ou radiothérapie – expose à des complications invalidantes. Mais certains cancers dits à faibles risques se développent lentement. D'où le concept de surveillance active qui consiste à mesurer le PSA tous les 6 mois avec une biopsie tous les ans.
Dans l'étude dirigée par le Docteur Lionne Venderbos, la qualité de vie a été évaluée au moyen de questionnaires chez 427 patients âgés entre 66 et 69 ans diagnostiqués pour un cancer à faibles risques. Pendant les 5 à 10 ans qu'a duré le suivi, 121 ont été sous surveillance active, 74 ont été opérés et 232 ont eu des séances de radiothérapie. Un groupe témoin de 204 hommes qui n'avaient pas de cancer de la prostate a aussi été observé.
Les résultats montrent que les patients sous surveillance ont une meilleure qualité de vie que ceux ayant été opérés. Pour la scientifique, si un homme est diagnostiqué pour un cancer à faibles risques, on devrait donc envisager les trois possibilités : la chirurgie, la radiothérapie ou la surveillance.
Article rédigé par Georges Simmonds pour RT Flash
Prostate Cancer News Today
|
|
|
|
|
|
|
|
Une étude de l’Université de Pittsburgh, conduite par le Docteurr James T. Becker, professeur de psychiatrie, à la Pitt School of Medicine, montre que quel que soit le sport, l’exercice ou l’activité, les personnes âgées, physiquement actives, ont plus grand volume de matière grise dans les zones du cerveau responsables de la mémoire et de la cognition.
Avec le vieillissement, les gens deviennent plus sédentaires, ce qui accroît leur risque de développer la maladie d’Alzheimer et/ou d’autres démences. Pourtant, cette pratique de l’activité physique qui inclut le bricolage, le ménage et le jardinage, bénéficie aussi aux personnes déjà atteintes de la maladie ou de troubles cognitifs légers en favorisant une moindre réduction du volume de la matière grise au fil du temps.
L’étude a examiné la relation entre l’activité physique et le déclin cognitif à partir des données de 876 participants, âgés de 65 ans ou plus, participant à une étude multicentrique, la multicenter Cardiovascular Health Study. Ces participants suivis durant 5 ans, ont passé des scans du cerveau et des tests cognitifs. Ils ont également été interrogés sur la fréquence de leurs activités physiques, et leur dépense calorique a été évaluée.
L’analyse montre que les participants ayant brûlé le plus de calories sont ceux qui ont les plus grands volumes de matière grise dans les lobes frontal, pariétal et temporal du cerveau, des zones associées à la mémoire, l’apprentissage et à l’exécution des tâches cognitives complexes. Cette étude montre également que ceux ayant la dépense énergétique la plus élevée présentent également des volumes de matière grise plus élevés que lors des scans initiaux, et sont 2 fois moins susceptibles de développer la maladie d’Alzheimer à 5 ans.
Au final, ces recherches confirment que la pratique d'une activité physique peut contribuer à augmenter la matière grise chez des patients âgés et à prévenir la détérioration de la mémoire.
Article rédigé par Georges Simmonds pour RT Flash
Journal of Alzheimer's disease
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
Le site de La Sima de los Huesos, dans le Nord de l’Espagne, est un véritable gisement d’ossements pour les anthropologues. Il fait l’objet de fouilles permanentes depuis sa découverte en 1984. Après plus de trois décennies d’études, les scientifiques ont identifié plus de 7000 ossements humains fossilisés. Une fois assemblés, ces ossement ont pu être attribués à 28 individus de l’espèce Homo heidelbergensis.
En 2013, les équipes de chercheurs avaient pu extraire et étudier de l'ADN mitochondrial (ADNmt), transmis uniquement par la lignée maternelle. Ils avaient conclu que l'ADNmt de La Sima de los Huesos est plus étroitement lié à celui de l'homme de Denisova, que des Néandertaliens. Cela était assez inattendu car, d’un point de vue morphologique, les fossiles étaient clairement apparentés à ceux de Neandertal.
« La Sima de los Huesos est actuellement le seul site non-permafrost qui nous permet d'étudier des séquences d'ADN humain du Pléistocène moyen, il y a plus de 125.000 ans », explique Matthias Meyer (Institut Max Planck d'Anthropologie Evolutionnaire, Leipzig, Allemagne).
Les échantillons ont été prélevés sur une dent et dans un os de la cuisse trouvés dans la fosse de la Sima de los Huesos. L'analyse de l'ADN à partir d'échantillons anciens est très difficile car il est impératif d’éliminer toute pollution externe. Mais, grâce à la méthode sécurisée qui a permis d’exhumer les ossement d’un côté et les progrès dans l'échantillonnage génétique et la technologie de séquençage de l’autre, l'équipe a été en mesure de reconstituer des parties du génome. L’étude a été publiée par Matthias Meyer dans la revue Nature.
"Nous avons éliminé certains des spécimens et gardé les autres, extraits avec des instruments contrôlés et laissés dans l'argile afin de minimiser les risques d’altérations de la matière qui pourrait avoir lieu après les fouilles" déclare Juan-Luis Arsuaga (Université Complutense de Madrid).
Ces nouvelles études, basées sur l’ADN nucléaire, ne confirment pas exactement la précédente étude génétique sur ADNmt. Si les hommes de la Sima de los Huesos sont également en relation avec les Denisoviens, ils sont beaucoup apparentés avec Homo néandertalensis. Les hominidés de la Sima de los Huesos appartiennent à la lignée évolutive des néandertaliens.
Cette constatation indique que la divergence de la population entre les hominidés de Denisova et les Néandertaliens avait déjà eu lieu il y a 430.000 ans, quand les hominidés Sima de los Huesos vivaient. Pour les chercheurs du Max Planck Institut, cela peut également indiquer que les néandertaliens ont acquis différents génomes mitochondriaux ultérieurement, peut-être le résultat de flux de gènes en provenance d'Afrique.
Pour Svante Pääbo (Institut Max Planck), "Ces résultats fournissent des points d'ancrage importants dans la chronologie de l'évolution humaine. Ils sont compatibles avec une divergence plutôt précoce de 550.000 à 750.000 années de la lignée humaine moderne et de celle des humains archaïques".
Article rédigé par Georges Simmonds pour RT Flash
Science
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|