RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 316
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 22 Décembre 2004
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Cinven et Altice créent le 2e câblo-opérateur français
Matière
Infineon dit avoir conçu la plus petite cellule flash du monde
France : le gouvernement donne un coup de pouce aux nanotechnologies
Espace
Succès du lancement du satellite militaire Hélios II-A par Ariane-5
La mission Cassini-Huygens en route vers Titan
Terre
Les courants marins, une source d'énergie pleine de promesses
Honfleur traite les boues par les plantes
Vivant
Découverte fondamentale contre un cancer de l'enfant
Thérapie génique : efficacité confirmée après un essai anglais
Des cellules cardiaques in vitro
Cancer du sein : trois avancées importantes
Quand les vaccins protègent du mélanome
Des virus guident la défense immunitaire contre les cellules cancéreuses
L'ADN : une double hélice éternellement stable
Edito
Nous devons préparer la mutation énergétique vers l'après pétrole



Quand aurons-nous épuisé toutes les réserves exploitables de pétrole ? La question est loin d'être simple car il faut tenir compte d'au moins trois grands facteurs dont l'évolution est difficilement prévisible. Le premier facteur concerne l'ampleur des réserves de pétrole qui restent à découvrir, le deuxième facteur concerne l'évolution de la consommation mondiale de pétrole à long terme et le dernier facteur concerne le taux de récupération des réserves de pétrole "classiques" et l'exploitation de nouvelles formes de pétrole, qui dépendent de l'évolution technologique. (voir le dossier complet dans Nature).

S'agissant des réserves, les chiffres publiés par l'USGS, l'agence de recherches géologiques américaine, sont plutôt rassurants. Les réserves ultimes de pétrole dans le monde s'élèvent à 3 000 milliards de barils (400 milliards de tonnes). Ce total comprend à la fois les ressources déjà extraites et l'ensemble des réserves pour le futur, qu'il s'agisse des réserves "prouvées" ou espérées. Mais l'incertitude est encore très grande, puisque l'USGS reste prudent, et place ce total de 3 000 milliards de barils dans une fourchette qui va presque du simple au double, entre 2 250 et 3 900 milliards de barils. A titre de comparaison, l'humanité entière a déjà extrait et consommé un total d'environ 900 milliards de barils (123 milliards de tonnes) depuis le début de l'exploitation du pétrole. La plus grande inconnue vient évidemment de l'estimation des réserves que l'on s'attend encore à découvrir.

Pour les réserves dites «prouvées», celles qui correspondent aux gisements déjà identifiés par les compagnies pétrolières dans le monde, la situation est heureusement plus claire. D'après la dernière étude statistique annuelle publiée le 15 juin 2004 par la société pétrolière BP, les réserves prouvées s'élèvent à 1.147,7 milliards de barils en 2003, ou 156,7 milliards de tonnes, ce qui, au taux de production actuel, correspond à 40 années de réserves.

D'après les estimations de l'USGS, les réserves de pétrole restant à découvrir seraient à peu près équivalentes aux réserves actuelles prouvées, soit entre 1 000 et 1 100 milliards de barils. Dans ce cas, les réserves pourraient suffire pour encore 60 ans en tenant compte de l'augmentation de la consommation. Il n'y a donc pas de risque à court terme d'avoir une pénurie de pétrole sur la planète. Une autre solution pour augmenter les réserves consiste à améliorer le taux de récupération dans les champs pétroliers déjà en exploitation. On récupère aujourd'hui en moyenne 30 % du pétrole présent dans les gisements mais grâce aux nouvelles techniques d'injection dans les réservoirs, on peut espérer améliorer sensiblement ce taux de récupération, jusqu'où, telle est la question ?

Mais en dépit des progrès scientifiques et techniques, il devient toutefois de plus en plus difficile de trouver de nouveaux gisements de pétrole dont l'exploitation est aisée. Les forages en haute mer se font par des profondeurs de plus en plus grandes, à des coûts forcément plus élevés que l'extraction dans le désert saharien. Les compagnies pétrolières commencent ainsi à s'intéresser de plus en plus à des hydrocarbures dits diffus. Les progrès de l'imagerie du sous-sol grâce à la géophysique permettent également de prospecter dans des régions du globe à la géologie très tourmentée, où le relief trop complexe empêchait auparavant de comprendre la structure du sous-sol.

Les scientifiques sont également mieux armés pour dire à l'avance quelle sera la qualité du pétrole présent dans un champ, comme des huiles extra-lourdes ou des sables asphaltiques, que l'on trouve au Canada et au Venezuela. Leur extraction est encore complexe, mais elle est enfin devenue rentable. Elle est intéressante en plus car les réserves disponibles sont abondantes (de l'ordre de 100 milliards de tonnes) et surtout situées dans des régions loin du Moyen-Orient.

Il reste que, même si l'on envisage le scénario le plus favorable, c'est-à-dire une stabilisation de la consommation annuelle de pétrole à 6 milliards de tonnes à partir de 2020-2025, des réserves totales de pétrole (classiques et non-conventionnelles) de 630 milliards de tonnes et une amélioration sensible du taux de récupération du pétrole, la totalité des réserves pétrolières de la planète sera consommée à la fin de ce siècle. Mais bien avant cette échéance le pétrole va devenir de plus en plus difficile à extraire car l'essentiel des réserves "faciles" auront été exploitées avant 2045. En outre nous pourrions atteindre dès 2025 le pic de la production pétrolière mondiale, ou pic de Hubbert, du nom du géologue américain qui, dans les années 1950, en a théorisé l'existence. Lorsque ce pic de production surviendra, les quantités extraites et commercialisées auront atteint leur maximum et ne pourront plus, ensuite, que décliner inexorablement. Décrue de la production et augmentation continue de la demande : les cours du baril connaîtront alors une croissance inéluctable. Le prix du baril grimpera alors de manière inexorable et pourrait dépasser la barre symbolique des 100 dollars le baril à l'horizon 2030 ! Mais nous voyons déjà les effets de l'échauffement économique en Inde et en Chine sur la demande mondiale de pétrole et l'OPEP elle-même ne parvient plus à maîtriser le prix du pétrole qui s'est envolé au cours de ces dernières semaines pour dépasser le niveau historique de 46 dollars le baril.

Si l'on considère cet épuisement inéluctable des réserves d'énergie fossile ainsi que les conséquences prévisibles de plus en plus catastrophiques du réchauffement climatique provoqué par l'utilisation excessive de ces sources d'énergie polluantes, l'Humanité va donc être confrontée, d'ici le milieu de ce siècle, à un gigantesque défi technique, économique et social : remplacer les énergies fossiles par des sources et des formes d'énergie renouvelables, économiquement viables et socialement acceptées. Le défi est d'autant plus grand que l'ensemble des énergies renouvelables actuellement connues et exploitées (hydraulique, solaire, géothermie, éolienne et biomasse) ne pourront pas, à elles seules fournir, à un coût économique acceptable, toute l'énergie dont le monde a besoin, même s'il faut tout mettre en oeuvre pour accroître de manière considérable leur part dans le bilan énergétique global à l'horizon 2020. A cet égard il faut rappeler l'exemple suédois. Ce pays a voté en 1980, il y a presque 25 ans, l'arrêt des centrales nucléaires mais il n'a toujours pas réussi en 2004 à fermer toutes ses centrales nucléaires, simplement parce qu'il est aujourd'hui impossible de remplacer en totalité, à un coût économique supportable, l'énergie nucléaire par des sources d'énergies renouvelables alternatives. On peut toujours nier cette réalité pour des raisons idéologiques, elle n'en reste pas moins vraie !

Il est vrai cependant que la fusion thermonucléaire contrôlée et l'énergie solaire spatiale représentent deux ruptures technologiques majeures qui pourraient, combinées à l'utilisation de l'hydrogène comme vecteur énergétique, bouleverser la donne énergétique, mais seulement dans la seconde moitié de ce siècle. A cet égard, le prochain lancement du projet international de réacteur expérimental ITER, qui pourrait voir le jour à Cadarache si les japonais donnent enfin leur accord, constitue une étape décisive vers la production industrielle d'énergie grâce à la fusion thermonucléaire contrôlée de l'hydrogène, à l'horizon 2040.

Mais d'ici là, le recours à de nouvelles filières d'énergie nucléaire, encore plus sûres et moins productrices de déchets radioactifs, demeurera indispensable. Toutefois, il ne faut pas s'enfermer trop vite dans une filière technologique unique qui serait l'EPR car il existe d'autres filières, comme les réacteurs à sels fondus-thorium qui offrent à plus long terme des perspectives très intéressantes en matière de sécurité, de rendement et de faible production de déchets radioactifs.Sur cette question sensible nous devons dire la vérité à nos concitoyens et ne pas avoir peur de réfuter les discours irrationnels et les dogmes idéologiques qui s'opposent, par principe, à toute utilisation de l'énergie nucléaire mais s'accommodent dans le même temps des centrales au charbon ou au fioul qui, contrairement au nucléaire, contribuent à l'effet de serre, et sont infiniment plus polluantes et nocives pour notre santé !

Nous devons donc, comme le préconise le gouvernement dans son programme énergétique pour 2020, développer considérablement la part des énergies renouvelables dans notre bilan énergétique (pour atteindre les 40 % d'électricité "propre" en 2030). Pour atteindre cet objectif ambitieux, nous ne devons pas nous focaliser sur une seule source d'énergie renouvelable mais développer considérablement la recherche et l'utilisation de l'ensemble de ces énergies propres, qu'il s'agisse du solaire, de l'éolien, et de la biomasse, mais aussi de la géothermie profonde (le projet-pilote de géothermie profonde menée à Soultz-sous-Forêts, prés de Strasbourg, sera à cet égard décisif). Enfin notre pays doit investir beaucoup plus dans la recherche sur les énergies issues de la mer (énergie marémotrice, énergie thermique des mers et énergie des vagues), un domaine technologique où elle possède une compétence mondialement reconnue depuis la mise en service de l'usine marémotrice de la Rance, il y a bientôt 40 ans.

A cet égard, le projet d'utilisation de l'énergie des courants marins par hydrolienne, proposé par la société Hydrohelix de Quimper mérite d'être évoqué (voir le détail de ce projet dans notre article "Les courants marins, une source d'énergie pleine de promesses", au chapitre Environnement de cette lettre). Selon Hydrohelix, les littoraux breton et normand pourraient fournir une puissance de 3 gigawatts, soit l'équivalent de trois réacteurs nucléaires. La Norvège a mis en service début 2004 la première hydrolienne du Monde et la Grande Bretagne mise beaucoup sur l'exploitation de cette forme d'énergie des mers qui est prévisible et présente en outre un excellent rendement.

Nous devons enfin redoubler d'efforts en matière d'économie d'énergie et nous fixer l'objectif ambitieux d'une croissance économique régulière à consommation d'énergie stable, ce qui suppose un changement profond non seulement dans l'organisation de notre économie mais dans nos habitudes de vie. En effet, même si le protocole de Kyoto va enfin entrer en vigueur le 16 février 2005, grâce à la ratification de la Russie, la récente conférence de Buenos Aires sur le climat, qui devait organiser les pourparlers sur la marche à suivre après 2012, date de l'expiration de cet accord, s'est terminée par un échec, les américains refusant avec obstination de réduire de manière programmée et significative leurs émissions de gaz à effet de serre.

Pourtant, si nous voulons simplement stabiliser le réchauffement climatique de la planète d'ici la fin de ce siècle, nous devrons diminuer de moitié (et non de seulement 5 % comme le prévoit Kyoto) ces émissions. Dans un tel contexte, l'utilisation croissante des sources d'énergie propres va devenir vitale pour l'avenir de l'humanité. Souhaitons que l'ensemble des pays prennent rapidement conscience de cette réalité et se donnent enfin les moyens d'empêcher une catastrophe climatique majeure au cours de ces prochaines décennies.

René Trégouët

Sénateur du Rhône

Fondateur du Groupe de prospective du Sénat


TIC
Information et Communication
Cinven et Altice créent le 2e câblo-opérateur français
Jeudi, 23/12/2004 - 00:00

Cinven et Altice ont conclu un accord pour le rachat des réseaux câblés de France Télécom et de Canal+, créant ainsi le deuxième opérateur français derrière Noos (groupe UnitedGlobalCom). Le fond d'investissement européen et le cablô-opérateur luxembourgeois reprennent, comme attendu, France Télécom Câble (filiale de France Télécom), des réseaux câblés appartenant à TDF (filiale à 36 % de France Télécom), et de NC Numéricâble (filiale du Groupe Canal+, groupe Vivendi). Dans un communiqué commun, les deux acquéreurs indiquent que le montant de la transaction s'élève à 528 millions d'euros. Cet accord fait suite aux négociations exclusives engagées en août dernier visant au regroupement des activités câble de France Télécom et de Canal+ "dans la perspective d'une prise de contrôle par un nouvel actionnaire", rappelle France Télécom dans un communiqué. Il précise que la cession lui rapportera 351 millions d'euros, 87 millions à Canal+ et 90 millions à TDF. Cette transaction sera soumise aux approbations réglementaires et contractuelles.

Les trois sociétés acquises seront détenues à 50,01 % par Cinven, qui sera l'actionnaire majoritaire. Altice détiendra 10,01 % et France Télécom et Canal+ seront actionnaires chacun à hauteur de 19,99 %. Pour ce deux derniers groupes, l'investissement est de 37 millions d'euros, somme correspondant à leur quote part des fonds propres, précise France Télécom. Toutefois, "des conditions de désengagement éventuel, à moyen terme, de France Télécom et du groupe Canal+" sont prévues par l'accord. De source proche du dossier, on indique que France Télécom Câble, les réseaux de TDF et NC Numéricâble "dégagent des excédents bruts d'exploitation positifs". Le nouvel ensemble regroupera l'ensemble des réseaux et des abonnés télévision et internet des deux câblo-opérateurs, soit un total de 1,7 million d'abonnés, talonnant ainsi Noos de très près (un peu plus de 1,8 million d'abonnés). Le financement bancaire a été souscrit et dirigé par BNP Paribas et Calyon.

Reuters

^ Haut
Matière
Matière et Energie
Infineon dit avoir conçu la plus petite cellule flash du monde
Jeudi, 23/12/2004 - 00:00

Le fabricant allemand de semi-conducteurs Infineon a conçu une nouvelle cellule pour mémoires flash qu'il décrit comme la plus petite au monde. Selon Infineon, la structure utilisée dans la nouvelle cellule devrait permettre à l'industrie de réduire encore la taille et le prix des puces mémoires flash, utilisées notamment dans les caméras numériques ou les téléphones portables. Les mémoires flash, qui stockent des informations sans avoir besoin d'alimentation électrique, sont composées d'un grand nombre de cellules. Cette innovation montre que le constructeur allemand, spécialisé dans les mémoires DRAM pour ordinateurs personnels, souhaite devenir un acteur important du secteur des mémoires flash. "Nous sommes entrés tard sur le marché du flash, seulement cette année", a déclaré Reiner Schönrock, un porte-parole de la société. "Mais nous sommes un des acteurs majeurs du marché des mémoires et nous voulons faire partie des leaders du secteur du flash", a-t-il ajouté. La nouvelle cellule a une largeur de 20 nanomètres, 5.000 fois inférieure à celle d'un cheveu humain et quatre fois inférieure à celle de la plus petite cellule flash existante, a affirmé Infineon. "La mémoire flash non volatile la plus avancée sur le marché mesure environ 90 nanomètres et réduire sa taille de moitié en utilisant les techniques classiques s'est avéré très difficile en raison de phénomènes liés à la nanophysique", a déclaré Infineon dans un communiqué.

Selon le constructeur, la structure tri-dimensionnelle unique utilisée dans sa nouvelle cellule permet aux puces de stocker un bit d'information en utilisant 100 électrons au lieu de 1.000. "Mille électrons sont nécessaires aujourd'hui pour distinguer 1 de 0, cela représente du temps et de l'encombrement", a ajouté Reiner Schönrock. Infineon a déclaré qu'il pourrait produire des puces utilisant ces cellules dans quelques années, à condition de résoudre des problèmes de fabrication liés à la petite taille des semi-conducteurs.

Reuters

France : le gouvernement donne un coup de pouce aux nanotechnologies
Jeudi, 23/12/2004 - 00:00

A l'occasion du lancement du Réseau national en nanosciences et en nanotechnologies, le ministre délégué à la Recherche François d'Aubert a annoncé le 16 décembre à Grenoble que le financement attribué à la recherche en nanosciences et nanotechnologies passerait de 30 à 70 millions d'euros par an sur les trois années à venir, soit 210 millions d'euros d'ici à 2007. Le ministre, qui a visité le Laboratoire d'Electronique et de Technologies de l'Information (CEA) et le pôle MINATEC consacré à ces technologies qui travaillent à l'échelle du milliardième de mètre, a souligné qu'un "marché de plusieurs centaines de milliards d'euros pourrait s'ouvrir à nos entreprises d'ici 2010 si on arrive à transformer l'essai". Le gouvernement veut faire des nanotechnologies une priorité nationale, en tant que "future première source de découvertes scientifiques et d'enrichissement économique", a expliqué M. d'Aubert. Evoquant les appels à projets sur les pôles de compétitivité que veut lancer le gouvernement, le ministre a estimé que Grenoble "aurait sûrement le premier pôle de compétitivité, c'est important que cela se passe ici, car cela aura valeur d'exemple". MINATEC doit devenir en 2006 le premier centre européen d'enseignement, de recherche et de développement pour les micro et nanotechnologies. Installé au centre de Grenoble sur huit hectares, MINATEC rassemblera 1.000 étudiants, 20O enseignants-chercheurs et créera un millier d'emplois industriels directs.

Cette course vers l'infiniment petit ouvre des perspectives étonnantes. Bientôt, grâce notamment aux recherches menées dans les salles blanches du Laboratoire d'électronique et de technologie de l'information (Leti) du CEA-Grenoble, il sera possible de stocker l'équivalent de l'information contenue dans la Bibliothèque nationale de France sur des puces de silicium ou de germanium de seulement 2 centimètres de côté ! Les mémoires qui équiperont les ordinateurs et les téléphones portables du futur seront infiniment plus performantes que celles d'aujourd'hui tout en occupant un volume de plus en plus réduit. Quant à la puissance de calcul des ordinateurs, elle pourrait être multipliée par un milliard...

AFP

^ Haut
Espace
Espace et Cosmologie
Succès du lancement du satellite militaire Hélios II-A par Ariane-5
Jeudi, 23/12/2004 - 00:00

Le lancement du satellite d'observation militaire Hélios II-A, et de six micro-satellites, a réussi, samedi, un peu plus d'une heure après le décollage de la fusée Ariane-5 qui les emportait, depuis le centre spatial de Kourou, en Guyane française. "Nous sommes heureux et fiers" du succès de ce lancement et "je tiens à remercier avant tout les hommes et les femmes qui ont travaillé sans relâche pour rendre possible cette réussite", a aussitôt réagi le ministre français de la Défense, Michèle Alliot-Marie, depuis l'Ecole militaire, à Paris, où le lancement a été suivi en direct. "Bravo à tous pour ce superbe succès", avait auparavant lancé, sous les applaudissements, Jean-Yves Le Gall, directeur général d'Arianespace, dans la salle de contrôle du centre spatial guyanais.

La plate-forme Hélios II-A, véritables yeux au service des armées françaises, belges et espagnoles, doit fournir ses premières images au mois de mars, lorsqu'elle sera formellement remise aux forces par la Direction générale de l'armement, responsable de ce programme de 2 milliards d'euros, dont 95 % assumés par la France. D'une masse au décollage d'environ 4.200 kilos, Hélios II-A, dont la durée de vie théorique est de cinq ans, a été construit sous la maîtrise d'oeuvre d'EADS Astrium avec de nombreux sous-traitants européens dont Alcatel Space. "Nul ne peut prétendre acquérir une supériorité militaire de l'information sans systèmes spatiaux", a expliqué, quelques heures avant le décollage, le Contre-Amiral Benoît Montanié, officier général en charge de l'espace à l'Etat-Major des Armées. "Aujourd'hui, mais plus encore demain, l'indépendance spatiale est une des données fondamentales de l'indépendence nationale", a-t-il ajouté. "L'espace ouvre aussi un nouveau domaine de projets fédérateurs de nature à favoriser l'émergence d'une identité européenne de défense et de sécurité", a-t-il souligné, en référence à "la collaboration programmée à court terme avec l'Allemagne et l'Italie" pour la fourniture d'images radars, via leurs systèmes respectifs SARE-Lupe et COSMO-SKYMED.

La séparation d'Hélios II-A est intervenue, comme prévue, une heure et huit secondes après le décollage du lanceur, à 16H26 GMT et 12 secondes, qui a également mis en orbite 4 micro-satellites Essaim pour la défense nationale, le satellite scientifique Parasol et un nano satellite espagnol, Nanosat.

Parasol s'intéresse aux nuages et aux aérosols et à leur influence sur le climat. Quelque trois milliards de tonnes de particules d'origines diverses viennent se loger chaque année dans l'atmosphère. Ces particules ont un impact important sur le bilan radiatif terrestre, la différence entre l'énergie solaire reçue et l'énergie émise par la Terre. Ces aérosols ont un effet dit ''parasol'' inverse de celui de l'effet de serre puisqu'ils font obstacle au rayonnement solaire. C'est ainsi qu'une très forte éruption volcanique, en injectant une importante quantité de poussières dans l'atmosphère, peut entraîner une légère baisse des températures. Dans le même temps cela provoque un réchauffement de la stratosphère. Les aérosols ont également un impact sur la formation et les propriétés des nuages. De plus, selon leur nature, les aérosols n'ont pas tous la même capacité d'absorption du rayonnement solaire. Autant dire que l'impact des aérosols est un facteur d'incertitude dans l'étude et la prévision du climat de la planète. La mission du satellite Parasol est de fournir des informations sur la quantité, la taille et la distribution des aérosols au-dessus des terres émergées et des océans.

Ce vol, le 17ème tir commercial d'Ariane-5, et le troisième cette année, s'est déroulé suivant trois grandes périodes. A l'issue d'une phase propulsée de 27 minutes, destinée à mener l'étage supérieure de la fusée -- celui qui porte les satellites -- sur une orbite stable au niveau de la terre de Baffin (nord du Canada), le lanceur est redescendu sur l'Océan arctique, l'est de l'Asie et puis l'Océan indien, a expliqué M. Le Gall. Une heure et 8 secondes après le décollage, Ariane-5 a survolé la station de Dongara, en Australie : c'est alors que s'est enclenchée la séquence de séparation des satellites, d'abord Hélios II-A puis ses compagnons.

AFP




La mission Cassini-Huygens en route vers Titan
Jeudi, 23/12/2004 - 00:00

La mission européenne Cassini-Huygens s'est rapprochée un peu plus de son but, Titan, en étant mis sur la trajectoire de la plus grosse lune de Neptune au terme d'une manoeuvre effectuée "sans problème", a indiqué le centre de contrôle de l'Agence spatiale européenne (ESA), vendredi à Darmstadt (sud-ouest de l'Allemagne). L'orbiteur Cassini a été injecté sur une trajectoire contrôlée de collision avec Titan, qui lui permettra de libérer la sonde Huygens en la plaçant sur la bonne route. Cette manoeuvre, qui se déroule à quelque 1,25 milliard de km de la Terre, s'est effectuée "sans problème", a précisé à l'AFP le porte-parole du centre de contrôle de l'ESA, Bernhard von Weyhe. La séparation de Cassini et de Huygens est prévue le 24 décembre, vers 01h45 (GMT), selon M. von Weyhe. Après sa libération, la sonde Huygens s'éloignera de Cassini à une vitesse d'environ 35 cm par seconde en tournant sur elle-même environ 7 fois par minute afin de maintenir sa trajectoire balistique. Les deux véhicules spatiaux ne communiqueront plus entre eux jusqu'au déploiement du parachute principal de Huygens dans l'atmosphère de Titan.

Le 28 décembre, Cassini manoeuvrera pour quitter sa trajectoire de collision et reprendre sa mission. Il se préparera à recevoir les données transmises par Huygens qu'il enregistrera en vue de les envoyer plus tard vers la Terre. Huygens demeurera en sommeil jusqu'à quelques heures de son arrivée sur Titan, le 14 janvier. La sonde européenne sera le premier véhicule spatial à venir explorer "in situ" cet environnement sans équivalent, dont les scientifiques pensent qu'il est proche de ce que fut l'atmosphère de la Terre primitive, avant l'apparition de la vie, il y a 3,8 milliards d'années. Le couple Cassini-Huygens, mission commune de la NASA, de l'Agence spatiale européenne (ESA) et de l'Agence spatiale italienne (ASI), a été lancé dans l'espace le 15 octobre 1997. La sonde Huygens est propriété de l'ESA qui en gère les opérations depuis son centre de contrôle de Darmstadt. C'est le Jet Propulsion Laboratory (JPL) de la NASA, à Pasadena (Californie), qui a conçu, développé et assemblé l'orbiteur Cassini.

ESA

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les courants marins, une source d'énergie pleine de promesses
Jeudi, 23/12/2004 - 00:00

Après avoir domestiqué l'énergie des rivières et celle du vent, chercheurs et industriels s'intéressent désormais à celle des courants marins, avec des projets futuristes qui pourraient aider la France à développer ses ressources en énergies renouvelables. Trois acteurs principaux travaillent actuellement sur l'exploitation de cette énergie nouvelle : EDF, le Laboratoire des écoulements géophysiques et industriels (LEGI) de Grenoble et la petite société Hydrohelix Energies, soutenue par l'Institut français du pétrole (IFP) et l'Agence de l'environnement et de la maîtrise de l'énergie (Ademe). Hydrohelix Energies, comme le LEGI, exploite un brevet de turbine baptisée "hydrolienne". Dans le projet de cette micro-société d'ingéniérie basée à Quimper, les turbines sont implantées sur une structure fixée au sol et totalement immergée. Elles récupèrent l'énergie cinétique des courants sous-marins et la transforment en énergie électrique. Plus les courants sont forts, plus les hydroliennes génèrent d'électricité : la France dispose ainsi, au large des côtes bretonnes et normandes, d'un potentiel important grâce aux courants marins liés aux marées, qui sont parmi les plus fortes du monde, mais aussi grâce aux vagues et aux écarts de température entre le fond et la surface de la mer. "Cette technique est sans barrages, respecte les écosystèmes et est sans incidence sur la navigation", affirme Hervé Majastre, co-gérant d'Hydrohelix Energies.

Par ailleurs, à dimension égale, une hydrolienne produit plus d'énergie qu'une éolienne puisque la densité de l'eau est 800 fois plus élevée que celle du vent. L'impact visuel est quant à lui nul ou quasi-nul à la différence des éoliennes, fait valoir M. Majastre. Hydrohelix Energies a envisagé trois sites pour d'éventuels parcs hydroliens : deux au large de la pointe de la Bretagne - l'un d'une capacité de 1.000 mégawatts (MW) sur la Chaussée de Sein et l'autre de 2.000 MW dans le Fromveur - et un troisième sur le Raz Blanchard au large du Cotentin. Sur ce dernier site, 1.500 turbines de 16 mètres de diamètre pourraient générer, compte tenu de courants exceptionnellement violents pouvant atteindre 5 mètres/seconde, une puissance en pointe de 3.000 MW. La production annuelle de ces trois parcs pourrait atteindre les 25.000 gigawattheures (GWh), soit 5 % de la production électrique française. Les coûts de production sont estimés par la société à environ 3,5 centimes d'euro le watt installé, avec un retour sur investissement au bout de sept ans compte tenu d'un coût d'installation de 1 à 1,3 euros le watt. L'usine marémotrice de La Rance, sur l'estuaire de ce fleuve en Ille-et-Vilaine, illustre ce potentiel : elle produit chaque année environ 536.000 MWh, soit l'équivalent des besoins d'une ville de 300.000 habitants.

Cette installation est l'une des principales vitrines en matière d'énergies renouvelables d'EDF, qui envisage de se positionner à moyen terme sur l'exploitation de parcs hydroliens. Courant janvier 2005, EDF va réaliser une première campagne de mesure des potentiels énergétiques des courants marins dans le Cotentin, puis une deuxième en Bretagne au printemps. "Ce qui est très intéressant avec les hydroliennes, c'est qu'il s'agit d'une énergie prédictible et qu'à puissance équivalente, elles occupent moins d'espace que des éoliennes", estime un ingénieur de la division Recherche et Développement d'EDF. Il reste cependant prudent sur l'évaluation du potentiel de cette filière, notant qu'elle est "encore au stade embryonnaire".

AFP

Honfleur traite les boues par les plantes
Jeudi, 23/12/2004 - 00:00

Les villes de Honfleur,d'Equemauville, de Rivière-Saint-Sauveur et de Gonneville-sur-Honfleur viennent de se doter d'une station d'épuration écologique unique en France par sa taille, qui associe les plantes au traitement classique des eaux usées. Prévue pour les besoins d'une ville de 26.000 habitants, cette station d'épuration s'étend sur 4 hectares à l'entrée de la ville et au pied du pont de Normandie, dans un cadre qui l'intègre parfaitement à l'environnement. Dans un premier temps, le traitement se fait de façon classique, c'est-à-dire par voie biologique où les bactéries se nourrissent de la pollution. Toutefois, les plantes interviennent déjà à ce stade puisqu'elles se chargent de traiter l'air et d'éliminer les mauvaises odeurs. L'air vicié traverse un filtre de tourbe granulaire plantée qui associe l'action des micro-organismes à celle des racines des plantes pour bio-dégrader les polluants responsables de ces odeurs. Une fois cette première étape franchie, deux filières complémentaires basées sur les plantes vont prendre le relais : une pour le traitement des boues, l'autre pour affiner encore plus l'eau traitée.

Au cours de cette deuxième phase, les boues sont épandues dans trois lagunes plantées de roseaux. L'eau va déposer ses matières en suspension avant de retourner, grâce à des drains, en tête de la station d'épuration où la pollution restante sera à nouveau traitée. Au bout d'une dizaine d'années, les lagunes seront vidées du terreau qu'elles contiennent et celui-ci pourra être utilisé dans les espaces verts des communes du canton. Ainsi, près de 50.000 m3 de boues liquides vont être transformées chaque année en 700 m3 d'humus. De son côté, l'eau traitée va circuler dans des canaux agrémentés de plantes aquatiques et d'arbustes afin de finir de se débarrasser de ses polluants organiques ou bactériologiques et retrouver des teneurs naturelles d'azote et de phosphore. "Alors que les normes européennes exigent 30 mg/l de matières en suspension, ici à Honfleur, grâce au choix que nous avons fait, l'eau dépolluée est rejetée avec seulement 3 mg/l de matières en suspension", souligne Michel Lamarre, maire de Honfleur. Un "parcours de découverte" a été mis en place dans le jardin de la station qui offre aussi une salle d'exposition afin de sensibiliser les visiteurs, surtout des élus et des scolaires, aux problèmes environnementaux. Cette station, achevée en mars 2004 et inaugurée début novembre, a coûté 8,3 millions d'euros. "Pour la filière eau, nous avons eu un petit surcoût de moins de 5 % par rapport à une installation conventionnelle, et pour la filière boues l'investissement aurait été le même", explique à l'AFP Alain Renouf, directeur du site. La station a été conçue par la société Phytorestore, premier industriel français de dépollution écologique. A son actif, un jardin traitant les eaux pluviales au coeur de Toulouse, un autre sur une friche industrielle de 12 hectares à Caen, ou encore la restauration d'une ancienne décharge en base de loisirs de 26 hectares à Amiens.

Le Soir

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Découverte fondamentale contre un cancer de l'enfant
Jeudi, 23/12/2004 - 00:00

Une équipe de chercheurs Inserm affirme avoir fait une "découverte fondamentale" qui devrait permettre à terme d'améliorer la thérapeutique du neuroblastome, un cancer de l'enfant, selon un membre de cette équipe du centre Léon-Bérard, basé à Lyon. L'équipe menée par le professeur Alain Puisieux et le docteur Sandrine Valsesia-Wittmann a identifié un nouveau oncogène, le gène twist, dont l'interaction avec un autre gène, le N-Myc, empêche l'élimination des cellules cancéreuses.

La cohabitation de ces deux oncogènes réduit l'efficacité des traitements, dans les cas de neuroblastome les plus agressifs, qui touchent chaque année 120 petits enfants. Les chances de survie dans un tiers des neuroblastomes sont inférieures à 5 % pour les enfants de trois ans. A la suite de leur découverte, publiée le 21 décembre, dans la revue scientifique "Cancer Cell" , les chercheurs évaluent actuellement "les possibilités d'application", a expliqué le Dr Valsesia-Wittmann. Des expérimentations en boîtes de culture se sont avérées concluantes. Les chercheurs travaillent actuellement sur des souris de laboratoire. "Nous avons pour objectif de mettre en place des nouvelles stratégies thérapeutiques" en inhibant le gène twist, a déclaré le docteur. Une des pistes envisagées est celle de la thérapie génique. Des industries pharmaceutiques pourraient également étudier le développement de molécules chimiothérapiques qui pourraient éteindre le gêne twist. L'équipe qui a déposé un brevet international n'escompte pas les applications concrètes aux patients avant "une dizaine d'années au mieux", selon la scientifique. Créé en 1945, le centre Léon-Bérard, l'un des 20 centres de lutte contre le cancer en France, compte une centaine de chercheurs.

Cancer Cell

Thérapie génique : efficacité confirmée après un essai anglais
Jeudi, 23/12/2004 - 00:00

Un nouvel essai de thérapie génique conduit à Londres sur des "enfants-bulles" a confirmé l'efficacité de cette technique, après de premiers succès recensés en France voici quatre ans, mais des risques subsistent et des progrès restent à faire. Quatre enfants souffrant de déficit immunitaire combiné sévère (DICS X1), lié au chromosome X, ont pu, grâce à la thérapie génique pratiquée par l'équipe du Pr Adrian Thrasher à Londres, retourner vivre chez leurs parents sans la protection d'une bulle stérile les isolant des microbes.

Maladie génétique rare (cinq cas par an en France) qui ne frappe que les garçons, le déficit immunitaire combiné sévère met le malade à la merci de la moindre infection en l'absense de greffe de moelle osseuse ou de "bulle" protectrice. La correction de leur déficit immunitaire a permis "leur retour à domicile dans un environnement social normal, sans restrictions d'activités", précise le Pr Thrasher dans la revue médicale britannique The Lancet. Ce nouvel essai lancé en juillet 2001 confirme l'efficacité de cette technique, selon les professeurs Alain Fischer et Marina Cavazzana-Calvo (Hôpital Necker, Paris) qui avaient annoncé, en 2000, avoir réussi pour la première fois à corriger un grave déficit immunitaire par la thérapie génique.

Après les essais réalisés en France (dix enfants), Italie (quatre enfants) et Grande-Bretagne, le bilan de cette thérapeutique innovante est "positif", a déclaré à l'AFP le Pr Cavazzana-Calvo. Au total, ce traitement a corrigé la maladie pour 17 des 18 enfants (dont 14 atteints de DICS X1 et 4 d'une autre forme d'immunodéficience), relève-t-elle. Il permet, grâce à un vecteur, d'insérer une copie normale du gène défectueux dans les cellules de la moelle osseuse, de façon que le jeune patient puisse fabriquer un stock suffisant de globules blancs, et en particulier de lymphocytes T, pour assurer la défense de l'organisme. Couronné de succès pendant trois ans, l'essai entrepris en 1999 par les Prs Fischer et Cavazzano-Calvo avait été suspendu en octobre 2002 à la suite d'effets indésirables de type leucémie constatés sur deux enfants. Il a de nouveau été autorisé en mai dernier, mais n'a pas encore repris. Un des deux enfants victimes du phénomène pathogène imprévu "va très bien" après une greffe de moelle osseuse, mais l'autre est décédé début novembre, à l'âge de 5 ans, parce qu'il "n'a pas répondu au traitement" contre cette forme de leucémie, a précisé la spécialiste.

L'interruption de dix-huit mois a permis d'attribuer l'effet indésirable à une erreur d'insertion au sein de l'ADN du "gène-médicament". Les effets toxiques ayant été relevés sur des enfants "traités à l'âge d'un et deux mois", il est donc recommandé de ne pas pratiquer ce traitement avant l'âge de trois mois, explique le Pr Cavazzano-Calvo. "Jusqu'à présent, aucun des patients traités à Londres n'a souffert d'effets secondaires graves", relève-t-elle, soulignant que les résultats de cet essai montrent que la technique mise au point en France est "reproductible", même si le protocole d'essai anglais n'est pas totalement identique "à quelques détails près". Alors que d'autres essais se poursuivent en Grande-Bretagne et aux Etats-Unis, il importe, selon les Prs Fischer et Cavazzano-Calvo, de trouver des vecteurs plus sûrs pour insérer le gène permettant de corriger le déficit immunitaire des jeunes patients. Ils soulignent aussi les possibilités d'extension de la thérapie génique à d'autres maladies potentiellement mortelles affectant le système immunitaire.

BBC

Des cellules cardiaques in vitro
Jeudi, 23/12/2004 - 00:00

Une équipe américaine a réussi à cultiver in vitro des cellules cardiaques de rat fonctionnelles, un résultat remarquable, compte tenu de la complexité de ce type de cellules. Les chercheurs du Massachusetts Institute of Technology (MIT) et de la Harvard Medical School (Massachusetts) ont eu recours au biomimétisme en recréant en laboratoire les signaux électriques d'un coeur embryonnaire en développement. Après 8 jours de stimulation, ils ont ainsi obtenu des cellules présentant toutes les caractéristiques - en terme de structure et de contractilité - d'un tissu cardiaque mature et organisé. Les scientifiques vont maintenant tenter d'implanter chez des rats le film cellulaire formé afin de voir s'il peut s'intégrer à leur coeur et fonctionner normalement. Le but ultime est de parvenir un jour à réparer un myocarde endommagé grâce à la transplantation de cellules cultivées in vitro.

BG

Cancer du sein : trois avancées importantes
Jeudi, 23/12/2004 - 00:00

Un groupe de recherche a mis au point un test génétique appliqué aux tumeurs du cancer du sein dans le but d'évaluer le risque de récidive chez certaines patientes. Ce test a donné de bons résultats et permet d'établir un profil génétique en relation avec le risque de récidive à 10 ans. Cette étude vient de faire l'objet d'une publication avancée sur le site Internet du New England Journal of Medicine. Paik et collaborateurs ont testé dans des tumeurs et par RT-PCR le niveau d'expression de 16 gènes liés au cancer et de cinq gènes contrôles. Les tumeurs provenaient de patientes traitées pour un cancer du sein, sans envahissement ganglionnaire et ayant bénéficié d'un traitement par tamoxifène. Selon ce test, 51 % des patientes ont été classées à faible risque de récidive, 22 % à risque intermédiaire et 27 % à risque élevé.

Le suivi prospectif des patientes a montré que le risque de récidive à 10 ans était lié à la classification donnée par le test. Le taux de récidive était significativement plus faible dans le groupe faible risque que dans le groupe haut risque. Par ailleurs, les auteurs ajoutent que le test était également indicateur de la survie globale.

La seconde avancée concerne le traitement du cancer du sein. Un médicament anticancéreux, de la famille des taxanes issus de l'if, administré avant la chirurgie pour cancer du sein améliore l'efficacité thérapeutique et permet une fois sur deux d'éviter l'ablation du sein : c'est la conclusion d'une étude conduite par des médecins de l'Institut Curie (Paris) auprès de 200 patientes, publiée mercredi (15 décembre) dans le Journal of Clinical Oncology. L'efficacité de cette molécule est déjà connue mais elle était jusqu'à présent utilisée en phase avancée de la maladie. Si les résultats de cette étude se confirment, les taxanes pourraient à l'avenir être administrées avant l'intervention chirurgicale pour diminuer la taille de la tumeur. Une belle nouvelle quand on sait que le cancer du sein est le plus fréquent des cancers en France, avec 42.000 nouveaux cas par an.

L'idée de cette étude, c'est d'administrer un taxane avant l'acte chirurgical. 200 patientes ont été traitées ainsi. Et les résultats sont prometteurs : chez presque 90 % d'entre elles la tumeur a diminué alors que l'on obtient avec le traitement classique 70 % de bons résultats. Surtout, une fois sur deux, cette chimiothérapie a permis d'éviter l'ablation du sein. Alors les médecins de l'Institut Curie qui ont coordonné l'étude préviennent qu'il ne s'agit encore que d'une étude, mais cette molécule pourrait à terme être administrée avant la chirurgie pour diminuer la taille de la tumeur et éviter ainsi plus souvent les ablations. Déjà, la semaine dernière, une enquête présentée lors d'un congrès à San Antonio a confirmé l'efficacité de cette famille de molécules quand on les donne cette fois à des femmes qui ont déjà été opérées d'un cancer du sein : une chimiothérapie avec des taxanes permet de diminuer le risque de récidive et le taux de mortalité.

Dernière avancée: les résultats de l'étude ATAC (Arimidex (anastrozole), Tamoxifen, Alone or in Combination) qui montrent que l'association de l'Arimidex et du Tamoxifen diminue de 26 % les risques de récidive du cancer du sein dans le délais de 5 ans suivant l'intervention chirurgicale.

NEJM

RTL

Lancet

Quand les vaccins protègent du mélanome
Jeudi, 23/12/2004 - 00:00

Deux études publiées simultanément dans l'« European Journal of Cancer » montrent que les vaccins contre la variole (pour l'une) et par le BCG (pour l'autre) apportent une protection contre le mélanome. Le risque de survenue de la lésion est réduit et la survie des sujets atteints est considérablement prolongée. Les deux travaux ont été menés par le groupe de travail de l'Organisation européenne pour la recherche et le traitement du cancer. Dans sept pays, les chercheurs ont enrôlé 542 patients et les ont suivis pendant une moyenne de cinq ans. Chez ceux qui étaient vaccinés contre la variole, la survie a été considérablement prolongée.

Quotimed

Des virus guident la défense immunitaire contre les cellules cancéreuses
Jeudi, 23/12/2004 - 00:00

Le Prof. Volker Schirrmacher du service d'immunologie cellulaire au centre allemand de Recherche sur le Cancer DKFZ (Deutsches Krebsforschungszentrum) a développé une nouvelle méthode d'immunothérapie, jugée très prometteuse. Avec celle-ci, le système immunitaire apprend à reconnaître les antigènes des cellules cancéreuses grâce à un virus et les détruit. Lors de la première phase clinique menée sur 200 patients atteints de cancers de l'intestin, du rein, du sein ou de la peau, 30 % des patients traités par immunothérapie survivent plus longtemps que suite à une thérapie standard. Le traitement se présente sous forme de vaccin en injection sous-cutanée.

Son principe : après une opération de la tumeur, les cellules tumorales sont multipliées en éprouvette. Les dizaines de millions de cellules obtenues sont inactivées par rayonnement et infectées par le virus NDV (Newcastle Disease Virus), virus aviaire inoffensif pour les humains et qui se développe seulement dans les cellules cancéreuses. Ce virus freine ainsi la croissance tumorale et stimule le système immunitaire. La particularité de cette approche : l'antigène tumoral propre du patient est présente au système immunitaire et la cellule tumorale est reconnue comme danger potentiel grâce à l'infection virale. Les effets secondaires observés se limitent à des maux de têtes ou une fièvre légère. Les chercheurs ont également remarqué que le système immunitaire des patients atteints de cancer est capable de reconnaître les cellules tumorales comme corps étranger mais la réaction immunitaire n'est souvent pas assez forte pour mettre en échec le cancer. Il est possible d'activer les lymphocytes T mémoire dans la culture cellulaire, afin que ceux-ci puissent réagir immédiatement en cas de réapparition de cellules tumorales. La biologiste Dr. Christel Herold-Mende mène l'actuelle étude pilote du vaccin : sur 18 patients opèrés d'un cancer avancé de la gorge, 61 % des patients sont encore en vie cinq ans après l'immunothérapie contre 31 % avec une thérapie standard.

BE Allemagne

L'ADN : une double hélice éternellement stable
Jeudi, 23/12/2004 - 00:00

Comment le patrimoine génétique se protége depuis des milliards années contre la lumière des Ultra Violets (UV) ? Les conditions n'étaient pas des plus favorables lorsque la vie est apparue sur Terre. Avant la formation de la couche d'ozone, sa surface était pratiquement stérile à cause des rayons UV de la lumière du soleil. A cette période, la vie n'était vraisemblablement possible que dans les profondeurs des zones immergées. Le souvenir de cette menace du rayonnement UV reste encore apparent dans chaque cellule, décrit un groupe de recherche allemand et polonais dans la revue Science. "Ce rayonnement a d'ailleurs sûrement joué un rôle déterminant dans la configuration de la molécule d'ADN, suppose Thomas Schultz de l'Institut Max Born de Berlin, car l'ADN est véritablement stable au rayons UV. "L'équipe de Thomas Schultz et Wolgang Domcke de l'université technique de Munich a trouvé une explication à cette résistance sur des molécules ressemblant à l'ADN. La marque distinctive de l'ADN est l'enchevêtrement de paires de molécules.

Ces paires de bases lient les deux brins d'ADN à la manière d'une échelle de corde. Les chercheurs ont fait subir un rayonnement imitant la lumière du soleil à une unique paire de base avec une impulsion laser UV très courte. La lumière du soleil contient assez d'énergie pour mettre en marche des réactions chimiques qui ont la capacité de détruire une molécule d'ADN. Les chercheurs sont parvenus à arracher un électron de la paire de base avec une deuxième impulsion laser, augmentant ainsi la prédisposition à une réaction chimique. En changeant la période entre deux impulsions laser, ils ont pu mesurer combien de temps la paire de base reste en état de réactivité après un rayonnement UV.

Cette période est extrêmement courte : 65 picosecondes, durant laquelle la paire de bases transforme l'excédent d'énergie en chaleur sans gravité. L'association entre les bases est décisive car sans elle, l'état de réactivité après un rayonnement UV dure 20 fois plus longtemps. Cette longue période suffit pour qu'il y ait une interaction avec d'autres molécules de la cellule et destruction de celle-ci. "La stabilité de l'ADN contre la lumière UV est une bonne nouvelle vis-a-vis de nos longues expositions au soleil", dit Schultz. Cependant, cette protection naturelle ne peut pas éviter tous les dommages occasionnés par la lumière du soleil sur notre patrimoine génétique. A certains endroits, le rayonnement UV peut occasionner de nouvelles liaisons chimiques. Les cellules disposent cependant d'une enzyme de réparation spécifique, la "Photolyase" qui élimine constamment de tels dommages. Une équipe de recherche allemande et hollandaise a observé cette enzyme en action. L'équipe d'Alexandra Mees de l'université de Munich et de Lars-Oliver Essen de l'université de Marbourg ont décrit dans la revue Science comment la "Photolyase" parvient à ouvrir les liaisons de la molécule d'ADN en profitant de énergie du soleil pour corriger les liaisons incorrectes.

BE Allemagne

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top