RTFlash

RTFLASH Recherche & Technologie
NUMERO 289
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 07 Mai 2004
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Les députés adoptent définitivement le projet de loi sur l'économie numérique
Abonnement téléphonique: les opérateurs tiers court-circuitent France Télécom
Avenir
De nouveaux nano-moteurs redémarrables à volonté
Un "ordinateur moléculaire" pour traiter le cancer
Matière
Le remplacement du pétrole par l'hydrogène suscite un débat sur ses effets environnementaux
Espace
Un "train de l'espace" pour percer les mystères du réchauffement climatique
Le Sénat américain ne veut pas laisser les Etats-Unis sans navette
Vivant
Alzheimer: pas de résultats avant plusieurs années
La pollution atmosphérique causerait prés de 5000 morts par an en France
Des cellules souches programmées pour devenir des dents
Des cellules souches de moelle épinière converties en cellules cérébrales
Les cellules souches peuvent sauver les enfants ayant le syndrome de Hurler
Recherche
La recherche scientifique américaine est en perte de vitesse
Edito
Réchauffement climatique : la piste cosmique se confirme



Aujourd'hui il ne fait plus de doute que l'accélération inquiétante du réchauffement climatique planétaire enregistré depuis un siècle est lié au développement de l'industrialisation et à l'augmentation des émissions de gaz à effet de serre, CO2, méthane et halocarbures notamment. On sait notamment, grâce à l'analyse de carottes glacières que les concentrations de CO2 avant 1750 sont constantes sur plus de dix mille ans, et n'ont jamais dépassé la valeur de 1750 (280 ppmv), alors qu'aujourd'hui nous sommes déjà à 350. On sait également qu'au cours du siècle dernier, la température moyenne à la surface de la planète s'est élevée d'environ 0,6°C, la couverture neigeuse et les étendues glaciaires se sont réduites et le niveau de la mer s'est élevé de 10 à 20 cm. Mais si ce rôle déterminant des activités humaines sur le réchauffement climatique est de moins en moins contesté, il se pourrait que l'homme ne soit pas le seul responsable de cette évolution et que deux facteurs d'origine cosmiques, les rayons cosmiques galactiques, d'une part, et l'activité magnétique du soleil, d'autre part, jouent un rôle beaucoup plus important qu'on ne l'imaginait jusqu'à présent sur le réchauffement de notre planète. A cet égard, un remarquable article publié dans la revue "Arts et Métiers" (malheureusement non disponible en ligne), fait le point sur les derniers développements de cette thèse qui attribue une part importante -bien qu'encore impossible à déterminer avec précision- du réchauffement planétaire à ces deux facteurs cosmiques. Tout commence avec la découverte inattendue par un satellite, en 1997, d'une corrélation très nette entre intensité des rayons cosmiques provenant de notre galaxie et l'étendue de la couverture nuageuse globale sur Terre qui influe sur la température. D'autres travaux récents montrent que le passage de notre système solaire à travers les bras spiraux de notre galaxie, zones de forte activité stellaire, provoque des pics d'intensité de rayons cosmiques galactiques (RCG) à une périodicité d'environ 140 millions d'années. Or l'étude des variations de la température de la mer (grâce aux coquillages fossiles) montre qu'il existe bien une véritable corrélation entre pic d'intensité du rayonnement cosmique et basses températures. Cette corrélation est d'autant mieux établie qu'elle se vérifie sur plusieurs oscillations. Selon ces études une diminution des RCG entraîne une diminution de la couverture nuageuse et in fine un réchauffement du climat. Après ces travaux, la variation de ces RCG pourrait être responsable des trois quarts des perturbations climatiques au cours de cette longue période de 545 millions d'années sans activité humaine. Mais ces variations d'intensité des RCG ne seraient pas seulement dues à l'évolution de notre système solaire sur de très longues périodes à travers les bras de notre galaxie. Il semble en effet que l'activité magnétique de notre soleil joue un rôle très important dans ces variations de flux des RCG. Or les scientifiques disposent de deux facteurs qui leur permettent de mesurer l'évolution de l'activité magnétique du soleil : les tâches solaires et le vent solaire. On sait qu'aujourd'hui que plus le soleil est magnétiquement actif (ce qui se voit au nombre de tâches solaires), plus le vent solaire est intense et moins la Terre reçoit de RCG. Il serait donc logique que cette activité magnétique solaire ait influé sur les variations climatiques. Cette hypothèse a été pleinement confirmée par une étude récente qui montre une corrélation très nette depuis 1610 entre le nombre de tâches solaires et l'évolution du climat. On constate notamment que le "petit âge glaciaire" entre 1645 et 1715, correspond au minimum de Maunder, époque où les tâches solaires avaient pratiquement disparues. Cette étude tendrait donc à prouver que l'augmentation des RCG, lorsque le magnétisme solaire moins actif ne fait plus bouclier, refroidit notre planète et que leur diminution, lorsque le soleil se déchaîne, la réchauffe. Ce phénomène semble confirmé si l'on se concentre sur le dernier siècle. Au cours des 100 dernières années, le nombre de tâches solaires est en effet en augmentation rapide, et ce pour la première fois depuis un millénaire. Parallèlement le flux de RCG a diminué de 10% à 40%, selon leur énergie. La diminution de RCG due à activité magnétique solaire qui réduit la quantité de nuages bas serait responsable d'un réchauffement global de 1,2 W/m 2, ce qui est comparable au réchauffement de 1,5 W/m2 attribué à l'augmentation de CO2 depuis un siècle ! Bien entendu il faudra encore de nombreuses études pour mieux comprendre par quels processus complexes les RCG favorisent la formation des nuages et pour mieux évaluer la part de ces RCG dans le réchauffement climatique. Mais il existe à présent un nombre croissant d'indices et d'études scientifiques qui montre que ces rayons cosmiques galactiques, modulés par l'activité magnétique du soleil, ont un impact significatif sur le réchauffement climatique. En 1938, le génial astrophysicien Milankovitch avait déjà émis l'hypothèse que les mouvements de notre système solaire jouaient un rôle important dans des changements climatiques et aujourd'hui les dernières études scientifiques tendent à lui donner raison. Si cette hypothèse s'avérait confortée par de nouvelles observations dans les années à venir, cela remettrait en cause de manière profonde et globale nos théories sur les causes du réchauffement climatique en montrant qu'il existe, en dehors de toute activité humaine, et sur différents cycles de très longues périodes (plusieurs millions d'années) et de périodes beaucoup plus courtes (quelques dizaines d'années ou quelques siècles), des facteurs cosmiques capables d'influer de manière déterminante sur le climat. Mais, si tel était le cas, cela n'exonérerait en rien la responsabilité de l'homme et des émissions de gaz à effet de serre, dans le réchauffement accéléré constaté depuis un siècle. Ce serait même le contraire : à partir du moment où nous aurions la certitude que des phénomènes cosmiques influent, sur différentes échelles de temps, de manière puissante sur le climat, nous aurions encore d'avantage qu'aujourd'hui le devoir politique et éthique d'agir avec force, constance et détermination sur les facteurs d'influence climatique qui dépendent de l'Homme et de ses choix de civilisation.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Les députés adoptent définitivement le projet de loi sur l'économie numérique
Samedi, 08/05/2004 - 00:00

L'Assemblée nationale a adopté définitivement jeudi matin le projet de loi sur la confiance dans l'économie numérique, malgré l'opposition de la gauche et des associations de défense des droits de l'Homme contre ce texte "liberticide". La majorité UMP-UDF a voté en faveur de cette "première loi vraiment significative de l'Internet français", selon la formule du rapporteur UDF Jean Dionis du Séjour. Transposition de la directive européenne de 2000 sur le commerce électronique, le texte, en navette depuis janvier 2003, renforce la sécurité des transactions en ligne. Le texte introduit en outre un dispositif de lutte contre les spams, ces messages publicitaires sauvages qui inondent les boîtes aux lettres électroniques. L'envoi de messages à caractère commercial par mail, fax ou téléphone à des personnes physiques sera interdit sans leur "consentement préalable". Pour résoudre le problème des zones blanches non couvertes par les réseaux de télécommunications, les collectivités locales seront par ailleurs autorisées à se substituer aux opérateurs privés dans les secteurs isolés. Mais la polémique porte essentiellement sur deux points, contestés par différents acteurs du secteur. La CMP est tout d'abord revenue sur la responsabilité des hébergeurs vis-à-vis des contenus illicite. Ses membres ont renforcé les dispositions votées par le Sénat, provoquant à nouveau la colère de nombreuses associations, dont la ligue Odebi. Elle dénonce depuis des mois les dérives de ce texte, qui forcera les hébergeurs «à se substituer à l'autorité judiciaire, juger et censurer les contenus». Deuxième point de litige: l'article remettant en cause la prescription des délits de presse pour les publications en ligne est aussi unanimement contesté par les premiers intéressés, les éditeurs. «C'est donc une véritable distorsion de concurrence entre la presse exclusivement en ligne et la presse papier qui est créée. Une telle différence est contraire à l'article 14 de la Convention européenne des droits de l'homme interdisant toute discrimination», fustige le Groupement des éditeurs de services en ligne (Geste), dans une lettre ouverte adressée le 3 mai au Premier ministre, au ministre de l'Industrie et à celui de la Culture. L'auteur même de cette disposition, le sénateur UMP René Trégouët, s'est déclaré, dans les colonnes du Monde, «très gêné» de ses conséquences éventuelles. Et de souligner que la contre-proposition de l'association « Imaginons un réseau internet solidaire » (Iris) était meilleure que la sienne. Iris propose de conserver la prescription de trois mois pour les délits de presse, y compris pour les publications en ligne, et de renforcer, en contrepartie, l'exercice du droit de réponse. Cette suggestion n'a pas été retenue par la CMP. Un recours devant le Conseil constitutionnel devrait donc être déposé si les sénateurs valident également le texte de la CMP le 13 mai. ZDNet :

http://www.zdnet.fr/actualites/internet/0,39020774,39151706,00.htm

Abonnement téléphonique: les opérateurs tiers court-circuitent France Télécom
Samedi, 08/05/2004 - 00:00

Free et Neuf Télécom vont lancer en juin deux offres en dégroupage total, qui permettront à leurs clients de téléphoner grâce à la VoIP sans payer d'abonnement à France Télécom. La VoIP cause bien des soucis à France Télécom (FT). Pour contrer les premières offres de ses concurrents, l'opérateur historique se prépare à perdre définitivement tout lien avec un abonné à une ligne téléphonique. Jusqu'à présent, même si un client choisissait un fournisseur d'accès internet concurrent, ou un opérateur alternatif pour ses appels téléphoniques, il lui fallait toujours s'acquitter d'un abonnement auprès de France Télécom. C'est à ce privilège que ses rivaux s'attaquent maintenant, grâce au dégroupage total. On connaissait déjà le dégroupage partiel, qui permet aux autres opérateurs de se charger du transport du trafic internet. C'est ainsi que les débits des offres haut débit par ADSL ont explosé, alors que les tarifs n'ont cessé de diminuer. Le dégroupage total permet en plus aux concurrents de France Télécom de prendre en charge le trafic de la voix, c'est-à-dire de contrôler l'ensemble des fréquences de la ligne téléphonique. Free et Neuf Télécom sont les premiers à avoir jeté un pavé dans la mare: le 3 mai, ils ont annoncé tous les deux le lancement imminent d'offres basées sur le dégroupage total. Ce qui «permettra au grand public de s'affranchir complètement de l'opérateur historique, et de l'abonnement téléphonique traditionnel de 13 euros par mois», souligne Neuf Télécom. À partir du mois de juin, l'opérateur du groupe Louis Dreyfus proposera un abonnement à 29,90 euros comprenant un accès haut débit à 2 Mbps, et cinq heures par mois de communication en voix sur IP vers les numéros fixes, en local comme en national. Les autres communications, notamment vers les mobiles, seront facturées au tarif habituel Neuf Télécom. À la même date, Free en fera autant avec son offre classique à 29,99 euros, pour laquelle l'internaute bénéficiera d'une connexion à 2 Mbps, d'une ligne de téléphone avec appels locaux et nationaux gratuits, ainsi qu'une centaine de chaînes de télévision. Seule condition dans les deux cas: disposer du boîtier maison (Neufbox ou Freebox) et se trouver dans une zone dégroupée. «Le dégroupage total est possible là où le réseau de Neuf Télécom est déjà implanté», nous explique Serge Schoen, le directeur adjoint de la société. Soit dans 70 agglomérations actuellement, et 150 d'ici à la fin de l'année, ce qui représentera environ 80% de la population. L'opérateur revendique environ 270.000 abonnés sur son réseau dégroupé (clients Neuf Télécom et d'autres FAI inclus, qui louent son réseau). Il affirme détenir 200.000 clients en propre, dont 50% bénéficient du dégroupage partiel. Neuf Télécom: 400 millions d'euros d'investissement d'ici 2005. «Nous avons entamé le dégroupage total en septembre 2003, uniquement pour les entreprises», poursuit Serge Schoen. «Nous disposons actuellement d'environ 4.000 lignes, ce qui fait de nous le plus gros dégroupeur total en France». Car jusqu'à présent, cette technologie n'était que très peu utilisée. Selon le dernier décompte de l'ART, elle représentait environ 1,3% des lignes dégroupées au 1er mars 2004. L'objectif de Neuf Télécom est d'avoir un million de clients dégroupés d'ici à 2006, avec les deux tiers sur des lignes totalement dégroupées. Le groupe investira au total 400 millions d'euros d'ici 2005 pour y parvenir. Pour son directeur, les clients sont prêts à s'affranchir complètement de France Télécom: «Étant donné la vitesse à laquelle les clients adoptent le haut débit à 2 Mbps, il est clair qu'ils sont prêts à acheter une Neufbox ou une Freebox, pour avoir de nombreux services supplémentaires», explique-t-il. «Pour un abonnement téléphonique tout simple, ils passent sur la téléphonie mobile». Cegetel: «Les clients ne sont pas prêts à couper le cordon ombilical avec FT». Une analyse que ne partagent pas encore les dirigeants de Cegetel. «L'offre de Neuf Télécom est précurseur», a reconnu Olivier Huart, directeur général de l'opérateur, au cours d'une conférence téléphonique avec la presse. «Mais les processus du dégroupage total ne sont pas encore rodés». Les premières offres de l'opérateur sont actuellement en cours, sur le marché des entreprises. Pour autant, un déploiement grand public du dégroupage total n'est pas encore à l'ordre du jour: «Ce n'est pas encore un marché de masse» a renchérit Charles Rozmaryn, le président du groupe. «Sur le moyen terme, c'est l'approche gagnante, mais il faut encore régler un certain nombre de questions, liées à la gestion, auxquelles il faudra apporter une réponse crédible, avant de pouvoir faire une offre de masse. Selon lui, les clients ne sont pas encore prêts «à couper le lien ombilical avec FT». Cegetel a toutefois présenté ses nouvelles offres ADSL. Pour 34,90 euros par mois, l'abonné bénéficiera d'un accès ADSL à 512 Kbit/s couplé à une offre de téléphonie illimitée, en national comme en local. L'accès à 1 024 Kbit/s coûtera 39,90 euros et le 2 048 Kbit/s 44,90 euros. A comparer aux offres actuelles du groupe sans la téléphonie, à savoir 14,90 euros pour le 512 Kbit/s, 19,90 euros pour 1 MBit/s et 24,90 euros pour 2 Mbit/s avec la présélection téléphonique (sinon, ajouter 5 euros). Les nouvelles offres seront valables douze mois, au delà desquels Cegetel se réserve le droit d'augmenter les tarifs de 5 euros. L'offre n'est pas soumise à un engagement mais des frais de résiliation de 90 euros, dégressifs de 3 euros par mois, seront facturés. En revanche, aucun frais de mise en service n'est réclamé et l'achat du modem reste optionnel (30 euros). Mais contrairement à ses concurrents, Free et Neuf Télécom , qui proposent un dégroupage total, les abonnés qui choisiront ces nouvelles offres de Cegetel devront continuer à régler leur abonnement mensuel, à France Télécom.

ZDNet : http://www.zdnet.fr/actualites/business/0,39020715,39151430,00.htm

^ Haut
Avenir
Nanotechnologies et Robotique
De nouveaux nano-moteurs redémarrables à volonté
Samedi, 08/05/2004 - 00:00

Des chercheurs de Université Hébraïque de Jérusalem et de université de Californie (UCLA) ont montre qu'ils étaient capables de grâce à une stimulation électrique ou lumineuse entraîner la rotation d'une molécule d'une manière contrôlée, similaire a un moteur. Cette réussite peut conduire a la conception de composants moléculaires a une taille nanométrique capables opération industrielle ou chirurgicale que des outils de plus grande taille ne peuvent permettre. Ces recherches ont fait l'objet d'un article dans la revue "Science" ; elles ont été réalisées par l'institut de Chimie de Université Hébraïque et des scientifiques de université de Californie Le Pr. BAER explique que ces nano-machines existent déjà dans les systèmes biologiques naturels. Certaines bactéries sont équipées de petit moteur moléculaire qui font tourner leur flagelle et permet aux bactéries de se mouvoir et de naviguer dans l'eau.

Le carburant de ces moteurs est constitue de molécules riches en énergie abondante dans les cellules vivantes programmées pour libérer leur énergie accumulée. Le défi rencontre par les chercheurs est de concevoir des moteurs moléculaires (pas nécessairement confines dans des cellules vivantes) qui peuvent être contrôles et alimentes par de la lumière ou de électricité. Ce type de moteurs a été réalise dans le passe mais les équipes scientifiques mentionnent qu'il s'agit du premier moteur que l'on peut arrêter. C'est un pas important pour la conception et la réalisation de moteurs moléculaires. Ceux-ci doivent pouvoir être stoppes ou verrouilles dans une position. Cela permettrait a des systèmes moléculaires être utilises comme nano-commutateurs ou de réaliser d'autres taches mécaniques. La molécule est composée de quatre éléments : bore, carbone, nickel et hydrogène. Le nickel a été la clef dans le processus car il est capable de se lier de différentes manières aux molécules. Ce modèle est compose de deux structures sphériques avec un axe commun. Lorsqu'il est expose a une stimulation lumineuse ou électrique, la sphère supérieure tourne d'un angle de 144° par rapport a la sphère inférieure. Ensuite, la molécule est verrouillée dans cette nouvelle position. BE Israel : http://www.adit.fr

Un "ordinateur moléculaire" pour traiter le cancer
Samedi, 08/05/2004 - 00:00

Ca ressemble encore à de la science-fiction, mais c'est porteur d'espoir pour l'humanité: des chercheurs israëliens affirment avoir mis au point un "ordinateur moléculaire" qui pourrait un jour aider les médecins à combattre le cancer et d'autres maladies en partant de l'intérieur du corps. Ce procédé, a déjà montré son efficacité dans un tube à essai. L'ordinateur en question est un appareil à échelle moléculaire composé essentiellement d'un mélange d'ADN de synthèse et d'enzymes. Il est programmé pour flairer les premiers signes chimiques de la maladie cancéreuses et libérer alors des médicaments anticancéreux. Pour Ehoud Shapiro, membre de l'Institut Weizmann en Israël et qui dirige l'équipe d'experts en informatique et de biochimistes en charge de l'expérience, la prochaine étape consistera à emballer l'ordinateur de manière à ce qu'il fonctionne à l'intérieur de la "soupe chimique complexe" de l'organisme. "Les problèmes que soulève cet appareil sont nombreux et nous ne savons pas comment les régler", a toutefois reconnu Ehoud Shapiro. Les ordinateurs moléculaires n'existent que depuis une dizaine d'années. Au lieu d'utiliser des puces ou des microprocesseurs, ils se servent de la capacité de stockage de l'information que possède l'ADN. Les enzymes "lisent" les séquences chimiques sur l'ADN de manière à ce que l'ordinateur améliore ses calculs. Selon les experts, de tels ordinateurs pourraient devenir extrêmement performants et donner à l'ADN la possibilité de stocker une grande quantité d'information. L'équivalent de mille milliards de CD pourraient être stockés dans quelques dizaines de grammes d'ADN séché. John Reif, professeur de science informatique de l'Université Duke, qui a construit son propre ordinateur moléculaire en 2000, a noté que jusqu'à maintenant, aucun de ces appareils n'avait encore montré une utilité pratique. "C'est un concept ingénieux", a-t-il commenté à propos de l'ordinateur de Shapiro. "Il pourrait être utile au monde médical, si seulement on arrive à l'introduire dans une cellule." Dans un avenir plus ou moins proche, un médecin pourrait injecter mille milliards de ces appareils dans l'organisme. L'ordinateur est programmé pour détecter le cancer en surveillant la quantité de certaines molécules. Si un cancer est détecté, l'ordinateur libère alors d'autres molécules capables d'interférer avec les substances cancéreuses et les conduire à s'autodétruire. Au contraire de la plupart de ses prédécesseurs, ce nouvel ordinateur est autonome, il ne nécessite pas de substances chimiques surajoutées pour fonctionner. Ehoud Shapiro a précisé que l'ordinateur plongé dans un tube à essai contenant de l'eau pure avait la capacité de détecter les marqueurs chimiques précoces de certains cancers, notamment ceux de la prostate et du poumon. Institut Weizmann :

http://80.70.129.78/site/EN/weizman.asp?pi=372&doc_id=3753

^ Haut
Matière
Matière et Energie
Le remplacement du pétrole par l'hydrogène suscite un débat sur ses effets environnementaux
Samedi, 08/05/2004 - 00:00

À échéance de quelques décennies, la raréfaction des combustibles fossiles, comme leur impact sur le climat, devrait contraindre les industriels à trouver des alternatives énergétiques au pétrole, au charbon et au gaz naturel. L'hydrogène, par le biais de la pile à combustible - qui produit de l'électricité et de l'eau à partir d'hydrogène et d'oxygène - est l'alternative autour de laquelle le plus large consensus s'est formé. Cependant, l'impact climatique d'une économie fondée sur cette alternative énergétique demeure l'objet de débats. Selon une étude franco-britannique récemment publiée par la Geophysical Research Letters, une telle "économie hydrogène" aurait peu d'impact sur les équilibres chimiques de l'atmosphère terrestre. S'ils ne heurtent pas le consensus qui s'est créé autour de l'hydrogène comme alternative énergétique au pétrole, ces résultats contredisent des travaux précédemment menés par des chercheurs américains (Le Monde du 16 juin 2003). En juin 2003, la revue Science a rendu publiques les conclusions d'une simulation menée par des chercheurs du Jet Propulsion Laboratory et du California Institute of Technology, selon lesquels le remplacement des énergies fossiles par l'hydrogène dégraderait de manière importante la couche d'ozone stratosphérique. Le principe de la pile à combustible n'était pas mis en cause. Mais vu les imperfections des technologies de production et d'acheminement des gaz légers, les auteurs de l'étude supposaient une déperdition de 10 % à 20 % de l'hydrogène utilisé en remplacement des énergies fossiles. Les quantités d'hydrogène ainsi relâchées dans l'atmosphère représenteraient alors entre 60 et 120 millions de tonnes. Selon les auteurs de l'étude publiée par Science, de tels apports bouleverseraient les équilibres chimiques des hautes couches de l'atmosphère, contribuant à une augmentation de la concentration de la vapeur d'eau stratosphérique et au refroidissement des plus hautes régions du ciel terrestre. D'où des réactions de transformation de composés bromés et chlorés inactifs, en molécules néfastes pour l'ozone. La publication de ces travaux a provoqué une polémique. La revue Science a publié, en octobre 2003, plusieurs correspondances de scientifiques appelant à considérer les résultats de cette simulation avec prudence et critiquant l'hypothèse d'un taux de fuite compris entre 10 % et 20 %."IMPACT TRÈS LIMITÉ". Les travaux menés par Nicola Warwick, chercheur au Centre des sciences de l'atmosphère de l'université de Cambridge (Royaume-Uni) et publiés par la Geophysical Research Letters viennent renforcer ces critiques. "Nos conclusions nous amènent à penser qu'un passage à -l'économie hydrogène'' n'aurait qu'un impact très limité sur la couche d'ozone, explique Slimane Bekki, chercheur au service d'aéronomie du CNRS (Institut Pierre-Simon-Laplace et université Paris-VI), coauteur de ces travaux. Dans tous les cas, celui-ci serait bien inférieur à ce qu'il a été dans les deux dernières décennies." Dans le plus pessimiste des cas de figure étudiés, le taux de fuite de l'hydrogène a été fixé à 12 % - une valeur du même ordre que les 10 % à 20 % supposés par la précédente étude. "Même dans cette configuration extrême, nous obtenons une augmentation de la quantité de vapeur d'eau stratosphérique environ deux fois moindre que ne le disent les résultats de la précédente étude-publiée par Science-, explique M. Bekki.Cela aboutit à une influence très faible sur la couche d'ozone stratosphérique polaire." Le Monde :

http://www.lemonde.fr/web/article/0,1-0@2-3244,36-363824,0.html

^ Haut
Espace
Espace et Cosmologie
Un "train de l'espace" pour percer les mystères du réchauffement climatique
Samedi, 08/05/2004 - 00:00

Dans moins d'un an, en avril 2005, ils seront cinq à voler à la queue leu leu à 700 km au-dessus de nos têtes: le programme Aqua-train entrera alors dans sa phase opérationnelle, avec pour objectif principal pour ces cinq satellites de percer un jour les secrets de l'atmosphère et de mieux comprendre les mécanismes du réchauffement climatique.Essentiellement franco-américain, avec une touche de coopération canadienne, le programme Aqua-train, surnommé "The A train" dans un clin d'oeil à Duke Ellington, a démarré en mai 2002 avec le lancement du satellite américain Aqua, dédié à l'étude des échanges eau/atmosphère. Dans un an, ce sont cinq satellites qui voleront en formation: Aura (Nasa), Parasol (Centre national d'études spatiales), Calipso (Cnes/Nasa), Cloudsat (Nasa/Agence spatiale canadienne) et Aqua (Nasa), rejoints plus tard, en 2007, par le satellite Oco (Nasa). "C'est la première fois qu'on utilise un train de satellites de cette ampleur et aussi rapprochés", souligne Didier Tanré (CNRS), en présentant mardi à la presse le satellite Calipso, en cours de montage chez Alcatel Space, à Cannes (Alpes-Maritimes). Placés sur une même orbite, ils se suivent à quelques minutes d'intervalle: 15 minutes entre le premier et le dernier, tandis que plusieurs sont à quinze secondes seulement l'un de l'autre. "Ce concept de vol en formation est unique: un ensemble de six satellites va ainsi observer la même portion de l'atmosphère à quelques minutes d'intervalle", explique Vincent Cassé, responsable de ce secteur au Cnes. L'objectif de ces différentes missions est commun: mieux comprendre le rôle de la couverture nuageuse, qui dépasse 50% en moyenne de la surface de la planète, et des aérosols, ces fines particules qui flottent dans l'atmosphère et peuvent être d'origine naturelle, comme les vents de sable, ou liés à la pollution ou aux feux de brousse et incendies de forêts. Nuages et aérosols représentent actuellement les principales incertitudes sur la prédiction de l'évolution du climat. Les nuages réfléchissent en partie le rayonnement solaire, et contribuent donc à refroidir la Terre (effet parasol). Mais ils piègent aussi le rayonnement émis par le sol en l'absorbant, contribuant au réchauffement climatique (effet de serre). Quant aux aérosols, leur effet direct sur le rayonnement est principalement refroidissant, mais leur effet indirect sur les nuages est encore très mal connu, soulignent les scientifiques du Cnes. Pour cerner les propriétés de rayonnement des nuages et des aérosols, les mesures depuis l'espace sont essentielles. La plupart des instruments embarqués sur les satellites du "train de l'espace" ont déjà été utilisés à bord d'avions. "Mais l'avion ne donne pas la vision globale d'un satellite, qui permet de dégager les grandes relations fondamentales", résume Vincent Cassé. "+A train+ permettra de mieux modéliser ce processus", ajoute le scientifique. Avec des échéances qui ne sont pas pour demain: "cette phase devrait déboucher dans quinze vingt ans sur une nouvelle génération de satellites qui tirera les conclusions de cette phase expérimentale", selon l'expert français. Pour déboucher vers 2020 sur des satellites susceptibles de faire des observations pérennes, avec un degré de fiabilité équivalent aux satellites météo actuels. AFP : http://fr.news.yahoo.com/040505/202/3s74m.html

Le Sénat américain ne veut pas laisser les Etats-Unis sans navette
Samedi, 08/05/2004 - 00:00

Des sénateurs ont exprimé mercredi leur inquiétude sur l'avenir des vols spatiaux américains, en raison du délai de plusieurs années prévu par l'administration Bush entre le retrait de service prévu de la navette en 2010 et le lancement du futur véhicule d'exploration spatiale.L'administation américaine prévoit que la navette sera retirée du service en 2010, après la fin de la construction de la station spatiale internationale (ISS). Ce retrait devrait dégager des économies permettant de financer son successeur, le "Crew Exploration Vehicule". De ce fait, les Etats-Unis resteront pendant plusieurs années sans véhicule spatial, a souligné le sénateur démocrate Fritz Hollings lors d'une audition de la Commission du Commerce du Sénat. "Je pense peu probable que ce Congrès, pas plus qu'une future législature, puisse soutenir ce plan", a-t-il assuré. Le président George W. Bush avait fixé en janvier l'objectif d'un retour sur la Lune d'ici 2020, et à plus long terme d'une mission habitée sur Mars, proposant de financer ce projet en éliminant progressivement des programmes existant. Pour le démocrate Bill Nelson, "il ne serait pas sage pour les Etats-Unis de dépendre de la Russie pour accéder à l'ISS" si la navette était retirée du service prématurément. Le président de la Commission, le républicain Sam Brownback, jugeant anciennes et coûteuses (4 milliards de dollars par an) les trois navettes restantes de la flotte, a demandé à la Nasa "d'explorer des alternatives, avec notamment la Russie et les Européens ainsi qu'avec le secteur privé" pour acheminer à moindre coût les éléments et modules nécessaires à l'ISS. Après l'explosion de Columbia en février 2003 et la suspension des vols américains, la relève des équipages et le ravitaillement de l'ISS repose entièrement sur la Russie et ses vaisseaux Soyouz.

AFP : http://fr.news.yahoo.com/040506/202/3s952.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Alzheimer: pas de résultats avant plusieurs années
Samedi, 08/05/2004 - 00:00

En termes de lutte contre la maladie d'Alzheimer, seuls les médicaments contre les symptômes existent pour le moment, mais ils ne s'attaquent pas aux causes, qui sont la présence de "plaques amyloïdes" sur les cellules nerveuses. La recherche, notamment dans la voie de l'immunisation, avance mais ne devrait pas aboutir avant plusieurs années. Les médicaments actuels pour lutter contre la maladie d'Alzheimer, décrite pour la première fois en 1901 par un médecin qui lui donna son nom, existent depuis moins de dix ans. Ils s'attaquent avant tout aux symptômes de la maladie, par exemple en augmentant le taux d'acétylcholine, une substance médiatrice entre les neurones, pour renforcer la mémoire. Les recherches actuelles se focalisent sur des méthodes qui visent soit à empêcher le dépôt de "plaques amyloïdes" sur les neurones, ce qui les freine dans leur fonctionnement, soit à favoriser la désagrégation de ces plaques. Des études cliniques sont prévues pour certaines pistes dans ce domaine. La voie explorée qui semble la plus prometteuse est celle de l'immunisation (comme un vaccin), qui pourrait déboucher sur un traitement d'ici quatre à cinq ans. L'injection d'un sérum a vu en effet la multiplication d'anticorps parfois très efficaces mais a engendré des effets secondaires très sévères, comme les méningo-encéphalites pour 6% des patients traités. Des études se sont également dirigées vers la thérapie génique (7 à 10 ans de recherche encore nécessaires), la bithérapie, et l'action freinante de certains anti-inflammatoires, de la vitamine E, ou des oestrogènes. Les facteurs de la maladie, qui touche 17,8% des personnes de plus de 75 ans en France, peuvent être d'origine génétique (lien avec le chromosome 21 notamment) et aussi proches de ceux favorisant les maladies cardio-vasculaires. Il est donc recommandé de prévenir l'hypertension artérielle et le diabète, le poisson ayant aussi des vertus protectrices. Outre le problème de la dépendance et de la prise en charge des malades déments, les efforts de lutte contre la maladie d'Alzheimer doivent aussi se concentrer aussi sur le diagnostic, car sur une estimation de 678.720 déments en France (début 2000), seul 353.790 ont été diagnostiqués, soit 48% de démences non identifiées. AP : http://fr.news.yahoo.com/040504/5/3s61k.html

La pollution atmosphérique causerait prés de 5000 morts par an en France
Samedi, 08/05/2004 - 00:00

La pollution atmosphérique, liée en grande partie aux rejets polluants des voitures, serait responsable chaque année de la mort de 4.876 personnes en France, selon un rapport de l'Agence française de sécurité sanitaire environnementale (Afsse) dont des extraits sont publiés dans Le Point de jeudi. Selon l'hebdomadaire, ce rapport intitulé "Impact sanitaire de la pollution atmosphérique urbaine" aurait dû être rendu public lundi, "mais le cabinet du Premier ministre tout comme le ministre de l'Ecologie s'y sont opposés". "Ce document est embarrassant pour le lobby automobile", explique, sous couvert d'anonymat, un fonctionnaire du ministère de la Santé, dont les propos sont cités par Le Point. Après huit mois de travail, les experts de l'Afsse ont calculé que de 6 à 11% des décès par cancer du poumon chez les plus de 30 ans seraient dus aux rejets de particules polluantes dans l'atmosphère, rapporte le journal. Ils sont entre 347 et 1.713 victimes par an, auxquels s'ajoutent les maladies cardio-respiratoires, dont 7% seraient directement imputables à la pollution urbaine. Au total, 4.876 personnes décèdent par an de la pollution urbaine en France. Selon le rapport, la moitié des particules ultra fines "qui viennent se loger dans nos bronches sont recrachées par les voitures et les poids lourds". Les auteurs du rapport estiment à 900.000 euros le coût de chaque décès lié à la pollution atmosphérique. "Les conséquences néfastes engendrées par le trafic automobile sont supérieures aux montants payés via les péages et la fiscalité sur les carburants", lit-on dans le rapport. Les experts préconisent, selon Le Point, des mesures pour "diminuer l'exposition de la population". Ils prônent notamment une taxe sur tous les véhicules en fonction de leur consommation énergétique et de leur taux d'émission de polluants. Ils préconisent aussi l'obligation pour les poids lourds diesel de s'équiper de filtres à particules, le développement des transports en commun et du ferroutage ou encore la limitation des voitures dans le centre-ville. Reuters : http://fr.news.yahoo.com/040505/85/3s8ip.html

Des cellules souches programmées pour devenir des dents
Samedi, 08/05/2004 - 00:00

Une nouvelle technique permettant de développer des dents nouvelles à partir d'une cellule souche spécialement programmée a été testée avec succès par une université britannique sur des souris et des tests sur l'être humain pourraient être bientôt entamés.La société Odontis, créée par le King's College de Londres, vient de recevoir une dotation de 500.000 livres (environ 750.000 euros) dans ce cadre et devrait tester cette technique sur l'être humain dans les deux prochaines années. Mise au point dans les laboratoires du King's College, cette méthode consiste à implanter dans la mâchoire, là où nécessaire, une cellule souche spécialement programmée pour se développer et devenir une dent. Le temps estimé pour développer ainsi une dent humaine serait de deux mois. "L'avantage de cette technologie est qu'il s'agirait d'une dent vivante, qui préserve beaucoup mieux les tissus environnants qu'une prothèse", affirme le professeur Paul Sharpe, généticien et directeur de la division de biologie crano-faciale de l'Institut dentaire du King's College. Cette technique ne pourrait cependant pas être disponible commercialement pour l'être humain avant cinq ans. Le coût d'une dent naturelle de ce type ne serait pas supérieur à celui d'une prothèse synthétique, soit de 1.500 à 2.000 livres (de 2.175 à 2.900 euros environ). BBC : http://news.bbc.co.uk/2/hi/health/3679313.stm

Des cellules souches de moelle épinière converties en cellules cérébrales
Samedi, 08/05/2004 - 00:00

Un nouvel espoir pour les patients souffrant des maladies d'Alzheimer ou de Parkinson : les ressources de leur propre organisme. En effet, des cellules souches de moelle épinière ont pu être converties en cellules cérébrales puis transplantées dans le cerveau. " C'est très excitant d'imaginer qu'un jour les cellules de la moelle épinière d'un patient affecté par la maladie d'Alzheimer puissent créer d'autres cellules qui remplaceront celles qu'il a perdu ", affirme l'auteur de ce travail, Alexander Storch de l'université d'Ulm en Allemagne. Pour le moment, les essais n'ont pas dépassé le stade animal. Mais l'ouverture est effectivement passionnante. Cette technique présenterait deux avantages. D'une part, le recours à des cellules du patient réduit considérablement les risques de rejet puisqu'il s'agit de ses propres cellules ! D'autre part dans ces conditions, les problèmes éthiques qui entourent les cellules souches embryonnaires n'ont plus lieu d'être. Dans cette étude, les chercheurs ont utilisé des cellules de moelle épinière adultes et les ont mises en culture à l'aide de facteurs de croissance. Parmi les nombreux avantages de ce procédé il faut souligner la rapidité de transformation de ces cellules -seulement quelques semaines- en cellules en cellules cérébrales. En outre, une petite quantité de cellules de moelle épinière permet de produire une grande quantité de cellules cérébrales. Cependant si l'espoir est raisonnablement permis, d'autres essais devront être menés sur les animaux avant d'envisager une application à l'homme. Et les chercheurs doivent encore déterminer la meilleure manière d'administrer les cellules au niveau cérébral.

Science Daily :

http://www.sciencedaily.com/releases/2004/05/040503055935.htm

Les cellules souches peuvent sauver les enfants ayant le syndrome de Hurler
Samedi, 08/05/2004 - 00:00

Des cellules souches tirées du cordon ombilical d'un nouveau-né peuvent sauver la vie d'un enfant affecté du syndrome de Hurler et réparer les dommages cérébraux qui entraînent d'ordinaire la mort avant l'âge de six ans, selon une étude médicale publiée mercredi aux Etats-Unis.Cette affection congénitale caractérisée vers l'âge de 2 ou 3 ans par le nanisme, est fatale en raison de l'absence d'une enzyme importante, l'alpha-L-iduronidase, qui provoque des dommages au cerveau, coeur et foie notamment. Mais les cellules souches cultivées à partir du cordon ombilical d'un nouveau-né (sans lien avec le malade) fournissent cette enzyme au cerveau et au reste de l'organisme, permettant d'arrêter la progression de la maladie et de réparer les dommages sur les organes et tissus cellulaires, selon des chercheurs de l'Université de Duke à Durham (Caroline du Nord). La survie des enfants ayant reçu une transplantation de cellules souches s'est montré supérieure à celle des enfants ayant reçu de la moelle osseuse adulte, a souligné le Dr Susan Staba, qui a dirigé l'étude. Les cellules souches cultivées à partir du sang prélevé dans le cordon ombilical d'un nouveau né sont moins matures que les cellules de la moelle osseuse adulte et n'ont pas besoin d'être parfaitement compatibles avec les antigènes du patient, ont expliqué les chercheurs. En outre, ces cellules souches ont un effet réparateur plus complet que la moelle osseuse. Dans cette étude, 17 des 20 enfants ayant reçu une transplantation de cellules souches étaient toujours en vie près de trois ans après le traitement. New England Journal of Medicine :

http://content.nejm.org/cgi/content/short/350/19/1960

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
La recherche scientifique américaine est en perte de vitesse
Samedi, 08/05/2004 - 00:00

Les Etats-Unis ont commencé à perdre leur prédominance mondiale dans certains domaines importants des sciences et des inventions, cédant parfois la première place à des pays tiers, notamment asiatiques, écrit lundi le New York Times.Citant des experts gouvernementaux et privés, le journal indique que les performances étrangères dans la recherche fondamentale égalisent ou surpassent désormais souvent celles des Etats-Unis, peu conscients de ce phénomène et de ses conséquences pour l'emploi, l'industrie, la sécurité nationale ou encore le niveau de la vie intellectuelle et culturelle du pays. "Le reste du monde rattrape le retard", a résumé John Jankowski, éminent analyste de la Fondation nationale de la science. "La supériorité scientifique n'est plus le domaine des seuls Etats-Unis", a estimé cet expert cité par le New York Times. Selon le journal, certains analystes américains préoccupés par cette évolution admettent qu'elle pourrait revigorer la lutte contre des maladies, le développement de nouvelles sources d'énergie et la recherche de solution à des problèmes environnementaux. Cependant les Etats-Unis doivent affronter une concurrence dans l'engagement de scientifiques de talent et dans l'accès à des publications pour présenter les fruits de leur recherche, poursuit le journal. Le nombre de brevets d'inventions américaines est toujours très élevé, mais ce pourcentage est en baisse au profit des étrangers, notamment des Asiatiques, devenus plus actifs et qui sont désormais en tête dans certains domaines, ajoute le journal. La part américaine dans les brevets industriels des Etats-Unis, en chute constante, est tombée à 52%, souligne le quotidien. Le déclin américain dans le domaine scientifique est également palpable dans les publications, selon le New York Times. Ainsi la publication spécialisée Physical Review a recensé que les articles de physiciens américains parus dans les revues prestigieuses de science sont tombés à 29% en 2003, contre 61% en 1983, souligne le journal. Le New York Times cite Martin Blume, le redacteur en chef des revues de l'Amercian Physical Society, indiquant que la Chine a ainsi soumis plus de mille articles scientifiques l'année dernière. Certes, les budgets fédéraux en matière de recherche restent importants (126 milliards cette année), mais un nombre croissant de scientifiques et de responsables politiques considèrent que la part accordée au secteur militaire (66 milliards) est devenue excessive et affaiblit la position américaine en matière de recherche fondamentale.

NYT : http://www.nytimes.com/2004/05/03/science/03RESE.html?hp

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top