RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 273
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 16 Janvier 2004
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Intel et AMD mettent l'antivirus au coeur du processeur
Philips présente le premier téléviseur connecté au web sans fil
Microsoft veut envahir nos téléviseurs
Matière
Toshiba présente le plus petit disque dur du monde
Les téléviseurs à projection à l'assaut des écrans plats
Espace
Le Président Bush annonce le retour de l'homme sur la Lune et un voyage vers Mars
Relance de la conquête spatiale : un immense défi pour la NASA
La propulsion nucléaire, priorité de la NASA
Terre
Le réchauffement du climat pourrait faire disparaître un million d'espèces d'ici 2050
2003 : l'année la plus chaude jamais observée en France
Vivant
La propagation du cancer du colon stoppée "in vitro"
Cancer de la prostate : l'obésité aggrave la maladie
Quand le calcium met le coeur à gauche
Découverte importante dans le traitement de l'infarctus
La croissance des enfants liée à l'accès à l'eau et au tout-à-l'égout
Révolution dans le diagnostic du cancer rénal ?
Deux champignons contre l'athérosclérose
Le diagnostic par le génome
Comment le cerveau oublie l'indésirable : quand les neurosciences rejoignent la psychanalyse
Recherche
La Commission veut doubler le budget de l'Union consacré à la recherche
Les Européens peuvent faire ITER "par leurs propres moyens", selon M. Raffarin
Edito
L'Espace : Un défi exaltant pour l'Humanité



Le président américain George W. Bush a annoncé le 14 janvier au siège de la NASA à Washington une nouvelle étape de la conquête de l'espace avec une reprise de l'exploration lunaire dès 2008, des vols habités vers la Lune en 2014, une base lunaire permanente vers 2020 et une expédition habitée sur Mars à l'horizon 2030. Parallèlement, les Etats-Unis se retireront de la station spatiale internationale en 2016 pour en laisser l'exploitation à l'Europe, la Russie et le Japon. "Il est temps pour l'Amérique de faire le pas suivant. Aujourd'hui, j'annonce un nouveau plan pour explorer l'espace et étendre la présence humaine à travers le système solaire", a déclaré M. Bush. "Nous construirons de nouveaux vaisseaux pour emmener l'homme dans l'espace, pour prendre à nouveau pied sur la Lune et se préparer à de nouveaux voyages dans les mondes au-delà du nôtre", a déclaré Bush devant la NASA, l'agence spatiale américaine. Justifiant l'objectif de vols habités vers la Lune puis Mars, Bush a ajouté "Seuls les êtres humains sont capables de s'adapter aux incertitudes inévitables du voyage spatial". Nous ignorons où s'arrêtera ce périple", a-t-il poursuivi, en soulignant qu'il s'agissait d' "un voyage, pas une course", a ajouté le président américain, lançant un appel aux autres pays pour qu'ils se joignent à l'effort américain. "Notre objectif prioritaire est clairement une présence humaine permanente sur la Lune car elle permettra de développer les technologies et les compétences nécessaires à l'exploitation industrielle des immenses ressources de la Lune et constituera également le terrain d'entraînement et la base de départ idéale pour l'exploration humaine de Mars" a encore déclaré le président Bush. Pour réaliser cette nouvelle étape de la conquête spatiale, le Président Bush a promis un nouvel engin spatial "d'ici 2008, qui mènera sa première mission habitée au plus tard en 2014". "Le principal objectif de cet engin sera d'emporter des astronautes au-delà de notre orbite, vers d'autres mondes, a poursuivi le Président américain en qualifiant ce vaisseau de "premier du genre depuis le module Apollo". La NASA souligne pour sa part que, grâce à cette nouvelle étape de la conquête spatiale, les USA bénéficieront de retombées technologiques considérables dans des domaines stratégiques pour sa compétitivité, comme les télécoms, l'électronique ou les biotechnologies. En incluant cette relance de la conquête spatiale dans son programme électoral, à moins de dix mois de l'élection présidentielle, le président américain George W. Bush veut également donner à son action et à son programme électoral une dimension qui dépasse largement le champ d'action classique de la politique et sa propre durée de vie politique. On se rappelle, et le Président Bush s'en est manifestement souvenu, que le 25 mai 1961, le président John F. Kennedy avait lancé, devant le Congrès, le programme Apollo visant à envoyer des hommes sur la Lune dans un délai de dix ans. Quelques mois après les premiers pas sur la Lune en 1969, Werner von Braun et la NASA avaient tracé les grandes lignes de la conquête de l'espace pour les décennies à venir : une station spatiale en orbite autour de la Terre, plusieurs navettes spatiales réutilisables, une base lunaire permanente, un vaisseau à propulsion nucléaire pour effectuer la navette Terre-Lune et enfin une expédition habitée vers Mars au cours des années 80. Il est frappant de constater que George W. Bush relance la conquête spatiale en reprenant globalement les mêmes objectifs que ceux définis en 1969. Bush père avait, en 1989, déjà projeté de repartir sur la Lune et de lancer une mission vers Mars. Mais le Congrès avait refusé de financer les 400 milliards de dollars nécessaires. Mais le moins que l'on puise dire est que la relance de la conquête spatiale souhaitée par l'administration Bush ne sera pas un long fleuve tranquille. Pour réaliser cette nouvelle étape de l'exploration de notre système solaire, les États-Unis devront en effet pratiquement repartir de zéro pour retourner sur la Lune ou aller sur Mars. Les fusées et le matériel du programme Apollo ne sont en effet plus disponibles et ne seraient de toute façon plus adaptés aux impératifs du nouveau programme spatial américain. Pour les missions Apollo menées de 1969 à 1972, la NASA a construit des modules conçus pour atterrir une seule fois sur la Lune et y rester peu de temps. Le vaisseau-mère pouvait accueillir trois astronautes et le module d'atterrissage seulement deux. Les ressources en énergie étaient calculées au plus juste, ce qui a failli coûter la vie aux astronautes d'Apollo 13. Les vaisseaux Apollo étaient acheminés dans l'espace par des fusées Saturn V, les lanceurs les plus puissants jamais construits par les Américains. Après la fin du programme Apollo, l'équipement, les outils et les plans utilisés pour la construction des Saturn V ont été carrément perdus. Mais le nouveau programme lunaire américain pourrait de toute façon nécessiter des fusées encore plus grandes, selon les experts. Une mission prolongée sur la Lune, option qui aurait les faveurs de George W. Bush selon des sources proches du dossier, obligerait la NASA à concevoir un grand vaisseau-mère capable de transporter un certain nombre d'astronautes et un grand assortiment de provisions et d'équipements. L'agence spatiale américaine pourrait aussi être amenée à construire un atterrisseur pouvant transporter un équipage et du matériel entre la surface lunaire et un vaisseau-mère en orbite autour de l'astre. En outre, la création d'une colonie sur la Lune nécessiterait presque certainement l'utilisation d'un réacteur nucléaire pour fournir l'énergie requise. Pour Mars, tout ce qui est nécessaire pour un voyage sur la Lune devrait être multiplié. Selon des experts, une expédition habitée sur Mars prendrait au moins trois ans, dont une grande partie serait consacrée au voyage, la durée du séjour sur la planète étant limitée. Tout le carburant, l'eau et autres réserves nécessaires à la mission devraient être transportés par le vaisseau lui-même ou être acheminés par des engins spatiaux envoyés à l'avance. Les effectifs de l'équipage devraient être revus à la hausse pour parer aux risques de maladie ou de décès, qui seraient élevés dans une expédition aussi risquée. Après son arrivée à la tête de la NASA, Sean O'Keefe a jugé que la technologie d'Apollo n'était pas assez performante et qu'une nouvelle méthode de propulsion serait nécessaire pour les longs voyages spatiaux. L'agence spatiale américaine a testé un système de moteur ionique qui pourrait permettre de réduire la durée du voyage vers Mars de plusieurs mois. Certains experts ont laissé entendre que des appareils chargés de vivres et de matériel pourraient être envoyés sur la Lune ou sur Mars en prélude à l'envoi d'une mission habitée vers ces astres. Voyageant à bord d'un vaisseau-mère, l'équipage pourrait utiliser ces stocks une fois à destination. La NASA a déjà mené des études sur la création d'abris sur la Lune, de véhicules lunaires et de nouvelles combinaisons spatiales. Elle a également examiné la possibilité d'exploiter le sol lunaire pour en extraire du carburant pour moteurs de fusée et de l'oxygène. Selon les architectes du projet, l'utilisation de la Lune comme terrain de préparation en vue de partir à la conquête de Mars présente plusieurs avantages : son champ gravitationnel n'est que le sixième de celui de la Terre, et il faudrait ainsi moins d'énergie et d'argent pour lancer des vaisseaux depuis l'astre. La Lune est également proche de la Terre et donc facilement accessible -elle est située à trois jours de vol alors qu'il faut compter six mois pour atteindre Mars- et ses pôles pourraient contenir de l'eau gelée. Les astronautes pourraient mettre au point de nouvelles technologies et mener des exercices de simulation à la surface. "La Lune est le bon terrain d'essai et c'est là que nous devons aller", estime Don Nelson, un ingénieur à la retraite de la NASA, qui a connu les programmes Gemini, Apollo et les navettes spatiales. Il reste que cette relance de la conquête de l'espace suscite de nombreuses réserves et interrogations et pas seulement d'ordre technologique. Beaucoup d'observateurs et de médias s'inquiètent en effet de son coût... astronomique. Le New York Times se montre toutefois plutôt optimiste, en estimant que la Nasa pouvait réaliser le projet du président Bush sans augmentation importante de budget, grâce à l'abandon du programme des navettes et de la participation américaine dans la Station spatiale internationale. Le président Bush a demandé au Congrès de financer le développement d'un "véhicule d'exploration spatiale" pour remplacer en 2010 les trois navettes dont le maintien coûte aujourd'hui quelque 3,5 milliards de dollars par an. Par ailleurs, le président Bush devrait demander au Congrès une augmentation annuelle d'un milliard de dollars du budget de la Nasa, qui est actuellement de 15,5 milliards de dollars par an. Mais selon les premières estimations, le coût d'une mission habitée sur Mars pourrait en effet atteindre 1.000 milliards de dollars, à comparer aux 100 milliards de dollars constants du programme Apollo qui permit d'envoyer l'homme sur la Lune. Même en mobilisant toutes leurs ressources, on voit mal comment les États-Unis pourraient financer seuls un tel projet. Mais toutes ces interrogations et ces objections, si elles sont sérieuses et doivent être prises en considération, n'enlèvent rien au potentiel industriel, commercial et scientifique de la Lune et, à plus long terme de Mars. Le satellite naturel de la Terre pourrait être transformé en générateur géant, hébergeant des champs de panneaux solaires produisant de l'électricité envoyée vers la Terre à l'aide d'équipements similaires à ceux qui transmettent aujourd'hui des signaux radio à haute intensité, selon des experts. "D'ici à 2050, la Terre comptera 10 milliards d'habitants qui demanderont cinq fois l'énergie disponible aujourd'hui. D'ici là, l'énergie solaire de la Lune pourrait fournir à tous une source d'énergie propre et renouvelable", a expliqué David Criswell, professeur de physique à l'Université de Houston (Texas), lors d'une audition devant le Sénat américain en novembre dernier. Pour ce spécialiste de l'espace, auteur de trois ouvrages sur l'exploitation de la Lune, "aucune option terrestre ne peut fournir l'énergie" qui sera nécessaire dans 50 ans. Au-delà du seul domaine de l'énergie, il est certain qu'une relance de la conquête spatiale s'articulant sur une colonisation et une exploitation industrielle de la Lune, puis plus tard de Mars, aurait d'immenses retombées scientifiques et technologiques et médicales sur notre Terre. Mais le coût de ces projets est tel qu'il devra non seulement être étalé sur une très longue période mais également être réparti entre l'ensemble des grandes puissances économiques et scientifiques de la planète, États-Unis bien sûr, mais aussi Europe, Japon, Chine, Russie et demain Inde. A ces conditions, la relance de la conquête et de l'exploration de notre système solaire sera non seulement un extraordinaire moteur de coopération scientifique et politique entre nations mais aussi une source irremplaçable de progrès et d'innovations qui, in fine, bénéficieront à l'ensemble de l'Humanité. Faut-il rappeler, à cet égard, que le Kevlar et les fibres de carbone, présents dans nos avions, nos voitures et nos vélos, mais aussi les satellites de télécommunications et les fours à micro-ondes dans nos cuisines, sont quelques unes des nombreuses retombées que nous devons à l'industrie spatiale. La conquête de l'espace n'est donc pas une aventure inutile et coûteuse, comme on l'entend trop souvent. Même si elle recèle incontestablement une grande part de risque et d'incertitude, Il faut plutôt la considérer comme un investissement à très long terme pour toute l'Humanité. Enfin comment nier que cette conquête de l'espace reste une extraordinaire aventure humaine qui conduit l'homme à se dépasser, à donner le meilleur de lui-même, et contribue à rassembler des hommes de pays, de religions et de culture différentes, en leur donnant le sentiment profond d'appartenir à une même espèce humaine capable, comme l'a si bien écrit Rimbaud, d'aller "au bout de l'inconnu y chercher du nouveau".

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Intel et AMD mettent l'antivirus au coeur du processeur
Samedi, 17/01/2004 - 00:00

Les deux fondeurs entendent implanter au coeur de leurs microprocesseurs des technologies permettant de lutter contre les attaques virales. Déjà, AMD intègre à ses Athlon 64 une technologie baptisée "Execution Protection", cessée prévenir les risques liés à un dépassement de mémoire tampon. Le dépassement de mémoire tampon, ou Buffer Overflow, est fréquemment utilisé par les virus et autres chevaux de Troie pour prendre le contrôle de l'ordinateur attaqué. Concrètement, "Execution Protection" empêche l'exécution d'un programme qui se serait glissé dans la mémoire en dépassement de tampon. Windows XP SP2 devrait exploiter cette technologie. Intel prévoit un dispositif équivalent pour la génération Prescott de Pentium 4.

Réseaux&Télécoms :

http://www.reseaux-telecoms.com/news_btree/04_01_09_155028_120/News_view

Philips présente le premier téléviseur connecté au web sans fil
Samedi, 17/01/2004 - 00:00

Philips Electronics a présenté un téléviseur doté d'une connexion sans fil à internet et à un ordinateur, permettant ainsi d'accéder à de la musique, à des photos et à de la vidéo en provenance du web ou d'un PC. Le produit, dévoilé lors du Consumer Electronics Show, un salon regroupant les professionnels de l'électronique grand public à Las Vegas, n'est pas encore commercialisé. Le premier fabricant européen d'électronique grand public propose déjà un ensemble hi-fi connecté à internet permettant d'écouter les stations de radio accessibles sur le web. Il a également présenté des serveurs pour particuliers permettant de télécharger de la musique et de la vidéo sur internet et de les lire sur des téléviseurs et des ensembles hi-fi. Pour la période des fêtes de fin d'année, l'entreprise néerlandaise a commencé à commercialiser ses produits via des opérateurs télécoms européens comme British Telecom, l'espagnol Telefonica et le néerlandais KPN. Les concurrents asiatiques de Philips ont également commencé à vendre des appareils électroniques grand public pouvant se connecter à un réseau.

Reuters :

http://fr.news.yahoo.com/040108/85/3kz98.html

Microsoft veut envahir nos téléviseurs
Samedi, 17/01/2004 - 00:00

Microsoft s'apprête à entrer dans votre télé. Non content d'être déjà présent dans les ordinateurs, les PDA, les consoles de jeux... le géant américain du logiciel s'apprêt à investir prochainement les téléviseurs. Bill Gates, "grand architecte en chef des logiciels" de la société qu'il a créé, a présenté au CES, le grand salon d'électronique de loisirs de Las Vegas, une nouvelle suite de logiciels qui permettra d'accéder depuis une télé à du contenu stocké sur un ordinateur : musique, photos, vidéos, etc. Baptisée Media Center Extender, cet ensemble de logiciels sera dévoilé dans le courant de l'année. On sait seulement que cela permettra de connecter jusqu'à 5 téléviseurs à un ordinateur équipé de Windows Media Center. Tout cela sans fil évidemment. Hewlett Packard et Gateway vont fabriquer des téléviseurs incluant ces nouveaux logiciels ainsi qu'un système de connexion sans fil. Dell et Samsung seront également de la partie avec des équipements complémentaires. Surcoût d'un téléviseur équipé de Media Center Extender : environ 30 dollars, selon Bill Gates. Le lien entre le téléviseur et l'ordinateur, c'est un peu la dimension qui manquait au Media Center sorti l'an dernier. Dans un premier temps, la firme de Bill Gates a fait entrer la télé et la radio dans les PC. Il s'agit cette fois d'installer l'ordinateur dans la télé. Bref, De la convergence pour de bon. Cela dit, l'idée n'est pas nouvelle. Elle est même carrément dans l'air du temps et des systèmes pour relier son PC à sa télé déjà disponibles sur le marché. On s'attend à ce que le spécialiste du logiciel apporte son savoir faire en termes de fonctionnalités et d'interface. Cependant, Microsoft n'a pas forcément que des bonnes idées. Il vient d'abandonner son projet d'écrans intelligents, des écrans plats portables sans clavier qui devaient servir à surfer sur le Net dans n'importe quelle pièce de la maison. Jugés inappropriés au marché ils ne font plus partie des projets à venir et on ne les verra donc pas en magasin.

France Infos :

http://www.radiofrance.fr/chaines/france-info/chroniques/hightech/index.php?

^ Haut
Matière
Matière et Energie
Toshiba présente le plus petit disque dur du monde
Samedi, 17/01/2004 - 00:00

Toshiba va lancer un nouveau format de disque dur ultraminiaturisé. Le constructeur nippon a présenté au CES 2004 (Consumer Electronics Show) ce qui constitue probablement le plus petit disque dur du monde puisque sa taille se limite à 0,85 pouce (à peine plus de 2 cm). "Notre disque dur miniature constitue une vraie rupture technologique" souligne Nick Spittle, l'un des responsables de Toshiba en Europe qui ajoute "ces micro-disques durs de grande capacité et trés fiables vont accélérer la convergence et la synergie entre l'électronique grand public, l'informatique et les télécoms". Ce disque au format timbre-poste sera en mesure d'offrir plusieurs gigaoctets de données (entre 2 et 4 Go en attendant plus) à destination des appareils mobiles, des PDA aux appareils photo numériques mais aussi des téléviseurs, des ordinateurs portables ou, et des téléphones. Toshiba confirme donc son statut de champion de la miniaturisation des disques durs. Il avait déjà atteint un record en introduisant 40 Go dans des disques de 1,8 pouce, qui équipent notamment certains modèles du baladeur numérique d'Apple, l'iPod. Le nouveau disque de 0,85 pouce devrait entrer en production à l'automne 2004 à raison, selon Toshiba, de 300 000 unités par mois. Le prix de ces micro-disques durs devrait être, à capacités équivalentes, beaucoup plus bas que celui des cartes mémoire Flash.

BBC : http://news.bbc.co.uk/2/hi/technology/3381997.stm

Les téléviseurs à projection à l'assaut des écrans plats
Samedi, 17/01/2004 - 00:00

Les téléviseurs à projection sont sans doute moins sexy que les téléviseurs plasma ou à cristaux liquides (LCD) et leurs écrans ultra-plats, mais ils pourraient devenir un concurrent sérieux grâce à un prix trois fois moins élevé et après une série d'améliorations. Le système de diffusion dit "à projection" permet de fabriquer des téléviseurs dotés d'écrans de grande taille - mais très épais - en utilisant de simples tubes cathodiques, soit la même technologie de base que celle employée dans les téléviseurs classiques. Mais les fabricants de téléviseurs à projection sont en train d'abandonner les tubes cathodiques au profit de puces électroniques et de panneaux de diffusion plus fins, ce qui permet d'améliorer la qualité de l'image, même avec un écran de grande taille. Cette nouvelle technologie permet également de fabriquer des "micro" téléviseurs à projection, qui sont un tiers moins épais et pèsent deux fois moins lourd que la plupart des modèles actuels. Ce modèle micro est une nouvelle version du téléviseur dit "à projection arrière", qui a le même aspect extérieur qu'une TV classique, et consiste à projeter sur un écran en plastique une image plus petite située à l'arrière de l'appareil. Les téléviseurs à projection arrière se vendent vingt fois plus que les modèles à projection avant, qui nécessitent un projecteur et un écran séparé. "La demande annuelle pour les TV à projection est presque quatre fois supérieure à celle des TV à écran plasma", déclare JJ Park, analyste chez JP Morgan. Certains professionnels disent que d'ici deux ans, les téléviseurs à projection pourraient devenir suffisamment fins pour être accrochés au mur." Ce serait une mauvaise nouvelle pour le marché des télés à écran plasma - dont les spécialistes prévoient un doublement en 2004 puis à nouveau en 2005 - et pour les fabricants asiatiques de ces appareils, tels que Pioneer, la marque Panasonic de Matsushita, Samsung et LG. Les TV à projection représentent moins de 3 % des 170 millions de téléviseurs vendus chaque année dans le monde, selon la firme d'études indépendante DisplaySearch. C'est aux Etats-Unis qu'ils sont le plus populaires, car l'espace représente un moindre problème que le prix. "Aux Etats-Unis, le marché pour notre téléviseur à projection LCD 'Grand Vega' progresse rapidement. Les modèles 50 et 60 pouces (127 et 152 centimètres de diagonale) sont moitié moins chers que les modèles à écran plasma comparables", a déclaré le président de Sony, Kunitake Ando, dans une interview à Reuters en décembre dernier. Les micro-téléviseurs à projection 127 centimètres coûtent 2.999 à 3.999 dollars aux Etats-Unis, soit bien moins de la moitié des 10.800 dollars exigés pour acquérir un téléviseur plasma comparable. Intel affirme pouvoir faire en sorte que le prix d'un téléviseur à projection de 50 pouces descende à 1.800 dollars d'ici l'an prochain. Le numéro un mondial des microprocesseurs devra détrôner une autre technologie de projection baptisée DLP, qui domine actuellement le marché. Développée par Texas Instruments, elle est utilisée dans les téléviseurs vendus par Gateway, Samsung, Mitsubishi et Matsushita.

Reuters :

http://fr.news.yahoo.com/040115/85/3lclv.html

^ Haut
Espace
Espace et Cosmologie
Le Président Bush annonce le retour de l'homme sur la Lune et un voyage vers Mars
Samedi, 17/01/2004 - 00:00

Le président américain George W. Bush a annoncé le 15 janvier que des hommes retourneraient sur la Lune à partir de 2015, en préparation de missions humaines d'exploration d'autres planètes du système solaire, à commencer par Mars."Il est temps pour l'Amérique de faire le pas suivant. Aujourd'hui, j'annonce un nouveau plan pour explorer l'espace et étendre la présence humaine à travers le système solaire", a déclaré M. Bush au siège de l'agence spatiale américaine (Nasa) à Washington. M. Bush a fixé l'objectif de "retourner sur la Lune d'ici 2020, point de départ de nos mission au delà". "En 2008 au plus tard, nous enverrons une série de missions robotisées à la surface de la Lune pour de la recherche et la préparation de l'exploration humaine", a-t-il poursuivi. Puis, à l'aide du nouveau "véhicule d'exploration, nous entreprendrons des missions longues vers la Lune, à partir de 2015, dans le but de vivre et de travailler sur place pendant des périodes de plus en plus longues". M. Bush a défini les missions lunaires comme "un pas important dans notre programme spatial", qui "permettra des missions encore plus ambitieuses: des missions humaines vers Mars et les mondes au-delà". Pour lui, si les robots peuvent préparer le terrain, "seuls les êtres humains sont capables de s'adapter aux incertitudes inévitables du voyage spatial". M. Bush a également décidé de retirer la navette spatiale en 2010 "après plus de 30 ans de service" et l'achèvement de la construction de la Station spatiale internationale (ISS). Il a promis un nouvel engin spatial "d'ici 2008, qui mènera sa première mission habitée au plus tard en 2014". "Le principal objectif de cet engin sera d'emporter des astronautes au delà de notre orbite, vers d'autres mondes, a poursuivi le président américain en qualifiant ce vaisseau de "premier du genre depuis le module Apollo" qui avait permis à la fin des années 60 et au début des années 70 l'exploration lunaire. "Nous ignorons où s'arrêtera ce périple", a-t-il poursuivi, en soulignant qu'il s'agissait "d'un voyage et non d'une course". "Nous inviterons d'autres pays à partager les défis et les opportunités de cette nouvelle ère de découverte". Les vols de navettes sont interrompus depuis l'accident de Columbia le 1er février 2003 qui a tué sept astronautes. Le président souhaite la reprise des vols dès que possible, le calendrier de la Nasa fixant pour l'instant un retour dans l'espace à l'automne 2004. Concernant l'ISS, fruit de la collaboration de 16 pays, la Maison Blanche souhaite "lancer une réorientation de l'effort de recherche pour mieux comprendre et maîtriser les effets du vol spatial sur la santé des astronautes" et tous les vols de la navette devraient servir cet objectif, souligne le document. Le véhicule qui remplacera la navette "sera aussi capable de transporter des astronautes et scientifiques sur la Station spatiale internationale". Le coût supplémentaire du nouveau programme est estimé par la Maison Blanche à 12 milliards de dollars sur cinq ans, une somme qui proviendra essentiellement de redistributions au sein du budget actuel de l'agence spatiale américaine. Le budget actuel de la Nasa sur cinq ans est de 86 milliards. L'essentiel des fonds nécessaires aux nouvelles entreprises viendront d'une réallocation de 11 milliards au sein de ce budget", a ajouté M. Bush en estimant la hausse nécessaire du budget de la Nasa à un milliard de dollars réparti sur cinq ans. Depuis la dernière mission Apollo en 1972, aucun humain n'a remis le pied sur le satellite naturel de la Terre, et Mars reste un terrain d'exploration réservé aux instruments automatiques. Aujourd'hui, les astronautes ne font des voyages dans l'espace qu'en orbite basse, dans des vaisseaux ne s'éloignant pas plus de quelques centaines de kilomètres de la surface de notre planète. Dès 2008, soit dans quatre ans seulement, l'Amérique enverra des missions robotiques sur la Lune, en préparation des futurs vols habités. Le satellite naturel de la Terre, malgré ses différences marquées avec Mars et les autres planètes, servira de terrain d'entraînement et d'expérimentation avant d'autres voyages plus lointains. Le président Bush a évoqué la possibilité d'exploiter des ressources du sol lunaire. Selon le plan présenté par George Bush, la Nasa mettrait ses trois navettes spatiales restantes à la retraite dès 2010. George Bush a également affirmé que toutes les recherches scientifiques américaines menées à bord du laboratoire orbital serviront dorénavant à préparer les futures missions habitées sur les autres planètes du système solaire.

Maison Blanche :

www.whitehouse.gov/news/releases/2004/01/20040114-3.html

NASA :

http://www.nasa.gov/missions/solarsystem/explore_main.html

Relance de la conquête spatiale : un immense défi pour la NASA
Samedi, 17/01/2004 - 00:00

Les Américains devront presque repartir de zéro s'ils décident de retourner sur la Lune ou d'aller sur Mars. Les fusées et le matériel du programme Apollo ne sont en effet plus disponibles et ne seraient de toute façon plus adaptés aux impératifs du nouveau programme spatial américain. Pour les missions Apollo menées de 1969 à 1972, la NASA a construit des modules conçus pour atterrir une seule fois sur la Lune et y rester peu de temps. Le vaisseau-mère pouvait accueillir trois astronautes et le module d'atterrissage seulement deux. Les ressources en énergie étaient calculées au plus juste, ce qui a failli coûter la vie aux astronautes d'Apollo 13. Les vaisseaux Apollo étaient acheminés dans l'espace par des fusées Saturn V, les lanceurs les plus puissants jamais construits par les Américains. Après la fin du programme Apollo, l'équipement, les outils et les plans utilisés pour la construction des Saturn V ont été carrément perdus. Mais le nouveau programme lunaire américain pourrait de toute façon nécessiter des fusées encore plus grandes, selon les experts. Une mission prolongée sur la Lune, option qui aurait les faveurs de George W. Bush selon des sources proches du dossier, obligerait la NASA à concevoir un grand vaisseau-mère capable de transporter un certain nombre d'astronautes et un grand assortiment de provisions et d'équipements. L'agence spatiale américaine pourrait aussi être amenée à construire un atterrisseur pouvant transporter un équipage et du matériel entre la surface lunaire et un vaisseau-mère en orbite autour de l'astre. En outre, la création d'une colonie sur la Lune nécessiterait presque certainement l'utilisation d'un réacteur nucléaire pour fournir l'énergie requise. Pour Mars, tout ce qui est nécessaire pour un voyage sur la Lune devrait être multiplié. Selon des experts, une expédition habitée sur Mars prendrait au moins trois ans, dont une grande partie serait consacrée au voyage, la durée du séjour sur la planète étant limitée. Tout le carburant, l'eau et autres réserves nécessaires à la mission devraient être transportés par le vaisseau lui-même ou être acheminés par des engins spatiaux envoyés à l'avance. Les effectifs de l'équipage devraient être revus à la hausse pour parer aux risques de maladie ou de décès, qui seraient élevés dans une expédition aussi risquée. Après son arrivée à la tête de la NASA, Sean O'Keefe a jugé que la technologie d'Apollo n'était pas assez performante et qu'une nouvelle méthode de propulsion serait nécessaire pour les longs voyages spatiaux. L'agence spatiale américaine a testé un système de moteur ionique qui pourrait permettre de réduire la durée du voyage vers Mars de plusieurs mois. Certains experts ont laissé entendre que des appareils chargés de vivres et de matériel pourraient être envoyés sur la Lune ou sur Mars en prélude à l'envoi d'une mission habitée vers ces astres. Voyageant à bord d'un vaisseau-mère, l'équipage pourrait utiliser ces stocks une fois à destination. La NASA a déjà mené des études sur la création d'abris sur la Lune, de véhicules lunaires et de nouvelles combinaisons spatiales. Elle a également examiné la possibilité d'exploiter le sol lunaire pour en extraire du carburant pour moteurs de fusée et de l'oxygène.

AFP :

http://fr.news.yahoo.com/040109/5/3l1x3.html

La propulsion nucléaire, priorité de la NASA
Samedi, 17/01/2004 - 00:00

Une équipe d'ingénieurs du Jet Propulsion Laboratory (JPL) a testé avec succès un nouveau propulseur ionique dans le cadre du programme Prometheus de la NASA (cf Etats-Unis Espace N°285 Article 4). Alimenté par du courant électrique, le moteur NEXIS (Nuclear Electric Xenon Ion System) a fonctionné pour la première fois à pleine puissance. Ce sera un moteur de ce type, alimenté par un réacteur nucléaire, qui sera utilisé par la NASA pour propulser la sonde JIMO (Jupiter Icy Moons Orbiter) vers Jupiter. Lors du test, le moteur NEXIS était alimenté par 20 kW, soit 10 fois plus que le moteur de Deep Space 1. NEXIS a été développé pour utiliser jusqu'à 2 tonnes de carburant et pour fonctionner une dizaine d'année, soit 2 à 3 fois plus que la sonde Deep Space 1. A la différence des moteurs fusées, les moteurs ioniques n'éjectent que des atomes ionisés de xénon mais au final, ils ont une efficacité 20 fois supérieure. Ces moteurs révolutionnaires tireront leur énergie d'un petit réacteur nucléaire. La mission JIMO devrait pouvoir bénéficier d'une dizaine de kilowatts d'énergie pour la propulsion et la science alors que les missions comme Cassini ou Galileo n'ont eu à leur disposition que quelques centaines de watts.

USA Espace :

http://www.france-science.org/usa-espace

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le réchauffement du climat pourrait faire disparaître un million d'espèces d'ici 2050
Samedi, 17/01/2004 - 00:00

Le réchauffement climatique pourrait provoquer l'extinction de centaines de plantes et d'animaux au cours des cinquante prochaines années, avertit une étude internationale publiée dans la revue "Nature". La nouvelle analyse a été menée par 19 chercheurs issus de 14 laboratoires dans le monde. Elle estime que plus du tiers des 1.103 espèces étudiées pourrait disparaître ou arriver au bord de l'extinction d'ici 2050 à cause du réchauffement. Des espèces déjà menacées pourraient ainsi s'éteindre, comme un petit dragon australien (hypsilurus boydii), la pie bleue européenne ou encore une souris mexicaine (habromys simulatus). Les chercheurs reconnaissent de nombreuses incertitudes dans les prévisions climatiques et les modèles informatiques utilisés. Mais ils avertissent que leurs sombres conclusions pourraient se vérifier si les pays industriels ne réduisent pas les émissions de gaz à effet de serre à l'origine du réchauffement dans l'atmosphère. "Nous voyons déjà des communautés biologiques réagir très rapidement au réchauffement climatique", souligne Chris Thomas, biologiste à l'université de Leeds et principal auteur de l'étude. Alastair Fitter, un écologiste de l'université de York qui n'a pas participé aux recherches, souligne que la déforestation et les espèces invasives sont les principaux responsables de la disparition des espèces actuellement. Le changement climatique ne fera que hâter le déclin de certaines espèces, affirme-t-il. "Je pense que ce sera la troisième cause", souligne le Pr Fitter, qui a montré comment le réchauffement du climat amenait certaines fleurs à éclore de plus en plus tôt au printemps en Grande-Bretagne. Dans la nouvelle étude, les chercheurs ont évalué l'habitat actuel et la distribution de plus d'un millier de plantes et animaux vivant dans six régions incluant le Mexique, l'Australie, le Brésil, l'Afrique du Sud et l'Europe. Ils ont utilisé des modèles sur le changement climatique mis au point par des experts de l'ONU qui prévoient que le réchauffement pourrait augmenter les températures moyennes de l'ordre de 1,4 à 5,8°C d'ici 2100. En fonction de l'ampleur de la hausse du mercure, les chercheurs ont établi que 15 % à 37 % des espèces étudiées disparaîtraient ou seraient proches de l'extinction d'ici 2050. Une prévision moyenne portant sur trois scénarios possibles de réchauffement estime qu'environ un quart des espèces seront victimes du changement climatique. Reste que selon des experts, seulement 12.000 des 14 millions d'espèces végétales et animales vivant sur Terre seraient menacées d'extinction. Science Daily :

http://www.sciencedaily.com/releases/2004/01/040108080103.htm

2003 : l'année la plus chaude jamais observée en France
Samedi, 17/01/2004 - 00:00

2003, au troisième rang des années chaudes au niveau mondial, a "très probablement" été l'une des deux années les plus chaudes jamais enregistrées en France depuis 1850, selon Météo-France.La température moyenne annuelle a atteint 13 degrés l'an passé, un record atteint une seule fois depuis 1950, en 1994, indique une étude publiée par l'institut météorologique. Elle s'est établie entre 17 et 19° sur le pourtour méditerranéen et la Corse et entre 9 et 11° dans le Nord et l'Est. Le soleil a été très généreux, la durée d'ensoleillement dépassant partout la moyenne 1991-2000, jusqu'à 40% dans l'Est et le Nord-Pas-de-Calais. Le calcul a été fait à partir des stations représentatives des 22 régions métropolitaines et ces stations n'existaient "pas forcément" avant 1950, relève Pierre Bessemoulin, directeur de la climatologie à Météo-France. Formellement on ne peut donc parler de record absolu depuis le début de l'ère industrielle vers 1850 mais c'est "quasiment sûr", estime-t-il. 2003 a été très différente de 1994, selon Météo-France. L'année dernière, c'est la canicule exceptionnelle du 1er juin au 11 août qui a alimenté le record alors qu'en 1994 la hausse inhabituelle du thermomètre a été plus faible mais a été étalée sur dix mois de l'année. Avec 17,9°, la température maximale annuelle n'a jamais été aussi élevée, au moins depuis 1950. Le précédent record datait de 1989 (17,4°). Seuls les mois de janvier, février et octobre ont été plus froids que la normale, un concept de l'Organisation météorologique mondiale (OMM) défini comme la moyenne des 30 dernières années commençant par 01 et se terminant par 00, en l'occurrence 1971-2000. Juin 2003 a été le mois de juin le plus chaud jamais enregistré en France depuis 1950 avec une température moyenne de 21,9°, le précédent record pour ce mois remontant à 1976 (20,2°). Il a enregistré un écart, jugé "énorme" par les experts, de +4,7° par rapport à la normale. Les précipitations ont été inférieures à la normale dans la majeure partie du pays en 2003, sauf dans quelques régions des Pyrénées-Orientales aux Bouches-du-Rhône, frappées par les inondations de l'automne. Le nombre de jours pluvieux (précipitations supérieures ou égales à un mm) a été en dessous de la normale dans toute la France, notamment dans l'ensemble de la moitié nord du pays. La sécheresse (pluviométrie inférieure d'au moins 20% par rapport à la normale) a frappé tout le pays pendant huit mois, de février à septembre. Elle a été particulièrement sévère durant cette période dans l'est, le sud-est et en Corse. Seul le Languedoc-Roussillon y a échappé. A l'échelle mondiale, 2003 a été la troisième année la plus chaude depuis 1861, après 2002 et le record absolu de 1998, a annoncé l'OMM dès la mi-décembre. Elle a été marquée par des sécheresses (Zimbabwe, Botswana, Ethiopie, Tanzanie) et inondations désastreuses (Brésil, Colombie, Pakistan, Afghanistan, Indonésie, Inde).

Météo France :

http://www.meteo.fr/meteonet/actu/dos.htm#haut

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
La propagation du cancer du colon stoppée "in vitro"
Samedi, 17/01/2004 - 00:00

Des chercheurs israéliens sont parvenus pour la première fois, en laboratoire, à stopper "in vitro" la propagation de cellules du cancer du colon, a annoncé mardi l'Institut Weizmann, près de Tel-Aviv. Cette étude donne l'espoir de mieux soigner le cancer du colon, particulièrement dangereux quand il produit des métastases, selon un communiqué de l'Institut. Les chercheurs ont découvert dans les cellules cancéreuses en voie d'être métastasées une quantité anormalement élevée d'une protéine, la béta-caténine. La cellule perd alors son adhésion avec les cellules voisines et peut émigrer par le sang pour former des tumeurs malignes dans d'autres parties du corps. L'augmentation de béta-caténine s'accompagne d'une diminution d'une autre protéine, la E-cadhérine, qui est elle indispensable pour maintenir l'adhésivité. Opérant en laboratoire sur des gènes de type Slug de cellules cancéreuses, les chercheurs sont parvenus à diminuer la production de béta-caténine et augmenter celle de E-cadhérine, stoppant leur migration. "Le fait que le processus d'invasion du cancer du colon peut être inversé est tout a fait surprenant et permet d'espérer qu'on pourra le stopper chez l'homme", a déclaréleprofesseurAvri Ben Zeev, du département de biologie responsable de cette recherche, récemment publiée dans le Journal of Cell Biology. Le cancer du colon est le second en fréquence chez les hommes en Occident et le troisième en fréquence chez les femmes.

JCB : http://www.jcb.org/

Cancer de la prostate : l'obésité aggrave la maladie
Samedi, 17/01/2004 - 00:00

Deux études américaines publiées récemment montrent que l'obésité aggrave un cancer de la prostate. Les malades obèses ont un risque plus élevé de présenter des tumeurs « agressives » que d'autres malades, de poids normal. Le Dr Christopher Amling et son équipe, de San Diego en Californie, ont suivi plus de 3 000 patients victimes d'un cancer de la prostate. Un sur cinq était obèse. A ses yeux, « si le rôle de l'obésité dans le cancer de la prostate n'est pas encore clair, elle semble toutefois provoquer le développement de tumeurs plus graves. Voilà pourquoi nous recommandons aux malades de s'attacher à maintenir un poids normal ». Dans une autre étude, le Dr Stephen Freedland et son équipe, de la Johns Hopkins School of Medicine à Baltimore, ont observé le même résultat après avoir suivi plus de 1 100 patients, dont 22% d?obèses. Ces deux auteurs suggèrent que les protéines et hormones stockées dans les graisses de l'organisme pourraient favoriser la croissance d'une tumeur chez les patients obèses.

Journal of Clinical Oncology :

http://www.jco.org/cgi/reprint/JCO.2004.11.973v1.pdf

Quand le calcium met le coeur à gauche
Samedi, 17/01/2004 - 00:00

Comment l'asymétrie apparaît-elle chez les vertébrés ? A cette énigme, de nombreux chercheurs ont cherché une réponse. Une équipe américano-portugaise de scientifiques a peut- être enfin levé le voile, dans un article paru dans la revue Nature du 8 janvier. Ce sont des concentrations différentes de calcium qui placeraient, entre autres, le coeur à gauche et le foie à droite.Juan Carlos Belmonte du Salk Institute for Biological Studies de La Jolla (Californie, Etats-Unis) et ses collègues de l'Université de Lisbonne ont tenté de comprendre les phénomènes d'asymétrie qui régissent l'embryogenèse chez les mammifères. En étudiant des foetus de poulet, les chercheurs se sont aperçus qu'un excès de calcium extracellulaire du côté gauche pourrait être à l'origine de cette asymétrie gauche-droite. Le calcium activerait des récepteurs dits «Notch» qui eux-mêmes jouent un rôle dans la régulation du gène nodal qui intervient dans l'asymétrie. Les travaux de Juan Carlos Belmonte montrent clairement qu'il existe des zones de concentrations importantes de calcium au niveau de l'embryon. Cette découverte devrait permettre de mieux comprendre comment fonctionnent certains gènes soumis à des éléments non génétiques. Il reste encore aux chercheurs à élucider ce qui entraîne ces excès de concentration de calcium. Science&Avenir :

http://permanent.sciencesetavenir.com/sci_20040108.OBS2264.html

Découverte importante dans le traitement de l'infarctus
Samedi, 17/01/2004 - 00:00

Des résultats spectaculaires ont été obtenus dans le traitement expérimental de la mort subite cardiaque grâce à une hormone, la vasopressine, qui se révèle beaucoup plus efficace que le traitement classique de l'épinéphrine chez les personnes victimes d'asystolie, la forme la plus grave de l'arrêt du coeur, selon une étude publiée dans le New England Journal of Medicine. La vasopressine, une hormone synthétique qui permet la constriction des vaisseaux, est connue depuis des lustres. Il y a quelques années, le Comité de liaison sur la "résurrection" a modifié ses recommandations concernant le traitement de la mort subite, pour faire de la vasopressine la première alternative pharmacologique au traitement de référence qu'est l'épinéphrine.

Cette recommandation avait en partie été rajoutée du fait de l'action de l'épinéphrine qui favorise parfois l'augmentation des troubles du rythme et la diminution de l'apport en oxygène du cerveau après le retour à la vie, ce qui entraîne parfois de graves séquelles cérébrales. Depuis un siècle, les victimes d'un arrêt cardiaque recevaient de l'épinéphrine, adrénaline synthétique permettant la constriction des vaisseaux sanguins et stimulant la pression artérielle. Ce traitement était délivré quand l'utilisation d'un défibrillateur n'avait pas permis de ranimer un patient. Chaque année, en Europe et aux Etats-Unis, plus de 600.000 personnes meurent de mort subite cardiaque, le plus souvent des suites d'un infarctus du myocarde ou d'un trouble du rythme. Près de 30% des victimes présentent une asystolie - arrêt de toute activité cardiaque - dont elles meurent dans la majorité des cas. La dernière étude concerne 1.186 personnes victimes d'un arrêt cardiaque suivies dans 33 centres répartis en Autriche, en Allemagne et en Suisse de 1999 à 2002. Après que les ambulanciers eurent tenté une défibrillation, la moitié des personnes qui n'étaient pas "ressuscitées", ont reçu de la vasopressine et l'autre moitié, de l'épinéphrine. Selon les résultats, les patients en asystolie ont mieux réagi à la vasopressine. Selon les résultats, utiliser de la vasopressine améliore de 40% les chances d'arriver vivant à l'hôpital, et multiplie par trois les chances de rentrer chez soi après l'hospitalisation, chez les personnes présentant une asystolie.

NEJM :

http://content.nejm.org/cgi/content/short/350/2/105

La croissance des enfants liée à l'accès à l'eau et au tout-à-l'égout
Samedi, 17/01/2004 - 00:00

La croissance des enfants dans les pays en développement est directement liée à l'approvisionnement en eau des familles et aux installations sanitaires disponibles, selon une étude effectuée au Pérou et publiée dans l'hebdomadaire britannique The Lancet, daté de samedi.William Checkley (université Johns Hopkins à Baltimore, Etats-Unis) et ses collègues ont étudié l'impact de l'accès à l'eau potable et au tout-à-l'égout sur la santé de 230 enfants de Pampas de San Juan, près de Lima, en moyenne plus petits que la norme. A 2 ans, les 53 enfants vivant dans les plus mauvaises conditions en matière d'accès à l'eau et ne bénéficiant ni de latrines, ni de tout-à-l'égout avaient en moyenne une taille inférieure de 1 cm à celle des 58 bambins de même âge vivant dans les meilleures conditions (eau courante, bonne condition d'hygiène pour le stockage de l'eau potable, tout à l'égout). Les enfants vivant dans les plus mauvaises conditions avaient aussi des diarrhées plus fréquentes (+54 %) que ces 58 enfants. L'absence de tout-à-l'égout se traduisait par un déficit de croissance de 0,9 cm à 2 ans. Les conditions de stockage de l'eau (récipients sans couvercle à domicile favorisant la contamination microbienne ou citernes extérieures couvertes) jouent aussi sur l'état de santé et la croissance des enfants. Même les familles ayant l'eau courante stockent l'eau à cause notamment d'un approvisionnement irrégulier. Les diarrhées sont plus fréquentes (+28 %) lorsque l'eau est conservée à domicile dans des récipients non fermés. Parmi les 133 familles ayant l'eau courante, l'absence de tout-à-l'égout et le mauvais stockage de l'eau influent sur la taille des enfants: à 2 ans, ils mesurent 1,8 cm de moins que s'il y a tout-à-l'égout et conservation de l'eau dans de bonnes conditions d'hygiène. Revenu par tête et niveau d'éducation de la mère n'affectent pas l'impact de l'accès à l'eau et au tout-à-l'égout sur la taille des enfants, précisent les auteurs. La croissance des enfants reflète leur statut nutritionnel, or les diarrhées peuvent causer ou aggraver une malnutrition même modérée susceptible d'affecter les capacités intellectuelles et l'insertion sociale future. Il faut donc améliorer l'accès à l'eau et aux installations sanitaires dans les pays en développement, selon William Checkley. Rappelant que 2,9 milliards de personnes dans le monde ne bénéficient pas d'un approvisionnement en eau correct et que 4,2 milliards vivent sans tout-à-l'égout, Rebecca Dillingham et Richard Guerrant (université de Virginie) insistent dans un commentaire, sur l'urgence des mesures à prendre face "au coût social écrasant à long terme d'un approvisionnement inadéquat en eau, de conditions sanitaires médiocres et de la diarrhée du jeune enfant".

Lancet :

http://www.thelancet.com/journal/vol363/iss9403/full/llan.363.9403.talking_point...

Révolution dans le diagnostic du cancer rénal ?
Samedi, 17/01/2004 - 00:00

Une équipe américaine vient de démontrer la possibilité de diagnostiquer un cancer du rein grâce à un simple test urinaire. Les auteurs précisent que ce test s'applique à tous les cancers du rein, y compris ceux à un stade précoce. L'honneur de cette première revient au Pr Paul Cairns et à ses collègues, du Fox Chase Cancer Center, à Philadelphie. Ils ont effectué cet essai sur 50 malades. Un travail qui leur permet de dire que ce test - non invasif et peu coûteux - serait également « extrêmement fiable, sans faux-positifs constatés dans cette étude ». Au cours de ce travail, le test urinaire a notamment permis d'identifier 27 des 30 patients souffrant d'un cancer de stade 1. Cette détection de la maladie à un stade extrêmement précoce permettrait de démarrer le traitement plus tôt, et donc d'envisager un meilleur pronostic. Actuellement, le cancer du rein ne peut être diagnostiqué que par imagerie à résonance magnétique, et parfois par un scanner. La confirmation n'en est généralement apportée qu'après une intervention chirurgicale. D'après Paul Cairns « si ces résultats sont confirmés dans des études plus importantes, ce test urinaire pourrait jouer un rôle majeur dans le diagnostic du cancer du rein ».

Cancer Research :

http://cancerres.aacrjournals.org/cgi/content/abstract/63/24/8695?

Deux champignons contre l'athérosclérose
Samedi, 17/01/2004 - 00:00

Deux molécules issues du surnageant de culture des champignons Beauveria, le beauveriolide I et le beauveriolide III pourraient un jour être utilisées pour traiter l'athérosclérose. Une équipe japonaise de l'université Kitasato (Tokyo) vient en effet de découvrir l'effet antiathérosclérotique de ces composés. In vivo chez la souris, les auteurs ont montré que le beauveriolide III permet de réduire les lésions athérosclérotiques du coeur et de l'aorte de 52 % et 54 % respectivement. La molécule administrée oralement quotidiennement pendant plusieurs mois et même à une dose très importante (quatre fois la dose nécessaire à l'effet thérapeutique) ne semble engendrer aucun effet secondaire délétère (pas de diarrhée, pas de toxicité au niveau de la glande surrénale). En outre, Namatame a réussi à identifier le mécanisme moléculaire par lequel les beauveriolides exercent leur activité. L'équipe japonaise avait récemment mis au point un système permettant d'étudier les mécanismes qui conduisent à la transformation des macrophages en cellules spumeuses au cours du stade précoce de l'athérosclérogenèse. Ce système a été utilisé pour identifier des composants capables d'inhiber ce processus. Les chercheurs japonais ont ainsi découvert un effet de la beauveriolide I et de la beauveriolide III : ces deux membres de la famille des cyclodepsipeptides ont la propriété d'inhiber l'accumulation des gouttelettes lipidiques dans le cytoplasme des macrophages. Les beauveriolides agissent donc au niveau d'une cible moléculaire localisée en amont de la synthèse du CE, une étape se déroulant dans le réticulum endoplasmique. Par ailleurs, les auteurs ont pu démontrer que les beauveriolides agissaient sur une étape du métabolisme du cholestérol se situant en aval des lysosomes. L'hypothèse selon laquelle la cible moléculaire des deux nouveaux inhibiteurs devait être une enzyme du réticulum endoplasmique, l'acyl-CoA:cholestérol acyltransférase (ACAT) a alors été proposée. L'utilisation de microsomes préparés à partir de macrophages murins, qui expriment ACAT-1, ou de cellules hépatiques murines et de cellules intestinales humaines, qui expriment ACAT-2, a permis la vérification de cette hypothèse. Ainsi, les beauveriolides I et III inhibent l'activité de ACAT-1 et ACAT-2. Cet effet conduit à un défaut de synthèse de CE dans les macrophages. En conséquence, ces deux cyclodepsipeptides empêchent l'accumulation des gouttelettes lipidiques dans les macrophages. L'effet antiathérogénique du beauveriolide III ayant en outre été montré in vivo chez la souris, cette molécule semble posséder tous les atouts pour permettre au développement d'une nouvelle stratégie de thérapie de l'athérosclérose ; à quand les premier essais chez l'homme ?

Quotimed :

http://www.quotimed.com/journal/index.cfm?

Le diagnostic par le génome
Samedi, 17/01/2004 - 00:00

La RT-PCR consiste à détecter et à quantifier dans les cellules de divers prélèvements (sérum, crachats, aspirations) les ARNm (ARN messager) caractéristiques des éléments pathogènes que l'on recherche. Codés par l'ADN nucléaire, ces fragments sont le reflet exact d'une fraction du patrimoine génétique. La découverte d'un type particulier d'ARNm atteste donc la présence du génome qui lui est associé. Les principaux avantages de cette technique sont sa sensibilité et l'éventail très large de ses possibilités diagnostiques. De plus en plus de kits permettent de tester simultanément la présence d'un nombre toujours croissant de génomes. Le Lightcycler des Laboratoires Roche est une machine robotisée capable d'effectuer ces analyses pratiquement en temps réel (quelques heures). Les applications tant en recherche pure qu'en clinique sont multiples. En début d'épidémie infectieuse, cette méthode devrait permettre un gain de temps appréciable. Aux États-Unis, en cas d'infection virale, par exemple, un scénario faisant état d'un délai de quinze jours pour le premier diagnostic sérologique est considéré comme optimiste. De plus, les craintes de l'utilisation d'un poxvirus comme arme biologique renforcent la nécessité de doter les hôpitaux d'un moyen diagnostique rapide. Les procédés traditionnels de cultures cellulaires ou de microscopie électronique étant lents ou difficiles à généraliser, ce sont les méthodes de PCR en temps réel qui ont été choisies dans le cadre du plan Biotox. Autre exemple : les mécanismes impliqués dans l'émergence du Sras sont encore à ce jour inconnus. La mise au point d'outils diagnostiques précoces est là aussi nécessaire. La RT-PCR est en cours d'évaluation dans cette indication ; elle devrait se montrer bien plus efficace que l'isolement viral ou le diagnostic sérologique. La PCR permet aussi l'identification des différentes souches de bactéries avec des délais très courts. Il est, par exemple, possible de détecter pratiquement en temps réel des salmonelles dans les produits alimentaires ou de mettre en évidence les mutations responsables de résistance aux antibiotiques avant le début de tout traitement.

Quotimed : http://www.quotimed.com/journal/index.cfm?

Comment le cerveau oublie l'indésirable : quand les neurosciences rejoignent la psychanalyse
Samedi, 17/01/2004 - 00:00

Deux régions cérébrales impliquées dans les processus de mémorisation ont un rôle important dans les mécanismes neurobiologiques de la suppression de la mémoire : l'hippocampe et le cortex préfrontal latéral. L'hippocampe est essentiel à la mémoire déclarative, c'est-à-dire la mémoire des faits de la vie et des souvenirs répondant à des questions de vocabulaire (mémoire épisodique et sémantique). L'activation de cette structure est associée à la réussite du processus de mémorisation ainsi qu'à l'expérience subjective du rappel d'un événement récent. Comment se passe la suppression de la mémoire non désirée ? Nous savons que la mémoire fonctionne de manière sélective et qu'il existe un oubli physiologique, nécessaire au fonctionnement du cerveau, pour qu'il traite en priorité les informations essentielles à l'existence. Le cortex préfrontal est impliqué dans l'arrêt de certaines réponses motrices : montré pour le contrôle de l'amplitude du mouvement, lors de changement de tâches et lors d'interférences avec des tâches cognitives. Aussi, pour découvrir par quel processus le cerveau écarte les souvenirs non désirés, Michael Anderson et coll. (université de Stanford) ont testé l'hypothèse selon laquelle la mémoire indésirable serait supprimée grâce à un recrutement du cortex préfrontal qui stopperait le traitement mis en oeuvre par l'hippocampe. Ils ont adapté un paradigme développé pour étudier la suppression de la mémoire non désirée pour être utilisé au cours d'une IRM (« penser/ne pas penser »). Des volontaires ont été impliqués. On leur a appris un ensemble de mots par paires, puis on leur a demandé deux sortes de tâches : soit de se souvenir de certains mots, soit d'éviter consciemment de penser à eux. L'imagerie par IRM montre qu'un réseau de régions cérébrales s'active pendant la mise à l'écart, qui peut correspondre à la suppression physiologique de la mémoire. Et, surtout, que ce réseau - comportant des régions bilatérales du cortex préfrontal dorsolatéral et ventrolatéral (Dlpfc, Vlpfc, aire de Brodmann), le cortex cingulaire antérieur, le sillon intrapariétal - est plus vaste que celui mis en oeuvre pour le remémoration ; pour une part, il comporte des éléments activés lors de la suppression de tâches motrices. La réduction de l'activation de l'hippocampe est également vue sur ces IRM. « Des modifications d'activation à la fois au niveau du cortex préfrontal et de l'hippocampe droit sont associées à l'amplitude de l'oubli », constatent les auteurs. En outre, les auteurs identifient un nouveau type d'interaction entre différentes régions du cortex préfrontal et l'hippocampe, qui semble spécifique du processus de la suppression de la mémoire. Comme il s'agit d'une expérience, on ne peut dire si le processus mis au jour est responsable d'une amnésie complète ou partielle, avec une possibilité de remémoration. Les auteurs soulignent, par ailleurs, que ce mécanisme peut aussi concerner le refoulement, processus d'oubli inconscient que Freud a mis en avant pour expliquer sa théorie des névroses. Leur travail « intègre cette proposition controversée à des mécanismes de contrôle des comportements beaucoup plus largement admis ».

Quotimed : http://www.quotimed.com/journal/index.cfm?

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
La Commission veut doubler le budget de l'Union consacré à la recherche
Samedi, 17/01/2004 - 00:00

La Commission européenne compte demander à la fin janvier aux Etats-membres de doubler le budget communautaire consacré à la recherche dans l'Union élargie. Les crédits européens pourraient passer de 5 milliards d'euros actuellement à plus de 10 milliards d'euros au début de la prochaine décennie. "J'ai demandé à ce que le budget soit doublé", explique au Monde le commissaire à la recherche, Philippe Busquin, qui bénéficie du soutien du président de la Commission Romano Prodi. Cette somme représenterait 10 % de la recherche publique en Europe et permettrait au budget de l'Union d'atteindre une masse critique. Le niveau précis des crédits dépendra de l'enveloppe globale dont bénéficiera le budget de l'Union élargie sur la période 2007-2013. Si, comme une majorité de commissaires le souhaite, cette enveloppe s'établit à 1,24 % du produit intérieur brut (PIB) européen, les crédits alloués à la recherche pourraient atteindre 13,7 milliards d'euros en 2011, selon des simulations internes de la Commission. Ce plafond sera très difficile à atteindre, six Etats membres (Allemagne, France, Royaume-Uni, Pays-Bas, Suède, Autriche) ayant fait savoir en décembre dernier à la Commission qu'ils entendaient limiter le budget de l'Union élargie à son niveau actuel de 1 % du PIB. Même dans ce scénario restrictif, la Commission entend donner la priorité à la recherche, dont les crédits atteindraient 9 milliards d'euros par an en 2011. Cette stratégie se fonde sur un constat simple : l'Europe souffre avant tout d'un déficit de croissance et la solution passe par un effort considérable en matière de recherche et d'innovation. Les Européens se sont fixés pour objectif au Conseil européen de Barcelone, en mars 2002, de rattraper les Etats- Unis et le Japon en consacrant 3 % de leur PIB à la recherche et au développement d'ici à 2010, pour 1,9 % actuellement. "Notre objectif, c'est 1 % de recherche publique et 2 % de recherche privée", résume M. Busquin, alors que le niveau actuel est de 0,75 % pour le public et 1,15 % pour le privé. Pour atteindre l'objectif de Barcelone, il faudrait augmenter l'effort de recherche de 8 % par an - 6 % pour le public et 9 % pour le privé. La situation est très contrastée en Europe. La France est apparemment très bien lotie, puisqu'elle consacre 1,03 % de son PIB à la recherche publique, ce qui la met en première position en Europe et au même niveau que les Etats-Unis. Toutefois, tempère M. Busquin, "la recherche française est très concentrée dans quelques domaines comme le nucléaire et l'espace. De plus, les 2 % du privé ne sont pas là. Il faut inciter les entreprises à faire beaucoup plus de recherche et d'innovation". Selon M. Busquin, les Allemands "ont une situation fondamentalement meilleure au départ, car ils ont beaucoup plus d'entreprises qui font de la recherche, que ce soit dans les matériaux, la microélectronique, les lasers et ont une bonne interface entre les entreprises et la recherche". Sans surprise, "les Scandinaves sont très dynamiques, les Britanniques se rattrapent après un passage à vide dans les années 1990", explique-t-il. Les Européens peinent à créer un véritable espace européen et souffrent de l'atomisation de leur recherche et de sa faible visibilité. Ainsi, raconte M. Busquin, ils étaient en avance lorsqu'ils sont parvenus à décrypter en premier le génome de la levure. "Mais quand on est passé au génome humain, les Européens ont été incapables de s'organiser, pour se donner ensemble une masse critique et ce sont les Américains qui ont fait ce décodage à 80 %."

Le Monde :

http://www.lemonde.fr/web/article/0,1-0@2-3214,36-348786,0.html

Les Européens peuvent faire ITER "par leurs propres moyens", selon M. Raffarin
Samedi, 17/01/2004 - 00:00

Affichant son "intacte détermination" pour l'installation du réacteur nucléaire expérimental ITER à Cadarache, le Premier ministre Jean-Pierre Raffarin a estimé lundi que "les Européens peuvent le faire par leurs propres moyens" s'il le faut. "On a une vraie détermination", a-t-il estimé devant quelques journalistes lors de la cérémonie qui a suivi ses voeux à la presse à Matignon. "Le 20 décembre dernier, les cinq partenaires impliqués dans ce projet (Union européenne, Etats-Unis, Russie, Corée du Sud et Japon) n'étaient pas parvenus à choisir entre les deux sites proposés, le Centre d'études atomiques de Cadarache (Bouches-du-Rhône) ou celui Rokkasho-Mura au Japon. Une nouvelle réunion est prévue en février. La commission européenne considère également que "le projet de réacteur de fusion expérimental Iter est trop important pour pouvoir être retardé ou abandonné" et, si le consensus n'est pas obtenu le mois prochain, l'Europe s'engagera avec ses partenaires dans sa construction à Cadarache, en France, souligne-t-on mardi dans les milieux proches du dossier. Les Européens ont la capacité technique de mener seuls le projet de réacteur de fusion expérimental Iter, a jugé mardi la Commission européenne, qui a cependant réaffirmé sa préférence pour la désignation consensuelle du site d'accueil d'Iter, en France ou au Japon. "Nous pensons que c'est scientifiquement et techniquement faisable. Mais financièrement, le coût est de 10 milliards d'euros, c'est un montant significatif", a souligné Fabio Fabbi, porte-parole du commissaire à la Recherche Philippe Busquin. Le lancement du projet Iter (International Thermonuclear Experimental Reactor) était attendu en décembre à Reston, aux Etats-Unis, mais les participants ne sont pas parvenus à trancher entre le site français et celui de Rokkasho-Mura, au Japon. Ils se sont mis d'accord pour "prendre un peu de temps", déblayer les questions techniques et explorer les "questions de compensation" à accorder au site qui n'aura pas été choisi. Cependant, les Etats-Unis ont créé la surprise en indiquant "soutenir vigoureusement" la candidature nipponne et son site "techniquement supérieur". Les partisans du site français relèvent de leur côté que depuis quarante ans, des recherches internationales sur l'énergie nucléaire sont menées à Cadarache et que, depuis 1988, Iter y est préfiguré avec le réacteur expérimental "Tore Supra", exploité dans le cadre d'un programme européen des recherches sur la fusion. En principe, les Américains doivent contribuer à hauteur de 10% à ce projet estimé à 10 milliards d'euros sur trente ans. Par ailleurs, ils s'étaient déjà retirés avant de le rejoindre, en janvier 2003, au bout de cinq années d'absence. Pour Christian Poncet, délégué du gouvernement français à l'implantation d'Iter, le problème est simple à la base. "S'il y a blocage à l'issue de la réunion de février, il faudra éviter la mort du projet et pouvoir sortir par le haut, avec qui veut bien le faire. "Le projet est trop important pour pouvoir être retardé ou abandonné", résume-t-il. Initié en 1992, l'objectif du projet ITER est de démontrer la possibilité scientifique et technologique de la production d'énergie par la fusion des atomes. Il s'agit en effet de réaliser, à l'horizon 2050, un rêve de physicien: domestiquer sur Terre l'énergie telle qu'elle est produite au sein des étoiles comme le Soleil. Cette fusion thermonucléaire présente l'avantage de fournir une énergie abondante à partir d'une ressource première quasiment inépuisable: le deuterium, extrait de l'eau, et le lithium, que l'on trouve dans les océans et la croûte terrestre. Contrairement aux énergies fossiles, elle ne dégage en outre aucun gaz à effet de serre.

AP : http://fr.news.yahoo.com/040112/5/3l5t9.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top