RTFlash

RTFLASH Recherche & Technologie
NUMERO 319
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 12 Janvier 2005
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le téléphone mobile multiplie les fonctions
Le télétravail : une nouvelle révolution industrielle
Vers une banque de données pour les visas
Les industriels planchent sur un après 3G à 100 Mbits pour 2009
Matière
Des cristaux d'ADN qui calculent en croissant !
Des ordinateurs ultra-rapides grâce au flash laser
Le plus petit disque dur externe du monde
Une clé USB biométrique
Espace
Des astronomes établissent une unité de mesure de l'univers, qui est plat et en expansion
Les trous noirs déforment l'espace-temps
Découverte de trois étoiles géantes dans notre galaxie
Vivant
Des ARN contre les virus respiratoires
L'huile d'olive diminuerait les risques de cancer du sein
La durée, secret de la réussite d'un régime
Maladies cardio-vasculaires : la protéine à surveiller de près
Une famille d'antibiotiques aurait un effet neuroprotecteur
Sclérose en plaques : Un anticorps monoclonal ouvre de nouveaux espoirs
Recherche
Michelin dévoile le pneu du futur
Edito
Il y a un siècle, Einstein révolutionnait la physique et bouleversait notre conception du monde



Il y a cent ans, en 1905, un obscur employé au Bureau des brevets de Berne, Albert Einstein, publiait coup sur coup trois articles scientifiques qui allaient révolutionner toute la physique et, au-delà, bouleverser notre conception du monde, de l'infiniment petit à l'infiniment grand. Au cours de cette miraculeuse année 1905, en effet, Einstein va d'abord confirmer l'existence - jusque-là hypothétique - des atomes en se basant sur l'étude des mouvements browniens. Autrement dit l'agitation des particules en suspension dans un liquide sous l'effet de la chaleur, comme chacun peut l'observer en faisant bouillir une casserole d'eau.

Le jeune savant révèle la même année la nature duale de la lumière, à la fois onde et corpuscule. Dans l'article intitulé «Un point de vue heuristique concernant la production et la transformation de la lumière», il écrit que certains résultats d'observation sont «plus compréhensibles si l'on admet que l'énergie de la lumière est distribuée de façon discontinue dans l'espace», sous forme de «quanta de lumière». Les fameux photons, ou «grains» de lumière, sont nés. C'est pour cette découverte qu'Einstein recevra le Nobel en 1921. Les travaux d'Einstein de 1905 et ceux de Bohr en 1913 conduisirent par la suite les physiciens à étendre au rayonnement électromagnétique la théorie des quanta de Max Planck (1900).

Enfin, c'est également en 1905 qu'Einstein formule sa théorie de la relativité restreinte. En reformulant la question non résolue de «l'électrodynamique des corps en mouvement», posée par le génial savant écossais James Maxwell (qui unifia le magnétisme et l'électricité dans une même théorie), Einstein postulait le principe de l'équivalence entre la masse (m) et l'énergie (E), symbolisée par l'équation E = mc2 (où c est la vitesse de la lumière). Il posait ainsi un nouveau cadre théorique, aux implications scientifiques et philosophiques considérables, pour comprendre les relations fondamentales entre matière, espace, énergie, et temps, désormais indissolublement liés.

L'une des conséquences de cette théorie de la relativité restreinte était la constance de la vitesse de la lumière et le fait qu'aucun signal ne peut se propager plus vite qu'elle. Mû par son inlassable quête d'unifier les diffèrents domaines de la physique, Einstein parviendra, dix ans plus tard, à étendre ce principe à la gravitation universelle. Ainsi naîtront la célèbre théorie de la relativité générale et la fameuse courbure de l'espace-temps.

Un siècle plus tard, la relativité, tout comme d'ailleurs la mécanique quantique, dont Einstein fut l'un des pères fondateurs, n'ont cessé d'être vérifiées expérimentalement et n'ont jamais été prises en défaut. Le 29 novembre 1919, lors d'une éclipse totale de Soleil, l'astronome anglais Arthur Eddington constate notamment que les rayons lumineux émis par des étoiles sont bel et bien déviés par la masse du soleil exactement de la manière prévue par la relativité générale. Depuis cette célèbre expérience, deux autres tests, imaginés par Einstein, ont également validé sa théorie : d'une part, le calcul de l'avancée du périhélie (le point de son orbite le plus proche du Soleil) de Mercure (43 secondes d'arc par siècle), un phénomène inexplicable par la physique newtonienne et, d'autre part, le fait qu'un rayonnement se décale d'autant plus vers le rouge qu'il est émis dans un champ de gravitation intense.

Cette nouvelle année 2005 s'annonce décisive pour de nouvelles confirmations de la relativité générale grâce à deux expériences très sophistiquées qui devraient vérifier certains de ses aspects les plus subtils. Lancé il y a quelques mois, le satellite de la Nasa, Gravity Probe B, doit vérifier l'effet d'«entraînement des repères» dû à la rotation de la Terre. Par ailleurs, l'instrument franco-italien Virgo, inauguré en juillet 2003, a pour mission de détecter, au moyen de ses deux bras de 3 kilomètres de long, les fameuses ondes gravitationnelles. Ces infimes perturbations de l'espace-temps, prédites par la théorie, n'ont encore jamais été observées.

Mais au-delà de ces confirmations expérimentales très attendues de la relativité générale, Einstein est également en train de revenir sur le devant de la scène scientifique par le bais de sa fameuse « constante cosmologique ». Refusant d'admettre l'idée d'un Univers en expansion (à l'époque, tout le monde croyait que l'Univers était statique), Einstein avait en effet imaginé une « constante cosmologique » destinée à contrebalancer cette expansion. Mais confronté ensuite à cette réalité de l'expansion de l'Univers, Il reviendra sur cette constante cosmologique et dira qu'il s'agit « de la plus grande erreur de sa carrière ».

L'affaire de la constante cosmologique semblait définitivement close mais en observant des supernovae très lointaines, à la fin de l'année 1998, une équipe internationale de chercheurs (parmi lesquels une équipe du CNRS) a calculé que non seulement l'Univers est en expansion, mais qu'il connaît une phase d'accélération depuis environ 4 milliards d'années ! Pour expliquer ce phénomène, un nombre croissant de physiciens considèrent à présent que la fameuse constante cosmologique Einstein est une réalité et qu'elle possède une valeur non nulle. Cette constante pourrait bien correspondre à l' « l'énergie du vide » ou à cette mystérieuse « énergie sombre », qui représente 70 % de notre Univers, et dont la force serait de sens opposé à la force gravitationnelle.

Le 16 janvier, des astrophysiciens américains ont établi la plus grande carte à ce jour de l'univers confirmant le rôle central de la gravité dans la formation des galaxies et montrant que le cosmos est plat, en expansion et parcouru d'ondulations provoquées par les ondes de choc du "Big Bang". Un univers plat, ayant connu une phase d'expansion très rapide une fraction de seconde après le "Big Bang" vient conforter la théorie dite d'inflation du cosmos. Ces observations tendent aussi à confirmer la présence massive d'une matière "noire" et d'une énergie "sombre" qui contrebalanceraient les effets de la gravitation et joueraient un rôle essentiel dans l'expansion de l'univers (voir article dans ce numéro à la rubrique espace.

Ainsi, deux forces opposées agiraient sur l'expansion originelle issue du big bang : la gravitation tendant à ralentir l'expansion et la constante cosmologique agissant à l'inverse comme une force répulsive. Si ce scénario était confirmé au cours des années à venir par de nouvelles observations, notre vision de l'Univers en serait à nouveau profondément changée puisque nous serions alors dans un Univers dont l'expansion irait en s'accélérant et serait infinie. Il se pourrait donc, qu'une fois encore, Einstein ait eu raison... malgré lui !

En revanche, Einstein ne parvint jamais à accepter toutes les conséquences épistémologiques et philosophiques de la mécanique quantique, bien qu'il contribua de manière essentielle à cette aventure scientifique. Face à l'indétermination fondamentale de la physique quantique (principe d'Heisenberg en 1927 et travaux de Bohr et de l'Ecole de Copenhague), Einstein eut cette fameuse phrase, « Dieu ne joue pas aux dés ». Sans rejeter la mécanique quantique, Einstein resta toute sa vie persuadé qu'il existait des « variables cachées » dont la découverte permettrait un jour de « compléter » cette théorie dans un sens déterministe. Il publia d'ailleurs en 1935, avec ses collègues Podolsky et Rosen, un article célèbre au titre révélateur : «La description quantique de la réalité physique peut-elle être considérée comme complète ?»

Cette question fondamentale resta ouverte prés de 50 ans mais, en 1982, dans une magnifique expérience historique réalisée à Orsay, le physicien français Alain Aspect démontra de manière irréfutable la validité de la mécanique quantique en montrant que deux photons issues d'une même source restaient à jamais corrélés et formaient un système indissociable.

Il n'en demeure pas moins que cent ans après la relativité restreinte, l'apport scientifique d'Albert Einstein à la compréhension de notre Univers reste monumental et sans doute inégalé dans la longue histoire de la science et l'on a pu, à juste titre, dire de la relativité générale qu'elle était « la plus admirable et la plus élégante construction intellectuelle de tous les temps ».

Pourtant, de la même manière que la relativité a dépassé la physique de Newton, cette théorie sera sans doute un jour intégrée dans un nouveau cadre conceptuel encore plus vaste et complexe, visant à une meilleure unification de l'infiniment petit et de l'infiniment grand. Mais qui mieux qu'Albert Einstein a donné raison à Teilhard de Chardin lorsqu'il écrivait, « en science, seul le fantastique a des chances d'être vrai ».

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Le téléphone mobile multiplie les fonctions
Jeudi, 13/01/2005 - 00:00

Les derniers mobiles présentés sur le salon CES de Las Vegas la semaine dernière regorgeaient de nouvelles fonctionnalités. La tendance s'inscrit dans le déploiement des réseaux et services 3G dans le monde. Samsung a ainsi dévoilé le premier téléphone dictaphone qui utilise la technologie VoiceMode, du californien VoiceSignal, et qui traduit en texte SMS les messages vocaux de son utilisateur. Le p207, c'est son nom, fonctionne sur les réseaux GSM/EDGE (3G) et comprend bien sûr les fonctions multimédia, devenues désormais standard dans les appareils haut de gamme de ce type, comme la photo ou la vidéo. La télévision sur mobile est également omniprésente grâce à des services développés par mobiTV, SmartVideo et l'opérateur Verizon pour son réseau 3G (Vcast), qui diffusent des émissions en direct ou préenregistrées, directement sur les portables comme celui du coréen LG (VX8000). La solution d'Orb Networks se distingue de ses concurrentes puisqu'elle diffuse les sources audio-vidéo (TV, PVR, jukebox audio...) reliées au PC de la maison vers tous les téléphones mobiles équipés du lecteur Windows Media ou RealPlayer. Décidément en pointe, la Corée du Sud a par ailleurs testé lundi la première diffusion mondiale de chaînes de télévisions satellitaires sur combinés portables. Samsung a présenté un modèle équipé de la technologie adéquate qui permet de visionner des émissions en haute définition sur un écran de 2,2 pouces, et ce avec une autonomie de deux heures. Prix de la petite merveille : un peu plus de 800 dollars ! La société sud coréenne TU Media veut être la première au monde à commercialiser d'ici quatre mois un service de diffusion par satellite proposant l'accès à 14 chaînes vidéo et 24 audio. Elle affiche un objectif de 8 millions d'abonnés pour un chiffre d'un milliard de dollars d'ici 2010.

Expansion

Le télétravail : une nouvelle révolution industrielle
Jeudi, 13/01/2005 - 00:00

Le télétravail consiste à travailler chez soi, ou plus généralement loin du bureau, en faisant usage des technologies de communication et d'information pour rester "connecté". Le fort développement de ces technologies permet de soutenir la croissance du télétravail. Chimera, l'institut de recherche et d'innovation sociotechnique de l'Université d'Essex, vient de publier un rapport sur cette pratique, qui pourrait générer d'importantes modifications dans la manière dont nous travaillons. Les résultats de ces recherches démontrent entre autres l'importance qu'a prise ce phénomène : 2,5 millions de britanniques pratiquent le télétravail ce qui représente la moitié des télétravailleurs européens et 20 % des employés britanniques qui pourraient travailler loin du bureau. Le docteur Anna Haywood, qui a dirigé les recherches, explique en partie la croissance du télétravail par un phénomène post attentats du 11 septembre : de nombreux employés voient d'un mauvais oeil les transports publics dans les grandes villes. Mais il semble que ce soit plutôt les avantages liés au télétravail qui expliquent son succès progressif.

Travailler à la maison, outre améliorer la qualité de la vie en supprimant le trajet au travail, permet de réduire l'absentéisme et les surfaces de bureaux nécessaires, offre une nouvelle possibilité de travail pour certaines catégories plus ou moins écartées du marché du travail (parents s'occupant de leurs enfants, handicapés), diminue le poids environnemental liés aux transports. Le télétravail ne présente pas que des avantages. En premier lieu, seuls certains métiers précis, comme éditeur ou programmateur, sont éligibles pour le télétravail. Le télétravail impose aussi, d'après ces recherches, certains sacrifices : moins de retour de la hiérarchie pour perfectionner le travail réalisé, absence de liens avec les collègues, moindres opportunités de progression. Toutefois, l'avantage premier du télétravail reste la flexibilité qu'il offre à celui qui le pratique : l'habitude a toujours été de rythmer la vie sur les horaires de travail. Avec le télétravail, c'est le travail qui s'adapte pour se rythmer à notre vie.

BE Royaume Uni

Vers une banque de données pour les visas
Jeudi, 13/01/2005 - 00:00

Les pays de l'Union européenne devraient disposer à partir de 2007 d'une banque de données biométriques sur les visas d'entrée de court séjour afin de lutter contre l'immigration illégale et le terrorisme. La Commission européenne a présenté vendredi ses propositions sur les modalités techniques du "Visa Information System" (VIS), une "commande" des gouvernements de l'Union qui en ont déjà approuvé le principe en juin dernier. L'idée est de permettre aux Etats membres participant à "l'espace Schengen" (ils sont actuellement 13, le Royaume-Uni, l'Irlande et les 10 nouveaux pays n'en faisant pas encore partie) de pouvoir prendre connaissance sans délai de l'octroi d'un visa de court séjour de trois mois par les autorités nationales de l'un d'entre eux - ou du refus de le délivrer.

Dès 2007, les données biométriques (empreintes digitales et photo digitalisée) des demandeurs, ainsi que leurs antécédents judiciaires, seront introduites dans le VIS, imitant ce qui se passera pour les passeports européens dès cette année. Mais, contrairement aux Etats-Unis, la Commission européenne ne suggère pas d'exiger des pays tiers des passeports contenant des données biométriques, qui ne seraient liées qu'aux visas. L'objectif est d'abord la sécurité, souligne la Commission. Il s'agit d'améliorer la situation actuelle, où l'absence d'un mécanisme efficace d'échange d'informations ne permet pas aux Etats membres de savoir si un demandeur de visa a déjà présenté une requête aux autorités consulaires d'un autre pays, qui pourraient très bien l'avoir refusée pour de bonnes raisons.

La coopération entre les 3.500 postes consulaires de l'espace Schengen, qui traitent annuellement quelque 12 millions de demandes venant de ressortissants de 134 pays - la prévision est de 20 millions de demandes en 2007 - est déficiente. Si un quart des demandes sont refusées, rien n'empêche un demandeur de tenter sa chance dans un autre pays et, s'il obtient le précieux sésame, de circuler librement dans l'espace Schengen et d'atteindre sa destination initiale. Certains candidats à l'immigration illégale ou des individus dangereux peuvent également présenter leur demande sous une nouvelle identité si leur passeport original est repéré.

Le VIS contiendra donc toutes les données nécessaires, y compris la raison du refus, pour permettre aux autorités nationales, seules compétentes, de prendre leur décision. Une nouvelle demande ne sera donc pas automatiquement rejetée : si le refus se justifie par exemple par la présentation d'un passeport dont la date de validité a expiré, un document valable suffira dans un autre pays. La mise en place du VIS est estimée par la Commission à 153 millions d'euros d'ici à 2013, soit un supplément de deux à trois euros de plus par visa. Il faudra ensuite que les Etats membres s'entendent sur les critères d'octroi ou de refus d'un visa afin de progresser vers l'établissement d'une politique commune dans ce domaine, objectif officiel mais encore lointain de l'Union.

Reuters

Les industriels planchent sur un après 3G à 100 Mbits pour 2009
Jeudi, 13/01/2005 - 00:00

Alors que le téléphone mobile de troisième génération (3G) est en cours de déploiement dans le monde, les industriels réfléchissent déjà à son remplaçant. Au cours d'un congrès à Athènes organisé par l'association 3GPP réunissant fabricants et équipementiers du secteur, 26 membres - dont les Américains Cingular Wireless (récemment fusionné avec ATT), Qualcomm, Lucent Technologies et Motorola - se sont entendus pour étudier la faisabilité et le développement de nouvelles solutions pour offrir des débits encore plus performants à leurs utilisateurs.

Actuellement, deux normes 3G dominent le marché mondial : l'UMTS, pour Universal Mobile Telecommunications System, et l'EV-DO/EV-DV, pour Enhanced Voice - Data Only/Data Video. Tous deux sont basés sur la classique technologie CDMA (Code Division Multiple Access), développée par la société Qualcomm. Verizon a mis en place l'EV-DO sur une douzaine de villes et pense couvrir 50 % des États-Unis fin 2005 tandis que Cingular a choisi l'UMTS et compte couvrir les 100 principales villes fin 2006.

Ces services permettent d'envoyer des données par paquets d'information sur n'importe quelle fréquence dans un spectre défini. Cela autorise un débit maximal en réception de l'ordre de quelques mégabits à la seconde, soit sensiblement les vitesses traditionnelles de connexions DSL. Mais l'objectif des entreprises qui ont décidé de se regrouper est d'aller plus loin encore en visant la barre des 100 mégabits à la seconde en réception. Elles ont demandé à ce qu'une étude sur le sujet soit réalisée par le groupe de travail Radio Access Network du 3GPP d'ici la mi-2006 pour une définition des spécifications techniques prévue à partir de 2007. Une attention particulière sera apportée à l'optimisation de l'utilisation des fréquences des futures applications qui se révéleront certainement très gourmandes en bande radio, laquelle est loin d'être extensible à l'infini. Selon certains spécialistes, les premiers produits issus de ces travaux pourraient apparaître vers 2009.

WSJ

^ Haut
Matière
Matière et Energie
Des cristaux d'ADN qui calculent en croissant !
Jeudi, 13/01/2005 - 00:00

Des chercheurs du California Institute of Technology ont mis au point un cristal d'ADN qui effectue des calculs tout en croissant. Au fur et à mesure des calculs, des triangles fractals apparaissent dans le cristal d'ADN. Ces résultats ont été publiés dans le journal Public Library of Science (PLoS) Biology par le professeur Erik Winfree. Cette équipe a programmé des "briques" d'ADN de telle sorte qu'elles s'assemblent en triangles de type Sierpinski (fractal) dans des cristaux dont la taille est de l'ordre du micron. Les scientifiques ont exploité le fait que les briques d'ADN tendent à se regrouper spontanément, normalement en structures plus simples. Chaque élément d'ADN a quatre extrémités libres par lesquelles il peut s'assembler avec des voisins, une extrémité donnée s'assemblant avec une extrémité dont la séquence est localement complémentaire. Chaque brique d'ADN représentant une séquence donnée, on peut assembler des rangées de briques qui sont équivalentes à des rangées de 0 et de 1, comme en informatique. Les scientifiques du CalTech ont contrôlé la façon dont les briques pouvaient s'assembler de façon à ce que l'ajout d'un nouvel élément à un cristal ne se fasse que lorsqu'il représente la somme binaire des éléments déjà en place. Ce faisant, ils ont reproduit le principe de fonctionnement d'un algorithme de calcul de triangles de Sierpinski. Pour l'instant, le processus n'est pas fiable à 100 % car l'équipe n'a pas réussi à obtenir de triangle qui contienne plus de 200 briques élémentaires. Mais c'est la première fois que l'on arrive ainsi à mettre en oeuvre en nanotechnologie un processus de calcul qui s'auto entretienne. Selon l'un des chercheurs, Paul W. K. Rothemund les enjeux de ces travaux sont considérables. "Si nous parvenons à utiliser la calcul algorithmique au niveau moléculaire nous franchirons un grand pas dans la compréhension des mécanismes extraordinaires d'auto organisation du monde physique à partir de l'entropie et du désordre ambiant."

Caltech

Des ordinateurs ultra-rapides grâce au flash laser
Jeudi, 13/01/2005 - 00:00

Demain, les composants des ordinateurs seront peut-être moléculaires. C'est dans cette perspective que sont réalisés les travaux du Groupe matière condensée et matériaux (CNRS-Université Rennes 1), en collaboration avec l'Institut technologique de Tokyo. Un flash laser, d'intensité relativement faible est envoyé sur un cristal moléculaire. En deux picosecondes, il provoque un changement d'état, de la phase isolante à la phase conductrice. Ce phénomène est 100 fois plus rapide que les autres transitions photo-induites connues dans les cristaux moléculaires.

Que se passe-t-il dans le matériau ? En un temps si court, il faut imaginer que les molécules se mettent toutes à vibrer en même temps selon un phénomène dit « cohérent » au sein des rangées de molécules. Ce phénomène entraîne un nouvel ordre structural et électronique : les molécules changent de position les unes par rapport aux autres et les charges, portées initialement par une molécule sur deux dans chaque rangée, se délocalisent sur l'ensemble de la rangée. Au final, chaque grain de lumière (chaque photon) provoque indirectement la transition de 500 molécules en moyenne. Ce résultat ouvre la voie à un stockage et une lecture ultrarapide de l'information dans de futures mémoires moléculaires, via une commutation optique entre les phases. Le bit, élément d'information sur lequel est fondé le fonctionnement des ordinateurs, et qui peut prendre la valeur 0 ou 1, passerait par cette commutation. Avec un temps de commutation de l'ordre d'une picoseconde, correspondant à une fréquence d'un térahertz, soit 1012 hertz, on gagnerait un facteur mille par rapport à la technologie actuelle.

CNRS

Le plus petit disque dur externe du monde
Jeudi, 13/01/2005 - 00:00

De la taille d'un calepin ou d'une grosse calculatrice, ultra plat et ne pesant que 130 grammes ce disque dur externe fabriqué par Anypak se connecte à votre ordinateur par le port USB2. C'est le plus petit disque dur externe du monde et il est aujourd'hui disponible jusqu'à 100 Go !

Anypak

Une clé USB biométrique
Jeudi, 13/01/2005 - 00:00

Vos données personnelles doivent être accessibles par vous uniquement. Avec le ThumbDrive Swipe, c'est maintenant possible ! Plus besoin de retenir de mot de passe, grâce à un système biométrique, il vous suffit simplement de poser votre doigt sur le scanner d'emprunte digitale intégré. La Swipe inclut une sonde de lecture d'empreinte digitale qui effectue l'inscription et la vérification de l'utilisateur. Chaque fois que l'utilisateur branche cette clé, un procédé simple mais précis d'authentification a lieu. Une fois que l'utilisateur est identifié, les données stockées dans la partie privée deviennent alors accessibles. La Swipe est la première clé USB biométrique proposée jusqu'à 2 go.

ThumbDrive Swipe

^ Haut
Espace
Espace et Cosmologie
Des astronomes établissent une unité de mesure de l'univers, qui est plat et en expansion
Jeudi, 13/01/2005 - 00:00

Des astrophysiciens ont établi la plus grande carte à ce jour de l'univers confirmant dans ce processus le rôle de la gravité pour sa formation et utilisant ces résultats pour créer une unité de mesure précise d'expansion du cosmos, selon des travaux présentés le 16 janvier. Daniel Eisenstein de l'Université d'Arizona (sud ouest), un des scientifiques de l'une des deux équipes internationales ayant conduit ce projet, a indiqué que ces observations tendent à confirmer que le cosmos est plat, en expansion et parcouru d'ondulations provoquées par les ondes de choc du "Big Bang".

Cette gigantesque explosion a donné naissance à l'univers il y a près de 14 milliards d'années, selon les modèles cosmologiques les plus communément acceptés. La manière dont les galaxies sont aujourd'hui éparpillées à travers le cosmos correspond à ces ondes du tout début, a expliqué Daniel Eisenstein lors d'une conférence de presse en marge de la convention d'hiver de la société américaine d'Astronomie (American Astronomical Society), réunie jusqu'au 13 janvier à San Diego en Californie (ouest).

"Nous considérons cette découverte comme une preuve que la gravité a joué un rôle majeur dans la formation des galaxies et des amas de galaxies que nous observons aujourd'hui dans l'univers", a-t-il souligné. "Ces ondes sonores ont laissé leurs empreintes dans le tissu cosmique qui rappellent les radiations engendrées par le "Big Bang" quand l'univers n'avait que 400.000 ans", a précisé ce cosmographe. "Et maintenant, a-t-il ajouté, nous voyons des ondulations correspondantes dans les 46.000 galaxies très brillantes observées dans un volume d'espace ayant un rayon de quelque quatre milliards d'années lumière", a-t-il dit. Ces ondulations se sont produites pendant environ un million d'années jusqu'à ce que l'univers se refroidisse suffisamment pour les figer et "ce que nous voyons maintenant dans la dernière carte du cosmos ce sont leurs empreintes plusieurs milliards d'années après", a par ailleurs précisé dans un communiqué Bob Nichol, un astrophysicien de l'institut de Cosmologie et de Gravitation de l'Université de Portsmouth en Grande Bretagne.

Selon ces scientifiques, l'espace entre chacune de ces empreintes d'ondulations peut être utilisé pour mesurer l'univers et son rythme d'expansion. Les deux équipes de chercheurs, américains, australiens et britanniques, ont ainsi déterminé que les galaxies se forment environ tous les 500 millions d'années-lumière, soit exactement l'intervalle entre les ondulations provoquées par les ondes de choc du "Big Bang" observée dans la prime jeunesse de l'univers. Une année-lumière est la distance parcourue dans le vide par la lumière en un an, soit 9.461 milliards de km. Un univers plat comme tendent à le confirmer ces découvertes va aussi dans le sens de la théorie dite d'inflation du cosmos, a souligné Daniel Eisenstein. Il s'agit d'une phase d'expansion très rapide qu'aurait connu l'univers une fraction de seconde après le "Big Bang". Ces observations tendent aussi à confirmer la notion selon laquelle la matière telle que nous la connaissons ne forme qu'une petite fraction de l'univers, le restant (80 %) étant constitué de la mystérieuse matière noire et de l'énergie sombre, ont indiqué ces scientifiques.

Ces deux équipes d'astronomes ont déjà cartographié plus de 260.000 galaxies. "La chose la plus extraordinaire dans ces observations c'est qu'elles sont parfaitement en accord avec les prévision du modèle cosmologique standard reposant sur la présence massive de la matière noire et de l'énergie sombre." souligne Eisenstein qui conclut « Il nous reste à présent à comprendre la nature et le rôle exact de cette matière noire et de cette énergie sombre dont nous ne connaissons pratiquement rien. »

BBC

Les trous noirs déforment l'espace-temps
Jeudi, 13/01/2005 - 00:00

Les trous noirs, sortes d'énormes siphons du cosmos, déformeraient l'espace-temps autour d'eux selon une étude américaine. Ces scientifiques ont pu détecter des particules de gaz littéralement "surfant" sur une vague d'espace-temps autour d'un trou noir baptisé GRS 1915+105 situé à 40.000 années lumière dans la constellation Aquila. Ces observations confirment une importante théorie selon laquelle la force extrême de gravitation des trous noirs est telle que même la lumière ne peut s'en échapper, a expliqué Jon Miller lors d'une conférence de presse en marge de la conférence d'hiver de la société américaine d'astronomie (American Astronomical Society).

Ces données montrent aussi comment "ces énormes siphons peuvent modifier la fabrique même de l'espace qui les entoure", créant "un océan d'espace-temps agité qui déforme tout ce qui tombe à l'intérieur", a ajouté ce scientifique. La déformation de l'espace-temps par la force de gravitation a été prédite par le physicien américain, d'origine allemande, Albert Einstein dans le cadre de sa théorie générale de la relativité en 1916, a rappelé Jon Miller qui a effectué ces recherches avec son collègue Jeroen Homan du MIT (Massachusetts Institute of Technology). Ils ont fait ces observations avec le satellite de la NASA, Rossi-X ray Timing Explorer, le plus grand télescope de l'espace à rayon X. Ces données devraient permettre aux scientifiques de mesurer la masse et d'autres caractéristiques des trous noirs, a expliqué Jane Turner avec son collègue d'Oxford en Grande-Bretagne, Lance Miller. Le trou noir observé par ces deux astronomes, relativement petit mais très actif, se trouve dans la galaxie Markarian 766 à environ 170 millions d'années-lumière dans la constellation Coma Berenices.

RTBF

Découverte de trois étoiles géantes dans notre galaxie
Jeudi, 13/01/2005 - 00:00

Un groupe international d'astronomes a découvert trois étoiles géantes dans notre galaxie, la voie lactée, dont le diamètre dépasse 1,6 milliard de km, selon un communiqué publié à l'ouverture de la convention de la société américaine d'astronomie. Cette découverte est jugée "importante" car elle permet de réconcilier la théorie et l'observation, a estimé Philip Massey, du télescope de Lowell à Flagstaff (Arizona, sud ouest), un des astronomes ayant conduit ces recherches. Ces étoiles, dites "géantes rouges", sont des astres d'une masse importante approchant la fin de leur cycle de vie. Elles sont très froides, lumineuses et de très grande taille, a précisé ce scientifique. Ces trois étoiles, les plus grandes observées jusqu'à ce jour, ont toutes un rayon 1.500 fois plus grand que celui de notre soleil. Il s'agit de KW Sagitarii, qui se situe à 9.800 années-lumière, V354 Cephei (9.000 années-lumière) et de KY Cygni (5.200 années-lumière). A titre de comparaison, la très connue "étoile rouge" super-géante Betelgeuse dans la constellation d'Orion, a un rayon équivalent à 650 fois celui de notre soleil. La plus imposante des étoiles géantes était, avant cette découverte, la "Garnet Star" d'Herschel aussi connue comme "mu Cephei" et qui se situe désormais au 4ème rang en terme de taille. Mais si ces étoiles sont énormes, "elles sont loin d'être les plus massives", a souligné Emily Levesque, une autre astronome ayant travaillé sur ce projet. "Elles ont seulement 25 fois la masse du soleil alors que les plus massives des étoiles géantes pourraient équivaloir au plus à 150 soleils", a souligné cette scientifique du MIT

MIT

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des ARN contre les virus respiratoires
Jeudi, 13/01/2005 - 00:00

L'interférence par ARN, technologie en plein essor depuis quelques années, pourrait aussi s'appliquer au traitement d'infections respiratoires d'origine virales fréquentes chez l'homme, montre une nouvelle étude. En utilisant des ARN interférents administrés par voie nasale, des chercheurs sont parvenus chez l'animal à prévenir des infections par le virus respiratoire syncitial (RSV) et le virus para-influenza (PIV). Ces résultats prometteurs ont été publiés dans la revue Nature Medicine. Dans leur article, Bitko et collaborateurs rappellent que les infections respiratoires d'origine virale sont la cause la plus fréquente des hospitalisations d'enfants dans les pays développés. Aux Etats-Unis, ceci se traduit par exemple par environ 91000 hospitalisations par an avec un coût de 300 millions de dollars. Les virus RSV et PIV sont les principaux agents pathogènes en jeu dans ces infections et aucun vaccin n'est actuellement approuvé. Dans ce contexte, ces scientifiques ont choisi la voie de l'interférence par ARN pour tenter de bloquer les infections liées à ces deux virus. En utilisant la souris comme animal modèle, ils ont établi que l'administration par voie nasale d'ARN interférents spécifiquement construits contre ces virus permet de lutter contre le RSV et le PIV : l'infection est évitée. Selon les chercheurs, on peut envisager que de faibles quantités de ces ARN interférents puissent être employées comme traitement antiviral contre des infections respiratoires chez l'homme.

Nature Medicine

L'huile d'olive diminuerait les risques de cancer du sein
Jeudi, 13/01/2005 - 00:00

Une série d'expériences conduites en laboratoire sur des lignées de cellules cancéreuses du sein ont montré que l'acide oléique réduisait de façon importante les niveaux du gène cancéreux. "Nos recherches tendent aussi à confirmer que le régime alimentaire dit méditerranéen a des effets protecteurs contre le cancer", a noté le Dr Menendez. L'acide oléique réduirait de façon importante les niveaux du gène cancéreux appelé Her-2/neu encore connu sous le nom de erb B-2, a expliqué le Dr Javier Menendez, de l'école de médecine Feinberg de l'université Northwestern à Chicago, principal auteur de l'étude. Des taux élevés de Her-2/neu sont observés dans 20 % des cancers du sein et sont liés à des formes particulièrement agressives de cette maladie, a-t-il dit. D'autres expériences sur ces cellules cancéreuses ont aussi montré que non seulement l'acide oléique neutralise le gène Her-2/neu mais il dope l'efficacité du traitement aux anticorps monoclonaux, dit trastuzumab (Herceptin), ont aussi affirmé ces chercheurs dont les travaux sont publiés dans les Annales de l'Oncologie.

Ce traitement vise spécifiquement le gène Her-2/neu, l'un des plus importants dans le cancer du sein et permet de prolonger substantiellement la vie des malades, ont-ils précisé. "Les résultats de nos recherches tendent aussi à confirmer les études épidémiologiques ayant montré que le régime alimentaire dit méditerranéen, riche notamment en huile d'olive, a des effets protecteurs contre le cancer, les maladies cardio-vasculaires et le vieillissement", a noté le Dr Menendez. Des études conduites sur des populations du sud de l'Europe avaient déjà montré que l'acide gras monoinsaturé pourrait avoir des effets protecteurs contre le cancer du sein, mais des expériences sur des animaux en laboratoire n'ont pas donné jusqu'à présent de résultats concluants, ont indiqué ces chercheurs. Plus d'un million de cas de cancers du sein sont diagnostiqués chaque année dans le monde. En 1998, la maladie représentait 1,6 % des décès de femmes dans le monde, selon l'Agence internationale pour la recherche sur le cancer, dont le siège se trouve à Lyon

Annals of Oncology

BBC

La durée, secret de la réussite d'un régime
Jeudi, 13/01/2005 - 00:00

Peu importe la méthode, seule la ténacité et la fidélité comptent pour qu'un régime amaigrissant soit efficace, selon une étude publiée aujourd'hui dans le Journal of the American Medical Association. Les chercheurs ont comparé quatre régimes très populaires aux Etats-Unis : Weight Watchers, qui réduit quantités et calories, le régime Atkins qui bannit les glucides (carbohydrates) mais pas les graisses, la méthode Zone (réduction des protéines) et Ornish (réduction des graisses). Ces régimes, popularisés à grand coup de best-sellers et de marketing, sont également objets de controverses et sources de dérives dénoncées par le milieu médical. Michael Dansinger et ses collègues ont soumis quatre groupes de 40 personnes obèses ou en surpoids à ces régimes. Après deux mois de suivi, chacun a été laissé libre de suivre le régime. Les chercheurs ont constaté que la perte de poids ne dépendait pas du type de régime mais de sa durée. Seules les personnes ayant persévéré une année ont maigri. Or un quart des effectifs seulement a tenu ce cap. La perte de poids moyenne est de 5 % du poids d'origine. Selon les chercheurs il n'existe pas un régime efficace pour le tout le monde, autant dire que les modes imposant telle ou méthode pour mincir sont absurdes. En revanche, il est important que chaque personne opte pour le régime qui lui convient le mieux afin qu'elle le suive le plus longtemps possible, précisent Dansinger et ses collègues. Une autre étude publiée en début de semaine dans les Annals of Internal Medecine souligne que tous ces régimes commerciaux ne disposent d'aucune étude répondant à des critères scientifiques précis pour prouver leur efficacité.

JAMA

Maladies cardio-vasculaires : la protéine à surveiller de près
Jeudi, 13/01/2005 - 00:00

Une protéine, dite CRP (C-reactive protein), une mesure de l'inflammation dans l'organisme, pourrait jouer un rôle dans le développement des maladies cardio-vasculaires peut-être aussi important que le taux de cholestérol, selon deux études publiées jeudi aux Etats-Unis. Les résultats de ces deux études, financées respectivement par les groupes pharmaceutiques Bristol-Meyers Squibb et Pfizer et parues dans l'édition de jeudi du New England Journal of Medecine, mettent en évidence le fait que l'inflammation peut endommager le coeur et les artères et entraîner des crises cardiaques. Si le lien entre le niveau de CRP et les maladies cardio-vasculaires était établi fermement pour l'ensemble de la population, cela créerait un vaste nouveau marché pour les médicaments comme la statine, déjà populaire, qui réduisent le CRP dans le sang. «Nous avons maintenant des indices cliniques solides qu'une réduction du CRP est tout aussi importante qu'un abaissement du taux du cholestérol », a déclaré le Dr Paul Ridker, de l'hôpital des femmes de Boston (Massachusetts, nord-est), principal chercheur dans l'une de ces études. Toutefois, d'autres cardiologues ont mis en garde contre le fait que ces recherches n'étaient pas suffisantes pour établir de façon certaine le lien entre le niveau de CRP et les maladies cardio-vasculaires. Tous ces chercheurs se sont dits d'accord sur la nécessité de faire davantage d'études dans la mesure où les deux recherches en question ont été conduites seulement sur des personnes souffrant de maladies cardio-vasculaires avancées.

NEJM

Une famille d'antibiotiques aurait un effet neuroprotecteur
Jeudi, 13/01/2005 - 00:00

Une famille d'antibiotiques à laquelle appartient la pénicilline pourrait avoir un effet bénéfique contre les dommages subis par les nerfs dans nombre de maladies neurologiques, comme les attaques cérébrales, la démence, l'épilepsie et la maladie de Charcot (SLA), selon des chercheurs américains. Les effets favorables de cette famille d'antibiotiques appelés béta-lactamines, observés sur des souris, n'ont pas de rapport avec leur capacité à détruire les bactéries, soulignent les chercheurs. En fait, ces antibiotiques contrecarrent la dangereuse surdose au niveau des nerfs d'un des messagers chimiques du cerveau, le glutamate, en actionnant un gène, le GLT1. Ils augmentent ainsi le nombre de transporteurs évacuant le surplus de glutamate. Normalement, le glutamate excite les nerfs pour faciliter la transmission des messages électriques d'un nerf à l'autre, mais son excès les tue, comme dans la sclérose latérale amyotrophique (SLA) ou d'autres maladies. "Il serait grandement prématuré pour les patients concernés de réclamer ces antibiotiques ou d'en prendre de leur propre chef", met en garde le responsable de l'étude, le Pr Jeffrey Rothstein, directeur à l'université Johns Hopkins d'un centre de recherche sur la SLA. L'université et ce spécialiste détenteurs de brevets couvrant ce potentiel thérapeutique ont cédé une licence au laboratoire Ruxton. "Seul un essai clinique peut prouver l'éventuelle utilité de ces antibiotiques et leur innocuité à long terme", selon le neurologue. L'injection quotidienne de l'antibiotique ceftriaxone dès les premiers signes de SLA ont retardé les dommages nerveux et augmenté la survie de dix jours des souris comparées à leurs congénères non traités.

La pénicilline marche mieux en éprouvettes, mais sur l'animal, c'est la ceftriaxone, sans doute parce qu'elle atteint plus aisément le cerveau. Les chercheurs envisagent un cocktail thérapeutique pour prévenir les autres causes de dégénérescence nerveuse, car le traitement n'a pas empêché les souris de succomber (faiblesse et paralysie). La SLA est une maladie neurologique dégénérative (troubles moteur, de la déglutition, puis état grabataire), survenant généralement vers 50-60 ans, avec une durée moyenne d'évolution de 3 ans. Mais 20 % des malades vivent plus de 5 ans après l'apparition des premiers symptômes et 10 % en moyenne 10 ans. Dans les formes bénignes, la maladie peut rester stable plus de 30 ans. Décrite par le Français Jean-Martin Charcot en 1869, cette maladie (dite de Lou Gehrig aux Etats-Unis) toucherait près de 2 personnes pour 100.000 habitants par an (trois cas diagnostiqués par jour en France, 15 aux Etats-Unis).

Nature




Sclérose en plaques : Un anticorps monoclonal ouvre de nouveaux espoirs
Jeudi, 13/01/2005 - 00:00

Le natalizumab, nouvel anticorps monoclonal humanisé, est un inhibiteur de molécules d'adhérence sélective, stoppe la cascade inflammatoire responsable des lésions neurologiques dans la sclérose en plaques. Les études de phase II et III montrent des résultats radiologiques et cliniques très significatifs. Le Natalizumab ou Antegren (développé en partenariat par les laboratoires Biogen et Elan Pharmaceuticals) est un anticorps dirigé contre une protéine à la surface des globules blancs. Cette protéine permet aux globules blancs d'adhérer à certaines molécules dans la paroi du vaisseau sanguin avant de traverser cette paroi. Il est généralement admis que lors des poussées de sclérose en plaques, certains globules blancs "auto-immunitaires" migrent de la circulation sanguine vers le cerveau et la moelle épinière, où elles provoquent des inflammations, puis une destruction de la myéline en "plaques", d'où le nom de "sclérose en plaques". Antegren a déjà été étudié chez des centaines de personnes avec des résultats prometteurs (diminution du nombre de poussées et de nouvelles lésions actives à l'examen par IRM. Les effets secondaires les plus communément observés ont été des maux de tête, un syndrome grippal et de la diarrhée. Les infections notamment au niveau des sinus, urinaires et rectales pourraient également être plus fréquentes chez les personnes traitées.

Le but de l'étude en cours est d'évaluer le bénéfice potentiel du Natalizumab sur la progression de la maladie chez des patients atteints de sclérose en plaques rémittente ayant présenté une poussée au cours des 12 derniers mois. Sur base des résultats intérimaires après 1 an de traitement, les autorités américaines ont donné fin novembre 2004 leur accord pour la commercialisation de l'Antegren dans les cas de sclérose en plaques avec poussées, sous le nom de " TYSABRI " Antegren diminuerait sensiblement le nombre de poussées (66 %). La décision des autorités européennes est attendue dans le courant de 2005.

LBSP

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Michelin dévoile le pneu du futur
Jeudi, 13/01/2005 - 00:00

Michelin a dévoilé un concept de pneu sans air intégré à la roue, le "Tweel", et qui pourrait à terme, selon le groupe français, reléguer le bon vieux pneumatique aux oubliettes. Le numéro un mondial du pneu, qui a présenté son prototype au salon automobile de Detroit, a expliqué que le "Tweel" aurait deux premières applications. Il sera fixé sur le fauteuil roulant high tech iBOT inventé par le physicien Dean Kamen. Il équipera un prototype de la société Segway LLC, également présidée par Dean Kamen, le Centaur. Il s'agit d'une sorte de scooter à quatre roues. Selon Terry Gettys, responsable du centre de recherche et de développement de Michelin en Caroline du Sud, il faudra attendre entre 10 et 15 ans pour que le concept soit véritablement opérationnel sur les voitures. Pour lui, le pneu radial, inventé par Michelin, restera la norme pendant encore longtemps et le groupe de Clermont-Ferrand continuera à produire des pneus qui permettent de rouler à plat après une crevaison (système Pax). Getty estimé que le Tweel pourrait augmenter la sécurité, en rappelant que trois voitures sur quatre en circulation ont au moins un pneu insuffisamment gonflé. Le concept permettrait aussi une meilleure conduite dans les virages et les trous. En 2003, Michelin détenait 20,1 % du marché mondial du pneu, devant le japonais Bridgestone (18,4 %) et l'américain Goodyear (16,9 %).

Reuters

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top