RTFlash

RTFLASH Recherche & Technologie
NUMERO 449
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 18 Octobre 2007
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Wimax se généralisera en 2009, avant de céder la place à LTE
En 2010, la plupart des entreprises fonctionneront en VoIP
L'ordinateur écoute la voix de son maître
Avenir
Des nanocâbles pour utiliser l'énergie solaire
Espace
La sonde lunaire japonaise a largué sans souci son deuxième satellite
Terre
L'habitacle des voitures est plus pollué que l'air extérieur
La question du stockage de l'énergie éolienne aurait-elle trouvé sa solution dans le sous-sol de l'Iowa ?
Vivant
Paludisme : résultats encourageants d'un prototype de vaccin chez les bébés
Obésité : le mode de vie moderne principal responsable
L'acupuncture efficace pour réduire la douleur durant une opération
Cancer de la gorge : des virus responsables ?
La mortalité par cancer aux Etats-Unis continue de diminuer
Des éléments nouveaux pour comprendre la maladie de Parkinson
Un Français sur cinq touché par la dépression
Recherche
Quand les technologies sans-fil coupent le moteur
Edito
L'avenir de notre planète va se jouer à Bali



En décernant conjointement le prestigieux prix Nobel de la Paix à Al Gore, pour son action médiatique très efficace en faveur de la prise de conscience par l'opinion publique mondiale du réchauffement climatique et Au GIEC (Panel intergouvernemental de recherche sur le climat) pour son travail scientifique remarquable, les sages du Comité Nobel viennent de conférer à cette personnalité et à cet organisme encore mal connu du grand public, une autorité morale et un impact médiatique qui vont rendre encore plus efficaces leurs avertissements et leurs publications.

Coïncidence du calendrier, quelques jours avant l'annonce de ce prix Nobel, un chercheur australien de renom, Tim Flannery, a révélé à la télévision australienne que la concentration de gaz à effet de serre (GES) avait déjà dépassé les 455 parties par million (ppm) en 2005, soit dix ans plus tôt que prévu.

On mesure mieux l'ampleur de cette hausse quand on sait qu'entre le début de l'ère industrielle et les années 90, la concentration en CO2 dans l'atmosphère est passée de 270 à 380 ppm (parties par million), soit une hausse de 40 %.

Mais il a ensuite fallu moins de 20 ans pour que cette concentration en CO2 passe de 380 ppm à 455 ppm, soit une augmentation de 20 %. M. Flannery a précisé que ces nouvelles données seraient publiées le 7 novembre, dans le nouveau rapport très attendu du GIEC.

La barre des 455 ppm est considérée comme un seuil dangereux par de nombreux scientifiques. A ce niveau de concentration atmosphérique de GES, la température mondiale moyenne augmentera probablement de 2 degrés Celsius, entraînant une hausse du niveau des mers potentiellement désastreuse et d'autres catastrophes liées au climat.

Limiter le réchauffement de la planète à 2 degrés Celsius est l'objectif majeur de la politique intégrée de l'UE en matière d'énergie et de changement climatique, adoptée précédemment dans l'année. D'après M. Flannery, le rapport établit que la quantité de gaz à effet de serre dans l'atmosphère est déjà supérieure au seuil à partir duquel de dangereux changements climatiques peuvent être provoqués.

Cette hausse sans précédent de la concentration de CO2 vient pleinement confirmer les résultats d'une étude publiée cet été par l'académie des sciences américaines ( Pnas) mais malheureusement peu médiatisée. Ces travaux conduits par l'Australien Michael Raupach dans le cadre du « Global Carbon Project », chargé d'établir le cycle du carbone à l'échelle planétaire, ont constaté l'accélération foudroyante des émissions de C02 lors des cinq premières années de ce siècle. « La croissance, note cette étude à laquelle six laboratoires ont participé, a été plus grande que les scénarios liés aux énergies fossiles les plus intensifs développés par le Groupe d'experts intergouvernemental sur l'évolution du climat (Giec). »

En 2005, le total mondial de ces émissions était sans précédent : soit, 7,9 gigatonnes de carbone liés aux combustibles fossiles (gaz, pétrole, charbon) et 1,5 gigatonne lié à la déforestation. Alors que l'augmentation du CO2 était de 1 % par an auparavant, elle est passée à plus de 3 % par an depuis le début de ce siècle. Selon Raupach « Il est clair que nous sommes dans la fourchette la plus haute des scénarios du Giec. Soit entre quatre et six degrés d'augmentation de température moyenne".

Autre observation concordante et très inquiétante, celle faite il y a quelques semaines par le Dr Scott Lamoureux, dans le cadre d'une expédition polaire. Cette expédition, qui fait partie d'une des 44 initiatives canadiennes de recherches prévues pour une durée de quatre ans, est conduite par le Dr Lamoureux sur l'île de Melville, dans le nord-ouest de l'Arctique, et rassemble des scientifiques de trois universités canadiennes ainsi que du Nunavut. Un de leurs objectifs est d'évaluer la modification de la qualité de l'eau sous l'effet du réchauffement, et d'en déterminer l'impact sur l'écosystème sachant que l'ensemble de la population et des industries en dépendent étroitement.

Alors que la température moyenne d'un mois de juillet au camp de Melville est de 5° C, ce sont des pics dépassant nettement les 20° C qui ont été enregistrés cette année durant la même période. Les membres de l'équipe ont aussi observé avec stupéfaction que l'eau contenue dans le pergélisol se mettait à fondre, lubrifiant la couverture végétale qui se mettait à glisser en bas des pentes, balayant tout sur son passage.

D'autres recherches menées par une équipe de chercheurs gallois et norvégiens montrent que l'épaisseur des glaciers de l'archipel norvégien du Svalbard diminue de plus en plus vite. Les résultats de cette étude sont publiés dans la revue Geophysical Research Letters. L'archipel du Svalbard se situe dans l'océan Arctique, à mi-chemin entre le nord de la Norvège et le pôle Nord. Environ 60 % de la surface de l'archipel est recouverte par les glaces. Dans le cadre de l'étude considérée, les chercheurs ont utilisé des données de scanners laser aéroportés et fait appel à la photogrammétrie numérique pour étudier les glaciers de la région.

Ils ont constaté, à l'ouest de l'archipel du Svalbard, une accélération de la fonte de plusieurs glaciers de tailles variant entre 5 et 1 000 kilomètres. «Cette accélération dramatique de la fonte des glaciers est due au réchauffement climatique, lequel s'est traduit par une augmentation des températures et une baisse des chutes de neige», a expliqué la professeur Tavi Murray, chef du groupe de glaciologie de l'université Swansea. Les taux d'amincissement du glacier Midtre Lovénbreen, le mieux documenté en données, ne cessent de croître depuis 1936.

Pour la période 2003-2005, ils sont plus de quatre fois supérieurs au taux d'amincissement moyen pour la période 1936-1962. De 1990 à 2003, le Slakbreen affichait pour sa part des taux d'amincissement quatre fois supérieurs à ceux enregistrés pour la période de 1961 à 1977. «Les petits glaciers comme ceux-ci ne couvrent qu'une surface minuscule de la Terre», a déclaré la professeur Murray. «Toutefois, beaucoup fondent à un rythme accéléré, ce qui en fait un des principaux contributeurs de l'élévation du niveau des mers.

A la lumière de ces récentes observations, il ne fait plus doute que le réchauffement climatique planétaire est non seulement une réalité incontestable mais qu'il progresse plus vite que les prévisions les plus pessimistes. Sans entrer dans les détails du cycle du carbone, les raisons de ce réchauffement peuvent s'expliquer assez simplement. L'homme, du fait de ses activités, envoie à présent chaque année 8 gigatonnes de CO2 dans l'atmosphère ; or la Terre (océans et biomasse réunis) ne peut au maximum en absorber que la moitié (environ 4 gigatonnes pas an).

Le surplus va donc grossir le stock de carbone atmosphérique (CTA), évalué à environ 750 gigatonnes, et aggraver de plus en plus vite l'effet de serre qui, à son tour, accélère le réchauffement de notre planète. L'équation climatique à résoudre est donc assez simple. Si nous ne prenons pas des mesures radicales tout de suite, et que nous continuons sur notre lancée (+ 3 % par an de CO2), nous multiplierons par quatre nos émissions de CO2 d'ici 2050 et le réchauffement climatique, ainsi que toutes ses conséquences désastreuses, deviendront incontrôlables.

La seule façon, non pas de stopper ce réchauffement mais d'avoir une chance de le limiter à 2 degrés, ce qui est déjà considérable dans l'intervalle de temps qui nous sépare de 2050, est de diviser par deux nos émissions de CO2 au niveau mondial, pour les ramener à ce que la Terre est capable de supporter.

L'Humanité est donc confrontée, n'en déplaisent aux esprits irresponsables ou mal informés qui continuent à nier l'évidence, au plus grand défi de son histoire car si nous ne prenons pas tout de suite toute la mesure de cette menace, nous serons confrontés, avant la fin de ce siècle, à une série de catastrophes et de cataclysmes climatiques que nous pouvons à peine imaginer.

Face à cette situation, il faut bien comprendre que, ni la technologie, ni les énergies renouvelables ne parviendront à résoudre le gigantesque problème qui nous attend. Seule une réduction massive "à la source" de notre consommation d'énergie dans tous les domaines d'activités parviendra peut être à limiter les dommages qui nous attendent.

Cela suppose un changement de civilisation en deux générations et une réinvention complète des concepts d'urbanisme, de production et de transports qui fondent nos sociétés.

Certains diront peut-être que je pêche par excès de pessimisme ou que je cultive le catastrophisme. il n'en n'est rien et mes convictions s'appuient sur les meilleures études scientifiques mondiales publiées depuis 20 ans. William Arthur Ward a écrit "Le pessimiste se plaint du vent, l'optimiste espère qu'il va changer, le réaliste ajuste ses voiles."

L'heure est venue pour l'espèce humaine "d'ajuster ses voiles" et de prendre enfin les mesures difficiles mais indispensables à sa survie qu'impose la situation de la planète.

Le sommet extraordinaire de l'ONU sur le climat, qui s'est tenu à New York il y a quelques semaines a marqué un tournant dans la prise de conscience de nos dirigeants que le temps des mesures draconiennes était venu. Espérons que le sommet décisif qui se tiendra en décembre à Bali et doit définir les objectifs de réduction des émissions de gaz à effet de serre pour après Kyoto (2012) sera à la hauteur des enjeux qui nous attendent car ce sommet sera sans doute celui de la dernière chance si nous voulons laisser un monde vivable aux futures générations.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Wimax se généralisera en 2009, avant de céder la place à LTE
Vendredi, 19/10/2007 - 00:00

Selon le cabinet d'études américain spécialisé dans les technologies sans fil ABI Research, Wimax a encore quelques beaux jours devant lui avant toutefois de céder la place à la norme LTE (Long Term Evolution). La bataille pour la technologique des réseaux sans fil de quatrième génération ne fait en effet que commencer. Mais Wimax bénéficie de deux ans d'avance sur LTE, deux années qui font dire au cabinet qu'en 2012, 95 millions d'équipements connectés et 200 millions de périphériques mobiles utiliseront cette technologie.

Pour Philip Solis, analyste principal 'mobile broadband' d'ABI Research, les périphériques et services Wimax commenceront en effet à apparaître dès 2008 et se développeront largement à travers le monde dès 2009. L'analyste s'appuie sur l'intérêt des opérateurs pour cette technologie pour donner Wimax gagnant sur les prochaines années. Il mentionne notamment Sprint Nextel et Clearwire en tête, deux opérateurs américains qui bâtissent déjà leur réseau Wimax dans certaines régions du pays et ont surtout passé un accord de roaming pour assurer le fonctionnement des terminaux d'un réseau à l'autre afin de favoriser le développement de la technologie. En Europe, Vodafone prévoit également de couvrir le continent avec un réseau Wimax, selon l'étude.

Toutefois, et bien que persuadé de l'inévitable développement de Wimax dans les années à venir, ABI Research prédit un succès de courte durée à cette technologie. Dès 2012, LTE devrait en effet prendre la relève, cette technologie présentant de nombreux avantages sur Wimax dont la rétro-compatibilité avec les équipements GPRS et UMTS sans oublier une meilleure bande passante (100 Mbps contre 70Mbps pour Wimax), une accessibilité jusqu'à 100 kilomètres de distance, etc.

RT

En 2010, la plupart des entreprises fonctionneront en VoIP
Vendredi, 19/10/2007 - 00:00

Selon un récent rapport d'Idate, centre d'études et de conseil spécialisé sur les secteurs Télécoms, Internet et Médias, le marché de la téléphonie en entreprise a opéré un tournant inéluctable vers la VoIP (Voice over IP, voix sur IP). Dans 3 ans, 70 % des lignes des entreprises fonctionneraient en effet déjà sur IP contre seulement 30 % en TDM (Time Division Multiplexing), solution de téléphonie traditionnelle en nette régression.

Synonyme de réduction des coûts de la facture téléphonique, la VoIP touche aussi bien les grands comptes que les PME. Début 2006, 56 % des grands comptes avec déjà basculé vers la téléphonie IP, adoptant des solutions « Full IP » ou « hybrides », mixtes de TDM et de VoIP. Dans les PME, en revanche, elles n'étaient que 12 %, mais selon Idate le taux de pénétration est aujourd'hui plus rapide sur ce secteur qui devrait ainsi progressivement rattraper les grands comptes.

Cet engouement pour la téléphonie sur IP a bien entendu un impact sur les équipementiers, les intégrateurs et les opérateurs. On devrait en effet assister à une réorganisation du marché. Idate prévoit une baisse de la demande sur les solutions hybrides au profit de plateformes « full IP » composées de PABX IP et de téléphones IP. Les solutions de type Centrex IP (externalisation des fonctions de PABX auprès d'un prestataire) resteront encore marginales. Selon les prévisions les plus optimistes, en 2010 seulement 20 % du marché mondial (en nombre de ports) s'intéresserait à cette alternative, la part estimée en Europe étant encore en deçà.

RT

L'ordinateur écoute la voix de son maître
Vendredi, 19/10/2007 - 00:00

Prononcer à haute voix les voyelles de l'alphabet pourrait permettre de surfer plus facilement sur le web. C'est le défi relevé par le Vocal Joystick, un système capable de détecter une centaine de sons à la seconde pour les traduire en mouvements sur l'écran d'un PC. L'objectif étant d'offrir un moyen rapide et simple d'utiliser un ordinateur aux personnes ne pouvant se servir de leurs mains. Et donc de représenter une alternative aux systèmes préexistants de substitution de souris. "Les dispositifs de reconnaissance vocale traditionnels proposent une navigation lente, car il faut prononcer des ordres comme "va vers la droite" pour bouger le curseur", explique Jeffrey Bilmes, professeur à l'Université de Washington, qui mène le projet.

"Le simple son de la voix, au contraire, permet de commander le système beaucoup plus rapidement", ajoute-t-il. Celui-ci consiste en un logiciel relié à une manette vocale. Il permet de faire bouger le curseur en fonction des voyelles prononcées par l'utilisateur. Chacune d'entre elles indiquant une direction. Pour effectuer une sélection, il suffit ensuite de prononcer deux sons consonantiques, "k" et "ch". Enfin, le niveau de la voix indique au curseur la vitesse à laquelle il doit exécuter les opérations. Plusieurs versions logicielles existent déjà, qui permettent soit de surfer sur Internet, de dessiner sur un écran ou de jouer à un jeu vidéo. Depuis peu, il est également possible de contrôler un bras robotisé. Une véritable innovation, puisque, souligne Jeffrey Bilmes, c'est la première fois qu'une commande vocale permet de prendre le contrôle d'un objet en trois dimensions.

Selon les chercheurs, les dispositifs permettant de remplacer la souris ne permettent pas encore un accès aisé à l'informatique. Les systèmes de détection du mouvement de l'oeil ou de la tête, par exemple, coûtent chers, et restent complexes. Le premier demandant à l'oeil de simultanément lire les informations et contrôler le curseur, le second fatiguant la nuque. Le Vocal Joystick, qui ne requiert qu'un microphone et un ordinateur intégrant une carte de son, est très économique. Et son utilisateur doit juste être capable de se servir de ses cordes vocales pour activer le système.

Atelier

^ Haut
Avenir
Nanotechnologies et Robotique
Des nanocâbles pour utiliser l'énergie solaire
Vendredi, 19/10/2007 - 00:00

Dans moins d'une dizaine d'années, ces minuscules capteurs de lumière, pratiquement invisibles à l'oeil nu, pourraient notamment servir dans la lutte contre le bioterrorisme ou aider la médecine à mieux observer ce qui se passe à l'intérieur du corps. Charles Lieber et ses collègues de l'université de Harvard sont parvenus à créer un câble de silicone capable de convertir la lumière en courant électrique. La quantité d'électricité produite par câble ne s'élève qu'à 20 milliardièmes de watt mais elle est devrait permettre d'alimenter des appareils eux-mêmes d'une échelle microscopique.

L'épaisseur de chaque câble n'est que de 100 nanomètres, soit un dix-millième de millimètre, ce qui leur permettra d'être implanté sur, voire à l'intérieur du corps. Comme un câble coaxial, le nanocâble de silicone développé à Harvard est formé d'un noyau entouré de deux couches. La lumière génère des électrons sur la couche la plus extérieure, qui sont transmis à la couche intérieure et au noyau à travers des micropores. «Électriquement connectés, le noyau et l'enveloppe jouent le même rôle que les pôles + et - d'une batterie», explique M. Lieber. Les avantages de cette source d'énergie sont qu'elle est propre, très efficace et renouvelable.

Et si un seul nano-appareil consomme très peu, «pour une application intéressante il faudra de nombreux équipements interconnectés et la question de leur alimentation - même pour des systèmes nano - peut constituer un défi», selon M. Lieber. Il donne l'exemple de la surveillance des menaces bioterroristes qui «exigera toute une série de capteurs et de processeurs pour analyser les signaux reçus, ainsi que des nanotransmetteurs pour relayer l'information à une installation centralisée». En comparaison de ce que peuvent offrir ces nanocâbles, les sources d'énergie traditionnelles sont «encombrantes, non-renouvelables et chères», estime encore le chercheur.

CP

^ Haut
Espace
Espace et Cosmologie
La sonde lunaire japonaise a largué sans souci son deuxième satellite
Vendredi, 19/10/2007 - 00:00

La sonde japonaise "Kaguya" a largué avec succès son deuxième mini-satellite qui, avec son jumeau déjà en service, doit aider la sonde principale à accomplir sa mission d'observation de la Lune depuis une orbite proche, a annoncé l'Agence d'exploration spatiale nippone (Jaxa). Cette opération était délicate, compte tenu de l'emploi d'un mécanisme complexe inventé de toutes pièces par les chercheurs japonais. Le premier "bébé" satellite avait pour sa part été largué par la sonde mardi 9 octobre. "Kaguya" (nom d'une princesse d'un conte traditionnel japonais) permettra de dresser une cartographie très précise de la Lune, et de mieux connaître sa surface et ses couches inférieures.

Le premier satellite, Rstar, qui porte le surnom "Okina" tiré du même conte, servira de relais pour la transmission de données vers la Terre lorsque la sonde sera masquée derrière la Lune. Son frère, VRAD, aussi baptisé "Ouna", permettra de mesurer le champ de gravité de la Lune en association avec son jumeau.

La sonde "Kaguya", lancée le 14 septembre par la fusée nippone H-2A, s'était placée en orbite lunaire. Elle doit se rapprocher progressivement de la Lune pour se stabiliser vers le 19 octobre dans une orbite circulaire d'observation, distante d'environ 100 kilomètres du sol. L'observation ne commencera réellement qu'en décembre, une fois tout le dispositif en place et les tests techniques terminés. Cette mission est présentée comme le plus ambitieux projet lunaire depuis les programmes américains Apollo dans les années 1960 et 1970.

La Chine, pendant ce temps, annonce que tout est prêt pour un lancement avant la fin de l'année de l'orbiteur lunaire "Chang", qui utilisera des caméras stéréoscopiques et des spectromètres à rayons X pour cartographier des images tridimensionnelles de la surface lunaire et en étudier la poussière. L'Inde prépare une mission habitée vers 2015, qui devrait être précédée d'un test inhabité : la mission Chandraya an-1, en avril 2008.

FM

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
L'habitacle des voitures est plus pollué que l'air extérieur
Vendredi, 19/10/2007 - 00:00

Les résultats d'une étude unique en Europe menée dans l'agglomération de Rouen démontrent que l'air de l'habitacle des voitures est plus pollué que l'air extérieur, a-t-on appris auprès du Groupe de recherche en toxicologie des polluants atmosphériques, aérothermochimie, santé et environnement (Topaase). Cette étude commandée par l'Association française de sécurité sanitaire, de l'environnement et du travail (AFSSET) était destinée à calculer le taux de particules et d'oxyde d'azote auquel sont exposés les conducteurs et passagers d'une voiture.

Du 1er mai au 14 juillet dernier, un véhicule équipé de capteurs a sillonné les routes de l'agglomération de Rouen, effectuant 7.000 kilomètres, et a analysé la pollution émanant du sillage du véhicule qui précède. "Et les résultats sont stupéfiants", selon Jean-Paul Morin, docteur d'Etat à l'Institut national de la santé et de la recherche médicale (INSERM), coordinateur de l'étude. "L'étude montre qu'en voiture, nous sommes exposés à deux polluants majeurs, des particules d'hydrocarbures et du dioxyde d'azote qui provoquent des gènes respiratoires et des troubles cardiaques chez les personnes sensibles".

La réglementation sanitaire européenne prévoit qu'il ne faut pas dépasser 230 microgrammes/m3 de dioxyde d'azote. "Or, lorsque la voiture est insérée dans le trafic, ce taux dépasse les 400 microgrammes/m3", selon le chercheur. Pire, lorsque le conducteur suit de près un camion ou un bus, qu'il est dans le sillage de son pot d'échappement, ce taux grimpe jusqu'à 1.700 microgrammes/m3. Les résultats obtenus par la voiture laboratoire ont été comparés avec ceux relevés par les capteurs de pollution du réseau Air Normand, des capteurs installés sur le parcours que la voiture prenait quotidiennement.

"Et là encore, les résultats confirment que l'air est plus pollué dans l'habitacle de la voiture qui est dans le sillage des véhicules en circulation que sur le trottoir. Une mère de famille qui pense que son enfant est plus protégé dans le siège auto que dans la poussette se trompe". Les auteurs de cette étude transmise aux constructeurs automobiles préconisent pour l'heure de ne pas suivre de trop près le véhicule qui précède.

AP

La question du stockage de l'énergie éolienne aurait-elle trouvé sa solution dans le sous-sol de l'Iowa ?
Vendredi, 19/10/2007 - 00:00

Près de Dallas, une centaine d'entreprises contribuent à un projet de recherche en vue de stocker l'énergie éolienne. Leur solution : stocker de l'air en sous-sol. Un compresseur d'air gigantesque propulse en effet de l'air comprimé dans le sous-sol, composé de sable poreux. Le système fonctionne comme un ballon géant, qui permet de restituer en surface l'air conservé sous pression. Celui-ci actionne ensuite les turbines d'une centrale à gaz, augmentant de 60 % sa capacité.

Le stockage de l'air comprimé permettrait de réguler ainsi la production éolienne. Le sous-sol étudié dans l'Iowa devrait contenir l'équivalent de 20 semaines de production, suffisamment pour assurer la production énergétique suffisante en cas d'absence de vent prolongée. Le projet devrait être finalisé pour 2011. Une centrale de l'Iowa, productrice de 268 Mw, devrait être la première à intégrer ce système de stockage propre. L'institut national de recherche en énergie électrique estime que 85 % du territoire américain possède un sous-sol compatible avec ce type de stockage.

Enerzine

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Paludisme : résultats encourageants d'un prototype de vaccin chez les bébés
Vendredi, 19/10/2007 - 00:00

Un prototype de vaccin contre le paludisme a donné des résultats encourageants sur des bébés africains, en terme de sécurité et de protection, selon une étude publiée sur l'internet par le journal médical britannique The Lancet. Baptisé "RTS,S", ce prototype de vaccin a déjà suscité des espoirs contre cette maladie qui est la cause d'un million de morts chaque année dans le monde, dont 800.000 enfants africains de moins de 5 ans.

Le nouvel essai, destiné à évaluer la sécurité du vaccin, concernait 214 nourrissons, âgés de 10 à 18 semaines, d'une région rurale du Mozambique où la transmission du parasite responsable du paludisme (Plasmodium falciparum) est intense. Les enfants de moins de deux ans paient un lourd tribu à la maladie (formes sévères et décès).

Les bébés ont été répartis par tirage au sort en deux groupes, un groupe recevant le candidat vaccin (3 doses), l'autre un vaccin standard anti-hépatite B (Engerix-B). Le vaccin a réduit de 65 % le risque de contracter le parasite et de 35 % les épisodes cliniques de paludisme dans les six mois suivant la première dose.

Lors d'un essai précédent en 2003 au Mozambique, sur 2.022 enfants d'un à quatre ans, l'efficacité était de 45 %. "C'est la première fois que l'on démontre qu'un vaccin peut réduire le risque d'infection paludéenne chez des nourrissons africains exposés à une intense transmission de P.falciparum", selon le Dr Pedro Alonso (Université de Barcelone) qui a dirigé l'étude. Le candidat vaccin a été bien toléré par les enfants.

Pour les auteurs, c'est un "signal fort et positif" pour le lancement de la grande phase finale des essais (phase 3 du processus d'évaluation). Au total, quatre décès sont relevés, aucun n'étant attribuable aux vaccins (diarrhées, choc toxique...).

Le vaccin-prototype comporte une protéine recombinante fusionnant une partie de protéine du parasite avec un élément, inoffensif, du virus de l'hépatite B. S'y ajoute une substance ("un adjuvant") pour doper cette partie vaccinante.

En induisant la production d'anticorps, le prototype s'attaque au parasite qui vient juste d'être injecté par un moustique, avant qu'il parvienne au foie pour y proliférer. Tous les enfants de l'essai ont bénéficié de moustiquaires imprégnées d'insecticide. Selon les responsables, un futur vaccin devra être associé aux autres mesures comme les moustiquaires. Même sans être efficace à 100 %, son impact peut être considérable. GlaxoSmithKline (GSK) Biologicals), qui développe et fabrique le vaccin, y travaille depuis une vingtaine d'années.

Les essais résultent d'une collaboration internationale de chercheurs notamment africains, de GSK et de l'Initiative pour un vaccin contre la paludisme (MVI, Etats-Unis) qui a reçu 107 millions de dollars en 2005 de la Fondation Bill et Melinda Gates. GSK Biologicals a "investi plus de 300 millions de dollars dans le développement de ce vaccin".

"Si la suite des travaux est également positive, alors un essai ("phase 3") d'évaluation à large échelle de l'efficacité du vaccin --avec 16.000 enfants de sept pays africains-- pourra démarrer en 2008", a dit à l'AFP Christian Loucq (MVI). L'essai concernera des tout-petits et des enfants légèrement plus âgés (5 à 17 mois) dans des pays à différents niveaux de transmission : permanente en zone équatorienne, épisodique après les pluies en zone sahélienne. "En cas de succès, le vaccin sera soumis à l'approbation des autorités sanitaires européennes en 2011", ajoute-t-il.

AFP

Obésité : le mode de vie moderne principal responsable
Vendredi, 19/10/2007 - 00:00

Le comportement des individus n'est pas le seul en cause dans le développement de l'obésité, c'est le mode de vie moderne qui favorise avant tout la prise de poids, conclut une étude scientifique britannique. L'étude, réalisée par le centre de recherche gouvernemental Foresight, appelle les autorités à des changements sociétaux majeurs pour lutter contre l'obésité, en créant notamment des milieux urbains qui facilitent les déplacements à pied et à vélo et en encouragent les gens à s'alimenter plus sainement.

"Les politiques qui ciblent seulement les individus sont inadéquates (...)" et "ne suffiront pas à renverser la tendance", soulignent les chercheurs. "Une action efficace importante pour lutter contre l'obésité au niveau de la population est nécessaire. "Alors que l'obésité touche deux fois plus de Britanniques qu'il y a 25 ans, avec près d'un quart des hommes et des femmes concernés selon des données de 2004, l'étude estime qu'il faudra au moins 30 ans pour résoudre le problème. "Il y a des preuves convaincantes que les humains sont prédisposés à prendre du poids de par leur biologie", indique le rapport.

"Même si la responsabilité personnelle joue une part cruciale dans la prise de poids, la biologie humaine est dépassée par les effets d'un environnement facteur d'obésité, avec une abondance de nourriture riche en énergie, des transports motorisés et des modes de vies sédentaires". "Les habitants de Grande-Bretagne deviennent inexorablement plus gros simplement en vivant dans la Grande-Bretagne d'aujourd'hui", souligne le rapport. En 2050, 60 % des hommes et 40 % des femmes pourraient être cliniquement obèses, si la tendance actuelle ne change pas, selon l'étude de Foresight.

ITN

L'acupuncture efficace pour réduire la douleur durant une opération
Vendredi, 19/10/2007 - 00:00

Recourir à l'acupuncture avant et durant une intervention chirurgicale réduit nettement la douleur et les doses d'analgésiques nécessaires après l'opération, selon une recherche publiée aux Etats-Unis. Ces travaux résultent de données provenant de quinze petits essais cliniques d'acupuncture conduits sur des sujets pris au hasard.

"Le dosage des opioïdes nécessaire pour contrôler la douleur était nettement plus faible chez les patients opérés traités avec de l'acupuncture comparativement à ceux n'ayant pas bénéficié de ce traitement", explique le Dr Tong Joo Gan, un anesthésiologiste de l'université Duke. Mais "l'avantage le plus important a été la forte diminution des effets secondaires liés aux opioïdes", dit-il, dans un communiqué.

Les opioïdes sont similaires à l'opium et ont des propriétés et des effets physiologiques semblables à ceux de la morphine. Les effets secondaires de ces analgésiques affectent négativement la récupération de l'opéré et prolongent la durée de son séjour à l'hôpital, ajoute le Dr Gan. Ce dernier a présenté les résultats de ces travaux à la conférence annuelle de l'American Society for Anesthesiology à San Francisco (Californie, ouest).

Les patients traités avec de l'acupuncture ont ainsi eu 1,5 fois moins de nausées que les autres, 1,3 fois moins de très fortes démangeaisons, 1,6 fois moins d'étourdissements et 3,5 fois moins de cas de rétention d'urine. Ce médecin recommande que l'acupuncture soit considérée comme une option pour contrôler la douleur en cas d'intervention chirurgicale. Bien que la médecine ne comprenne pas encore pourquoi et comment agit l'acupuncture, de récentes recherches semblent indiquer que cette technique, utilisée en Chine depuis plus de 5.000 ans, stimule la libération d'hormones ou des antidouleurs naturels du corps, appelés endorphines, relève le Dr Gan.

AFP

Cancer de la gorge : des virus responsables ?
Vendredi, 19/10/2007 - 00:00

Des virus, déjà responsables de cancers féminins, sont de plus impliqués dans des cancers de la gorge survenant chez des patients, qui n'ont pas le facteur de risque "habituel" de l'intoxication alcool-tabac, selon les spécialistes. Ces virus, appartenant à la famille des papilloma virus (HPV - Human Papilloma Virus) sont les mêmes que ceux reconnus responsables chez la femme du cancer du col de l'utérus. "Ils semblent jouer un rôle important dans le développement de cancers de la gorge dans le monde occidental", indique à l'AFP le Pr Jean Lacau Saint Guilly (hôpital Tenon, Paris), membre de la société française d'ORL (Sforl; ORL: nez-gorge-oreilles) dont le 114e congrès s'est tenu à Paris du 14 au 16 octobre.

"On observe de plus en plus de cancers de la gorge, notamment chez des sujets jeunes, qui n'ont pas d'intoxication alcoolo-tabagique", remarque-t-il. Ces cancers ORL touchent essentiellement des gens âgés d'une cinquantaine d'années. Or on découvre "des cancers sans facteurs de risque chez des gens de plus en plus jeunes : moins de quarante ans", renchérit le professeur Dominique Chevallier (Lille).

D'après plusieurs études, "ces virus sont retrouvés dans plus de 50 % des cancers oropharyngés, la partie moyenne du pharynx : cancer de la base de la langue, du voile du palais et particulièrement cancer de l'amygdale", détaille M. Lacau Saint Guilly. A tel point que des spécialistes parlent d'une possible "épidémie" chez les non-fumeurs.

Aux Etats-Unis, l'incidence (nouveaux cas) des cancers liés à l'alcool-tabac (larynx, pharynx) baisse de 2,42 % par an depuis 1983 tandis que l'on note une augmentation de l'incidence des cancers de l'oropharynx supposés liés à l'HPV de 0,65 % par an. Des augmentations similaires sont retrouvées dans d'autres pays.

Une étude suédoise sur des tumeurs, avec recherche virale, montre un triplement des cancers liés aux virus HPV, ajoute le Pr Lacau Saint Guilly. Par conséquent, l'absence des facteurs de risque "habituels" alcool-tabac ne doit pas faire méconnaître la possibilité d'un cancer de la gorge (surtout de l'oropharynx) ou de l'origine cancéreuse d'un ganglion du cou, notamment chez des patients jeunes, avertissent les spécialistes.

En France, 18.000 nouveaux cancers ORL sont diagnostiqués chaque année, dont 2.000 cancers de l'amygdale. A terme, on saura si l'usage du vaccin préventif contre le cancer du col de l'utérus, actuellement destiné aux jeunes filles avant le début de la vie sexuelle, s'accompagne d'une baisse des cancers de la gorge impliquant les mêmes virus. "Si c'est le cas, il faudra alors envisager de vacciner les garçons" pour prévenir les cancers de l'oropharynx, avance le Pr Lacau Saint Guilly.

Pour les cancers de la gorge de mauvais pronostic avec métastases, des médicaments (Taxotère, Erbitux) ont permis d'améliorer la survie globale. Pour le futur, la recherche travaille sur les vaccins curatifs (vaccinothérapies) pour ces cancers de la gorge.

AFP

La mortalité par cancer aux Etats-Unis continue de diminuer
Vendredi, 19/10/2007 - 00:00

Le taux de décès par cancer aux USA continue de diminuer depuis 2002, selon un rapport, qui pointe notamment les bénéfices du dépistage précoce du cancer colorectal. Selon ce rapport, fruit de la collaboration de la Société américaine du cancer (ACS), de l'Institut national du cancer (NCI) et des Centres pour le contrôle et la prévention des maladies (CDC), la diminution enregistrée dans le domaine du cancer n'est certes que de 2,1 % par an, mais ce pourcentage a augmenté puisqu'il était de 1,1 % par an entre 1993 et 2001.

Alors que le cancer colorectal se situe au deuxième rang en terme de mortalité, on en meurt moins que de n'importe quelle autre tumeur maligne, près de 5 % par an parmi les hommes et 4,5 % parmi les femmes.

Cela s'explique en partie par le fait que le cancer du colon frappe moins de personnes, selon le rapport. Les nouveaux cas diminuent de près de 2,5 % par an, hommes et femmes confondus. Une diminution liée au dépistage qui permet de détecter à temps des tumeurs précancéreuses, leur retrait évitant le développement du gonflement pathologique.

Toutefois, la moitié seulement des personnes qui nécessitent un dépistage, soit la population des plus de 50 ans, le fait pratiquer. "Si nous observons un impact, nous pensons qu'il serait encore plus important que davantage de personnes soient dépistées", souligne le Dr Elisabeth Ward, de l'ACS, qui a coécrit le rapport avec des scientifiques du gouvernement américain.

L'autre avancée vient des traitements, qui ont à leur actif de doubler l'espérance de vie de personnes traitées à un stade avancé de la maladie. En 1996, il n'existait qu'un seul traitement efficace du cancer du côlon. Aujourd'hui, il en existe sept, ce qui fournit aux patients différents cocktails chimiothérapiques. Un réel progrès dans le contrôle de la tumeur, de l'avis du Dr Louis Wiener, chef du service d'oncologie au Centre du cancer Fox Chase de Philadelphie et spécialiste du cancer colorectal.

Autre fait majeur : la mortalité par cancer recule plus rapidement chez les hommes, le taux de décès diminuant de 2,6 % par an aux Etats-Unis, comparé à 1,8 % chez les femmes. Une différence expliquée en partie par le cancer du poumon : les morts masculines chutent de 2 % par an, alors que, chez les femmes, ce taux est stable après plusieurs années d'augmentation. La consommation de tabac a chuté chez les hommes avant de diminuer chez les femmes. Au total, le nombre de nouveaux diagnostics de cancers diminue de 0,5 % par an

ACS-

Des éléments nouveaux pour comprendre la maladie de Parkinson
Vendredi, 19/10/2007 - 00:00

Partant du fait que la dopamine forme des complexes chimiques avec le fer, les chercheurs ont suggéré qu'elle pouvait exercer un effet protecteur en « emprisonnant » le fer contenu dans les neurones dopaminergiques. Ce système, s'il est défectueux, pourrait conduire à la maladie de Parkinson.

Pour vérifier cette hypothèse, l'équipe de chercheurs a utilisé la nouvelle nano-sonde à rayons X développée récemment à l'installation européenne de rayonnement synchrotron (ESRF) pour étudier la distribution des éléments chimiques dans les cellules. La résolution très fine de l'ordre de 90 nanomètres a permis aux scientifiques de visualiser précisément la répartition du fer dans les vésicules de neurotransmetteur. L'analyse consiste à exciter l'échantillon avec un faisceau intense de rayons X pour recueillir le signal de fluorescence caractéristique réémis en retour. Cela permet de déterminer les différents éléments chimiques présents dans l'échantillon. Celui-ci est scanné point par point pour former une image complète représentant les multiples éléments chimiques constitutifs des cellules.

L'équipe coordonnée par Richard Ortega, chercheur au CNRS, montre que le fer est emmagasiné dans les vésicules de dopamine, à l'intérieur des neurones. C'est la première fois que la co-localisation fer-dopamine dans les neurovésicules est mise en évidence.

Ces résultats expliquent le fait que les chercheurs ont également observé dans les vésicules une quantité de fer très fortement diminuée quand la production de dopamine est inhibée. Cette nouvelle fonction des vésicules de dopamine dans le stockage du fer est essentielle à la compréhension des mécanismes moléculaires impliqués dans la maladie de Parkinson. Dans cette pathologie, en effet, on sait que la concentration en fer augmente dans les neurones dopaminergiques et que le stockage de la dopamine dans les vésicules est défectueux. Ainsi, grâce aux résultats observés, les auteurs de cette publication suggèrent qu'en conséquence d'un stockage défectueux, les composés Fer-dopamine seraient hautement toxiques pour les neurones. 1 installation européenne de rayonnement synchrotron (ESRF) à Grenoble. 2 nanomètre = millionième de millimètre.

Inserm-

Un Français sur cinq touché par la dépression
Vendredi, 19/10/2007 - 00:00

Plus de trois millions de Français sont submergés chaque année par les ravages de la dépression, un mal qui ne cesse de progresser avec la précarité, la solitude, l'avancée en âge. C'est le trouble mental le plus répandu dans les sociétés occidentales, ont pointé les psychiatres lors de la quatrième journée européenne organisée la semaine dernière à Paris à l'initiative de France-Dépression, une association composée de patients, de familles et de médecins.

D'après le ministère de la Santé, près d'une personne sur cinq aura à subir au cours de son existence les affres de cette indicible souffrance morale qui vous laisse K.-O. debout, avec une intense dévalorisation de soi, une perte de toutes ses capacités habituelles et une seule envie, celle d'en finir. Les Français ont une perception du phénomène qui majore les chiffres officiels, puisque 35 % d'entre-eux, interrogés par le Credoc, estiment avoir déjà souffert d'une dépression.

Elle frappe en fait près de 8 % de la population de 15 à 75 ans en France, avec deux classes d'âge plus à risques : les 18 - 25 ans dans les deux sexes, les hommes de 35 à 44 ans, les femmes de 45 à 54 ans.

Plusieurs enquêtes mettent en évidence une prévalence plus importante chez les personnes au chômage ou chez celles qui vivent dans des conditions précaires. Analysant les rapports entre notre culture contemporaine axée sur la performance, l'individualisme et la dépression, le Pr Didier Sicard, président du Comité d'éthique, estime que la société actuelle fait le lit de la maladie. « On ne prend pas assez en cause les conditions de contrainte que vivent les salariés face à des situations de harcèlement moral, de menace de licenciement ou d'exclusion si fréquentes », }dénonce-t-il.

En outre, cette longue descente aux enfers suscite encore beaucoup trop d'incompréhension, voire de stigmatisation et de rejet. Elle reste de surcroît encore trop mal diagnostiquée et trop peu prise en charge. « Seule la moitié des malades ont accès au système de soins et parmi ceux-ci, 50 % seulement recevraient un traitement adéquat », affirme le Pr Emmanuelle Corruble, chef du service de psychiatrie au CHU de Bicêtre.

Figaro

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Quand les technologies sans-fil coupent le moteur
Vendredi, 19/10/2007 - 00:00

Les TIC prennent désormais le contrôle des moteurs automobiles. Ce, dans le but de réduire drastiquement le nombre d'accidents. Un système développé conjointement par l'américain General Motors et sa filiale spécialisée dans la sécurité automobile OnStar permet ainsi de couper progressivement à distance l'alimentation d'un véhicule volé. Objectif : faire s'arrêter l'engin pour diminuer le nombre d'accidents répertoriés lors des poursuites de police. Selon les statistiques du National Highway Traffic Safety Administration (NHTSA), on dénombre 30 000 interventions de ce type par an aux Etats-Unis. Elles provoqueraient environ 300 morts.

"La technologie ne doit pas seulement nous divertir ou rendre notre existence plus confortable. Elle doit aussi nous protéger", souligne Nicole R. Nason, administratrice à la NHTSA. Le service, baptisé Stolen Vehicle Slowdown, sera installé sur près de 1,7 million de véhicules GM en 2009. Il permettra de localiser via GPS la position d'un véhicule dont le vol aura été signalé par son propriétaire. Les informations seront ensuite transmises aux forces de police qui, une fois le véhicule repéré, feront appel à OnStar pour qu'il coupe à distance l'alimentation de la voiture. En parallèle de ce dispositif qui vise à rassurer les propriétaires d'un véhicule, d'autres initiatives permettent de les responsabiliser. Volvo travaille sur l'Alcoguard, un dispositif sans-fil qui exige du conducteur d'une voiture qu'il effectue un alcotest avant de démarrer son véhicule. Une manière efficace de réduire le nombre d'accidents liés à l'alcool.

Atelier

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top