RTFlash

RTFLASH Recherche & Technologie
NUMERO 435
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 14 Juin 2007
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Vers des télécommunications quantiques par satellite
L'Arcep veut réguler et mutualiser le marché de la fibre optique
Un e-papier qui parle !
Siemens : de la fibre optique polymère à 1 Gbps
Matière
Des nanocornets de carbone pour stocker l'hydrogène
A la recherche d'un autre biocarburant
Recycler l'eau tout en produisant de l'énergie propre grâce aux bactéries !
Fin des ampoules à incandescence : c'est pour 2015
Terre
Canicule : l'Europe se prépare au changement climatique
Vivant
Huit Français sur dix déclarent souffrir d'au moins un trouble de santé
Tendances suicidaires : l'imagerie médicale au service des médecins pour identifier les patients les plus fragiles
Une étude française lie tumeur et pesticides
Les pesticides ralentiraient la croissance des plantes
Vers une agriculture sans engrais grâce à la symbiose plante bactérie ?
Cancer du pancréas : une avancée thérapeutique grâce à deux anticorps monoclonaux
Aspirine dans la prévention de la maladie cardiovasculaire : la juste dose
Des "imitations" de cellules souches embryonnaires créées à partir de cellules ordinaires
Méningite A : les espoirs d'un nouveau vaccin
La génétique dévoile l'intimité moléculaire de sept grandes maladies
Recherche
Le secteur aérien veut réduire drastiquement les émissions de CO2
La voiture qui roule à l'air devrait être disponible en 2008
MIT : les 10 technologies émergentes en 2007 consacrent les « nanos » et les biotechnologies
Edito
Cancer : le grand tournant thérapeutique



C'est un véritable vent d'optimisme qui a soufflé à l'occasion du grand congrès annuel de la société américaine d'oncologie clinique, qui a réuni à Chicago le gratin mondial de la cancérologie.

A l'occasion de ce colloque, des avancées dans le traitement de deux cancers redoutables ont été présentées. Une équipe américano-espagnole, codirigée par Joseph Llovet (faculté de médecine du Mount Sinaï, New York) et Jordi Bruix (université de Barcelone), a démontré l'efficacité d'un médicament, le sorafenib, dans le traitement du cancer du foie. De leur côté, les chercheurs du centre médical de l'université VU d'Amsterdam ont mis en évidence les bénéfices d'une irradiation prophylactique du crâne pour les patients ayant un cancer avancé du poumon.

Lorsqu'une cellule tumorale est menacée d'étouffement par ses voisines, elle émet un signal de détresse. L'information, issue du génome, est transportée par des centaines de biomessagers. Si elle sort de la cellule, cette information va déclencher la construction de capillaires sanguins qui provoquent un processus de prolifération.

Grâce à certaines molécules, les chercheurs insèrent dans cette cascade signalétique un leurre qui va couper la transmission, soit en bloquant la propagation du signal dans le cytoplasme, soit en interdisant à la cellule de communiquer avec ses voisines. Une centaine de médicaments inhibiteurs de ce transit sont en cours de développement. Selon Jean-Yves Blay, cancérologue au centre Léon-Bérard de Lyon, les thérapies ciblées vont devenir le protocole de soin standard dans les cinq ans qui viennent.

Dans le traitement du cancer du côlon, le professeur Bernard Nordlinger, chef du service de chirurgie digestive et oncologique de l'hôpital Ambroise-Paré de Boulogne-Billancourt, a présenté lors du congrès de cancérologie de Chicago, les résultats d'une étude internationale. Celle-ci montre que la chimiothérapie, donnée avant et après la chirurgie, permet de réduire significativement le risque de récidive d'un cancer du côlon et du rectum chez les malades opérés de métastases hépatiques. Cette nouvelle approche thérapeutique devrait constituer désormais un traitement de référence pour ces patients.

Dans le cancer du sein, le trastazumab -Herceptin- est un anticorps monoclonal qui se fixe sur les cellules tumorales ayant des récepteurs de surface HER2 - celles qui gouvernent la formation de métastases. En association à la chimiothérapie après chirurgie, « il a augmenté de plus de 50 % le délai sans rechute de la maladie » explique le Professeur Xavier Pivot du CHU de Besançon. Des résultats durables selon une étude du National Cancer Institute américain.

Autre percée remarquable contre le cancer du sein : une étude de phase III réalisée avec l'ixabepilone. Ce nouveau cytotoxique - un médicament chargé de tuer les cellules cancéreuses - « contourne les mécanismes de résistances » aux chimiothérapies actuellement considérées les plus efficaces, telles le taxotère Avec 752 patientes ; c'est la plus large étude jamais réalisée chez des femmes atteintes d'un cancer du sein métastatique en échec thérapeutique. Dans le groupe traité par une association de capecitabine (Xeloda) et d'ixabepilone, le taux de réponse au traitement a été multiplié par 2,5 en regard du groupe témoin (capecitabine seule). Et le taux de survie sans progression de la maladie a augmenté de 40 %. Les auteurs considèrent ces résultats comme « extrêmement prometteurs ».

Contre le cancer du rein, les malades pourront bientôt disposer d'un médicament révolutionnaire, l'Avastin, commercialisé aux Etats-Unis. Celui-ci agit en privant la tumeur de l'apport de sang nécessaire pour se développer et se disséminer dans l'organisme. L'essai clinique a montré que les sujets du groupe traité avec de l'Avastin en plus de leur chimiothérapie standard, ont vécu 10,2 mois après le diagnostic, comparativement à 5,4 mois pour ceux n'ayant pas pris ce médicament.

Le groupe pharmaceutique français Sanofi-Aventis, a, pour sa part, présenté le traitement Aflibercept qui freine la progression d'un cancer avancé de l'ovaire. Sanofi a indiqué que des essais cliniques de phase 3 sont en cours pour étudier les effets de l'Afilbercept en combinaison avec de la chimiothérapie traditionnelle sur cinq des cancers avancés du colon, du poumon, de la prostate, du pancréas et de l'estomac. Une démarche en vue de la mise sur le marché d'Aflibercept devrait être faite en 2011.

Une autre avancée majeure concerne le redoutable cancer du pancréas, presque toujours mortel et résistant aux thérapies habituelles. Au Centre de Recherche en Cancérologie de Montpellier (CRCM), l'équipe d'André Pèlegrin, Directeur de l'Unité Inserm 860 « Immunociblage et radiobiologie en oncologie », vient de démontrer l'efficacité de l'association d'anticorps monoclonaux dirigés contre des récepteurs membranaires dans le traitement des cancers du pancréas. Cette thérapie innovante permet d'inhiber la prolifération des tumeurs et d'induire une rémission complète. Ces anticorps monoclonaux sont actuellement utilisés dans le traitement de différents cancers. (Voir notre article détaillé dans la rubrique « Sciences du vivant »).

Mais les nouvelles armes contre le cancer ne se limitent pas à ces nouveaux médicaments et traitements. De nouveaux outils technologiques permettent également des avancées décisives dans cette lutte sans merci. Après plusieurs années de travail, des chercheurs du CNRS viennent ainsi de finaliser la gama caméra miniaturisée POCI utilisable en bloc opératoire. Dédié au traitement chirurgical du cancer, ce nouveau dispositif d'imagerie médicale permet de cibler les lésions tumorales préalablement marquées de manière radioactive (Voir article dans notre lettre 434). En matière d'imagerie, l'arrivée des Pet-Scan, qui associe scanner et RMN, et leur utilisation en association avec des marqueurs spécifiques, permet de détecter très précocement de minuscules tumeurs qui échappaient jusqu'alors aux autres moyens d'investigations. Mais dans ce domaine de l'imagerie médicale de pointe, il est essentiel que notre pays rattrape son retard inadmissible et se dote d'un nombre d'appareils suffisants par rapport aux besoins médicaux.

Mais il y a encore plus extraordinaire : une étude publiée récemment dans la revue Nature Biotechnology, montre qu'en observant les images dynamiques de tumeurs obtenues par Tomographie Informatisée (CT) il est possible, après analyse, modélisation et reconstruction informatique, de discerner la plupart de l'activité génique de certaines tumeurs. Les chercheurs ont ainsi été capables de reconstituer près de 80 % des profils d'expression génique à partir de seulement 28 images non invasives, révélant la prolifération cellulaire, la fonction altérée du foie, et l'évolution de la maladie chez le patient.

Ainsi, l'activité génique des tumeurs du foie peut être décodée par imagerie non-invasive, ce qui ouvre la voie vers la réalisation de profils moléculaires en série sur les patients, et pourrait permettre, dans un proche avenir, un diagnostic et un traitement personnalisés du patient, en fonction des caractéristiques uniques de sa maladie.

Fait révélateur, pour la première fois depuis 1930, le nombre de morts par cancers est en recul, en valeur absolue, aux Etats-Unis depuis deux années consécutives, ce qui constitue, de l'avis des spécialistes, un tournant historique dans la lutte contre cette maladie. En France, la barre des 50 % de guérisons vient d'être franchie et il ne fait à présent plus aucun doute que, grâce à ces nouvelles générations de médicaments ciblés qui arrivent enfin sur la marché, le cancer sera vaincu et ramené au rang de maladie chronique non mortelle dans une génération.

Mais pour parvenir à cet objectif, nous devons redoubler d'efforts et intensifier la recherche fondamentale et clinique tout en développant de manière considérable la prévention active qui, rappelons le inlassablement, permet d'éviter deux cancers sur trois.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Vers des télécommunications quantiques par satellite
Vendredi, 15/06/2007 - 00:00

Une équipe internationale de physiciens a réussi à transmettre une information quantique sur 144 km, la distance qui sépare les îles de La Palma et Tenerife aux Canaries. Ce nouveau record ouvre la voie à des utilisations à très grandes distances de la cryptographie quantique, une technique de codage inviolable qui permet d'émettre une information en ayant la certitude absolue qu'elle n'a pas été interceptée. Cette sécurité absolue intéresse évidemment les militaires, mais de nombreuses équipes concurrentes dans le monde essaient de faire sortir cette technique des laboratoires et de résoudre certaines difficultés, notamment celles liées aux longues distances.

D'une manière encore plus exotique, ce record ouvre la voie à des expériences de téléportation quantique à très longue portée. « La distance franchie par l'expérience aux Canaries était une barrière critique, explique Frédéric Grosshans, physicien au Laboratoire de photonique quantique et moléculaire de l'ENS Cachan. C'est la distance d'atmosphère qu'il faut être capable de traverser pour envisager des communications jusqu'à des satellites, ce qui est indispensable pour développer des télécommunications quantiques au niveau global. »

LPQ

L'Arcep veut réguler et mutualiser le marché de la fibre optique
Vendredi, 15/06/2007 - 00:00

La fibre optique aiguise les appétits des fournisseurs d'accès Internet, mais inquiète l'Autorité de régulation des télécommunications (Arcep). Selon elle, un cadre juridique est nécessaire pour favoriser le déploiement de cette technologie haut débit et ne pas fausser le jeu de la concurrence. Les infrastructures sont financées par des acteurs différents : collectivités locales, France Télécom ou d'autres opérateurs. Si chaque fournisseur d'accès n'a pas accès à l'ensemble du réseau, des monopoles peuvent apparaître et léser le consommateur. Ce que rejette l'Arcep.

Pour éviter ces situations, elle invite les parties prenantes du déploiement de la fibre optique à « mutualiser » leurs efforts sous deux formes. Premier temps : mutualiser les fourreaux, ces gaines contenant la fibre, qui permettent de l'amener au pied des immeubles. Il est possible soit de passer par des conduites déjà existantes comme les égouts, soit d'utiliser le réseau déjà posé par les collectivités locales ou appartenant à France Télécom.

Deuxième temps : mutualiser la partie terminale, c'est-à-dire le raccordement de chaque logement. Le premier opérateur qui équipe l'immeuble ne doit pas être le seul à proposer des services très haut débit. Pour le moment, l'Arcep n'a aucune information sur ces deux points. Elle invite donc les opérateurs à clarifier leurs modalités d'accès aux fourreaux et aux dessertes d'immeubles à travers deux consultations publiques lancées avant cet été. Avec pour objectif d'ici 2012, 4 millions d'abonnés Internet bénéficiant d'une connexion de plus de 100 mégabits grâce à la fibre optique. Soit un tiers des abonnés acutels à l'ADSL.

Reste que le nouveau réseau va coûter très cher. France Telecom investirait 3 à 4,5 milliards d'euros d'ici 2012 affirme Les Echos. Iliad (Free) a pour sa part annoncé un montant de 1 milliard d'ici cinq ans. Neuf Cegetel prévoit de débourser 300 millions d'euros d'ici 2009 mais a racheté deux fournisseurs d'accès sur fibre optique, Erenis à Paris et Mediafibre à Pau. En tout, le montant de la facture atteindrait 30 milliards d'euros pour couvrir l'ensemble du territoire français.

Pour engager de telles sommes, encore faut-il que les opérateurs aient un retour sur investissement conséquent. Une chose est sûre, les clients devront payer quelques euros de plus pour leur abonnement. Une hausse des tarifs, qui pour être acceptée, devra aller de pair avec un enrichissement des contenus offerts. Et là, rien n'est moins sûr comme l'indique Paul Champsaur, président de l'Arcep. D'après lui, « il existe pour les opérateurs télécoms qui vont investir dans la fibre optique un vrai problème d'accès aux contenus. »

Expansion

Un e-papier qui parle !
Vendredi, 15/06/2007 - 00:00

Le papier électronique a décidément tout pour nous séduire : pratique et depuis peu en couleur, il est maintenant doté de la parole. Des chercheurs de la Mid Sweden University ont en effet réussi à développer un papier pour panneau d'affichage capable d'émettre des sons lorsqu'on le touche.

Le prototype utilise des encres conductrices sensibles à la pression. Après un contact, l'encre relaie l'information à un micro-ordinateur qui contient des fichiers pré-enregistrés. Ceux-ci sont alors retransmis via des haut-parleurs imprimés, formés de plusieurs couches d'encres conductrices qui remplissent une cavité faisant office de diaphragme.

Principale cible de ce papier d'un nouveau genre : la publicité. Pour le docteur Mikael Gulliksson, responsable du projet, "ce prototype pourrait être utilisé sur les étals des boutiques et dans de nombreuses campagnes marketing". En effet, il suffirait de toucher le panneau pour obtenir des informations comme la description d'un produit, la promotion d'une destination vacances ou le synopsis d'un film.

Autre déclinaison possible : l'intégration du e-papier sur des emballages, comme les paquets de cigarettes. "Au lieu d'avoir des messages écrits qui vous avertissent des dangers pour votre santé, vous auriez un message parlé", précise le docteur Gulliksson. Un tel rappel à l'ordre semble en effet beaucoup plus convaincant qu'une simple inscription.

Atelier

Siemens : de la fibre optique polymère à 1 Gbps
Vendredi, 15/06/2007 - 00:00

Disposer chez soi d'un réseau monté en toute simplicité et offrant un débit de 1 Gbps, ce sera peut-être bientôt une réalité. Des chercheurs de Siemens ont expérimenté avec succès de la fibre optique constituée non pas de verre mais de polymère." Le câble polymère autorise des installations à monter soi-même ", indique Sebastian Randel, chef de projet. " Contrairement à la fibre optique en verre, celle-ci est flexible, facile à couper et à insérer dans des connecteurs. "Le câble mesure 1 mm d'épaisseur, présente une robustesse correcte et peut être tranché avec une simple lame de rasoir. La fibre optique de verre fournit quant à elle des débits beaucoup plus importants mais est aussi plus épaisse avec son manchon protecteur et elle casse facilement si elle est trop incurvée. La couper proprement pour la relier à des connecteurs nécessite du diamant.

La demande en réseaux domestiques très haut débit et faciles à monter ne cesse d'augmenter à mesure que les services correspondants, comme la TV par IP, se développent. La paire de fils de cuivre torsadés n'a pas dit son dernier mot car elle est plus fine et plus flexible que la fibre optique, mais elle demande des outils spéciaux pour sa liaison aux connecteurs, tandis que les réseaux WiFi peinent à assurer la continuité de services haut débit dans le temps.

Les chercheurs de Siemens sont parvenus à transmettre des signaux TV à 1 Gigabit par seconde sur un réseau test de 100 mètres de long, assurant une diffusion sans artefacts ni saccades. Ils ont choisi une technique envoyant plusieurs bits d'information par pulsation lumineuse, plutôt que la méthode classique codant chaque bit en un faisceau. Cela a permis de multiplier par 10 le débit généralement obtenu sur ce type de fibre.

GNT

^ Haut
Matière
Matière et Energie
Des nanocornets de carbone pour stocker l'hydrogène
Vendredi, 15/06/2007 - 00:00

L'hydrogène, élément le plus abondant dans l'Univers, est une source d'énergie renouvelable alternative aux énergies fossiles. Il n'est pas polluant : le seul sous-produit formé lors de sa production est l'eau. Néanmoins, la difficulté à le stocker de manière à la fois sûre et économique a jusqu'ici rendu son utilisation marginale.

Parmi les procédés de stockage existants, l'assemblage avec des métaux semble trop coûteux. Le piégeage dans des matériaux poreux, quant à lui, est à la fois efficace (tout l'hydrogène adsorbé est récupérable) et bon marché. De plus, les cycles de chargement et de relargage de l'hydrogène ne nécessitent alors aucune réactivation ou régénération du matériau. Les nanostructures à base de carbone (nanotubes ou nanocornets), du fait de leur faible masse et leur grande capacité d'adsorption, s'avèrent d'excellents prétendants de matériaux poreux.

Toutefois, les nanotubes de carbone présentent un inconvénient majeur : leur stockage n'est possible qu'à des températures extrêmement basses (inférieures à -196oC), à cause de la faible interaction entre l'hydrogène et le carbone, ce qui limite les applications commerciales. La possibilité future de stocker de l'hydrogène à l'intérieur de matériaux poreux à base de carbone, dans le cadre d'un projet d'énergie propre, dépend donc étroitement de la force de l'interaction entre l'hydrogène et le carbone, et de la faculté d'augmenter cette force.

Des chercheurs du Centre de recherche sur la matière divisée (CNRS/Université d'Orléans), en collaboration avec leurs confrères du Rutherford Appleton Laboratory (Royaume-Uni), de l'Université du Pays Basque à Bilbao et du Consejo Superior de Investigaciones Científicas (Espagne), ont étudié les liens entre l'hydrogène et les nanocornets de carbone. Les nanocornets sont des matériaux de deux à trois nanomètres de longueur. De forme conique, ils s'agrégent pour former des structures en forme de dahlia de 80 à 100 nanomètres de diamètre et ne contiennent aucune impureté métallique. L'extrémité des cônes étant pointue, les chercheurs soupçonnaient une interaction hydrogène-substrat renforcée.

En utilisant la spectroscopie de neutrons à haute résolution, ils ont obtenu des informations sur cette interaction (mobilité de l'hydrogène, énergies et géométrie caractérisant le complexe hydrogènenanocornet). Leurs résultats montrent que l'interaction entre l'hydrogène et les nanocornets est bien plus forte qu'entre les nanotubes de carbone et l'hydrogène. Ces résultats suggèrent que les nanocornets de carbone sont des matériaux prometteurs pour le stockage de l'hydrogène.

GL

A la recherche d'un autre biocarburant
Vendredi, 15/06/2007 - 00:00

Soutenu par l'ANR (Agence Nationale de la Recherche), le projet SHAMASH de l'INRIA a pour objectif de produire à l'horizon 2010, à partir de microalgues non OGM, 50 litres d'un biocarburant au rendement 30 fois supérieur à celui du colza. Il s'agit donc d'évaluer la viabilité à la fois technique et économique d'une telle filière de production pour un marché potentiel évalué à 17 millions de m3 en Europe d'ici 3 à 4 ans. SHAMASH est à ce jour le seul projet français consacré à ce sujet.

Il rassemble des chercheurs issus de différents établissements de recherche, dont le CNRS, le CIRAD, le CEA et l'IFREMER, au sein d'une équipe coordonnée par Olivier Bernard, chargé de recherche à l'INRIA.

"Nous devons déterminer, entre plusieurs millions, une espèce spécifique d'algues très productrice de lipides, qu'elle soit d'eau de mer ou d'eau douce", explique le coordinateur de cette équipe qui précise : "en construisant des modèles qui reproduisent le comportement des différentes espèces, nous pouvons faire en 15 secondes des expériences qui auraient pris deux mois, et identifier rapidement les conditions optimales pour stimuler la biosynthèse d'huiles". Il souligne que ce type de collaboration entre informatique et biologie contribue à former de véritables spécialistes.

BE

Recycler l'eau tout en produisant de l'énergie propre grâce aux bactéries !
Vendredi, 15/06/2007 - 00:00

Une équipe de recherche australienne, dirigée par le professeur Jürg Keller de l'Université de Queensland, a mis au point une « pile à combustible microbienne ». Le principe de la pile à combustible est de produire de l'électricité grâce à une réaction chimique d'oxydo-réduction. Dans le dispositif expérimental imaginé par Keller et ses collègues, les bactéries sont capables de transférer des électrons à l'une des électrodes (anode) de la pile après avoir dégradé les déchets organiques des eaux usées -sucres, amidon, alcool. Ces électrons proviennent de la respiration bactérienne anaérobie (sans oxygène) qui fournit habituellement son énergie à l'organisme. Dans un second compartiment de la pile, l'oxygène réagit au contact d'une autre électrode (cathode) avec les électrons précédemment transférés pour donner de l'eau. La réaction générale crée un courant électrique.

Ce procédé a intéressé une brasserie de bière de la ville de Brisbane, capitale du Queensland, pour traiter une partie des eaux usées qu'elle rejette. Le prototype de la pile qui sera installé courant septembre produira une puissance électrique de 2 kW par jour selon Keller, suffisamment pour alimenter une maison individuelle. Après traitement, l'eau pourra être filtrée et réutilisée par l'usine. Dans un premier temps, la pile utilisera 2500 litres sur les 2,5 millions rejetés quotidiennement par la brasserie.

Le projet bénéficie du soutien de l'état australien qui a accordé un financement de 85 000 euros pour l'installation de cette pile dans la brasserie. La production d'eau propre est primordiale en Australie, le pays subit actuellement une des sécheresses les plus sévères depuis un siècle. La pile fera l'objet d'une présentation au congrès international sur les bio-énergies du futur qui se tiendra fin septembre à Brisbane.

STT

Fin des ampoules à incandescence : c'est pour 2015
Vendredi, 15/06/2007 - 00:00

Les fabricants d'ampoules ont décidé, mardi 5 juin, d'éliminer progressivement du marché européen les ampoules traditionnelles à incandescence d'ici 2015. L'initiative a été saluée par la Commission européenne, mais l'association Greenpeace condamne la lenteur des décisions. «Quand un produit devient à la mode, le marché peut évoluer très vite pour répondre à la demande. Il a fallu très peu de temps pour que les jeunes soient équipés d'un Ipod. Les ampoules à basse consommation pourraient facilement remplacer les ampoules traditionnelles d'ici deux ans et demi», a déclaré Sharon Becker, le porte-parole de Greenpeace international.

L'Australie et la Californie ont déjà décidé d'abandonner les ampoules à tungstène, d'ici 2010 pour la première et 2012 pour la seconde. Les dirigeants européens avaient demandé à la Commission, vendredi 9 mars, de faire des propositions visant à améliorer l'efficacité énergétique des éclairages dans les bureaux et dans les rues d'ici 2008, et dans les habitations d'ici 2009. Selon les calculs des industriels, cette simple mesure permettrait de réduire de 60 % les émissions de CO2 générées par l'éclairage domestique et d'économiser 7 milliards d'euros par an.

JDE-

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Canicule : l'Europe se prépare au changement climatique
Vendredi, 15/06/2007 - 00:00

Après la canicule d'août 2003, de nombreux pays européens ont appliqué chaque année des plans d'actions comprenant des mesures d'alertes et de surveillance ainsi qu'une modification des infrastructures existantes. La vague de chaleur de juillet 2006 est venue confirmer l'utilité de ces actions. Le Bulletin épidémiologique hebdomadaire (BEH) du 5 juin, intitulé «Eté 2006 : premier épisode caniculaire majeur après la catastrophe de 2003» se penche sur la question. «A la veille de l'été 2007, il est important de tirer le bilan des conséquences sanitaires de la vague de chaleur de 2006. D'autant que pour la première année depuis qu'il existe, le plan national canicule a été mis durablement et largement à l'épreuve», y explique Gilles Brücker, directeur général de l'InVS.

En France, le mois de juillet 2006 a été le plus chaud des mois de juillet depuis 1950, et le mois le plus chaud après celui d'août 2003. D'après les chercheurs de l'Institut national de la santé et de la recherche médicale (Inserm), la surmortalité en France durant la période du 11 au 28 juillet 2006 a été de l'ordre de 2.000 décès. Mais Gilles Brücker pose la question : quelle aurait été cette mortalité «si elle avait été celle que l'on aurait dû observer face à une telle variation de températures» ? En d'autres termes, sans prévention et mesures exceptionnelles, combien de personnes seraient-elles mortes pendant cette période ?

D'après l'équipe du docteur Didier Hamon, de l'Inserm, si un excès de mortalité a bien été observé en juillet 2006, il a été trois fois moins important que ce qu'il aurait été au regard des études antérieures de modélisation chaleur/mortalité. Un sujet qui est au coeur des interrogations des chercheurs Simon Hales, Christina Koppe, Franziska Matthies et Bettina Menne. «Dans la majeure partie de l'Europe de l'Ouest, la vague de chaleur de 2006 était moins sévère que celle de 2003. Il n'est donc pas possible de faire correspondre la baisse de la mortalité signalée dans ces pays à la seule efficacité des plans Canicule», estiment ces chercheurs. «Il n'est pas encore possible d'arriver à une conclusion avec les données disponibles actuellement», précisent-ils.

Mais selon eux, cela ne fait aucun doute : au regard des changements climatiques à venir, les actions d'urgence organisées en Europe doivent être pérennisées. «En Europe, on prévoit que les températures extrêmes de 2003 seront courantes d'ici quelques décennies. Les vagues de chaleur seront probablement de plus longue durée dans l'avenir et leur intensité sera encore renforcée», préviennent-ils. D'où l'importance de réfléchir à la façon dont les pays européens doivent s'adapter structurellement aux changements climatiques. Les mesures technologiques seules, type climatisation, ne suffiront pas à se prémunir contre la montée des températures. Gourmands en énergie, souvent onéreux, les systèmes de climatisation ne feront qu'aggraver l'inégalité sociale face aux grosses chaleurs.

Conclusion : «Les plans Canicule doivent faire partie intégrante d'une politique générale d'économie d'énergie et de réduction des émissions de gaz à effet de serre». Eté comme hiver, les pays européens devront prendre en compte le facteur canicule dans la conception des villes et des logements, dans les dépenses énergétiques, les plans de santé publique ou la politique des transports. Le début d'une nouvelle ère.

JDE

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Huit Français sur dix déclarent souffrir d'au moins un trouble de santé
Vendredi, 15/06/2007 - 00:00

Huit Français sur dix déclarent souffrir d'au moins une maladie ou un trouble de santé, selon une étude de l'Institut de recherche et documentation en économie de la santé, réalisée à partir des données de l'enquête décennale santé 2002/2003 de l'Insee. Une fois exclus les troubles bénins comme les problèmes de vue ou les affections de la bouche, "ce sont encore près de sept personnes sur dix" qui se déclarent atteintes d'une maladie, "chronique dans la plupart des cas", note l'Irdes.

Chaque personne déclare, "un jour donné", en moyenne 2,9 troubles de santé. Les femmes déclarent plus de maladies (3,2) que les hommes (2,5) et le nombre de maladies augmente avec l'âge, atteignant 6 maladies pour les personnes de plus de 80 ans. Les troubles de santé les plus fréquents sont les troubles de la réfraction (myopies, hypermétropies ou presbyties) qui représentent 24 % de l'ensemble des problèmes de santé déclarés et concernent 56 % des personnes. Viennent ensuite les affections de la bouche (caries et prothèses dentaires essentiellement), qui regroupent 21 % des déclarations et affectent 51 % des personnes.

Après ces troubles bénins, les pathologies les plus fréquentes sont les maladies du système ostéo-articulaire (9 % des maladies et 21 % des personnes), les maladies endocriniennes, nutritionnelles et métaboliques, représentées surtout par l'obésité et les troubles des lipides (8 % et 19 %), les maladies de l'appareil circulatoire (8 % et 18 %) et enfin les maladies de l'appareil respiratoire (5 % et 12 %).

A un niveau plus détaillé, l'hypertension artérielle de même que les maladies du dos (lombalgies, sciatiques) concernent 10,2 % des personnes enquêtées, les troubles de l'audition 10 % et l'obésité 9,5 %. L'étude relève également des "différences sociales", l'hypertension artérielle, le diabète et l'obésité étant "des pathologies plus souvent présentes chez les personnes de situation sociale défavorisée". L'enquête décennale santé 2002-2003 a porté sur un échantillon représentatif d'environ 40.000 personnes.

IRDES

Tendances suicidaires : l'imagerie médicale au service des médecins pour identifier les patients les plus fragiles
Vendredi, 15/06/2007 - 00:00

En France, plus de 200 000 personnes font une tentative de suicide chaque année et, malheureusement, 10 000 parviennent à leur fin. Existe-t-il un terrain neurologique identifiable à la vulnérabilité au suicide ? Peut-être, si l'on en croit les résultats d'une remarquable étude que vient de publier une équipe regroupant l'Inserm, le services de psychologie médicale de l'hôpital Lapeyronie de Montpellier et le King's College de Londres. Ces chercheurs viennent de mener la première étude d'imagerie fonctionnelle visant à explorer les dysfonctionnements du cerveau des personnes suicidaires.

Fabrice Jollant et son équipe ont comparé les activités cérébrales de trois groupes d'hommes présentant différents profils psychologiques. 13 volontaires avaient des antécédents de dépression et de tentative de suicide, 14 avaient vécu des épisodes de dépression mais sans volonté de passage à l'acte et enfin 16 personnes ne présentaient aucun trouble particulier.

Les chercheurs ont présenté à leurs cobayes des visages exprimant successivement de la joie et de la colère. Grâce aux techniques d'IRMf (imagerie par résonance magnétique fonctionnelle), ils ont analysé l'effet de ces images sur le fonctionnement de certaines zones de leurs cerveaux.

Les résultats, présentés lors du colloque sur la recherche en psychiatrie organisé au Collège de France, suggèrent que les personnes suicidaires ont une manière différente de réagir aux stimulations. Chez eux, la vision de visages en colère provoque une activation beaucoup plus intense que chez les autres volontaires d'une zone particulière du cerveau appelée « cortex orbito-frontal » droit. A l'inverse, la vision de visages exprimant de la joie ne provoque qu'une faible activation d'une autre région de l'encéphale appelée « pariéto-occipitale ».

Pour le Docteur Jollant, ces images montrent que les personnes plus à risques de suicide présentent une « hypersensibilité à l'échec ». D'après lui, ils auraient également « du mal à réguler leur émotions, comme en témoigne le fait qu'ils n'activent pas le cortex cingulaire antérieur impliqué justement dans la régulation des émotions. ». Ils seraient en parallèle « moins sensibles aux stimulations positives » que le chercheur considère comme des facteurs protecteurs vis-à-vis du suicide.

En comparaison aux dépressifs non-suicidaires, les personnes qui ont fait des TS seraient ainsi « hypersensibles » à la réprobation et à l'échec, elles auraient plus de difficultés à réguler leurs émotions et seraient moins enclines à réagir à des évènements positifs. « Si on arrivait à détecter par imagerie les déprimés les plus vulnérables vis-à-vis d'un tel risque, on pourrait leur proposer des psychothérapies plus adaptées ou des traitements médicamenteux plus ciblés » explique Fabrice Jollant. Cette technique permettrait donc de proposer des traitements "sur mesure" et de les adapter en suivant l'évolution de la maladie.

90 % des personnes qui attentent à leurs jours ont un diagnostic de trouble psychiatrique : dépression et trouble de l'humeur, schizophrénie, abus d'alcool ou de drogues, troubles de la personnalité. « Il est donc certain que cette vulnérabilité comporte une très grande hétérogénéité et nous commençons tout juste à tenter de démêler cet écheveau très complexe », reconnaît le Docteur Jollant.

Comprendre, grâce à cette nouvelles approche, comment les interactions entre un terrain neurologique spécifique et une cascade d'événements de vie négatifs entraînent une vulnérabilité suffisante pour provoquer le passage à l'acte suicidaire pourrait permettre de prévenir plus efficacement de tels actes et constituerait une avancée majeure dans la prise en charge de ce problème médico-social aux conséquences humaines dramatiques.

Inserm

Une étude française lie tumeur et pesticides
Vendredi, 15/06/2007 - 00:00

Selon une équipe de chercheurs bordelais, le risque de tumeur du cerveau s'accroit pour les travailleurs agricoles exposés à un niveau élevé de pesticides et pour les personnes qui en utilisent dans leur jardin.

Les résultats, publiés dans la revue Occupational and environmental medicine, portent sur 221 personnes atteintes d'une tumeur au cerveau et 442 cas-contrôles entre mai 1999 et avril 2001. Elles vivent toutes dans la région bordelaise qui compte 125.000 hectares de vignes, 10.000 agriculteurs, et 18.000 travailleurs agricoles (chiffres de 2000). Les fongicides représentent 80 % des pesticides employés.

Les travailleurs les plus exposés, outre un risque de tumeur deux fois plus élevé que pour les cas-contrôles, présentent également un risque de gliome trois fois plus élevé. Pour plus de 70 % d'entre eux, ils ont été exposés entre 1965 et 1985. Pour les expositions plus faibles, aucun risque supplémentaire n'a été trouvé. A cette époque, on recommandait l'utilisation de substances inorganiques (cuivre, soufre), de dithiocarbamates et de phtalimides.

Les résultats sont cohérents avec ceux d'une étude française datée de 1998 et selon laquelle l'utilisation de pesticides dans les vignes augmente la mortalité liée au cancer du cerveau chez les agriculteurs. Si les travaux montrent également que 8,9 % des malades utilisent des pesticides pour leurs plantes vertes, contre seulement 4,1 % chez les cas-contrôles, les auteurs estiment toutefois qu'une réplication de leurs résultats est nécessaire pour conclure à un risque. Les scientifiques n'ont pas réussi à identifier les agents en cause (pesticides, fertilisants, autres substances chimiques).

JDE

Les pesticides ralentiraient la croissance des plantes
Vendredi, 15/06/2007 - 00:00

En voulant protéger leurs cultures avec des pesticides, les agriculteurs risquent de réduire la croissance des plantes, rendant en partie inutile l'apport de fertilisants. Des chercheurs américains ont montré, à l'issue de plusieurs années d'études in vitro et in vivo, que des substances chimiques présentes dans les pesticides perturbent la fixation de l'azote par les plantes légumineuses, comme la luzerne ou le soja.

Ces plantes vivent en symbiose avec des bactéries, les rhizobiums, qui se logent dans les nodules des racines et permettent à la plante de fixer l'azote de l'air. L'azote est un nutriment essentiel qui permet de fabriquer les acides aminés de la plante. L'équipe dirigée par Jennifer Fox (University of Oregon) a étudié les effets de plusieurs composés chimiques présents dans les pesticides sur la croissance des rhizobiums et la relation symbiotique.

Ces chercheurs ont observé que plus de 20 substances couramment utilisées en agriculture coupent la communication entre l'hôte et ses bactéries. Ces produits chimiques se lient à des récepteurs sur les rhizobiums et bloquent le signal envoyé par la plante. La symbiose est altérée et la fixation d'azote fonctionne moins bien. Cela pourrait en partie expliquer des baisses de rendements observées sur des cultures de soja par unité de fertilisant déversée, soulignent les chercheurs.

D'autres études ont déjà montré que plusieurs herbicides réduisent la fixation d'azote par les plantes. Dans certains cas c'est la photosynthèse de la plante qui fonctionne moins bien, dans d'autres c'est la croissance des rhizobiums qui est directement affectée. Jennifer Fox et ses collègues veulent confirmer leurs résultats sur des études en plein champ et déterminer avec précision les molécules des pesticides qui s'interposent dans la relation plantes-bactéries.

PNAS

Vers une agriculture sans engrais grâce à la symbiose plante bactérie ?
Vendredi, 15/06/2007 - 00:00

Si l'abus de pesticides risque de réduire la croissance des plantes, comme le montre l'article précédent, l'agriculture moderne est également confrontée à un autre défi en rapport direct avec le précédent : comment obtenir des rendements agricoles satisfaisants sans déverser de grandes quantités d'engrais chimiques sur les cultures ? Afin de répondre à cette question, des chercheurs de l'IRD et leurs partenaires étudient une relation symbiotique particulière, associant une légumineuse aquatique, l'Aeschynomene et une bactérie photosynthétique du genre Bradyrhizobium. Cette bactérie, capable de fixer l'azote de l'air, provoque sur les racines et les tiges de la plante la formation de nodules.

Une fois colonisés par le microorganisme, ces nodules procurent à la plante l'azote nécessaire à sa croissance. En étudiant le génome de la bactérie, les chercheurs ont découvert qu'elle ne possédait pas les gènes nod, habituellement impliqués dans les mécanismes symbiotiques chez tous les rhizobiums connus. Ces résultats, publiés dans la revue Science, remettent ainsi en cause le dogme actuel reconnaissant l'existence d'un unique processus de nodulation. La compréhension de ce nouveau type de dialogue moléculaire pourrait permettre, à terme, d'améliorer le rendement des productions agricoles, notamment dans les zones tropicales où la pauvreté des sols en azote représente un handicap majeur.

La croissance de la plupart des végétaux dépend de la présence, dans le sol, d'azote en quantité suffisante. Cependant une famille de végétaux, les légumineuses, s'affranchit partiellement de cette contrainte en s'associant à des bactéries du sol du genre rhizobium, capables de capter l'azote présent dans l'air. Quand ces bactéries entrent en contact avec leur hôte végétal, elles provoquent au niveau des racines l'apparition de nodules au sein desquels elles se réfugient. Cette relation étroite appelée symbiose bénéficie aux deux organismes : la plante fournit des éléments nutritifs à la bactérie qui lui restitue en retour l'azote qu'elle a emmagasiné.

Ces interactions améliorent les rendements agricoles des légumineuses qui occupent une place centrale dans l'alimentation humaine (soja, pois, arachides...) et animale (luzerne, trèfle, sainfoin). De plus, la culture de légumineuses associées aux bactéries participe aux opérations de revégétalisation des sols appauvris en azote par exploitation, érosion, désertification... Le couvert végétal ainsi formé permet une restauration écologique, enrichissant les sols en azote. Toutefois, les processus symbiotiques étudiés concernent surtout les légumineuses des zones tempérées, et peu celles des zones tropicales.

L'équipe du Laboratoire des Symbioses Tropicales et Méditerranéennes et ses partenaires, prenant pour modèle une symbiose entre une légumineuse aquatique tropicale, l'Aeschynomene, et Bradyrhizobium, une bactérie de la famille des rhizobiums,viennent de mettre en évidence un nouveau mode de communication à l'échelle moléculaire entre ces deux organismes.

La bactérie de ce modèle original possède sa propre voie de photosynthèse, propriété unique chez les rhizobiums. Ce caractère particulier lui confère la capacité exceptionnelle et rare de former des nodules sur les tiges de sa plante hôte. Celle-ci acquiert ainsi la possibilité de fixer des quantités d'azote bien supérieures à celles mesurées habituellement chez les légumineuses qui ne possèdent des nodules que sur leurs racines.

Les chercheurs ont séquencé le génome de deux souches bactériennes de Bradyrhizobium, ORS278 et BTAi1, afin de connaître leur patrimoine génétique et d'identifier les gènes impliqués dans cette symbiose particulière. Ils ont ainsi découvert que ces bactéries sont dépourvues des gènes nod, indispensables à la formation des nodules. Bradyrhizobium utiliserait par conséquent des mécanismes faisant intervenir d'autres gènes. Ces résultats surprennent d'autant plus qu'ils remettent en question le modèle universellement reconnu de dialogue moléculaire provoquant la symbiose rhizobiums/légumineuses.

Ce modèle commun exige la présence de plusieurs gènes Nod permettant la synthèse d'un facteur Nod. Ce dernier est une molécule fabriquée par la bactérie qui lui permet d'être reconnue par la plante et de pouvoir rentrer à l'intérieur au niveau de poils sur les racines. Sans cette molécule signal, il ne peut y avoir de nodules conduisant à la symbiose.

Les chercheurs ont tout d'abord constaté que la bactérie pénètre dans les racines de sa plante-hôte non pas par les poils mais en utilisant des « zones de crack » que l'on peut comparer à des zones de blessures. Ils ont ensuite tenté d'identifier les gènes impliqués dans la fabrication de la molécule signal inconnue, jouant le rôle du facteur Nod. A la lumière de l'ensemble des résultats obtenus, ils ont émis l'hypothèse qu'une molécule proche d'une hormone végétale, la cytokinine, pourrait intervenir dans les mécanismes déclenchant la nodulation.

La découverte de la nature de la molécule signal elle-même, qui reste encore à déterminer, laisse entrevoir de futures applications agronomiques. En effet, de nombreux végétaux vivent en symbiose avec des bactéries, mais seul le fonctionnement d'un petit nombre de ces interactions est connu. La mise en évidence, chez certains rhizobiums, de voies alternatives capables de déclencher le signal de nodulation donne l'espoir d'associer ces bactéries à des plantes différentes des légumineuses. Il deviendrait alors envisageable d'accroître la production agricole d'un nombre plus important de plantes, notamment dans les pays tropicaux, en limitant l'utilisation d'engrais.

SG

Cancer du pancréas : une avancée thérapeutique grâce à deux anticorps monoclonaux
Vendredi, 15/06/2007 - 00:00

Le cancer du pancréas ne représente que 3 % de l'ensemble des cancers, mais il est la cinquième cause de mortalité par cancer dans les pays occidentaux. Son pronostic est très mauvais. Même après un traitement chirurgical, le taux de survie à cinq ans est inférieur à 20 %. Les chances de survie sont particulièrement faibles dans les cas de tumeurs non opérables ou métastatiques.

De plus, les thérapies conventionnelles par chirurgie, radiothérapie et chimiothérapie ne montrent qu'une efficacité modeste sur les carcinomes pancréatiques et n'augmentent pas réellement les chances de survie. Par exemple, si la gemcitabine est maintenant reconnue comme traitement de référence des tumeurs très développées ou métastatiques, elle n'est responsable que de 5 à 10 % de réponses positives, avec un gain de survie n'excédant pas 3 mois. Les scientifiques cherchent donc de nouvelles cibles thérapeutiques pour développer des traitements plus efficaces.

L'équipe d'André Pèlegrin, à l'Unité Inserm 860, s'est intéressée à deux membres de la famille HER de récepteurs transmembranaires à activité tyrosine kinase : HER1 (EGFR : Epidermal Growth Factor Receptor) et HER2. Dans la majorité des cas de carcinome pancréatique, ces récepteurs membranaires sont exprimés à la surface des cellules cancéreuses. Ils sont impliqués dans l'initiation et la progression des tumeurs.

Les chercheurs ont alors évalué in vivo l'impact d'un traitement associant deux anticorps monoclonaux (anti-EGFR et anti-HER2) dirigés contre ces récepteurs membranaires. Pour cela, ils ont étudié des souris porteuses de xénogreffes de carcinomes pancréatiques. Les chercheurs leur ont injecté, deux fois par semaine pendant quatre semaines, des anticorps anti-EGFR (matuzumab) et anti-HER2 (trastuzumab), soit seuls soit combinés. Les résultats obtenus montrent que l'association des deux anticorps monoclonaux inhibe significativement la progression des tumeurs et peut induire une rémission complète.

Cette combinaison a un effet anti-tumoral supérieur à des doses quatre fois plus importantes d'anticorps seuls. In vitro, les chercheurs ont constaté une baisse de la phosphorylation des récepteurs membranaires EGFR et HER2, consécutive aux injections d'anticorps.

Ces résultats prometteurs devraient permettre la mise en place d'une étude clinique évaluant l'efficacité de l'association anti-EGFR et anti-HER2 sur des patients atteints de carcinome pancréatique. Ces résultats sont d'autant plus remarquables que cette stratégie innovante d'association est aussi efficace sur les tumeurs n'exprimant que très faiblement HER2. Elle pourrait donc permettre de traiter d'autres cancers actuellement exclus des thérapies utilisant ces anticorps (plus de 60 % des cancers du sein par exemple).

Inserm

Aspirine dans la prévention de la maladie cardiovasculaire : la juste dose
Vendredi, 15/06/2007 - 00:00

Plus d'un Américain adulte sur trois prend régulièrement de l'aspirine dans l'objectif louable de prévenir la maladie cardiovasculaire (MCV). Quand la démarche relève de la prévention secondaire, 80 % des sujets sont consommateurs d'aspirine.

Ainsi, chaque année, ce sont 10 à 20 milliards de comprimés d'aspirine qui sont ainsi consommés, dans le seul but de prévenir la MCV, que ce soit dans une optique primaire ou secondaire. Les doses prescrites aux Etats-Unis sont comprises entre 81 mg/jour et 325 mg/jour. Certes, ce médicament est en général bien toléré, a fortiori aux faibles doses, mais il existe indéniablement une susceptibilité individuelle qui implique d'optimiser le rapport efficacité/tolérance en administrant la dose efficace la plus faible qui soit.

Dans les études qui ont évalué l'efficacité de l'aspirine dans la prévention des complications de la maladie athéroscléreuse, les doses administrées étaient en général comprises entre 50 mg/jour et 1300 mg/jour. Cependant, certains essais randomisés ont eu recours à des doses plus faibles, de l'ordre de 30 mg/jour, ou plus élevées, de l'ordre de 1 500 mg/jour. Les posologies recommandées par la FDA sont comprises entre 50 mg/jour et 1 300 mg/jour. La fourchette est, de ce fait, large, au point qu'il existe une controverse sur la juste dose. La prescription la plus fréquente concerne la dose de 81 mg/jour (60 %), et en second rang, vient la dose de 325 mg/jour (35 %).

Une revue des études d'observation relevant de la prévention secondaire suggère que les posologies comprises entre 75 et 81 mg/jour seraient celles qui amènent à une efficacité optimale. Au-delà, aucun bénéfice supplémentaire ne serait à espérer, alors que le risque de complications hémorragiques augmente nettement, du fait de la toxicité gastro-intestinale de l'aspirine.

JIM

Des "imitations" de cellules souches embryonnaires créées à partir de cellules ordinaires
Vendredi, 15/06/2007 - 00:00

Trois équipes de chercheurs, deux américaines et une japonaise, ont produit chez la souris l'équivalent de cellules souches embryonnaires à l'aide de cellules de la peau, sans passer par l'étape controversée de la destruction d'embryons.

La procédure utilisée amène des cellules ordinaires de la peau à se comporter comme des cellules souches. Dans l'hypothèse où elle pourrait être reproduite avec des cellules humaines, ce qui reste à démontrer, elle pourrait conduire à la mise au point de nouveaux traitements en évitant le débat éthique et politique autour de l'utilisation des embryons humains.

Les cellules souches embryonnaires peuvent permettre le développement de tout type de tissus et pourraient ainsi être utilisées pour créer des thérapies pour les personnes paralysées ou souffrant d'affections comme le diabète ou la maladie de Parkinson. Pour obtenir des cellules souches embryonnaires humaines, la méthode utilisée actuellement entraîne la destruction d'embryons humains, suscitant l'opposition de ceux qui défendent la vie dès sa conception, comme les conservateurs et des groupes religieux aux Etats-Unis ou encore l'Eglise catholique.

Les chercheurs espèrent depuis longtemps trouver un moyen de reprogrammer des cellules ordinaires du corps pour les amener à agir comme des cellules souches et ainsi éviter d'utiliser des embryons. Ce qu'ils semblent avoir réussi à faire dans ces nouvelles études sur la souris.

Il est toutefois essentiel de poursuivre les recherches avec des cellules souches embryonnaires standards, estime Konrad Hochedlinger, de l'Institut des cellules souches de Harvard, qui a conduit une des trois études, publiée dans la nouvelle revue spécialisée "Cell Stem Cell".

Les deux autres équipes, l'une dirigée par Rudolf Jaenisch de l'Institut Whitehead à Cambridge (Massachusetts) et l'autre par Shinya Yamanaka de l'université de Kyoto (Japon), ont publié les résultats de leurs travaux sur le site Internet de "Nature".

M. Yamanaka avait montré le chemin en publiant en août dernier une étude importante : il avait découvert qu'en insérant quatre gènes dans des cellules de peau de souris, appelées fibroblastes, il pouvait les amener à se comporter largement comme des cellules souches embryonnaires lors de tests en laboratoire.

Mais ces cellules dites "iPS" présentaient encore des différences majeures avec les cellules souches embryonnaires. Les trois nouvelles études rapportent avoir créé des cellules iPS s'avérant quasiment identiques aux cellules souches lorsqu'elles sont soumises à divers tests en laboratoire. Les quatre gènes insérés régulent l'activité des autres gènes, ce qui explique pourquoi ils peuvent modifier de manière spectaculaire le comportement des cellules.

Les scientifiques soulignent toutefois que la procédure expérimentale suivie au cours des travaux ne convient pas pour traiter des maladies et ils ne savent pas encore si elle pourrait être reproduite avec succès sur des cellules humaines.

AP

Méningite A : les espoirs d'un nouveau vaccin
Vendredi, 15/06/2007 - 00:00

Immense espoir pour les populations des pays en développement : un nouveau vaccin contre la méningite A, la forme la plus grave de la maladie, pourrait bien mettre un terme aux épidémies qui déciment l'Afrique de l'Ouest depuis le début du siècle. Ce vaccin, fuit d'un partenariat entre l'Organisation mondiale de la santé (OMS), l'association américaine PATH et le fabricant Serum Institute of India, vient d'être testé sur 600 enfants du Mali et de Gambie.

Il permet la production d'anticorps à un taux près de 20 fois supérieur à celui des vaccins actuels. Les effets secondaires observés sont dans l'ensemble sans gravité, notamment pour la peau et les muscles, au point d'injection. Efficace, sûr et ne coûtant que 0,40 dollar par dose, ce vaccin pourrait être introduit en Afrique d'ici 3 à 4 ans. Dirigé contre la souche méningococcique N. Meningitidis A, « il pourrait permettre de mettre un terme aux épidémies qui ravagent l'Afrique depuis plus de 100 ans », souligne le Docteur Marc Laforce, directeur du PVM.

Une nouvelle étude est prévue en Inde cet été, qui devrait être suivie d'une campagne de vaccination à grande échelle. En 2008, près de neuf millions de personnes à risque du Burkina Faso, âgées d'un à 30 ans, devraient en bénéficier. Si l'essai s'avérait efficace, les autorités envisageraient alors d'introduire la vaccin dans tout le reste de l'Afrique de l'Ouest.

La méningite est une affection bactérienne de l'enveloppe du cerveau et de la moelle épinière. Elle se manifeste par une raideur de la nuque, de la fièvre, des maux de tête et des céphalées. Si elle touche en priorité les enfants, tuant près de 10 % d'entre eux, elle peut aussi laisser des séquelles chez les survivants, notamment neurologiques et une perte de l'audition.

En Afrique de l'Ouest, cette maladie frappe du Sénégal à l'Ethiopie les 21 pays de la "ceinture de la méningite". Plusieurs centaines de milliers de cas sont enregistrés. Même si le nouveau vaccin se révélait efficace, les experts pensent que la vaccination de toute la population à risque devrait prendre une quinzaine d'années. En attendant, les stocks du vaccin en circulation garderont toute leur utilité.

Les gouvernements africains et les donateurs du monde entier vont aussi devoir apporter leur contribution, le coût de la protection des 300 millions de personnes à risque en Afrique de l'Ouest s'élevant approximativement à 220 millions d'euros. A l'heure actuelle, le dixième de cette somme est dépensé chaque année pour les vaccins existants.

Le vaccin contre la méningite actuellement utilisé n'offrant pas de protection à long terme, il ne peut être utilisé à titre préventif. "Avec le vieux vaccin, il fallait attendre la survenue de l'épidémie pour vacciner les populations et stopper sa propagation", explique le Docteur Eric Bertherat, spécialiste de la méningite à l'OMS. "C'est très frustrant."

Le nouveau vaccin, à en croire les experts, pourrait assurer une protection longue d'une décennie, ce qui permettrait de vacciner les populations avant l'éclosion de l'épidémie. Par ailleurs, la vaccination réduit la circulation de la bactérie, qui reste souvent à l'état dormant dans l'organisme. En réduisant ce large réservoir bactérien, toute la population serait protégée. « La population de 1 à 29 ans pourra être immunisée en recevant une seule dose du nouveau vaccin. Les résultats montrent que nous pourrons créer une immunité collective, car la transmission de la bactérie sera bloquée. Ainsi la protection se trouvera-t-elle étendue aux personnes non vaccinées » souligne Marc Laforce.

AP

La génétique dévoile l'intimité moléculaire de sept grandes maladies
Vendredi, 15/06/2007 - 00:00

Les bases génétiques de sept maladies très répandues viennent d'être identifiées grâce à une étude de grande envergure menée par un consortium créé par le Wellcome Trust, un organisme privé britannique de recherche médicale. Ces travaux ont été dirigés par le professeur Peter Donnelly (université d'Oxford). Ces résultats, publiés dans Nature, ont mobilisé deux cents chercheurs durant deux ans et ont été réalisables grâce à de nouvelles et puissantes techniques d'analyses simultanées de la structure de régions entières du génome humain, reposant sur des puces ADN à haute densité mises au point par la société Affymetrix.

Grâce à ces nouveaux outils technologiques, les chercheurs peuvent ainsi désormais explorer à très grande vitesse de vastes portions de notre code génétique. Ils procèdent par comparaison en rapprochant les analyses génétiques chez des milliers de personnes souffrant d'affections dont on sait qu'elles ont une composante génétique ainsi que chez des milliers de personnes indemnes de ces mêmes affections. Au total, les recherches ont été menées sur le génome de 17 000 citoyens britanniques et ont permis d'analyser plus d'un demi-million de variantes génétiques pour chacun des 17 000 individus retenus. Résultat : la découverte de plus de dix gènes qui prédisposent à ces maladies très répandues.

La comparaison des données ainsi recueillies a permis d'identifier les gènes directement impliqués dans la physiopathologie moléculaire de ces maladies. Les mutations des gènes qui viennent d'être identifiés augmentent le risque de survenue d'affections aussi différentes que l'hypertension artérielle, l'infarctus du myocarde, la polyarthrite rhumatoïde, les diabètes de types I et II ou encore une inflammation chronique de l'intestin (la maladie de Crohn). Il faut en outre ajouter à cette liste une entité psychiatrique dénommée troubles bipolaires, qui équivaut à ce qui était, il y a peu encore, désigné comme une psychose maniaco-dépressive.

Dans leurs conclusions, les auteurs de ces travaux ont tenu à souligner que ce sont bien les interactions entre ces prédispositions génétiques et les facteurs environnementaux qui entraînent l'éventuelle apparition de la maladie. Ils vont à présent s'employer à exploiter cette connaissance intime des mécanismes moléculaires de ces grandes pathologies pour mettre au point de nouveaux outils diagnostiques et thérapeutiques. Ces résultats sont capitaux car ils montrent qu'il est désormais possible d'analyser l'ensemble des variations génétiques d'une multitude de gènes pour chaque individu et cela à l'échelle d'uen vaste population », souligne le Docteur Mark Walport, Directeur du Wellcome Trust.

Ces chercheurs vont à présent utiliser les mêmes outils set techniques pour identifier les gènes et prédispositions génétiques responsables de la tuberculose, du cancer du sein, de la sclérose en plaques et de la spondylarthrite ankylosante. Les résultats de cette nouvelle étude sont prévus à la fin de cette année.

Oxford

Nature

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Le secteur aérien veut réduire drastiquement les émissions de CO2
Vendredi, 15/06/2007 - 00:00

Le secteur aérien a affiché à Vancouver son intention d'être plus "vert" en présentant un objectif de "0 % d'émissions de CO2" qui suscite toutefois un certain scepticisme. "Je ne détiens pas les réponses, mais je suis sûr que la recherche peut trouver des solutions pour atteindre ce 0 % d'ici 50 ans. C'est réaliste", a affirmé le patron de l'association du transport aérien (IATA), Giovanni Bisignani lors de l'assemblée qui s'est tenue à Vancouver.

Pour lui, le respect de l'environnement est la nouvelle priorité pour le secteur maintenant que celui-ci a renoué avec les bénéfices (5 milliards de dollars attendus en 2007), après plusieurs années de pertes. Mais le scepticisme s'est répandu dans les couloirs de l'assemblée générale sur cet objectif de "0 %", sur fond de trafic aérien en forte expansion. "Avec la perspective d'un trafic aérien en croissance continue, entre le tourisme des populations vieillissantes des pays de l'OCDE, les marchés émergents et les déplacements d'affaires liés à la mondialisation, nous avons de quoi avoir des sueurs froides", a reconnu Michael Levine, chercheur de l'université de New York.

Le secteur vise d'ici 2020 une consommation de carburant réduite de 25 % via des moyens existants comme l'optimisation de l'utilisation des moteurs en vol et au sol. Mais la contribution annuelle de l'aviation civile mondiale aux émissions globales de CO2 va passer dans le même temps de 2 %, soit 500 millions de tonnes, à 3 %. Passer à 0 %, "cela n'a pas de sens", selon M. Levine, pas plus que pour le patron de Malaysian Airlines Idris Jala, qui "n'y croit pas d'un point de vue technologique".

L'IATA parie sur les avancées scientifiques, sur les efforts des transporteurs et sur les pouvoirs publics --gouvernements, régulateurs, Nations Unies -- pour imposer des standards internationaux, voire créer un marché des émissions de CO2 pour le secteur. "Parvenir à 0 % d'émissions de CO2, cela veut dire avoir un carburant sans carbone, c'est-à-dire un moteur à hydrogène", explique, Trung Ngo, directeur de la communication de l'avionneur canadien Bombardier. "Le moteur à hydrogène, celui des fusées et qui nécessite des réservoirs énormes, a déjà été testé dans les années 80. Il est viable techniquement, mais le problème encore irrésolu à ce jour, c'est le stockage, il faut une plus grande compression de l'hydrogène".

Quant aux bio-carburants, qui n'atteindront pas le "0 %" de CO2, le problème reste entier : "il faudrait des champs de la taille de la Floride pour couvrir 10 % des besoins des transporteurs américains", reconnaît Philippe Rochat, à la tête de la division Environnement de l'IATA. D'où l'urgence de financer la recherche, selon ce dernier, qui prône des investissements à la fois publics et privés. A l'heure actuelle, "les solutions sont intermédiaires", explique M. Ngo : les motoristes travaillent sur des systèmes alternatifs, plus économes que l'actuel moteur de type "turbo fan".

"La technologie la plus aboutie est celle du +geared fan+, développée par Pratt and Whitney", selon cet ingénieur de formation. "Elle promet une efficacité de 30 à 40 % supérieure aux moteurs actuels", mais n'est pas encore mise sur le marché. Côté appareils, les matériaux composites permettent d'alléger le poids des avions, d'améliorer leur résistance dans l'air et de donc réduire la consommation de carburant.

Selon l'IATA, "un avion aujourd'hui consomme en moyenne 3,5 litres pour 100km par passager, ce qui est équivalent à la consommation d'un véhicule compact, mais avec une vitesse de transport six fois plus élevée". Le futur 787 de Boeing, appareil qui se veut le plus économe du marché et intègre de nombreux matériaux composites, doit faire baisser cette consommation moyenne sous les 3 litres.

AFP

La voiture qui roule à l'air devrait être disponible en 2008
Vendredi, 15/06/2007 - 00:00

Mieux que le GPL, la voiture hybride ou les biocarburants, au bénéfice écologique discutable, et si on roulait à... l'air ? Un ingénieur niçois, Guy Nègre, pourrait bien détenir les clefs de la voiture propre. Voilà dix ans qu'il bataille pour faire reconnaître les mérites de son invention : un moteur fonctionnant à l'air comprimé.

Ses prototypes roulent en ville sans émettre la moindre pollution. Pour faire le plein, il suffira de les brancher sur le secteur ou de se rendre dans des stations-service capables d'assurer le remplissage en deux minutes.

Les véhicules destinés à circuler sur route seront, eux, équipés d'un moteur bi-énergie permettant de permuter automatiquement sur une alimentation en carburant fossile, végétal ou encore au gaz. Pendant que l'auto roule, ses réservoirs d'air comprimé se rechargent. Sobre, elle ne consomme que 2 litres d'essence classique pour 100 kilomètres, et rejette près de quatre fois moins de CO2 dans l'atmosphère qu'un modèle équivalent. Surtout, elle n'est pas plus chère à produire.

Il aura fallu attendre février 2007 pour qu'un constructeur s'intéresse aux autos de Guy Nègre : Tata Motors, le géant indien de l'automobile, a signé un accord avec la PME française pour produire, en Inde, des véhicules écologiques à moins de 2000 euros pièce. De son côté, Guy Nègre devrait lancer sa première unité de production française à la fin de 2008, selon un concept industriel de concessionnaire-fabricant. L'objectif est de fournir un véhicule toutes les trente minutes. «Nous avons signé une quarantaine de contrats dans le monde entier pour des unités de ce type», conclut l'ingénieur niçois.

Express

MIT : les 10 technologies émergentes en 2007 consacrent les « nanos » et les biotechnologies
Vendredi, 15/06/2007 - 00:00

Comme chaque année, la Technology Review, du MIT, publie sa sélection des 10 technologies les plus innovantes et les plus susceptibles de transformer l'industrie et la recherche et de bouleverser nos modes de vie.

Il est également intéressant de rappeler les 10 technologies émergentes qui avaient été sélectionnées par le MIT en 2006. On constate que sur les deux dernières années, 10 des 20 technologies retenues concernent les sciences du vivant (6 en 2006 et 4 en 2007). On remarque également la rapide montée en puissance des nanotechnologies (6 technologies sur 20 depuis 2 ans), qui s'imposent de manière transversale dans l'ensemble des champs disciplinaires scientifiques et techniques.

Les 10 technologies émergentes en 2007

La nano-cicatriation , qui utilise des microfibres de peptides pour former un liquide capable de stopper presque instantanément une grave hémorragie ;

Le contrôle des cellules neuronales qui devrait permettre, d'ici quelques années, de disposer de traitement ciblées plus efficaces contre des pathologies psychiatriques sévères, comme la dépression profonde ;

L'analyse unicellulaire. L'analyse de différentes cellules permet à des chercheurs de distinguer une population uniforme des cellules et un groupe de cellules ayant une concentration différente en protéines. La capacité d'identifier de telles différences a pu être essentielle aux maladies d'arrangement telles que le cancer ou le diabète. L'AU vise à mieux comprendre pourquoi chaque cellule produit de manière différente protéines, lipides, hormones, afin de mettre au point des traitement plus ciblées pour des maladies comme le cancer ou le diabète.

Les moniteurs médicaus personnalisés : pour John Guttag, du MIT, l'idée est d'utiliser des ordinateurs pour automatiser l'interprétation de certaines données médicales complexes comme les ondes cérébrales ou les électrocardiogrammes. Confrontés à des données toujours plus abondantes, les médecins ont besoin de comprendre rapidement les tendances qui s'en dégagent. Le logiciel peut être la clé d'une médecine plus précise et plus personnelle. En surveillant l'activité cérébrale d'un patient, l'appareil de John Guttag lui a par exemple permis de voir se former les crises d'épilepsie et donc de les prévenir.

La distribution vidéo en P2P : à l'heure où, selon CacheLogic, la vidéo sur l'internet représenterait 60 % du trafic total et pourrait, selon le chercheur et entrepreneur Hui Zhang, monter à 98 % d'ici deux ans.

La distribution vidéo en P2P pourrait devenir l'application qui permettrait de résoudre bien des problèmes de charge sur le réseau. A l'université de Cornell, Paul Francis teste Chunkyspread, un système P2P multicast. Et pour s'assurer que les fournisseurs d'accès ont intérêt à accepter le trafic P2P, Hui Zhang, avec Rinera Networks leur permet d'identifier les données P2P qui transitent sur leurs réseaux pour les compter, leur affecter des degrés de priorité, voire les tarifer.

Les nano-chargeurs solaires : les cellules photovoltaïques utilisent des semi-conducteurs en silicium monocristallin pour convertir l'énergie lumineuse en courant électrique, une technologie coûteuse et peu efficiente. Des chimistes pensent que des semi-conducteurs de cristal de quelques nanomètres de large pourraient diviser par 10 le prix de revient de l'énergie solaire et la rendre, d'ici 10 ans, aussi compétitive que les combustibles fossiles.

La réalité augmentée : Pour les applications mobiles la technologie est déjà là, explique Steven Feiner, directeur du Laboratoire Computer Graphics and User Interfaces de l'université de Columbia en faisant référence aux travaux de Nokia sur les application de la réalité augmentée mobile (MARA).

La révolution de l'invisible : certains « métamatériaux », ou matériaux composites dont les structures sont déterminées avec précision, présentent des caractéristiques inexistantes dans la nature comme celle de détourner les ondes lumineuses et donc de rendre les objets invisibles à des capteurs.

La nanotechnologie pour les antennes optiques : des antennes optiques qui concentrent la lumière à un niveau nanométrique pourraient permettre de démultiplier la capacité de stockage des supports optiques existants.

L'image numérique reconstruite : Richard Baraniuk et Kevin Kelly, de la Rice University, pensent que grâce à de nouveaux composants logiciels et matériels, nos appareils photos deviendront plus petits et plus rapides, tout en consommant moins d'énergie et en prenant des photos en très haute résolution.

Comment ? Au lieu de faire enregistrer la lumière par des millions de capteurs, puis de compresser les données, leur appareil s'appuie sur un capteur unique, qui capture un petit pourcentage de l'information transmise par l'objectif, ce qui permet à un logiciel de reconstruire l'image à une très haute résolution.

Cette technique baptisée “Sensation Compressée” (Compressed sensing)) pourrait révolutionner l'imagerie médicale d'ici 2 ans et permettre aux téléphones mobiles et PDA de produire des images de haute qualité de la taille d'un poster.

Voici, pour mémoire, les 10 technologies émergentes que le MIT avait sélectionné en 2006 :

La nanomédecine

Le développement des nanoparticules et de nanovecteurs pour amener directement au sein de la cellule cancéreuse le traitement

La nanobiomécanique

La mesure des forces microscopiques qui agissent sur les cellules

L'épigénétique

L'analyse des modifications du gène qui ne sont pas codées par la séquence d'ADN utilisée dans la détection précoce des cancers. L'épigénétique cherche à comprendre certains mécanismes qui influent sur l'expression (et non sur la structure) des gènes, pour mieux diagnostiquer le cancer et identifier les traitements efficaces

La reprogrammation cellulaire (Nuclear reprogramming)

Il s'agit de contourner la question délicate de l'utilisation des cellules-souches embryonnaires et d'agir directement sur les cellules souches adultes pour les reprogrammer, sans transfert de matériel génétique, à l'aide de substances chimiques. Le biochimiste Peter Schultz, du Scripps Research Institute, est ainsi parvenu, par voie chimique, à transformer des cellules musculaires de souris en cellules graisseuses ou osseuses.

L'interactomie comparative

La biologie moléculaire utilisée pour créer des cartes complexes d'interaction entre molécules et obtenir de nouveaux médicaments. L'interactomie cherche à exploiter de nouvelles solutions médicales à partir de cartes des interactions entre les molécules d'une cellule.

L'imagerie du tenseur de diffusion (Diffusion Tensor Imaging)

Cette technologie est basée sur la diffusion des molécules d'eau dans le corps, c'est-à-dire leurs mouvements aléatoires à très petite échelle (quelques microns). Grâce à l'application de champs magnétiques spéciaux (les gradients de diffusion), on peut rendre les images IRM dépendantes de ces mouvements de diffusion.

Dans un faisceau de matière blanche, les molécules diffusent principalement dans la direction de la fibre (axones), et seulement très peu dans les directions perpendiculaires à celle-ci. En appliquant des gradients de diffusion séquentiellement dans plusieurs directions de l'espace, on peut identifier les axones parallèles à chacune de ces directions.

Pour traiter toutes ces informations, l'ordinateur construit une matrice de 9 chiffres (un tenseur, d'où le nom de la technique) pour chaque point du cerveau, et en tire sa direction principale de diffusion. Ensuite, il code celle-ci en couleur. Au plus la diffusion est forte dans sa direction principale, c'est-à-dire au plus le faisceau est formé et myélinisé, au plus le point apparaît brillant sur l'image.

Des algorithmes de "fiber tracking" permettent de traquer un faisceau sur toute sa longueur, par exemple, le faisceau corticospinal qui transmet les informations motrices depuis le cortex cérébral jusqu'à la moelle épinière. LA DTI est notamment utilisée dans la compréhension de la schizophrénie).

L'authentification universelle

Le développement d'un système standard d'authentification qui sécurise toute action sur le net tout en simplifiant les procédures d'identification)

La radio cognitive

L'optimisation du spectre des radio fréquences en fonction des comportements utilisateurs et de l'état du réseau. Dans la perspective où tous les capteurs qui nous entourent échangent sur des longueurs d'ondes proches, nous risquons rapidement d'arriver à saturation. La RC vise à améliorer la manière dont les dispositifs de communication sans fil se partagent le spectre radio-électrique. L'idée des radios cognitives consiste à ce que les objets communicants sachent détecter les bandes inexploitées du spectre radio et s'ajuster au comportement des autres pour optimiser leurs propres communications.

Le sans fil omniprésent (Pervasivewireless)

Le développement d'une plate-forme de communication pour des protocoles sans fil d'appareillages hétérogènes.

L'électronique flexible sur mesure (Stretchable silicon)

Le développement de nouveaux composants électroniques souples et flexibles utilisant de nouveau supports, comme les polymères et permettant de nouveaux usages, comme le papier électronique (e-paper), les écrans souples, intégrés aux vêtements ou des cellules photovoltaïques flexibles en ruban, apposables sur les façades des immeubles.

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top