RTFlash

RTFLASH Recherche & Technologie
NUMERO 530
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 15 Octobre 2009
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Google ouvrira sa librairie numérique payante en 2010
Trafic Internet : la part du peer-to-peer diminue
Avenir
Les robots sont-ils dangereux pour la vie privée ?
Un microrobot à ultrasons pour voyager dans nos vaisseaux sanguins
Les ordinateurs à ADN deviennent logiques
Matière
Des bâtiments transparents aux tremblements de Terre
L'éolienne, une énergie viable
Terre
Changer l'air en eau !
Des électrodes de carbones nanoporeuses pour purifier et dessaler l'eau
Vivant
La vitamine D, nouvelle révolution thérapeutique face au VIH ?
Un mécanisme génétique pour arrêter le cancer
Le vaccin contre la grippe saisonnière « relativement efficace » contre la grippe A
L'immunodéficience liée à l'infection par le VIH augmente le risque de cancer
Canada : des chercheurs tracent la première "carte d'identité" du cancer du sein
Un labo de la taille d'une carte de crédit pour détecter le cancer du sein
Les statines préviendraient certains cancers
Hépatite C : la révolution en cours
Recherche
L'hélicoptère hybride X3 vise les 400 km/h
Edito
Édito Le Japon veut construire une centrale solaire spatiale



C'est un projet digne des meilleurs romans de science-fiction mais pourtant tout à fait sérieux que vient d'annoncer le Japon qui a décidé de construire, à l'horizon 2030, une centrale électrique spatiale, à même de capter l'énergie émise par le Soleil et de la reémettre sur Terre par faisceau laser ou micro-ondes.

L'affaire est si sérieuse que le gouvernement japonais vient de désigner, au terme d'un appel d'offres lancé cet été, le consortium d'entreprises et d'organismes de recherche qui sera chargé de développer ce dispositif révolutionnaire. On y trouve le géant de l'énergie et du spatial nippon Mitsubishi Heavy Industries, allié pour la circonstance à l'Institut de recherches sur les engins spatiaux inhabités, une organisation qui regroupe 17 sociétés dont les groupes d'électronique Mitsubishi Electric, NEC, Fujitsu et Sharp. Le tout sous la houlette de l'Agence spatiale japonaise (Jaxa), qui planche sur le sujet depuis les années 1970.

L'idée sur laquelle le Japon travaille activement depuis 12 ans, consiste à placer en orbite géostationnaire, soit à 36 000 kilomètres de la Terre, un satellite bardé de panneaux photovoltaïques chargés de convertir l'énergie solaire en électricité. Celle-ci sera ensuite transformée en faisceau laser ou micro-ondes pour être acheminée vers la Terre où elle sera captée par une gigantesque antenne parabolique avant d'être retransformée en électricité.

«Puisqu'il s'agit d'une forme d'énergie propre et inépuisable, nous pensons que ce système peut contribuer à résoudre les problèmes d'insuffisance énergétique et de réchauffement climatique de la Terre dû aux gaz à effet de serre», ont expliqué à l'AFP des chercheurs de Mitsubishi Heavy Industries (MHI) qui rappellent que «la lumière du Soleil abonde dans l'espace».

De fait, la quantité d'énergie disponible y est de huit à dix fois supérieure que sur la croûte terrestre. À cette altitude, les rayons du Soleil ne sont occultés ni par l'atmosphère ni par les nuages tandis que l'absence de nuit et de saisons garantit un ensoleillement constant et permanent. Du coup, la production d'énergie solaire devient pérenne, à l'instar du nucléaire, et non plus intermittente comme c'est le cas à la surface de la Terre.

L'opération devrait se concrétiser dès 2015 par l'envoi d'un premier satellite équipé de panneaux solaires. Une expérience qui devrait notamment permettre de tester la résistance des cellules aux débris de l'espace et autres météorites.

Estimé à 21 milliards de dollars, le projet pourrait couvrir la consommation électrique de près de 300 000 ménages nippons. Plusieurs étapes sont prévues avant l'entrée en exploitation d'un tel système à partir des années 2030, selon les plans actuels. D'abord, "un satellite de démonstration destiné à l'expérimentation de la transmission par micro-ondes devrait être placé en orbite basse par la fusée japonaise" dans les toute prochaines années, explique un des responsables du projet à la Jaxa, Tatsuhito Fujita.

Puis il s'agira de vérifier la faisabilité d'un assemblage robotisé dans l'espace (en co-orbite avec la Station spatiale internationale, ISS) des éléments constitutifs d'une large structure photovoltaïque flexible d'une puissance de 10 mégawatts (MW). Ceci est prévu aux alentours de 2020.

Ensuite, un prototype d'une puissance de 250 MW sera placé en orbite géostationnaire. Il servira à tester l'ensemble du dispositif et à évaluer sa compétitivité sur le plan financier. La mission finale consiste à produire de l'électricité à un coût qui ne soit pas prohibitif face aux autres énergies. Les chercheurs se fixent pour objectif de développer un système définitif de 1.000 MW qui permette d'arriver à une charge de 8 yens (0,06 euro) par kilowatt-heure (kWh), au même niveau environ que la production solaire sur Terre aux alentours de 2030 et environ six fois moins qu'actuellement.

Des initiatives similaires sont actuellement en cours dans d'autres régions du globe. Et notamment, celle menée par les sociétés américaines Solaren, Pacific Gas et Electric utility visant à la réalisation d'une unité spatiale solaire de 200 megawatts à horizon 2015. Plusieurs étapes intermédiaires sont prévues avant l'éventuelle mise sur orbite, vers 2030, d'une centrale solaire de 1 000 MW (l'équivalent d'un réacteur nucléaire) capable de produire de l'électricité au tarif compétitif de 0,06 euro par kilowattheure, soit environ six fois moins qu'aujourd'hui.

Après avoir été longtemps considérés comme totalement utopiques et relevant de la science-fiction, les projets de centrales solaires spatiales, dont l'idée remonte à plus d'un demi-siècle, deviennent enfin crédibles, sous la double pression de l'épuisement accéléré des énergies fossiles et de la menace du réchauffement climatique et il n'est plus inconcevable que de telles installations puissent, d'ici le milieu de ce siècle, fournir à la Terre une énergie propre et inépuisable.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Google ouvrira sa librairie numérique payante en 2010
Vendredi, 16/10/2009 - 00:00

Le géant de l'Internet Google vient d'officialiser sa future librairie numérique payante, Google Edition. Au menu, dès 2010, des ouvrages numérisés bien sûr, mais aussi une facilité d'accès inconnue jusqu'à aujourd'hui. Les millions de livres numérisés par Google Books seront indexés par un moteur de recherche, sur lequel 20 % de leur contenu sera accessible gratuitement. Pour consulter le reste, il faudra payer : la version numérisée via un compte Google ou la version papier via un site partenaire. Dans les deux cas, une partie du bénéfice reviendra à Google, le reste aux ayants droit. 30.000 éditeurs sont déjà partenaires, avec un total de 2 millions d'ouvrages numérisés. La consultation des livres numériques ainsi achetés sera possible depuis n'importe quel terminal connecté à Internet, qu'il s'agisse d'un ordinateur, d'un lecteur de livres numériques, d'un téléphone mobile ou même d'un baladeur.

Google va donc vraisemblablement devenir un concurrent direct des cybermarchands de livres, concrétisant ainsi les inquiétudes récurrentes exprimées par ces acteurs. Pour Google, le futur service Edition permettra d'exploiter financièrement les ouvrages gracieusement numérisés depuis des années. Le géant du Web a en effet pris à sa charge tous les frais de numérisation, sans jamais révéler ses intentions commerciales. Aujourd'hui, en plus de la volonté d'indexer et de rendre accessible tout le savoir du monde, Google veut désormais officiellement gagner de l'argent avec les livres.

LP

Trafic Internet : la part du peer-to-peer diminue
Vendredi, 16/10/2009 - 00:00

Entre 2007 et 2009, la part du peer-to-peer (P2P) est passée de près de 40 % à 18 % du trafic sur Internet, selon une étude du cabinet Arbor Networks, citée par Wired. L'analyse s'appuie sur 264 milliards de gigaoctets de données, obtenues auprès de plus de cent fournisseurs d'accès du monde entier. Parallèlement, le trafic sur le Web (http), représenterait 52 %, contre 42 % deux ans plus tôt.

Faut-il y voir le déclin d'un système d'échanges de fichiers, qui depuis la fin des années 1990, notamment avec le service Napster, est considéré par l'industrie musicale comme une menace ? 'Le piratage n'a ni diminué, ni augmenté durant ces dernières années', analyse Patrick Waelbroeck, maître de conférences à l'Ecole nationale supérieure des télécommunications. 'Le P2P a simplement crû moins vite que d'autres applications', explique-t-il.

Pour expliquer le déclin de la part du peer-to-peer, l'étude d'Arbor Networks avance en effet la concurrence des services en streaming, tels que YouTube, Dailymotion ou Deezer. Selon le magazine Informationweek, qui a également pu consulter l'étude, entre 25 % et 40 % du trafic Internet est désormais lié à la vidéo. Aux Etats-Unis, la plate-forme de vidéo Hulu, née en 2007, qui permet de voir directement des séries et des émissions de télévision, avec une bonne qualité, est particulièrement plébiscitée.

M. Waelbroeck note également une évolution similaire dans les pratiques musicales : 'Ecouter de la musique est devenu une manière, parmi d'autres, de se divertir. Beaucoup d'internautes écoutent des radio en ligne, et cela leur suffit : ils n'ont pas besoin de passer par les réseaux de peer-to-peer.'

Arbor Networks justifie également la baisse du P2P par la migration du téléchargement vers les services d'hébergement de fichiers, tels que Rapidshare et Megaupload. 'Les échanges physiques, via disques durs, ou copies de clés USB, n'entrent pas dans les statistiques', souligne aussi l'universitaire.

LM

^ Haut
Avenir
Nanotechnologies et Robotique
Les robots sont-ils dangereux pour la vie privée ?
Vendredi, 16/10/2009 - 00:00

Les robots représentent un danger potentiel pour les utilisateurs, alertent les chercheurs de l'Université de Washington. Selon leur dernier rapport, ils font courir un risque pour la sécurité et la confidentialité des données privées de leurs propriétaires. Car les robots peuvent être utilisés à des fins malveillantes, et ne sont pas suffisamment protégés. Pour arriver à de telles conclusions, les chercheurs ont évalué le niveau de sécurité de trois automates domestiques déjà commercialisés. Deux d'entre eux sont équipés de caméra, de microphone et de haut-parleur et sont susceptibles d'être actionnés à distance, sur Internet. Le troisième est un jouet, contrôlable à courte distance via une télécommande infrarouge.

Les résultats sont inquiétants, affirment les chercheurs. Car, d'un côté, la présence d'un robot à la maison se détecte facilement grâce aux messages caractéristiques qu'il envoie via le WiFi. De l'autre, les circuits audio et vidéo du robot sont faciles à intercepter ou capturer via ce même réseau. Enfin, peu de machines transmettent aujourd'hui une alerte audible lorsqu'une personne tierce se connecte au système afin d'accéder à ses données. Les risques sont relativement faibles aujourd'hui, mais ils peuvent augmenter si la possession de robots se popularise, soulignent les responsables du projet. "À l'avenir, les consommateurs vont avoir plusieurs robots chez eux, explique Tamara Denning, qui a participé à l'étude. Plus sophistiqués, ils seront aussi plus dangereux. C'est pour cela que nous alertons sur le problème dès à présent".

Atelier

Un microrobot à ultrasons pour voyager dans nos vaisseaux sanguins
Vendredi, 16/10/2009 - 00:00

L'idée d'envoyer de minuscules robots dans nos veines n'est plus tout à fait de la science-fiction. De nombreux laboratoires tentent en effet de construire des robots de quelques centaines de micromètres, capables de se déplacer dans nos vaisseaux sanguins et d'y faire des analyses, voire d'y détruire des zones malades. Encore faut-il les propulser. Une équipe australienne vient de proposer un nouveau type de micromoteurs capables de le faire.

Les chercheurs australiens ont fabriqué un petit ressort en Inox. Sa forme est telle que lorsqu'il se contracte ou se détend dans le sens de son axe, il acquiert en même temps un petit mouvement de torsion radial (autour de cet axe). En actionnant ce micro-ressort, on crée ainsi un mouvement de torsion, qui se propage à un objet posé sur lui.

Une bille placée sur le ressort se met donc à tourner lorsqu'on fait osciller ce dernier. L'angle de rotation est petit à chaque mouvement, mais comme le ressort oscille à une fréquence de 667 kilohertz (667 000 oscillations par seconde), on atteint ainsi des mouvements de la bille de plus de 20 tours par seconde. Et voici le moteur : la partie fixe, oustator, est le ressort, qui mesure 250 micromètres de diamètre, tandis que la partie mobile, le rotor, est formée de la bille posée sur le ressort. Enfin, l'énergie est fournie au ressort par un élément piézoélectrique, capable de transformer une énergie électrique en mouvement mécanique.

« Ce type de moteur "à ultrasons" existe au niveau macroscopique, mais à ma connaissance, c'est la première fois que ce principe est utilisé à l'échelle microscopique, avec un stator en ressort, indique Nicolas Chaillet, de l'université de Franche-Comté. C'est une idée intéressante et originale. »

Il reste cependant à encapsuler ce micromoteur afin qu'il soit biocompatible, et à prouver qu'il fonctionne au sein d'un robot. Enfin, comment apporter l'énergie au moteur ? « Dans un premier temps, ce moteur pourrait être utilisé dans un réseau sanguin proche de la surface, comme la rétine, et le champ électrique actionnant l'élément piézoélectrique serait créé de l'extérieur, supprimant ainsi les problèmes d'approvisionnement en énergie », imagine Nicolas Chaillet.

LR

Les ordinateurs à ADN deviennent logiques
Vendredi, 16/10/2009 - 00:00

Les ordinateurs biomoléculaires, faits d'ADN et d'autres molécules biologiques, existent aujourd'hui seulement dans quelques laboratoires spécialisés. Néanmoins, Tom Ran et Shai Kaplan, deux étudiants qui développent leur recherche dans le laboratoire du Professeur Ehud Shapiro de l'Institut de Chimie Biologique, d'Informatique et de Mathématiques Appliquées ont trouvé une façon de rendre ces dispositifs microscopiques de calcul "conviviaux" en exécutant des calculs complexes et en répondant à des questions compliquées, comme rapporté dans l'article publié en ligne dans Nature Nanotechnology.

Shapiro et son équipe avaient déjà découvert en 2001 les 1ers ordinateurs à ADN programmables et autonomes, si petits qu'un milliard de ces systèmes est contenu dans une goutte d'eau. Trois ans plus tard, une nouvelle version de ces systèmes pouvait détecter des cellules cancéreuses dans une éprouvette et les détruire. En plus de pouvoir imaginer qu'un jour de tels dispositifs pourront être utilisés chez l'être humain, tels des nano-docteurs pouvant localiser et soigner les maladies, ces ordinateurs d'ADN pourront effectuer des millions de calculs en parallèle.

L'ordinateur biomoléculaire développé aujourd'hui suit la logique suivante : il est programmé avec une règle telle que "Tous les hommes sont mortels" et un fait tel que "Socrates est un homme". Lorsque l'on demande alors à l'ordinateur si Socrates est mortel, il répond correctement dans tous les cas. Parallèlement, l'équipe a développé un programme permettant la communication entre le langage de programmation classique d'un ordinateur et le code de fonctionnement de l'ordinateur à ADN.

Pour parvenir à la réponse, différents brins d'ADN correspondants aux règles, faits et questions sont assemblés selon un processus hiérarchique par un système robotisé. Afin de visualiser la solution, des molécules naturellement fluorescentes ont été greffées sur certains brins d'ADN, avec une seconde protéine masquant l'émission de lumière. Une enzyme spécialisée est alors attirée sur le site de la réponse correcte, et "découvre" la molécule fluorescente, permettant ainsi la visualisation de la réponse. Les ordinateurs biomoléculaires contenus dans ces gouttes d'eau ont pu ainsi répondre à des questions bien plus complexes en combinant différents fluorophores.

BE

^ Haut
Matière
Matière et Energie
Des bâtiments transparents aux tremblements de Terre
Vendredi, 16/10/2009 - 00:00

Pour prémunir un bâtiment contre les séismes, la méthode actuelle consiste à le construire résistant aux secousses. Des chercheurs de l'institut Fresnel à Marseille et de l'université de Liverpool en Grande-Bretagne proposent une autre solution : entourer la zone à protéger d'une combinaison de matériaux capable de dévier les ondes sismiques. Les bâtiments sensibles seraient ainsi isolés des séismes.

Ces travaux reposent sur l'étude en optique depuis une dizaine d'années d'un nouveau type de matériaux, les métamatériaux, formés de motifs périodiques. Selon le type de motifs et leur espacement, on peut changer l'indice optique de ces matériaux, le paramètre qui caractérise la manière dont la lumière s'y propage, et la guider ainsi. Depuis peu, des chercheurs tentent d'appliquer les mêmes concepts aux ondes mécaniques, telles les ondes sonores ou les ondes sismiques.

Il existe plusieurs types d'ondes sismiques. Les plus destructrices sont les ondes de surface, qui peuvent être comparées à l'ondulation d'une plaque mince. C'est à celles-ci que l'équipe franco-britannique s'est intéressée. Elle a imaginé un ensemble de dix anneaux concentriques composés de six matériaux différents autour du point à protéger.

« Un anneau sur deux est formé du même matériau, tandis que les autres anneaux sont formés de matériaux chaque fois différents, explique Stefan Enoch, l'un des membres de l'équipe. Tous ces matériaux sont en plastique, mais leurs propriétés mécaniques, notamment leur élasticité, diffèrent. » La distance entre les anneaux doit être plus petite que la longueur d'onde des ondes à dévier. « Avec le dispositif que nous avons décrit, nos simulations montrent que nous sommes capables de dévier des ondes sur une large bande, entre 30 et 150 hertz », précise le physicien.

La proposition est pour l'instant théorique. L'équipe franco-britannique n'a donc pas fabriqué le dispositif antisismique. Ils ont toutefois indiqué précisément les dimensions des anneaux et les matériaux à utiliser. « Par cet article, nous espérons motiver les expérimentateurs », indique Stefan Enoch. Il faudra d'abord démontrer que cela fonctionne sur des dispositifs de laboratoire de petite dimension, avant de s'attaquer à des problèmes en grandeur réelle. Une entreprise de construction de Bogotá en Colombie aurait manifesté son intérêt.

LR

L'éolienne, une énergie viable
Vendredi, 16/10/2009 - 00:00

Deux études publiées dans la revue Energy Policy démontrent que l'énergie éolienne a encore de beaux jours devant elle en Europe et particulièrement en Espagne. La première étude menée par une équipe d'ingénieurs de l'Université de Saragosse montre que celle-ci est techniquement viable et économiquement raisonnable puisqu'elle représente 30 % de la production énergétique espagnole. D'autre part, un rapport de deux chercheurs de l'Université d'Alcalá (UAH) et de l'Association Européenne de l'Energie Eolienne (EWEA) montrent que le développement de l'éolienne a permis une augmentation de 226 % des emplois créés dans ce secteur sur l'ensemble de l'Union Européenne. Les parcs éoliens qui produisent actuellement 12 % de l'énergie électrique en Espagne pourront selon les estimations en produire 30 % en 2030.

Les résultats de la première étude démontrent que l'énergie éolienne participent à hauteur de 30 %, le solaire 20 %, et les turbines à gaz (biogaz et gaz naturel) à hauteur de 20 % sur l'ensemble de la production énergétique espagnole. Le reste se répartirait entre l'énergie hydraulique, géothermique et biomasse (20 % les trois réunies) ainsi que celle obtenue grâce aux centrales à charbon (10 %) dans lesquelles sont appliquées des techniques de rétention du CO2 afin de réduire son impact sur le réchauffement climatique.

Ces essais prennent en compte les éventuelles pannes d'aérogénérateurs lorsqu'il n'y a pas de vent, supposent un apport de combustibles fossiles en dessous de 20 % et excluent le recours à l'énergie nucléaire. L'étude souligne qu'en 2007 les parcs éoliens fournissaient déjà près de 10 % de l'électricité en Espagne. Leur capacité de production d'énergie a augmenté ces dernières années tout comme la création d'emplois dans ce secteur.

Selon un rapport publié également dans la revue Energy Policy, depuis 2008, l'énergie éolienne a créé environ 104.000 emplois dans l'Union Européenne. Enfin, l'étude montre que la production de cette énergie a créé 38.000 emplois directs en Allemagne, 20.500 en Espagne et 17.000 au Danemark, les trois principaux pays producteurs d'éolienne.

BE

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Changer l'air en eau !
Vendredi, 16/10/2009 - 00:00

Marc Parent est l'inventeur de l'Eole Water, une éolienne qui transforme l'humidité contenue dans l'air en eau potable. Son projet : commercialiser son concept dans les pays en voie de développement. L'humidité contenue dans l'air est captée par l'éolienne et condensée pour devenir de l'eau. Celle-ci passe ensuite dans le mat où elle est filtrée puis stockée. Après, il n'y a plus qu'à ouvrir le robinet pour récupérer l'eau potable. Grâce à ce système, on peut récupérer jusqu'à 1000 litres d'eau par jour.

Ces éoliennes ne sont pas un produit miracle mais elles permettraient déjà de résoudre le problème de l'eau dans de nombreux pays en développement. "J'ai construit ces Eole Water dans le but de les distribuer en Afrique. Dans beaucoup de pays, il n'y a pas suffisamment d'eau et les puits construits par les ONG se polluent très rapidement."

Avec ces éoliennes, le problème ne se pose plus. De plus, elles sont sans impact pour l'écologie. Elles ne polluent pas et ne consomment pas d'énergie autre que celle du vent. C'est une vraie solution développement durable. Pour pallier la sécheresse, de nombreux pays pratiquaient le dessalement de l'eau de mer mais cette technique est très polluante.

Les Etats-Unis et l'Australie, qui subissent chaque année de grandes sècheresses, soutiennent le projet mais aucun contrat n'a encore été signé. Les ONG commencent aussi à s'y intéresser mais elles n'ont pas encore les moyens de s'en procurer. Les prototypes sont au point depuis le début de l'année et Marc Parent est à la recherche de financiers pour pouvoir fabriquer ces machines à grande échelle et faire baisser les coûts. Ces éoliennes coûtent entre 10 000 et 50 000 euros selon leur taille.

Express

Des électrodes de carbones nanoporeuses pour purifier et dessaler l'eau
Vendredi, 16/10/2009 - 00:00

Les professeurs Abraham Soffer et Doron Aurbach du département de chimie de l'Université de Bar Ilan ont mis au point une nouvelle technologie permettant, entre autres, de dessaler l'eau de mer rapidement et à faible coût. Le point fort de ce nouveau procédé réside dans la possibilité unique de filtrer les ions alcalins (calcium, magnésium), nutriments importants pour le métabolisme humain.

Les électrodes de carbone nanoporeuse, en plus d'être de bons adsorbeurs et purificateurs, présentent une bonne conductivité électrique. Placées dans une solution, grâce à la très grande surface spécifique du carbone nanoporeux, ces électrodes se comportent comme d'énormes condensateurs (~100 Farad par gramme).

En appliquant une différence de potentiel de l'ordre d'un Volt à deux électrodes immergées dans un électrolyte, les cations seront adsorbés sur l'électrode chargée négativement et les anions sur l'électrode chargée positivement, produisant ainsi de l'eau purifiée. Toute impureté électriquement chargée peut ainsi être retirée de la solution : acide, base, sel de métal lourd, particules colloïdales, bactérie... La possibilité de contrôler la taille des pores des électrodes permet alors de sélectionner quels ions seront adsorbés, permettant donc de conserver les ions alcalins dans la solution.

BE

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
La vitamine D, nouvelle révolution thérapeutique face au VIH ?
Vendredi, 16/10/2009 - 00:00

Nos arrière-grands-parents le savaient déjà, eux qui, pour ne pas en faire des rachitiques, forçaient leurs enfants parfois récalcitrants à avaler chaque jour leur cuillerée d'huile de foie de morue : la vitamine D, c'est bon pour tout.

Il semble bien qu'ils avaient raison car, depuis ces années lointaines, la liste des affections attribuées (pour tout ou partie) aux carences n'a cessé de s'allonger : ostéoporose, maladie périodontale, diabète de type 1, certains cancers colorectaux ou prostatiques, myopathie, dépression etc. L'infectiologie n'est pas en reste, des déficiences ayant été associées à une large palette d'infections infantiles, pneumonies et atteintes respiratoires en tête. Williams et coll. ne préconisaient -ils pas, il y a déjà plus de 150 ans, l'huile de foie de morue dans la tuberculose pulmonaire ?

La vitamine D (vit D), aujourd'hui reconnue comme un immunomodulateur puissant, capable d'améliorer l'immunité cellulaire et les capacités phagocytaires des macrophages, pourrait-elle jouer un rôle particulier dans la transmission materno-foetale du VIH et la mortalité infantile associée ? Pour le savoir, S Mehta et coll., de l'Université Muhimbili de Dar es Salam, Tanzanie, ont étudié l'évolution des grossesses et la mortalité infantile de 884 femmes séropositives pour le VIH participant à un programme de supplémentation vitaminique.

Aucune relation n'a pu être établie entre les dosages de vit D et la survenue d'effets adverses, dont petit poids de naissance et prématurité. Cependant, en analyse multivariée, une faible vitaminémie (< 32 ng/ mL) pouvait être associée à une augmentation de 50 % (IC 95 % : 2 %- 120 %) de la transmission materno foetale du VIH à 6 semaines, puis à un doublement du risque de transmission par le lait maternel.

Les enfants des mères carencées avaient finalement un risque accru d'acquisition du VIH à toutes les étapes, in utero, intra partum et lors de l'allaitement ; en outre et enfin, les mères infectées et leurs enfants, quel que soit leur statut vis-à-vis du VIH, encouraient un risque plus élevé de décès que les autres...

JIM

Un mécanisme génétique pour arrêter le cancer
Vendredi, 16/10/2009 - 00:00

Les travaux de chercheurs de l'Ecole de Médecine de Yale et de l'Université du Sichuan à Chengdu montrent dans le journal Proceedings of the National Academy of Sciences de septembre qu'un matériel génétique qui n'avait pas d'utilité connue jusqu'à maintenant pourrait détenir la clé pour empêcher le développement du cancer. Alan Garen du département de biophysique moléculaire et de biochimie de Yale et Xu Song montrent dans leur article comme le cancer arrive à s'affranchir du signe "stop ", naturellement émis par l'organisme lors de la division cellulaire.

Au début du développement, les cellules souches donnent naissance à d'autres cellules qui par différenciation donneront tous types de tissus. La division cellulaire et la prolifération s'arrêtent quand l'organisme arrive à maturité. Cependant, le cancer peut détourner ce processus et déclencher une division cellulaire incontrôlée produisant des tumeurs cancéreuses.

Un des mécanismes empêchant la prolifération des cellules est de la famille des protéines suppresseuses de tumeurs (TSP) qui attachent et bloquent la fonction des proto-oncogènes, régulateurs de la prolifération cellulaire qui peuvent déclencher le cancer. L'équipe de Garen et Xu a montré sur des souris qu'une molécule d'ARN d'une région du génome ne produisant pas de protéines empêche des TSP d'inactiver ces gènes liés au cancer naissant. La protéine TPS étudiée, la PSF, est pratiquement identique chez les souris et les hommes.

L'équipe de Yale a réussi à empêcher la formation de tumeurs chez les souris en augmentant la quantité de PSF ou en diminuant celle de l'ARN non codant au sein d'une cellule. " La prolifération des cellules tumorales s'arrête et la tumeur régresse " chez la souris, suggérant ainsi que les deux procédures pourraient être à la base d'un protocole clinique, d'après Garen. Son équipe prévoit de poursuivre ses études sur le mécanisme régulant la quantité d'ARN PSF-liant dans une cellule, qui est selon eux au coeur de l'apparition du cancer.

BE

Le vaccin contre la grippe saisonnière « relativement efficace » contre la grippe A
Vendredi, 16/10/2009 - 00:00

Le vaccin contre la grippe saisonnière 2008/2009, celui de l'hiver précédent, protégerait avec une certaine efficacité contre la grippe A, notamment contre ses formes les plus sévères.

L e vaccin contre la grippe saisonnière peut-il protéger contre le nouveau virus grippal A (H1N1) ? Depuis le début de la pandémie, les experts sont plutôt dubitatifs à ce sujet. Certes, le vaccin saisonnier dont la composition est remise à jour chaque année, contient trois souches de virus grippaux dont une de A (H1N1). Mais il est peu probable que celle-ci induise une immunité contre le virus A (H1N1) totalement nouveau qui circule en 2009, estimaient jusqu'ici les chercheurs. La plupart des données épidémiologiques disponibles vont dans le même sens.

Une étude mexicaine vient cependant semer le doute. Les résultats préliminaires de ce travail, réalisé au début de l'épidémie dans la ville de Mexico, suggèrent au contraire que le vaccin antigrippesaisonnière 2008-2009 confère une protection partielle contre les infections à A (H1N1) pandémique, en particulier contre les formes graves. Mauricio Hernandez-Avila et ses collègues ont inclus 60 malades avec un diagnostic de grippe A (H1N1) confirmé biologiquement.

Ces cas ont été comparés à 180 témoins souffrant d'autres pathologies, d'âge et de niveau socio-économique comparable. Huit des soixante grippés (13 %) avaient été vaccinés contre la grippe saisonnière, la proportion était de 53/180 (soit 29 %) dans le groupe témoin. Aucun décès par grippe n'a été à déplorer chez les huit patients vaccinés au préalable, alors que la mortalité a été élevée (35 %) chez ceux qui ne l'avaient pas été. De même, le recours à une réanimation avec ventilation assistée a été presque quatre fois moins fréquent chez les malades vaccinés.

Au total, concluent Mauricio Hernandez-Avila et son équipe, l'efficacité du vaccin «classique» serait de l'ordre de 73 % sur le A (H1N1). «Malgré cette contribution à la protection, un vaccin spécifique contre le A (H1N1) est crucial», insistent toutefois les chercheurs mexicains. Ils soulignent que leur étude, conduite de façon rétrospective et sur de faibles effectifs, doit être confirmée par d'autres. Une analyse partagée par les spécialistes français.

«C'est un indice d'une relative protection, mais ce travail a beaucoup de limites, acquiesce le Pr Paul Leophonte, pneumologue à Toulouse. Ses conclusions sont toutefois concordantes avec des données américaines selon lesquelles 40 % des plus de 60 ans ont des anticorps protecteurs contre le virus A (H1N1) actuel, acquis lors d'une grippe ou d'une vaccination antérieure.»

BMJ

L'immunodéficience liée à l'infection par le VIH augmente le risque de cancer
Vendredi, 16/10/2009 - 00:00

Une vaste étude prospective réalisée à partir des patients inclus dans la base de données hospitalière française sur l'infection à VIH (ANRS CO4) apporte la démonstration que le déficit immunitaire joue à lui seul un rôle majeur dans la survenue des cancers classants SIDA et non classants SIDA chez les patients séropositifs. Les résultats de cette étude, publiés sur le site du journal Lancet Oncology , indiquent en effet que plus le déficit immunitaire est prononcé et plus le risque de cancer augmente, ceci de façon indépendante des autres facteurs de risque éventuels.

Cette observation plaide en faveur d'un diagnostic et d'une mise sous traitement précoce des personnes infectées par le VIH. Elle souligne également que l'objectif du traitement ne doit pas seulement être la diminution de la charge virale mais le maintien ou la restauration du nombre de lymphocytes CD4 au-dessus de 500/mm3. Cette étude est la première qui mesure le risque de survenue propre à chacun des cancers les plus fréquents chez les personnes séropositives.

Depuis l'introduction des multithérapies antirétrovirales en 1996, les cancers sont devenus la première cause de décès chez les patients infectés par le VIH. Parmi ces patients, le risque de cancer est deux à trois fois supérieur à celui de la population générale. Vaste cohorte prospective lancée en 1992 dans 62 hôpitaux principalement universitaires, la base de données hospitalière française sur l'infection par le VIH (ANRS C04) a permis d'étudier le rôle spécifique de l'immunodéficience liée au VIH, de la réplication virale et des traitements antirétroviraux sur la survenue de 7 cancers chez les patients infectés par le VIH. Trois sont des cancers figurant parmi la liste des pathologies définissant le sida : le sarcome de Kaposi, le lymphome non-hodgkinien et le cancer du col de l'utérus ; quatre sont des cancers non classant sida les plus fréquents chez les patients infectés par le VIH : le lymphome hodgkinien et les cancers du poumon, du foie et du canal anal.

Cette étude a concerné 52278 patients suivis entre 1998 et 2006 (durée médiane de suivi de 4,9 ans) ; elle présente ainsi une puissance statistique inégalée. Cela a notamment permis d'évaluer, non pas le risque global de cancer comme dans les études précédemment publiées, mais le risque propre à chacun des cancers étudiés. Pour chacun d'eux, des associations ont été recherchées avec le degré de l'immunodéficience (mesurée par le nombre de CD4/mm3) et de la réplication virale (déterminée par la charge virale ARN VIH), et en fonction de la prise ou non d'une combinaison d'antirétroviraux.

Les résultats montrent une association indépendante entre l'immunodéficience et le risque de survenue de cancers : en dessous de 500 CD4/mm3, plus le nombre de ces cellules est bas et plus le risque de cancer est élevé. Le nombre de CD4 ressort ainsi comme étant le facteur le plus prédictif pour tous les cancers étudiés, excepté le cancer du canal anal.

Parmi les trois facteurs de risques étudiés, l'immunodéficience apparaît être le seul facteur de risque identifié pour le lymphome hodgkinien et les cancers du poumon et du foie. Une association avec une charge virale non contrôlée est par ailleurs retrouvée vis-à-vis du sarcome de Kaposi et du lymphome non hodgkinien. Pour ces deux cancers, ainsi que pour le cancer du col de l'utérus, la prise d'un traitement antirétroviral est associée à une diminution du risque de survenue de ces pathologies malignes, et ce indépendamment de l'effet des traitements sur l'immunodépression et la réplication virale. Enfin, pour le cancer du canal anal, ce sont le temps cumulé avec des CD4 inférieurs à 200/mm3 et une charge virale supérieure à 100000 copies/ml qui sont associés à une augmentation du risque de survenue.

Les résultats issus d'une autre cohorte de l'Agence Nationale de Recherches sur le sida et les hépatites virales, la cohorte Aquitaine (ANRS C03), montrent également l'influence majeure du déficit immunitaire vis-à-vis du risque de cancer chez les patients infectés par le VIH. Ces résultats viennent d'être publiés dans la revue Clinical Infectious Diseases).

Pour le Dr Dominique Costagliola (Directrice de l'Unité mixte Inserm/Université Pierre et Marie Curie 943 « Epidemiologie, stratégies therapeutiques et virologie cliniques dans l'infection a VIH »), qui a dirigé l'étude, « il apparaît clairement qu'une immunodéficience, même modérée, est associée à une augmentation du risque de cancers chez les personnes infectées par le VIH.

ANRS

Lancet

Canada : des chercheurs tracent la première "carte d'identité" du cancer du sein
Vendredi, 16/10/2009 - 00:00

Des scientifiques canadiens ont annoncé récemment avoir établi la première "carte d'identité" d'un cancer, celui du sein, affirmant que ce "tournant" dans la lutte contre cette maladie ouvre la voie à des traitements médicaux sur mesure pour chaque patient. En utilisant une nouvelle technologie, plus rapide et moins onéreuse, une équipe de l'Agence du cancer de Colombie-Britannique (ouest) est parvenue à séquencer pour la première fois le génome d'une tumeur cancéreuse du sein. Les chercheurs ont également réussi à identifier les mutations permettant la propagation du cancer dans l'organisme.

"Cet événement marque un tournant dans la compréhension des origines du cancer du sein et dans le développement de traitements médicaux spécialisés pour nos patients", a déclaré dans un communiqué le Dr Samuel Aparicio, qui a dirigé l'étude. Son résultat fait la Une de la revue scientifique Nature. "Une femme sur neuf développe le cancer du sein, maladie qui représente 29 % de tous les cancers diagnostiqués chez les habitantes de Colombie-Britannique", a remarqué le ministre de la Santé de la province canadienne, Kevin Falcon. "Cette percée va raviver l'espoir des milliers de femmes atteintes de cette terrible maladie", a-t-il dit.

Le nombre de possibilités que cela offre pour les recherches futures est "considérable", a fait valoir le Dr Aparicio, débauché de l'université britannique de Cambridge il y a quatre ans. Pour cette découverte, les scientifiques ont étudié l'évolution sur une période de neuf ans du carcinome métastatique du sein, un type de tumeur représentant 10 % des cancers du sein. Identifiant 32 mutations, ils ont ensuite cherché à déterminer le nombre d'anomalies présentes dans la tumeur de départ. En tout, les chercheurs ont décodé quelque trois milliards de combinaisons d'acide désoxyribonucléique (ADN) présents sur le génome de cette tumeur.

"Le résultat a été surprenant : seulement cinq des 32 mutations étaient présentes dans toutes les cellules de la tumeur d'origine, ce qui les a identifiées comme les responsables du déclenchement de la maladie", écrit l'équipe canadienne. Rien jusque-là n'indiquait que les cinq mutations incriminées jouaient un rôle dans le cancer, souligne l'étude.

Cette étude est d'autant plus significative que, "alors qu'il a fallu beaucoup d'années et énormément d'argent pour dresser le premier génome humain en 2001", cette découverte "n'a pris que quelques semaines et a coûté un prix très inférieur", a souligné le Dr Marco Marra, directeur de l'Agence du cancer de Colombie-Britannique. Ainsi, les chercheurs ont utilisé une nouvelle génération d'appareils de séquençage d'ADN, permettant d'économiser du temps et de l'argent.

Depuis que le génome humain a été séquencé pour la première fois dans le cadre d'un projet qui a coûté près de trois milliards de dollars, son coût n'a cessé de diminuer. Une équipe de l'université américaine de Stanford a notamment cassé les prix en annonçant cet été avoir séquencé le génome de l'un des chercheurs, Stephen Quake, pour moins de 50.000 dollars.

Google

Un labo de la taille d'une carte de crédit pour détecter le cancer du sein
Vendredi, 16/10/2009 - 00:00

Des chercheurs canadiens ont créé un appareil de la taille d'une carte de crédit qui mesure les niveaux d'oestrogènes à partir d'un échantillon minuscule de sang ou de tissu humain. Cette nouvelle technologie pourrait éventuellement servir à mesurer les risques qu'ont les femmes à développer un cancer du sein.

Bien que l'outil ne soit qu'un prototype pour l'instant, les chercheurs de l'Université de Toronto croient que d'ici cinq ans, une version améliorée sera utilisée de façon régulière dans les cabinets de médecins. La puce peut analyser un échantillon de la taille d'une gouttelette de pluie par une manipulation électrique en surface du tissu humain qui fait ressortir l'hormone à mesurer.

Le "micro-laboratoire" permettra de mesurer les niveaux d'oestrogènes depuis une piqûre d'aiguille plutôt qu'à partir d'un test sanguin ou d'une biopsie. Ce n'est toutefois pas un outil de diagnostic du cancer du sein : il peut seulement déterminer, par des taux d'hormones trop élevés, si des femmes sont à risque. Le "micro-laboratoire" pourra être modifié afin de mesurer plusieurs hormones stéroïdiennes, telles que la testostérone chez l'homme afin d'évaluer les risques d'un cancer de la prostate.

Le coût du nouveau gadget médical pourrait être le plus gros défi à surmonter, selon les chercheurs. La complexité des matériaux utilisés peut faire grimper le prix si le volume fabriqué n'est pas suffisant. En contrepartie, le petit labo épargnera des procédures parfois pénibles, et réduira le nombre d'analyses en laboratoires qui peuvent être longues et coûteuses, selon Aaron Wheeler, professeur en génie biomédical.

Google

Les statines préviendraient certains cancers
Vendredi, 16/10/2009 - 00:00

Les statines sont des médicaments dits hypolipémiants - ils réduisent le taux de graisses dans le sang - qui sont prescrits, tout logiquement, en prévention et en traitement des maladies cardio-vasculaires. Ainsi que des thromboses veineuses. Mais pas seulement, loin de là. Les patients souffrant d'accident vasculaire cérébral ischémique (par opposition aux AVC hémorragiques), qui prenaient des statines avant ce problème de santé ou qui en reçoivent dans les trois jours suivant leur AVC, ont un pronostic meilleur que les autres. Sans doute en raison des propriétés vasodilatatrices et anti-inflammatoires de ce médicament. Plus récemment, des chercheurs ont montré l'intérêt de ce produit de la bronchopneumopathie chronique obstructive, une maladie respiratoire handicapante.

Mais c'est du côté du cancer qu'arrivent les dernières bonnes nouvelles. Des données épidémiologiques et biochimiques ont récemment suggéré que les statines pouvaient réduire le risque de différentes tumeurs malignes, dont celles de la prostate et du sein. Selon une étude rétrospective qui vient d'être présentée au Breast Cancer Symposium, actuellement à San Francisco, la prise de statines serait associée à une diminution du risque de récidive après un cancer du sein.

Le Dr Chae et ses collègues de l'Albert Einstein Medical Center à Philadelphie ont revu les dossiers de 707 femmes diagnostiquées avec un cancer du sein de stade II/III dans leur centre entre 1999 et 2005. Le suivi de ces patientes était compris entre 4,4 et 9,8 ans et 20 % d'entre elles avaient pris des statines pendant au moins six mois.

Le taux de récidive était de 9,4 % chez les utilisatrices contre 24 % chez les non utilisatrices de statines. Résultat : le risque de récidive était réduit de 67 % en cas de prise de statines. Mais, précisent les chercheurs, l'utilisation de statines n'est pas associée à une réduction de la mortalité globale chez les femmes traitées pour un cancer du sein.

LP

Hépatite C : la révolution en cours
Vendredi, 16/10/2009 - 00:00

Avec des avancées à petits pas, les médecins sont en passe de guérir l'infection par le virus de l'hépatite C. Pour l'instant, 50 % des malades peuvent se débarrasser de ce virus par un traitement antiviral. Ce taux devrait s'améliorer dans les années à venir. Une réunion internationale sur l'hépatite C vient de se tenir à Nice pour faire le point sur les progrès actuels et à venir.

L'hépatite C est une inflammation chronique du foie provoquée par un virus. La maladie se traduit par divers symptômes peu spécifiques, le plus souvent une grande fatigue. Mais à long terme, les patients sont menacés de cirrhose (20 % des personnes infectées) et plus rarement de cancer du foie. En France, plus de 300 000 personnes seraient infectées, la moitié sans le savoir. La transmission se fait par le sang, les transfusés (avant la mise au point d'un dépistage dans le sang en 1991) et les usagers de drogues par voie intraveineuse sont les plus touchés, mais d'autres modes de contamination (soins dentaires, acupuncture, coiffeur, piercing) ont été décrits. Chaque année entre 3 000 et 5 000 nouveaux cas sont découverts.

«Il existe plusieurs types de virus, explique le professeur Jean-Michel Pawlotsky, chef du service de virologie (hôpital Henri-Mondor, Créteil), environ 60 % des malades présentent le génotype 1, et la moitié d'entre eux peuvent être guéris par le traitement actuel, mais nous avons l'espoir d'arriver bientôt à 70 % avec les nouveaux antiviraux. Le génotype 2 ne concerne que 5 % des malades, mais 90 % bénéficient avec succès des traitements. Le génotype 3 (25 % des patients) est associé à une guérison dans 80 % des cas. Et pour le 4 (10 % des patients), la guérison ne concerne que 50 % d'entre eux. Lorsque les premiers traitements sont apparus, seulement 5 à 10 % des malades étaient guéris, c'est-à-dire qu'ils avaient réussi à se débarrasser du virus.»

Aujourd'hui le traitement fait appel à l'interféron alpha pégylé (sous forme d'injections hebdomadaires), associé à la ribavirine en comprimés. Pour les génotypes 2 et 3, il dure six mois, et un an pour les deux autres groupes. «Les patients sont traités d'abord pendant environ quatre semaines, précise le professeur Pawlotsky. Si une réponse rapide est observée sur le plan biologique avec une baisse très significative de la charge virale, la guérison est très probable. Si au bout de trois mois, l'amélioration est insuffisante, le traitement doit être arrêté.»

De nouveaux antiviraux à l'essai, des inhibiteurs de la protéase, permettraient de faire passer le taux de guérison dans le groupe 1 de 50 à 70 %, avec une triple combinaison comprenant l'interféron et la ribavirine.

Figaro

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
L'hélicoptère hybride X3 vise les 400 km/h
Vendredi, 16/10/2009 - 00:00

Un hélicoptère de 8 tonnes capable d'emmener 16 passagers à 407 km/h, soit 30 % plus vite que les hélicoptères actuels... Le projet X3, inspiré d'un appareil des années 1950, le Fairey Rotodyne, est la réponse d'Eurocopter aux prototypes d'hélicoptères rapides tels que le X2 de Sikorsky ou le X49 de Boeing. C'est un hybride d'hélico et d'avion, avec un rotor pour le vol vertical, et deux hélices sur les ailes. L'idée ? Hélices et ailes prennent le relais du rotor pour avancer plus vite. Le rotor peut donc tourner moins vite et éviter les perturbations aérodynamiques qui empêchent normalement de dépasser 350 km/h.

SV

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top