RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 545
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 25 Février 2010
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Fibre optique : la mutualisation peut commencer
L'image sécurise les applications de banque mobile
Commander son ordinateur par gestes !
Quand les codes-barres 2D se fondent dans l'image
Record du débit sur fibre optique
Matière
La photosynthèse, une nouvelle source d'énergie électrique
Une éolienne de 10 MW n 2013
Le photovoltaïque s'emballe mais le thermique stagne
RTE : l'énergie renouvelable en temps réel
Vivant
Le vieillissement serait fonction de l'ADN
Les vaccins anti-cancer : une voie d'avenir
Vers une nouvelle thérapie anticancéreuse qui ciblerait la voie de signalisation Wnt
Une radiothérapie plus courte aussi efficace contre le cancer du sein
Cancer du poumon : l'espoir des traitements ciblés
Cellules souches : une avancée dans le traitement des leucémies ?
Bientôt un pancréas artificiel pour les enfants diabétiques
Sida : un traitement contre l'herpès réduirait la progression du virus
12 % d'infarctus évités pour 3 g de sel en moins...
Identification d'une protéine liée à l'épilepsie
Edito
De la cartographie du génome à la médecine prédictive



Le XXIe siècle s'est ouvert sur un événement scientifique majeur : le séquençage et l'assemblage du génome (ensemble des gènes portés par les chromosomes) humain, en 2000. La publication de ces travaux, à l'état d'ébauches en 2001, puis sous une forme complète en 2003, révélera la dimension historique de l'événement, 50 ans après la découverte en 1953 de la structure de l'ADN, support de l'hérédité, par Watson et Crick. Le séquençage complet du génome humain, effectué en seulement 13 ans, constituait également le point de départ d'une nouvelle ère pour la recherche et les applications médicales vers une médecine plus personnalisée.

Le génome présenté résulte de l'assemblage de celui de plusieurs donneurs anonymes. Les séquences sont déposées dans le domaine public, afin de respecter la déclaration de l'Unesco, qui, en 1997, a décidé que le génome faisait partie du patrimoine de l'humanité et n'était donc pas brevetable. Les résultats publiés en 2003 on remis en cause bien des certitudes. Les scientifiques pensaient que nous possédions quelque 50 000 gènes, voire 100 000 ; nous en avons moins de 25 000. Les caractères apparents, le phénotype, font que l'humanité apparaît comme extrêmement diverse ; notre génome apparaît en fait identique à plus de 99 % entre deux individus, quelle que soit leur origine ethnique.

Quant au coût du séquençage, il a baissé à une vitesse vertigineuse. En 2004, il n'en coûtait plus que 10 millions de dollars pour un séquençage complet. En août 2009, Stephan Quake, un ingénieur de Stanford (Etats-Unis), affirmait qu'il ne lui avait fallu que 50 000 dollars pour séquencer le sien. A ce rythme, l'objectif d'un séquençage complet pour moins de 1 000 dollars pourrait être atteint en 2020.

Cette démocratisation rend de plus en plus crédible une démarche de médecine personnalisée, où la connaissance des variations (polymorphismes) ne portant que sur un seul nucléotide - soit une seule lettre A, C, G ou T - permettra de déterminer, pour chaque patient, le traitement personnalisé le plus efficace pour chaque pathologie, en fonction de son profil génétique.

A plus long terme, la médecine ne se contentera plus d'adapter les traitements existants mais interviendra directement sur les gènes défaillants pour les réparer.

Il y a quelques mois, pour la première fois, une maladie grave touchant le cerveau a pu être traitée par une thérapie génique. La progression de cette pathologie, l'adrénoleucodystrophie liée au chromosome X, a été arrêtée chez deux enfants après une autogreffe de cellules souches de la moelle osseuse dans lesquelles un gène correcteur avait été introduit.

Fin 2009, une équipe CEA/Inserm a pour sa part annoncé un premier succès d'un essai de thérapie génique sur six patients atteints de la maladie de Parkinson. Trois gènes (AADC, TH et CH1) sont indispensables à la biosynthèse de la dopamine. La stratégie thérapeutique adoptée par l'équipe d'Henri-Mondor consiste à implanter ces trois gènes dans le striatum, la partie du cerveau en manque de dopamine chez les malades, afin qu'ils y fabriquent la dopamine manquante. Pour amener ces gènes jusqu'au striatum, les chercheurs ont injecté dans le cerveau des patients le vecteur porteur des trois gènes. Ce vecteur est un lentivirus génétiquement modifié qui va entrer dans la cellule, aller jusqu'au noyau et y libérer les trois gènes « médicaments.

Dans le domaine du cancer, de multiples essais de thérapies géniques sont menés dans le monde. Depuis 2006, un projet collaboratif financé par l'Union européenne, intitulé "Gene therapy: an Integrated Approach for Neoplastic Treatment" (GIANT) vise à rendre la thérapie génique à la fois plus sûre et entièrement acceptable en vue d'un traitement clinique du cancer de la prostate.

Mais la généralisation de cette médecine prédictive personnalisée, si elle est porteuse d'immenses espoirs, va également poser de redoutables problèmes éthiques, médicaux et sociaux. Faudra-t-il systématiquement tout révéler de son profil génétique à un patient, y compris si celui-ci prévoit une forte probabilité d'apparition d'une pathologie incurable ? Ne risque-t-on pas, à partir du moment où chacun pourra disposer pour un prix abordable de sa cartographie génétique, de glisser insensiblement d'une médecine prédictive à une médecine eugénique qui visera de plus à atteindre une "perfection" biologique utopique et à définir une "norme génétique" à atteindre ? Quels usages et quels choix individuels et collectifs devra faire notre système de santé dans l'utilisation sage de ces nouveaux outils prédictifs ? Ces questions essentielles n'ont pas de réponse simple et nous devons dès à présent y réfléchir et ouvrir un débat démocratique pour veiller à ce que l'extraordinaire puissance de ces technologies médicales reste toujours au service de l'homme et respecte sa singularité et sa dignité.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Fibre optique : la mutualisation peut commencer
Vendredi, 26/02/2010 - 00:00

Une nouvelle étape importante vient d'être franchie en matière de couverture FTTH (fibre jusqu'à l'abonné) en France. En effet, après la validation des règles du jeu concernant les déploiements dans les immeubles en zones denses, les opérateurs viennent d'officialiser leur offres d'accès à leurs réseaux dans le cadre de la mutualisation. Dans un communiqué, l'Arcep, le régulateur des télécoms se "félicite" de cette publication qui "rend effectif le démarrage par les opérateurs du déploiement mutualisé de la fibre optique jusqu'aux logements. Sur la base de ces offres, les opérateurs peuvent maintenant engager des discussions préalablement à la signature des accords de co-investissements".

Rappelons que dans les zones denses, lorsqu'un opérateur sera choisi pour déployer verticalement un immeuble, il devra déployer une fibre supplémentaire dédiée à un éventuel concurrent dans chaque appartement. La mutualisation se fera donc à l'intérieur des immeubles.

Un opérateur alternatif, souhaitant être présent dans un immeuble déjà fibré, disposera donc d'une fibre supplémentaire par foyer afin de proposer simplement ses services, moyennant un préfinancement de son installation et un co-financement de l'investissement initial, soit un surcoût estimé à 5 % des investissements par l'Arcep.

"Cette solution de bon sens permettra d'autoriser la présence de plusieurs opérateurs par immeuble et de plusieurs technologies par immeuble", souligne Jean Ludovic Silicani, président de l'Autorité.

Avec la publication des offres d'accès, les négociations vont donc pouvoir commencer et les déploiements verticaux s'accélérer. Il était temps.

Le FTTH patine depuis presque un an, faute de cadre réglementaire précis. Le FTTH comptait seulement 60 000 abonnés à fin septembre 2009 contre 36 000 il y a un an. Par contre, on compte près de 200 000 abonnés FTTB où la fibre arrive jusqu'au pied de l'immeuble, le reste de la liaison se faisant par câble coaxial.

En parallèle, et afin de faciliter ces déploiements, l'ARCEP publie un guide pratique à l'attention des personnes intéressées par les déploiements de la fibre optique dans les immeubles, en particulier les bailleurs, syndics, copropriétaires et locataires. Ce guide a vocation à répondre le plus simplement possible aux principales questions relatives à la fibre optique, à son cadre réglementaire et à la manière dont va se dérouler l'équipement des immeubles.

ZDNet

Guide ARCEP

L'image sécurise les applications de banque mobile
Vendredi, 26/02/2010 - 00:00

Dans le but d'améliorer la sécurité des applications de m-banking, des chercheurs indiens proposent de recourir à la stéganographie, qui permet de faire passer inaperçu un message au sein d'un autre message. Ici, il s'agit d'utiliser cette technique pour dissimuler les données à encrypter au sein d'une image. Celle-ci agissant alors comme couverture. Le nombre quasi infini d'images disponibles, de formats et de tailles en fait une ressource idéale pour encrypter les données. Concrètement, un utilisateur pourra accéder à ses données bancaires depuis un téléphone connecté à Internet et sur lequel l'application aura été installée. L'ensemble du processus de cryptage s'appuie sur une clé, en fait une variable renouvelée à chaque envoi.

Elle est utilisée dans un premier temps par un système qui détermine au sein de quelle série de pixels les données vont être dissimulées dans l'image. Puis un deuxième algorithme encrypte les données avant de les insérer à l'image. Cette étape constitue une double protection pour les données encodées. Pour éviter que ces dernières ne soient retrouvées simplement en comparant l'image d'origine et celle qui porte les informations, d'autres pixels de l'image sont déplacés et modifiés. Une fois l'image envoyée au serveur, il s'agit également de s'assurer de la validité de la requête en vérifiant l'identité de son expéditeur.

Pour communiquer avec le serveur, chaque message caché dans l'image est doté d'une "identité de requête". Là encore, une clé est utilisée pour générer ce code de vérification. Il ne s'agit pas de celle qui a été utilisée pour cette transaction mais la clé utilisée lors d'une précédente opération.

Les clés sont en effet gardées en mémoire par le serveur et par le téléphone, de sorte qu'ils disposent de la même clé pour procéder à l'authentification. Avant de prendre la requête en compte, le serveur va venir vérifier la validité de celle-ci en confirmant l'"ID". Le clé est alors extraite de l'image et utilisée pour récupérer les informations qui y sont dissimulées. La transaction est ensuite effectuée.

Atelier

Commander son ordinateur par gestes !
Vendredi, 26/02/2010 - 00:00

Une nouvelle technologie de pilotage à distance vient d'être mise au point par des chercheurs de l'Institut Heinrich Hertz des techniques de communication (HHI) de Berlin, rattaché à la Société Fraunhofer. Les chercheurs berlinois ont développé un système permettant de piloter à distance un ordinateur par de simples gestes.

Le nouveau système s'appelle l'"iPoint Presenter", il est composé de deux caméras numériques qui enregistrent les mouvements du doigt et les transmettent à l'ordinateur. Le dispositif, qui n'est pas plus grand qu'un clavier standard, doit être positionné en dessous de l'index pilote. Paul Chojecki, chercheur à l'Institut explique qu'"à partir des données vidéos, notre logiciel calcule la position du doigt dans l'espace et identifie des gestes simples en temps réel. C'est dorénavant l'index qui fait office de télécommande".

Un des chefs cuisiniers les plus célèbres d'Allemagne, Johann Lafer, a équipé la salle à manger de son restaurant gastronomique "La table d'Or" avec le nouveau système. Un seul mouvement du doigt lui suffit pour lancer l'application souhaitée sur son écran "full HD" de 70 pouces de diagonale. Il peut par exemple présenter le menu à ses invités, projeter une vidéo, diffuser de la musique, modifier l'ambiance lumineuse ou montrer des images de plats.

Le projet sera présenté au salon mondial de l'informatique à Hanovre, le CeBIT, du 2 au 6 mars 2010. Les chercheurs de l'HHI dévoileront également les autres applications possibles de l'"iPoint Presenter".

Il permet notamment de commander des lampes et de nombreux appareils électroménagers. Paul Chojecki explique : "sachant que l'interaction s'effectue sans le moindre effleurement, le système est idéal dans les situations où il faut éviter tout contact entre l'utilisateur et l'ordinateur, par exemple au bloc opératoire". Actuellement, les ingénieurs de la Fraunhofer travaillent en coopération avec le fabricant d'appareils médicaux Storz pour élaborer un nouveau système de commande spécialement conçu pour les salles d'opération.

Fraunhofer

Quand les codes-barres 2D se fondent dans l'image
Vendredi, 26/02/2010 - 00:00

Rendre photos et contenus interactifs mais sans utiliser de codes-barres. C'est le défi qu'ont relevé Digimarc et Aquamobile. La première est à l'origine de la technologie, utilisée sous licence par la seconde. Le système se rapproche du code-barres 2D, à la différence que celui-ci est directement fondu dans l'image, et donc invisible à l'oeil nu.

Ceux-ci sont intégrés par l'ajout d'une couche supplémentaire qui apparaît en filigrane par dessus l'image. "Dans les premières versions, il était possible de distinguer une légère déformation en y regardant de près", explique à L'Atelier Dan James, responsable des partenariats de Digimarc Mobile. "Désormais il est impossible de déceler les modifications à l'oeil nu". Après avoir téléchargé l'application sur son mobile, il suffit de scanner l'image pour que le contenu prévu se lance instantanément.

"Le lecteur fonctionne grâce à une série d'algorithmes mathématiques", explique le responsable américain. "Il reconnaît les changements apportés à l'image". L'avantage d'un tel système, c'est qu'il ne nécessite aucun emplacement pour les codes-barres. "Dans l'immobilier par exemple, les professionnels veulent rendre les annonces interactives mais sans perdre d'espace", ajoute-t-il.

Aquamobile utilise également le système dans la presse magazine, pour rendre articles et publicités interactifs. Dans certains magazines espagnols, un sommaire spécial est prévu pour indiquer la liste des contenus interactifs, également repérables à un code de couleur déterminé.

Mais la technologie peut aussi avoir d'autres usages. "Le fait que le code soit invisible en fait un système idéal pour sécuriser des documents", explique à L'Atelier Carlos J. Gutiérrez, responsable du développement d'Aquamobile. L'entreprise propose ainsi Aquasecure, une série d'outils visant à sécuriser les documents sensibles. Il est par exemple possible de s'assurer de l'authenticité d'un document grâce à Securestamp, qui est l'équivalent numérique des cachets notariaux. En utilisant l'appareil photo de son mobile ou une webcam, il est possible de s'assurer qu'un document n'a pas été falsifié et n'a subi aucune modification.

Atelier

Record du débit sur fibre optique
Vendredi, 26/02/2010 - 00:00

Huawei vient de réaliser avec succès une transmission à 100 Gbit/s sur fibre optique de type G.652, pour le compte de Telefónica en Espagne, sur une distance de 1022 km, sans régénération électrique du signal. La technologie à 100 Gbit/s s'avère cruciale pour permettre aux exploitants de poursuivre le développement des réseaux à haut débit en respectant l'environnement.

L'expérimentation réalisée en Espagne s'est appuyée sur la plate-forme de transport WDM/OTN OSN 6800 de Huawei, avec un transpondeur 100 Gbit/s. Le lien compte 20 segments d'amplification et 10 noeuds photoniques reconfigurables (ROADM), 33 amplificateurs EDFA et deux groupes de multiplexeurs/démultiplexeurs. Un mélange arbitraire de canaux 10, 40 et 100 Gbit/s espacés de 50 Hz a également été réalisé. La migration en douceur de ces hauts débits a été démontrée, sans interférence avec le réseau existant.

S-T

^ Haut
Matière
Matière et Energie
La photosynthèse, une nouvelle source d'énergie électrique
Vendredi, 26/02/2010 - 00:00

Des chercheurs du CNRS ont transformé l'énergie chimique issue de la photosynthèse en énergie électrique. Ils proposent ainsi une nouvelle stratégie qui convertit l'énergie solaire en énergie électrique de manière écologique et renouvelable. Cette biopile pourrait aussi avoir des applications médicales. Ces travaux viennent d'être publiés dans la revue Analytical Chemistry.

La photosynthèse est le processus par lequel les plantes convertissent l'énergie solaire en énergie chimique. En présence de lumière visible, le dioxyde de carbone (CO2) et l'eau (H20) sont transformés en glucose et en dioxygène (O2) dans une série complexe de réactions chimiques. Les chercheurs du Centre de recherche Paul Pascal (CNRS) ont mis au point une biopile qui fonctionne à partir des produits de la photosynthèse : le glucose et l'O2, et qui est composée de deux électrodes modifiées avec des enzymes.

Cette pile est insérée dans une plante vivante, dans le cas présent un cactus. Grâce à ces électrodes très sensibles à l'O2 et au glucose, une fois implantées dans le cactus, les chercheurs ont réussi à suivre l'évolution de la photosynthèse in vivo en temps réel. Ils ont pu observer l'augmentation du courant électrique lorsque qu'une lampe est allumée et une diminution lorsque celle-ci est éteinte. Par ces expériences, les chercheurs ont aussi pu observer pour la première fois l'évolution du glucose en temps réel lors de la photosynthèse. Cette méthode pourrait offrir de nouvelles pistes dans la compréhension des mécanismes de la photosynthèse.

D'autre part, les chercheurs ont montré qu'une biopile implantée dans un cactus pouvait générer une puissance de 9 μW par cm2. Le rendement étant proportionnel à l'intensité de l'éclairage, une illumination plus intense accélère la production de glucose et d'O2 (photosynthèse), il y a donc plus de combustible pour faire fonctionner la biopile. Dans un futur lointain, ce dispositif pourrait éventuellement offrir une nouvelle stratégie pour transformer l'énergie solaire en énergie électrique d'une façon écologique et renouvelable.

CNRS

Une éolienne de 10 MW n 2013
Vendredi, 26/02/2010 - 00:00

Une société publique norvégienne a annoncé qu'elle allait débloquer 137 millions de couronnes (17 millions d'euros) pour financer la construction de l'éolienne présentée comme la plus puissante au monde. Avec un rotor de 145 m de diamètre pour une hauteur totale de 162,5 m, le prototype aura une puissance de 10 MW, environ trois fois celle des éoliennes communément en service aujourd'hui, a précisé Enova, une agence du ministère du Pétrole et de l'Energie chargée de promouvoir les énergies propres.

"Nous tablons sur une installation en 2011", a déclaré à l'AFP Kjell Olav Skjoelsvik, responsable des nouvelles technologies chez Enova.

Construite par la société norvégienne Sway, la nouvelle éolienne sera montée à terre à Oeygarden, dans le sud-ouest de la Norvège, mais l'objectif à terme est de développer une turbine permettant de réduire le coût d'exploitation des fermes d'éoliennes en mer en augmentant leur puissance. Le gain de puissance par rapport aux éoliennes existantes devrait notamment être obtenu grâce à une réduction du poids de la turbine et du nombre de pièces mobiles, selon Enova. Chacune de ces éoliennes géantes pourrait fournir la consommation électrique hors chauffage de plus de 2 000 foyers.

Batiactu

Le photovoltaïque s'emballe mais le thermique stagne
Vendredi, 26/02/2010 - 00:00

L'année dernière, 36.000 chauffe-eau solaires individuels ont été installés dans l'Hexagone, contre 42.000 l'année précédente, selon l'association Enerplan. Si la baisse est marquée dans le résidentiel, le solaire thermique continue sa progression dans le collectif. L'association évoque la baisse des prix du fioul et du gaz, qui a moins incité les particuliers à investir dans le solaire thermique. " Clairement, il y a eu aussi un effet de réorientation des particuliers vers le photovoltaïque ", ajoute Richard Loyen, délégué général d'Enerplan.

Dans le domaine de l'électricité solaire, c'est en effet l'emballement. Des capacités de 250 mégawatts (MW) ont été installées dans l'Hexagone en un an, contre 105 MW en 2008, selon une étude de PricewaterhouseCoopers (PwC). La France passe ainsi de la douzième à la septième position mondiale derrière l'Italie et devant la Chine.

Motif de cet engouement : les tarifs très incitatifs de rachat de l'électricité photovoltaïque. Si incitatifs que des agriculteurs pouvaient financer gratuitement de nouveaux hangars en installant des panneaux solaires sur le toit.

Le gouvernement a tiré la sonnette d'alarme le mois dernier, annonçant une baisse des tarifs. " Les changements réglementaires de ce début d'année devraient se traduire par une croissance moindre, mais plus saine en 2010 ", estime PwC. Ce secteur emploie actuellement quelque 4.500 personnes en France et le chiffre devrait monter à 8.000 d'ici à 2012, selon le Syndicat des énergies renouvelables (SER).

Les Echos

RTE : l'énergie renouvelable en temps réel
Vendredi, 26/02/2010 - 00:00

RTE (Réseau de Transport d'Électricité), sous filiale du groupe EDF vient de mettre en service un nouvel outil qui permet désormais de faire le point à chaque instant sur la production éolienne et photovoltaïque. C'est donc en temps réel que les opérateurs de la RTE peuvent prévoir et suivre la production de ces énergies renouvelables. En prévoyant leur comportement, RTE tient à maximiser la maintenance de l'équilibre entre l'offre et la demande d'électricité et gérer les flux d'énergie de réseau.

Avec 810 GWh (Gigawatt/heure) d'énergie d'origine éolienne produite en 2009 en Languedoc Roussillon, 526 GWh en Midi-Pyrénées et 15 GWh dans le Limousin, la filière éolienne poursuit son essor dans le sud-ouest de la France. La production a même augmenté de 64 % en Midi-Pyrénées entre 2008 et 2009. De son côté, la production photovoltaïque suit la danse. Elle est passée de moins de 1 MW en 2003 à 185 MW cette année, dont une forte proportion dans les zones ensoleillées du sud.

Denis Hoffman, directeur de RTE Sud-Ouest, compte bien, conformément aux orientations du Grenelle de l'environnement accompagner le développement des énergies renouvelables. « Nous évaluons à un milliard d'euros cumulés d'ici 2020, dont le quart pour la région sud-ouest, les investissements nécessaires pour intégrer un parc éolien terrestre d'environ 19 000 MW de 5400 MW de puissance photovoltaïque. » Pour répondre à ces objectifs, RTE met donc en service son nouvel outil « IPES, Insertion de la Production Éolienne dans le Système », opérationnel depuis les huit centres RTE équipés en France.

LD

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le vieillissement serait fonction de l'ADN
Vendredi, 26/02/2010 - 00:00

Des scientifiques ont identifié des variants génétiques qui pourraient être liés au vieillissement biologique de l'espèce humaine. En effet, notre corps mue au fil du temps : c'est ce que l'on appelle le vieillissement chronologique, fonction des années vécues. D'autre part, ces résultats d'étude démontrent que notre ADN joue un rôle important dans le processus de vieillissement de notre corps, c'est-à-dire de nos cellules. C'est là qu'intervient le second paramètre : le vieillissement biologique. Des recherches menées à l'université de Leicester ont identifié plus de 500.000 variations génétiques ayant un rapport direct avec le vieillissement biologique du corps humain.

Notre ADN serait un facteur décisif du développement et du renouvellement de nos cellules, et il est prouvé qu'un environnement nuisible à nos gènes (tabac, surpoids...) accroît la vitesse de vieillissement de nos cellules. Cette découverte est cruciale pour la science car nous savons maintenant que certaines maladies cardiovasculaires, tout comme de nombreux cancers, dépendent plutôt de l'âge biologique de notre corps, que de notre âge chronologique.

MS

Les vaccins anti-cancer : une voie d'avenir
Vendredi, 26/02/2010 - 00:00

Des chercheurs français viennent d'identifier et de localiser un élément crucial de l'arsenal de plusieurs rétrovirus responsables de certains cancers. Publiés le 8 février, ces travaux, encore au stade de la recherche fondamentale, ouvrent la voie à des techniques vaccinales révolutionnaires.

Les rétrovirus oncogènes - impliqués dans le développement de tumeurs - disposent à leur surface, comme tous les rétrovirus, d'une protéine d'enveloppe aux propriétés physico-chimiques étonnantes. Celle-ci est capable de faire fusionner les membranes du virus avec celles de la cellule-cible. Ce mécanisme de fusion permet à l'agent pathogène d'entrer à l'intérieur de la cellule pour l'infecter.

L'étude des chercheurs de l'Institut Roussy (IGR) montre qu'outre cette faculté, la protéine d'enveloppe de ces rétrovirus possède des propriétés immunosuppressives : elle "éteint" le système immunitaire de la cellule-hôte pour rendre possible l'installation du virus et sa propagation dans l'organisme attaqué.

Pour faire cette démonstration, les auteurs de ces travaux ont étudié le MLV (murine leukemia virus), un rétrovirus très simple et responsable de leucémies chez la souris. D'abord, ils ont identifié les zones de la protéine d'enveloppe les plus probablement capables de supprimer l'immunité de l'hôte. "Ce genre d'opération peut désormais se faire grâce à la bio-informatique, par comparaison avec les domaines immunosuppresseurs identifiés chez d'autres virus", explique le virologue Christophe Terzian(Ecole pratique des hautes études), qui n'a pas participé à ces travaux et qui les juge "importants".

"Nous avons ensuite génétiquement modifié le virus MLV de manière à ce que sa protéine de membrane garde ses propriétés mécaniques de fusion avec la membrane des cellules-cibles, mais qu'elle perde ses fonctions d'immunosuppression", précise Thierry Heidmann, directeur de l'unité des rétrovirus endogènes (IGR, CNRS, université Paris-XI) et principal auteur de cette étude.

Les deux versions - mutante ou naturelle - du virus ont d'abord été inoculées à des souris privées de système immunitaire : celles-ci sont envahies par le virus, dans les deux cas. Preuve que le virus mutant, dont l'enveloppe a été modifiée, "fonctionne" correctement. Il est toujours capable de pénétrer dans les cellules de son hôte pour les infecter.

Mais lorsque les deux versions de l'agent pathogène sont administrées à des souris bien portantes, leurs effets respectifs sont totalement différents. La version naturelle du MLV infecte normalement son hôte et s'y installe durablement. Au contraire de la version modifiée, qui s'avère incapable de provoquer la moindre virémie, c'est-à-dire de se propager. Preuve que lorsque le MLV est privé de son arme anti-immunité, il est rapidement neutralisé par le système immunitaire de sa victime.

Les résultats obtenus par les chercheurs ne s'arrêtent pas là. Car une fois que le virus mutant a été inoculé à une souris, celle-ci se trouve ensuite "vaccinée", selon les auteurs de la publication, contre le virus qui circule dans la nature. Une vaccination qui se trouve en outre être particulièrement efficace puisque, dit M. Heidmann, "la réponse immunitaire est plus de dix fois supérieure lorsqu'on utilise ces protéines mutées à la place des protéines d'origine du virus".

Le MLV - qui s'attaque uniquement à la souris - n'est pas le seul rétrovirus à disposer de cette "arme secrète".

Deux autres rétrovirus impliqués dans la survenue de cancers chez l'homme - le HTLV (human T-cell leukemia virus) et le XMRV (xenotropic MLV-related virus) - se comportent de manière analogue.

Eux aussi disposent, à la surface de leur enveloppe, d'un arsenal immunosuppresseur semblable à celui du MLV. Le HTLV est endémique dans certaines régions du monde, notamment au Japon et dans les Caraïbes, et provoque chez une petite fraction - de l'ordre de quelques pour-cent - de la population touchée des leucémies foudroyantes de nombreuses années après la primo-infection. Quant au XMRV, il n'a été mis en évidence qu'en 2006 et est présent dans environ un quart des tumeurs de la prostate.

LM

Vers une nouvelle thérapie anticancéreuse qui ciblerait la voie de signalisation Wnt
Vendredi, 26/02/2010 - 00:00

La voie de signalisation appelée Wnt joue un rôle important pendant le développement embryonnaire, chez les cellules souches mais aussi dans le développement de certaines maladies comme le cancer. La fixation de la protéine Wnt sur son récepteur à la surface membranaire déclenche des réactions en cascade qui débouchent à la division cellulaire. Les travaux des chercheurs du Centre allemand de recherche sur le cancer (DKFZ) sur cette voie de signalisation encore très mal connue ont été publiés dans la revue Science du 22 janvier 2010.

Christof Niehrs et ses collègues du département d'"embryologie moléculaire" ont étudié des cellules rénales humaines afin de comprendre les différentes étapes de la voie de signalisation Wnt. Les chercheurs ont inséré le gène de la luciférase dans ces cellules de manière à ce qu'un signal lumineux soit envoyé lorsque la voie de signalisation Wnt est activée par la présence de la protéine Wnt. En collaboration avec Michael Boutros et le département "voies de signalisation et génomique fonctionnelle", les chercheurs ont bloqué l'un après l'autre 18.500 gènes en utilisant l'interférence de petites molécules d'ARN appelées "small interfering RNAs" ou siRNA.

L'analyse des cellules n'étant pas lumineuses après ajout de la protéine Wnt pouvait ainsi permettre d'identifier le gène bloqué correspondant comme étant un gène impliqué dans la voie de signalisation Wnt. Les chercheurs ont retrouvé par ces analyses deux gènes connus. Le premier gène code pour le récepteur d'une hormone liée à l'hypertension, la rénine. Les enfants porteurs d'une mutation sur ce gène ont souvent un handicap mental et sont épileptiques. Le deuxième gène code pour une pompe qui assure un milieu acide dans les organelles cellulaires, appelée pompe à protons.

Cette pompe est connue pour jouer un rôle dans de nombreux mécanismes, comme l'entrée de virus dans une cellule, la formation de métastases cancéreuses ou bien le développement embryonnaire. Selon Christof Niehrs, cette pompe à protons pourrait être la cible d'une thérapie anticancéreuse qui vise spécifiquement la voie de signalisation Wnt.

BE

Une radiothérapie plus courte aussi efficace contre le cancer du sein
Vendredi, 26/02/2010 - 00:00

Une radiothérapie intensive pendant trois semaines est aussi efficace et sûre chez les femmes atteintes d'un cancer précoce du sein que le traitement radiologique standard de cinq semaines, selon une étude clinique conduite au Canada et publiée aux États-Unis. Les femmes ayant eu cette radiothérapie ont un risque faible d'effets secondaires et de récurrence du cancer jusqu'à douze ans après le traitement, souligne le Dr Tim Whelan, un cancérologue de la faculté de médecine de l'Université McMaster en Ontario (Canada), le principal auteur de cette recherche. C'est tout aussi efficace qu'une radiothérapie standard de cinq semaines après l'ablations chirurgicale de la tumeur, ajoute-t-il.

Les résultats de cette étude sont publiés dans le New England Journal of Medicine daté du 11 février et font l'objet d'une présentation à la conférence de l'American Society for Therapeutic Radiology and Oncology. Les résultats de cette étude vont changer la pratique médicale actuelle pour le traitement du cancer du sein aux premiers stades de développement au Canada mais aussi dans l'ensemble de l'Amérique du Nord et dans le monde, estime le Dr Whelan.

«C'est une approche gagnante à tous points de vue qui est aussi efficace pour les patientes et moins coûteuse», souligne-t-il. Cette étude clinique a été menée entre avril 1993 et septembre 1996 en Ontario et au Québec auprès de 1.234 femmes atteintes d'une tumeur cancéreuse du sein dont la moitié ont eu une radiothérapie courte et intensive durant trois semaines et les autres cinq semaines de radiations.

Toutes ces patientes avaient subi auparavant une intervention chirurgicale pour enlever la tumeur. Toutes les participantes ont été suivies pendant douze ans après le traitement radiologique. Après dix ans, 6,2 % des femmes traitée par radiothérapie accélérée ont eu une récurrence de leur cancer, contre 6,7 % pour le groupe soumis à une radiothérapie standard de cinq semaines, a précisé l'auteur de l'étude.

CP

Cancer du poumon : l'espoir des traitements ciblés
Vendredi, 26/02/2010 - 00:00

Le traitement du cancer avancé du poumon est en train d'amorcer un virage fondamental, si l'on en croit les spécialistes, réunis le mois dernier pour un colloque organisé à Paris par l'Intergroupe francophone de cancérologie thoracique (IFCT) à l'initiative de son président, le Dr Bernard Milleron. «Depuis la découverte de la chimiothérapie par sels de platine au milieu des années 1970, nous avions peu de moyens d'attaquer ce cancer, témoigne le Pr Jacques Cadranel, organisateur du colloque, mais depuis quelques années, nous assistons à une véritable révolution thérapeutique.»

La nouveauté est venue d'une meilleure connaissance de la biologie des cellules cancéreuses. Ce qui a permis de découvrir des biomarqueurs spécifiques dans certaines formes et d'y répondre par des traitements ciblés. L'idée est d'identifier les caractéristiques propres à chaque tumeur pour leur offrir une thérapeutique spécifique.

Un exemple phare de biomarqueur est celui du REGF, le récepteur au facteur de croissance épidermique. La mutation du gène dans certaines tumeurs du poumon les rendent encore plus sensibles à des médicaments déjà connus, tels que l'Iressa du laboratoire AstraZeneca ou le Tarceva du laboratoire Roche. Ces produits, conçus pour cibler ce récepteur, appartiennent à la classe des inhibiteurs de tyrosine kinase (TKI).

L'étude française Ermetic a ainsi confirmé l'intérêt de cette approche chez plus de 500 patients qui avaient déjà reçu une ou plusieurs chimiothérapies. Elle a montré que le nombre de patients en vie plus de 21 mois après le diagnostic était multiplié par 3 à condition que leur tumeur porte la mutation du REGF. «Pour la première fois en France, précise Jacques Cadranel, de l'hôpital Tenon à Paris, des patients atteints d'un cancer du poumon non à petites cellules avancé ont pu bénéficier en routine d'un test génétique de leur cancer avec à la clé un traitement adapté.»

En outre, deux vastes études cliniques réalisées à l'étranger et publiées en 2009 ont montré que ces TKI donnaient de meilleurs résultats que la chimiothérapie en première intention. «Dans ces études, le nouveau traitement, s'il n'a pas guéri les malades, a cependant permis de doubler leur espérance de vie», confirme Jacques Cadranel.

Fin janvier, l'Iressa est devenu disponible en pharmacie pour cette indication et ce type de malade. En octobre, l'Inca a débloqué 1,5 million d'euros pour financer le test du gène du REGF de 10 000 patients chaque année. Cet examen sur biopsie sera effectué chez les malades dont la tumeur a la plus grande probabilité de porter la mutation, c'est-à-dire les femmes, les personnes d'origine asiatique, les porteurs d'une forme du cancer appelée «adénocarcinome»...

L'approche ciblant une anomalie génétique tumorale spécifique s'avère plus efficace, avec moins d'effets indésirables graves que la chimiothérapie. Elle est cependant plus coûteuse, tant par ses traitements - un mois sous Iressa coûte plus de 2 000 euros - que par l'examen moléculaire approfondi des tumeurs qu'elle exige. Elle préfigure le basculement progressif vers une médecine personnalisée, qui tiendra compte à la fois du patient et de son type de cancer.

LF

Cellules souches : une avancée dans le traitement des leucémies ?
Vendredi, 26/02/2010 - 00:00

Deux chercheurs de l'Institut Pasteur et du CNRS, dans l'unité Macrophages et développement de l'immunité, à l'Institut Pasteur, viennent de prouver que les cellules souches hématopoïétiques, qui produisent tout au long de la vie les cellules sanguines, se forment à partir des cellules de la paroi de l'aorte de l'embryon. Par une technique d'imagerie haute résolution permettant de suivre en temps réel l'évolution de l'aorte chez le poisson-zèbre, modèle de choix pour l'étude de la formation des cellules sanguines - ou hématopoïèse -, les scientifiques ont ainsi pu décrire précisément les étapes de la naissance de ces cellules souches, et apporter une réponse à la question de leur origine, qui faisait débat depuis plusieurs décennies.

Les observations montrent que certaines cellules endothéliales qui forment l'aorte se courbent, s'arrondissent puis se referment sur elles-mêmes pour finalement s'individualiser et se détacher, tout en préservant l'intégrité du vaisseau. La cellule endothéliale devient alors une cellule souche voyageuse, qui va se diviser pour donner plus tard toute la diversité des cellules sanguines. Cette découverte montre que des cellules déjà spécialisées, comme celles qui constituent un vaisseau, peuvent naturellement se reprogrammer pour devenir des cellules souches à potentialités multiples.

Ces travaux, bien qu'encore très fondamentaux, pourraient être porteurs d'applications à visée thérapeutique, notamment pour le traitement de patients atteints de leucémies, dont les CSH auraient été détruites par radiothérapie ou chimiothérapie : une fois les facteurs de cette « dédifférenciation » identifiés, il serait peut-être possible de générer in vitro, en laboratoire, de cellules souches hématopoïétiques à partir d'une simple biopsie prélevée sur les propres vaisseaux sanguins des malades. Ré-introduites chez ces patients pour remplacer les anciennes, les nouvelles CSH, générées sur mesure pour chaque malade, pourraient alors reconstituer les systèmes sanguin et immunitaire.

CNRS

Bientôt un pancréas artificiel pour les enfants diabétiques
Vendredi, 26/02/2010 - 00:00

Des chercheurs britanniques de l'université de Cambridge ont testé avec succès un dispositif automatisé de distribution d'insuline, avec ajustement de la dose en temps réel, chez une vingtaine d'enfants et adolescents souffrant de diabète de type 1 (insulinodépendant). Ce pancréas artificiel a permis d'obtenir un bon contrôle du diabète et de réduire sensiblement les hypoglycémies nocturnes, conclut Roman Hovorka, premier auteur de l'étude publiée dans le Lancet.

Forme principale du diabète de l'enfant, le diabète de type 1 est en forte augmentation. En pédiatrie, son incidence (nombre de nouveaux cas par an) a doublé en vingt ans dans presque tous les pays d'Europe, et des bambins de plus en plus jeunes sont touchés. Pour éviter des complications à long terme, ces enfants sont astreints, comme les adultes, à plusieurs injections quotidiennes d'insuline, avec une dose adaptée aux contrôles glycémiques. L'alternative est une petite pompe qui injecte l'insuline en sous-cutané, selon un rythme programmé à l'avance.

Les chercheurs britanniques ont combiné une telle pompe à un capteur placé sous la peau, mesurant en permanence le niveau de glucose. Les résultats étaient transmis à un ordinateur, puis analysés avec un algorithme permettant de varier la dose à injecter selon les besoins. Ce dispositif dit «en boucle fermée» a été testé - comparativement à des pompes à insuline - chez 17 diabétiques âgés de 5 à 18 ans, qui ont passé 54 nuits à l'hôpital.

Les chercheurs ont particulièrement étudié comment ce pancréas artificiel réagissait dans la nuit suivant une séance de sport en soirée ou un dîner plantureux. Chez les jeunes diabétiques, notamment ceux traités par pompe, ces deux circonstances peuvent en effet favoriser des hypoglycémies nocturnes, source d'inquiétude pour les parents en raison du risque de coma.

Le pancréas artificiel a permis de maintenir une glycémie normale pendant 60 % du temps (40 % pour les pompes). En outre, le temps passé en hypoglycémie était réduit de moitié. Autre élément rassurant, les capteurs se sont révélés fiables. Pour le Pr Éric Renard (Montpellier), qui signe l'éditorial associé à l'article, la prochaine étape est de contrôler ainsi le niveau de glycémie pendant les repas et l'activité physique. Pionnier dans ce domaine du pancréas artificiel - avec un premier essai vers 2000 -, le spécialiste français collabore avec les chercheurs anglais et d'autres équipes dans le cadre d'un projet européen. «On devrait avoir un pancréas artificiel, capable de fonctionner 24 heures sur 24 à la maison dans les quatre ans qui viennent», espère-t-il.

Lancet

Sida : un traitement contre l'herpès réduirait la progression du virus
Vendredi, 26/02/2010 - 00:00

D'après le docteur Jairam Ligappa de l'université de Washigton, un traitement quotidien contre l'herpès génital HSV2 avec l'acyclovir réduirait le taux de concentration du VIH dans le plasma. L'étude a été menée sur quatorze sites d'Afrique orientale et méridionale sur 3.381 personnes hétérosexuelles atteintes à la fois du VIH et de ce type d'herpès. Durant 24 mois, on administrait chez la moitié d'entre eux une dose d'acyclovir deux fois par jour, pour l'autre moitié il s'agissait d'un placebo.

Ces personnes ne prenaient aucun traitement anti-sida et présentaient un taux de CD4 (lymphocytes dont la réduction montre une baisse de l'immunité qui conduit au sida) supérieur à 250 par microlitre. C'est en analysant le taux de CD4 que les chercheurs ont pu constater l'effet du traitement contre l'herpès sur la progression de la maladie. Cette prise quotidienne réduisait de 16 % la progression. Les personnes recevant ce traitement étaient moins nombreuses à descendre sous le seuil de 200 CD4 que ceux recevant un placebo (284 contre 324).

Pour les auteurs de l'étude, cette réduction reste modeste, mais le traitement pourrait être "un outil de plus pour aider les séropositifs à rester plus longtemps en bonne santé" comme l'explique le Dr Lingappa. Car si le niveau de CD4 reste stable plus longtemps, les malades retarderont la thérapie antirétrovirale dont les effets secondaires sont lourds. Cependant, l'acyclovir ne réduirait pas la transmission du VIH d'autant que l'herpès génital est un facteur qui augmente de deux à huit fois ce risque en cas d'ulcérations herpétiques, même inapparentes.

Yahoo

12 % d'infarctus évités pour 3 g de sel en moins...
Vendredi, 26/02/2010 - 00:00

L'hypertension artérielle (HTA) est l'un des premiers facteurs de risque vasculaire individualisé grâce aux études épidémiologiques entreprises dès le début des années 50. Chacun sait aujourd'hui qu'à l'échelon individuel, le retour à des chiffres tensionnels considérés comme « normaux », le plus souvent grâce à une intervention pharmacologique, contribue à améliorer significativement le pronostic cardiovasculaire. Bien plus, on a démontré que même dans les limites de la normale, la pression artérielle est directement corrélée à la morbidité cardiovasculaire.

Mais, malgré l'importance de ce facteur de risque, on s'est assez peu intéressé jusqu'ici à la diminution de la pression artérielle à l'échelon collectif, en d'autres termes à la lutte contre ce qui favorise l'élévation des chiffres tensionnels moyens dans une population donnée.

Si les prédispositions génétiques à l'HTA, qui jouent un rôle important, sont encore inaccessibles à une véritable prévention, il n'en est pas de même de la quantité moyenne de sel ingéré quotidiennement qui est apparue dans de très nombreuses études épidémiologiques comme corrélée aux chiffres tensionnels et à la fréquence de l'HTA. Or, bien que l'on ait démontré qu'une diminution, même modeste, de la consommation de sel à l'échelon collectif réduisait l'incidence des maladies cardiovasculaires, cette consommation augmente dans de nombreux pays et notamment aux Etats-Unis où elle a atteint, en 2006, 10,4 g/jour pour les hommes et 7,3 g pour les femmes.

Pour conforter les autorités sanitaires et les praticiens dans leur volonté de lutter contre ce facteur de risque d'HTA, une équipe d'épidémiologistes américains a voulu évaluer, le plus « scientifiquement » possible quel serait l'impact sur la morbi-mortalité cardiovasculaire d'une réduction de 3 g de la consommation américaine quotidienne moyenne de sel (1,2 g de sodium). Pour parvenir à cette estimation, Kirsten Bibbins-Domingo et coll. se sont servis d'un programme informatique complexe, le Coronary Heart Disease Policy Model, programme qui se base notamment sur les données des grandes études épidémiologiques et des essais cliniques conduits sur les effets de la réduction de la consommation de sel.

Selon Bibbins-Domingo et coll., une réduction de 3 g de la consommation quotidienne de sel conduirait, aux Etats-Unis (pour les sujets de plus de 35 ans), à une réduction de l'incidence annuelle des accidents vasculaires cérébraux (AVC) allant de 32 à 66 000 cas, des infarctus du myocarde (IDM) de 54 à 99 000 et des décès, toutes causes confondues, de 44 à 92 000. Les effets favorables de la réduction de la consommation de sel seraient, selon cette étude, constatés dans tous les segments de la population de plus de 35 ans.

JIM

Identification d'une protéine liée à l'épilepsie
Vendredi, 26/02/2010 - 00:00

Une équipe de chercheurs japonais de l'Institut National des Sciences Physiologiques et de l'Agence Japonaise de Science et de Technologie (JST), en partenariat avec une équipe américaine de l'université de Californie, a identifié une protéine qui semble jouer un rôle important dans certaines formes d'épilepsie.

L'épilepsie est l'une des affections neurologiques les plus répandues dans le monde. Elle se caractérise par la survenue récurrente d'épisodes de crise, au cours desquelles des neurones se déchargent brutalement dans le cerveau. Les symptômes de ces crises sont très variables d'un individu à l'autre et peuvent aller d'une absence de quelques secondes à des convulsions musculaires en passant par des troubles du mouvement ou des hallucinations sensorielles. Les causes sont complexes, et n'ont pas encore été complètement identifiées.

Les chercheurs se sont intéressés à une protéine appelée LGI1, dont des formes mutantes ont été identifiées chez des patients souffrant d'une forme héréditaire d'épilepsie. Par manipulation génétique, ils ont obtenu des souris chez lesquelles le gène LGI1 est absent, soit sur les deux chromosomes (souris homozygotes), soit seulement sur l'un des deux (souris hétérozygotes). Les souris homozygotes ont toutes commencé spontanément à avoir des crises d'épilepsie récurrentes à partir de deux semaines après leur naissance, et ont eu une durée de vie réduite (moins de 25 jours) comparée à celle de souris en bonne santé. Les souris hétérozygotes, elles, n'ont pas développé de troubles spontanément. En revanche, elles se sont avérées plus sensibles au pentylenetetrazole, un composé susceptible d'induire une crise d'épilepsie.

Par la suite, les chercheurs ont identifié deux récepteurs, ADAM22 et ADAM23, qui se trouvent de part et d'autre d'une synapse (zone de contact entre deux neurones). LGI1 est capable de se lier à ces deux récepteurs, formant ainsi un complexe qui régule la transmission synaptique. Une absence, ou un déficit, en LGI1, provoquerait donc une transmission anormale des signaux entre neurones, ce qui entrainerait les crises d'épilepsie. Les chercheurs font l'hypothèse que la susceptibilité à l'épilepsie dépend de la quantité de LGI1 produite par l'individu.

L'étude suggère que le complexe formé par ADAM22, ADAM23 et LGI1 est une cible intéressante pour un nouveau traitement contre l'épilepsie. L'étude a également permis d'établir un nouveau modèle animal pour cette pathologie, la souris déficientes en protéine LGI1, qui pourra être utilisé pour comprendre plus avant la maladie et tester des possibilités de traitement.

Atelier

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top