RTFlash

RTFLASH Recherche & Technologie
NUMERO 558
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 10 Juin 2010
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Des tablettes numériques interactives pour améliorer la qualité de vie des seniors...
Le livre électronique s'installe à la Bibliothèque nationale de France
Matière
Stocker l'hydrogène sous forme solide
De l'amélioration de l'efficacité de son installation solaire sans remplacer ses panneaux
Espace
Mars : nouvelle preuve de la présence passée d'eau liquide
Terre
La France mise sur le captage et le stockage du CO2
UE : baisse des émissions de CO2 pour la 5ème année
Vivant
Le deuxième code génétique
Un premier tissu tridimensionnel obtenu à partir de cellules souches embryonnaires
Un lien entre entre système immunitaire et désordre psychique
Cancer de la prostate : ajouter de la radiothérapie réduit la mortalité
Un nouvel anticorps découvert pour lutter contre le mélanome
Nouveau traitement ciblé très prometteur contre le cancer du poumon
Cancer du sein : l'influence du mode de vie reste prédominante
Edito
Cancer : le grand tournant se confirme



Même si la mortalité par cancer ne cesse de diminuer depuis plusieurs années dans les pays développés si on la rapporte à l'évolution démographique, l'OMS prévoit plus de 13 millions de décès annuels par cancer en 2030, contre 7,6 millions en 2008, soit une hausse de 72 % en 22 ans. Le cancer pourrait doubler dans le monde d'ici 2030 pour atteindre 13 millions dont la majorité dans les pays en développement.

La conférence annuelle de cancérologie organisée par l'ASCO, la plus importante au monde avec 30 000 cancérologues, vient de se terminer à Chicago. Elle a confirmé le rôle grandissant des thérapies ciblées et personnalisées contre le cancer et a permis de présenter les résultats d'une trentaine d'essais cliniques et de quelque 4.000 travaux de recherche.

Les recherches en cours peuvent, grâce aux avancées dans la génomique, décoder les différentes anomalies génétiques qui expliquent le comportement des cellules cancéreuses, ouvrant la voie "à de nouveaux traitements pour les cibler", a souligné le Dr Lynn Schuchter, professeur de médecine au centre du cancer de l'Université de Pennsylvanie, une des organisatrices de la conférence de l'American Society of Clinical Oncology.

Avantage supplémentaire, un grand nombre de ces nouveaux traitements consistent en un seul comprimé avec beaucoup moins d'effets secondaires que la chimiothérapie traditionnelle. Ces traitements utilisent plusieurs voies : ils visent à empêcher les tumeurs de développer des vaisseaux sanguins pour se nourrir, à bloquer leur croissance ou à programmer leur auto-destruction.

Ils visent également à stimuler le système immunitaire pour lui permettre de combattre plus efficacement le cancer. C'est notamment le cas de l'Ipilimumab, un anti-corps expérimental produit de la bio-ingénierie du laboratoire américain Bristol-Myers Squibb qui démultiplie la réponse immunitaire de l'organisme contre les cellules cancéreuses. Cet anti-corps, objet d'essais cliniques depuis plus de dix ans, a pour la première fois permis de prolonger la vie de patients atteints de mélanome ayant fait des métastases.

Autre avancée : l'utilisation élargie de l'Avastin, qui bloque l'angio-genèse ou la formation de nouveaux vaisseaux sanguins, par les tumeurs cancéreuses et a donné des résultats encourageants pour le traitement du cancer des ovaires.

Un nouvel anticancéreux fait aussi beaucoup parler de lui : il s'agit de l'inhibiteur ALK. Ce sigle désigne un gène et sa protéine, responsables d'une mutation présente chez 5 % des victimes de la forme la plus fréquente du cancer du poumon. Le traitement, expérimenté en Corée sur un petit nombre de patients (84), montre une réduction des tumeurs chez 90 % des malades. Fait remarquable, moins de trois ans séparent la découverte initiale de l'anomalie génétique et les premiers essais de la molécule, développée par l'américain Pfizer.

Cette course aux nouveaux anticancéreux ne fait que commencer. Plus de 800 molécules sont actuellement en cours de développement chez les industriels de la pharmacie. Certaines devraient pouvoir nettoyer l'organisme en profondeur, en supprimant les dernières cellules souches dormantes responsables des rechutes. « Un jour, nous pourrons sans doute guérir les lymphomes folliculaires en éliminant toutes les cellules résiduelles présentes dans l'organisme », prévoit Gilles Salles, hématologue à l'université de Lyon.

Parmi les pistes les plus prometteuses, la première fait appel à un binôme qui combine habilement la capacité de recherche sélective d'un anticorps et la puissance d'une molécule chimique. Le premier est capable de repérer une cellule cancéreuse identifiée par ses récepteurs de surface spécifiques. Une molécule toxique vient ensuite détruire la cellule. Une combinaison de ce type, associant un anticorps connu (trastuzumab) avec une molécule existante (TDM1), est actuellement testé dans le cancer du sein et plus d'une cinquantaine sont actuellement à l'essai dans le monde.

Une autre piste consiste à greffer des molécules de sucre sur un anticorps monoclonal, ce qui permet de renforcer le système immunitaire de manière très efficace.

Il faut également souligner les progrès en matière de vaccins thérapeutiques : des chercheurs américains viennent ainsi de mettre au point un vaccin protégeant les souris contre le cancer du sein et espèrent pouvoir transposer à la femme ce succès remarquable d'ici quelques années.

Mais cette grande encontre mondiale a également été l'occasion d'annoncer des progrès qui ne relèvent pas de nouveaux médicaments mais d'une meilleure combinaison des traitements existants ou d'une nouvelle utilisation d'un médicament qui n'est pas destiné à traiter le cancer.

C'est ainsi que, selon une étude clinique qui a fait grand bruit, la radiothérapie combinée à un traitement hormonal réduit de 43 % le risque de mortalité d'hommes atteint d'un cancer localisé et avancé de la prostate. "Cet essai clinique de phase 3 va remettre en question le dogme actuel de traitement selon lequel seule l'hormonothérapie suffit pour traiter des cancers localisés et avancés de la prostate", a souligné le Dr Padraig Warde, directeur adjoint du programme de médecine radiologique à l'hôpital universitaire de Toronto (Canada), principal auteur de cette recherche.

Pour cet essai clinique, 602 patients pris au hasard ont été traités avec une hormonothérapie seule et 603 ont, en plus, suivi une radiothérapie. Après sept ans, 66 % des hommes du premier groupe étaient encore en vie comparativement à 74 % dans le second groupe.

Citons enfin un médicament générique qui sert habituellement à traiter des troubles liés à une enzyme chez l'enfant, le dichloroacétate (DCA) et pourrait être un traitement efficace contre une forme mortelle de cancer du cerveau selon une étude menée par des chercheurs de l'université de l'Alberta.

Cette étude à petite échelle, effectuée sur 5 patients, montre que les tumeurs ont réagi au dichloroacétate en changeant leur métabolisme. Le traitement a fonctionné sur les tissus des tumeurs des 5 patients en phase terminale de cancer du cerveau, comme le laissaient présager les expériences en laboratoires menées en 2007.

Chez 4 des 5 patients, les chercheurs ont observé que le cancer du cerveau ne s'étendait plus après 15 mois de traitement. Les tests suivants sur les cellules prélevées de ces patients ont montré que le DCA avait tué les cellules cancéreuses.

On le voit, la cancérologie vit véritablement un tournant historique et il est frappant de constater que tous les participants à cette réunion de l'ASCO ont souligné l'importance de développer de nouvelles approches conceptuelles, issues de la recherche très fondamentale, pour permettre de véritables sauts thérapeutiques dans le traitement du cancer. Cette approche pluridisciplinaire doit mobiliser non seulement la biologie et la chimie mais également la physique, les mathématiques et l'informatique, sans oublier la botanique.

Il est toujours délicat de faire des prévisions sur des sujets aussi graves que le cancer mais je suis néanmoins convaincu que si les progrès de la recherche se poursuivent à ce rythme, il n'est plus déraisonnable d'espérer que le monde sera définitivement débarrassé de ce fléau du cancer d'ici le milieu de ce siècle.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Des tablettes numériques interactives pour améliorer la qualité de vie des seniors...
Vendredi, 11/06/2010 - 00:00

Le développement des usages des outils numériques s'affirme comme un formidable levier de maintien du lien social et de l'autonomie des personnes âgées. Pourtant, en France 59 % des seniors se déclarent encore réticents aux nouvelles technologies*. Afin d'améliorer cette situation, Nathalie Kosciusko-Morizet profite de la mise sur le marché des tablettes interactives, d'une utilisation plus simple et plus intuitive que les ordinateurs classiques, pour lancer, le 11 juin prochain, une expérimentation auprès des seniors.

Pendant six mois, des tablettes numériques seront confiées à trois panels de seniors, constitués par l'association d'entreprises Silicon Sentier et par le laboratoire LUTIN (UMS/CNRS) :

- cinq « demoiselles» de plus de 80 ans membres de l'atelier Teatime with Albertine, créé et animé par Albertine et accueilli à la Cantine depuis Mars 2008 ;

- quinze personnes du Carrefour numérique (cyber-base de la Cité des sciences);

- quinze habitants de la ville de Longjumeau, (dont dix seniors en foyer et cinq en situation de maintien à domicile). Le matériel, des sociétés Archos et Apple**, sera fourni par la Délégation aux Usages de l'Internet.

Cette étude s'attachera à évaluer la facilité de prise en main des tablettes, leur ergonomie, l'apprentissage de la gestuelle, ainsi que l'impact de leur usage sur les services du web. Les applications issues du programme Proxima Mobile***, le portail des services mobiles d'intérêt général, feront également partie de l'évaluation.

Sur la base des besoins exprimés par les différents panels, une série de recommandations sera publiée à l'issue de l'opération, afin de permettre à la fois d'améliorer l'ergonomie de ces interfaces tactiles pour l'usage des personnes âgées, mais également d'analyser l'apport des usages numériques sur le confort de vie et le bien-être social des plus de 65 ans.

« Cette nouvelle génération d'ordinateurs doit nous permettre de réduire la fracture numérique générationnelle. Grâce aux résultats de cette étude, les industriels et les professionnels du web pourront adapter leurs équipements et leurs services au plus près des besoins des seniors. Le numérique remplira ainsi sa mission : améliorer le quotidien de chacun », a insisté Nathalie Kosciusko-Morizet.

Sa

Le livre électronique s'installe à la Bibliothèque nationale de France
Vendredi, 11/06/2010 - 00:00

S'il y a bien une institution dont on attendait qu'elle se penche sur les nouvelles technologies en matière de lecture et d'écriture, c'est la Bibliothèque nationale de France. Voilà qui est désormais chose faite en ce printemps 2010 avec l'inauguration du Labo BNFPermanent et gratuit, le lieu vient d'être ouvert au grand public, ce jeudi 3 juin 2010, dans le hall Est de la bibliothèque François-Mitterrand, dans le 13e arrondissement de la capitale. Il sert à présenter les divers outils numériques consacrés au livre et à l'écrit en général. Mais tient plus du show-room que du laboratoire (voir ci-contre).

Ce bel espace de 120 mètres carrés assez design, mis en réseau par Orange, est un compromis entre une salle d'exposition et un atelier de travaux pratiques. Plusieurs vitrines fermées se contentent de présenter des tablettes communicantes, des liseuses et des feuilles de « papier électronique » souples, histoire de montrer ce que les technologies d'aujourd'hui permettent de faire. L'usager peut aussi manipuler des matériels.L'e-book eSlick de Foxit, le Reader de sony et celui de Ganaxa sont ainsi en accès libre au centre du Labo BNF, avec des contenus déjà chargés (textes et images). Mais d'après un éditeur de livres électroniques téléchargeables sur iPhone et iPad, présent à l'inauguration du Labo BNF, la liseuse électronique, « c'est mort »...

L'iPad d'Apple, justement, trône en bonne place, à côté de cette notice explicative : « La tablette tactile multipoint inaugure l'ère du post-livre et du post-ordinateur. » Ce qu'un visiteur présent à l'inauguration résumera par « c'est juste un gros iPhone ». A l'entrée du Labo, une ardoise électronique est aussi en libre service. Les visiteurs peuvent écrire et dessiner dessus avec un stylet, ouvrir des dossiers, des documents, les manipuler, etc. Autre curiosité, une démonstration de « réalité augmentée ». Un écran d'ordinateur avec webcam intégrée est allumé. A côté, un présentoir avec des cartons ornés du gros logo noir et blanc du Labo BNF. Il s'agit ni plus ni moins que d'un tag 2D (voir plus bas).

Il suffit de le présenter devant l'objectif de la webcam et là, par-dessus votre image toujours captée par la caméra, s'affiche sur l'écran une représentation virtuelle en 3D du Labo BNF. Comme si vous teniez une maquette dans vos mains. Le résultat est un peu basique et n'est pas très fluide. Les visiteurs peuvent aussi s'attendre à voir déambuler un petit robot qui, s'il fonctionne (ce n'était pas le cas le soir de l'inauguration), est censé répondre aux questions grâce à une technologie d'analyse vocale et sémantique.

Mais l'installation la plus impressionnante consistait en un énorme écran tactile, sorte de téléviseur géant appelé, faute de mieux (il s'agit d'un prototype), « Mur de sélection ». D'une pression des doigts, les utilisateurs peuvent déplacer, grouper, agrandir, zoomer, réduire, toute sorte de documents numérisés, comme des manuscrits, des croquis, etc. Le Labo BNF est accessible en permanence, à tout le monde, aux jours et heures d'ouverture de la bibliothèque.

OInet

^ Haut
Matière
Matière et Energie
Stocker l'hydrogène sous forme solide
Vendredi, 11/06/2010 - 00:00

McPhy Energyveut stocker l'hydrogène sous forme d'hydrure de magnésium. Pour industrialiser sa technologie, une première ligne de production devrait être opérationnelle en juin. Industrie & Technologies a passé son procédé de stockage au banc d'essais. Décryptage en trois points clés.

L'hydrogène gazeux réagit avec des poudres de magnésium nanostructurées, auxquelles ont été ajoutées des catalyseurs. La réaction donne de l'hydrure de magnésium. Elle a lieu à 350°C et à moins de 10 bars. Mais elle est exothermique. Pour collecter et stocker la chaleur dégagée, McPhy utilise un matériau à changement de phase. Quand l'hydrogène est relaché (en jouant sur la pression), ce matériau libère la chaleur avec un rendement de 97 %.

Pour stabiliser mécaniquement le magnésium, McPhy ajoute du graphite, qui conduit la chaleur vers le matériau à changement de phase. L'ensemble se présente sous forme de cartouches de 0,3 mètre de diamètre pour 1,5 mètre de haut. Chacune peut stocker 4 kg d'hydrogène, soit l'équivalent de 132 kWh. L'idée est ensuite de les assembler de façon modulaire.

McPhy se positionne en priorité dans le stockage d'électricité issue de sources renouvelables. "Le Japon s'intéresse au stockage domestique. En Europe, la priorité porte sur des échelles plus grandes : le quartier ; la région ; la ferme éolienne ; la centrale solaire thermodynamique...", liste Pascal Mauberger, PDG de McPhy Energy. "Nous visons plutôt des puissances de 100 kW à 3 MW, stockées pendant 1 à 10 h".

L'idée de McPhy est de stocker l'électricité intermittente en produisant de l'hydrogène. Ses cartouches de stockage seraient alors directement raccordées à l'électrolyseur. L'hydrogène serait ensuite réutilisé pour produire de l'électricité avec une pile à combustible. L'alternative serait de se brancher au réseau de gaz. "GDF Suez a montré que l'hydrogène peut être réinjecté à hauteur de 20 % sans changer le réseau", précise Pascal Mauberger.

Pour l'instant, les applications embarquées dans le transport ne sont pas envisagées. Le matériau à changement de phase est trop lourd. "Mais notre technologie serait appropriée pour des stations services à l'hydrogène", nuance Pascal Mauberger. A plus court terme, McPhy vise le marché de l'hydrogène industriel. Le principe serait de produire et stocker l'hydrogène sur site, plutôt que de l'acheminer sous forme comprimée par camion.

Un premier prototype, contenant 1 kg d'hydrogène, est à l'essai au CEA . Fin septembre, il sera remplacé par une version de 15 kg (500 kWh). Ce dernier sera branché sur un électrolyseur et une pile à combustible. Le défi est d'assurer un rendement suffisant pour le système complet. McPhy vise les 50 %. Il faudra aussi garantir la durée de vie. Pour l'instant, McPhy annonce avoir atteint sans dégradation 1 000 cycles de charge/décharge. Et assure pouvoir extrapoler à 4 000 cycles, soit 10 ans de fonctionnement. Dans l'immédiat, les débouchés seront surtout des démonstrateurs technologiques pour un décollage du marché attendu, par McPhy, vers 2014.

I&T

De l'amélioration de l'efficacité de son installation solaire sans remplacer ses panneaux
Vendredi, 11/06/2010 - 00:00

Lorsqu'on parle aujourd'hui d'améliorer l'efficacité de la production électrique grâce au photovoltaïque, le réflexe fréquent consiste à rester focalisé sur les cellules des panneaux elles-mêmes. Mais il ne s'agit là que d'une moitié du problème puisque l'équipement électronique en aval de la matrice de panneaux joue un rôle tout aussi important. De même qu'il y a débat sur les deux concepts de génération centralisée et génération parcellisée, la bataille s'engage entre les inverseurs centralisés et les micro-inverseurs.

Un panneau photo-voltaïque est un assemblage de cellules photovoltaïques. En raison de la faible quantité d'électricité délivrée par un seul panneau, on les assemble dans ce que l'on appellera une matrice de panneaux. Une installation photo-voltaïque typique est ainsi constituée d'une matrice de panneaux, d'un inverseur, de batteries et d'un système de connection. La tâche qui consiste à optimiser les performances électriques de la matrice revient à ce fameux élément appelé inverseur. La fonction primaire de l'inverseur est de convertir le courant continu (DC) produit par les panneaux en courant alternatif (AC) que nécessite le réseau.

La deuxième fonction d'un bon inverseur est d'optimiser la puissance délivrée par la matrice en recherchant le Maximum Power Point (MPP). En effet, pour les générateurs électriques non-linéaires que sont les générateurs photo-voltaïques, il existe un point de fonctionnement (MPP) optimum pour lequel le courant et la tension correspondante donnent lieu à une puissance en sortie maximale.

L'inverseur récupère l'intensité moyenne permettant d'atteindre cette puissance maximale. Dans les systèmes actuels, chaque matrice est associée à un inverseur unique, ce qui occasionne de nombreuses pertes énergétiques, chiffrées à 30 % par la California Energy Comission (CEC). Ces pertes sont intrinsèquement liées au caractère centralisé de l'inverseur et au mode d'assemblage des différents panneaux au sein de la matrice pour les deux principales raisons suivantes :

- "Désaccord électrique" entre les panneaux : en effet, au sortir de l'usine tous les panneaux n'ont pas le même MPP, l'inverseur récupère un courant moyen qui est souvent mal adapté à chaque panneau en particulier. Le MPP de chaque panneau est donc souvent rarement atteint et ces derniers ne fonctionnent donc que peu au maximum de leur capacité.

- Ombrage localisé : il n'est pas rare qu'au cours de la vie de la matrice, un ou plusieurs panneaux voient leurs performances altérées par les conditions extérieures (ombre, poussières, branchages...).

Du fait du montage en série des panneaux, le courant relatif au panneau le moins performant limite le courant de ses voisins ayant pour effet d'accroître encore la divergence par rapport au MPP.D'autre part, l'inverseur unique adapté à une matrice entière présente le désavantage majeur de rendre le système complet inopérant en cas de panne ...

Signalons enfin de manière anecdotique qu'en cas de problème ou de vol d'un panneau, il n'est pas possible de le remplacer par un panneau du dernier cri au risque d'augmenter le "désaccord électrique" ; une installation de 2010 est et restera liée à la technologie en cours à cette date...

Forts de ces constats, de nombreuses start-up se créent autour d'une technologie similaire à celle de l'inverseur mais décentralisée, c'est-à-dire à l'échelle du panneau et non plus de la matrice. Le fonctionnement logique de ce système est le même que celui de son cousin l'inverseur actuel (conversion DC/AC + optimisation du MPP) à la différence près qu'en étant monté sur chaque panneau il permet une augmentation de l'efficacité totale de la matrice de 5% à 25%.

Il est alors facile d'envisager tout le potentiel de cette idée en prenant l'inverse des inconvénients précédemment cités dans le cas de l'inverseur centralisé ! Les sous-performances d'un des panneaux n'affectent alors plus les performances globales du système. De plus, la puissance délivrée par chaque inverseur étant plus faible les coûts de production de ces systèmes sont eux-aussi plus faibles, car ils doivent remplir des critères moins drastiques. La sécurité de l'ensemble est par ailleurs meilleure puisqu'il n'y a plus d'accumulation d'une grande quantité de courant en entrée de l'inverseur comme c'était le cas auparavant.

Ces micro-inverseurs peuvent être vendus soit directement au consommateur soit au producteur de panneaux qui pourrait les intégrer à son processus de fabrication.

Il y a trente ans, le coût de l'électricité photo-voltaïque était de 40 fois celui de l'électricité issue des énergies fossiles. Au rythme auquel se développent les technologies solaires, relatives à la fois aux panneaux directement et à l'électronique associée, le temps n'est plus très loin où cette source d'énergie sera véritablement compétitive.

BE

^ Haut
Espace
Espace et Cosmologie
Mars : nouvelle preuve de la présence passée d'eau liquide
Vendredi, 11/06/2010 - 00:00

Alors qu'il ne fonctionne plus depuis plusieurs mois, le robot Sipirit continue de livrer des informations capitales aux scientifiques. Des chercheurs de l'université de l'Arizona (États-Unis) annoncent dans la revue Science que le célèbre rover a découvert des roches riches en carbonates grâce à l'un de leurs instruments, le Mini-TES embarqué sur l'engin. Ce qui démontre que la région du cratère Gusev où Spirit a procédé à ces prélèvements abritait dans un passé lointain de grandes quantités d'eau liquide. Et donc, peut-être, de la vie.

La présence de carbonates à la surface de Mars a déjà été signalée lors de précédentes missions. Mais pour Steve Ruff, l'un des cosignataires de l'étude, le Mini-TES de Spirit a tapé dans le mille. «Les deux grands affleurements de roches qui ont été analysés ont des concentrations en carbonates de 25 %, ce qui est de loin le taux le plus élevé jamais rencontré sur Mars!», explique-t-il. Les affleurements rocheux, baptisés Comanche et Comanche Spur sont riches en magnésium, en fer et olivine, un minéral d'origine volcanique. Selon les chercheurs, ils ont probablement été inondés par de l'eau riche en carbonates et à pH neutre provenant d'une source hydrothermale proche.

Opportunity, le second robot de la NASA, toujours opérationnel après six ans de bons et loyaux services, avait déjà décelé de nombreux indices d'altération de roches par de l'eau, dans le Meridiani Planum, une région située à l'opposé du cratère Gusev exploré par Spirit. Mais cette eau était fortement acide de sorte que les teneurs en carbonates étaient faibles. Tout comme les probabilités que la vie ait pu apparaître dans ce secteur.

LF

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La France mise sur le captage et le stockage du CO2
Vendredi, 11/06/2010 - 00:00

Total mène près de Pau, depuis janvier, une expérience d'enfouissement de dioxyde de carbone. Dans le gisement désaffecté de gaz naturel de Rousse, l'industriel a prévu, en deux ans, d'injecter 120 000 tonnes de CO2. Le stockage, à 4 500 m sous terre, dans une formation de roche sédimentaire poreuse (de la dolomie) de 2 km2 de surface sur 100 m de hauteur, surmontée d'une couche d'argiles et de marnes de 2 km d'épaisseur, sera étudié pendant cinq ans, puis restera sous surveillance. Histoire de vérifier que le gaz carbonique y est durablement piégé, sans risque de remontée brutale à la surface. Pour s'en assurer, Total a truffé le puits d'instruments de contrôle : détecteurs de CO2, capteurs de pression et de température, sondes sismiques...

A 27 km de là, sur la plate-forme industrielle de Lacq, où le CO2 est récupéré avant d'être acheminé par gazoduc jusqu'à Rousse, le paysage est tout autre. Ce ne sont que cuves géantes, cheminées et canalisations enchevêtrées. Ici, Total a réaménagé une des cinq chaudières du site d'exploitation du méthane (qui cessera en 2013), pour la transformer en démonstrateur de séquestration du CO2.

Et être ainsi le premier en Europe et le deuxième au monde - fin 2009, Alstom a mis en service une installation similaire en Virginie occidentale(Etats-Unis) - à expérimenter une chaîne complète de captage, transport et stockage du principal gaz à effet de serre. La France place beaucoup d'espoir dans cette technologie. Le Grenelle de l'environnement en a fait une de ses priorités contre le réchauffement.

A Lacq, Total a investi 60 millions d'euros dans ce pilote, à l'échelle d'un dixième d'une future unité de taille industrielle.

D'une puissance de 30 mégawatts thermiques, il permet de capturer 15 % du CO2 émis par les chaudières de l'ensemble de la plate-forme industrielle. Si cette solution était systématisée - et que des capacités suffisantes de stockage existent -, la totalité du gaz carbonique pourrait ainsi être neutralisée. Cette opération a un coût énergétique, reconnaît l'industriel : pour capter 100 tonnes de CO2, il faut mettre en oeuvre des procédés qui en produisent 20 tonnes. Mais, au final, le bilan environnemental est largement positif.

Cadre bucolique à Rousse, usine chimique à Lacq... Il ne faut pas se fier aux apparences. Le captage est l'opération la mieux maîtrisée. Total a choisi d'étudier ici la voie de l'oxycombustion, qui consiste à brûler le gaz naturel avec non pas de l'air, mais de l'oxygène pur fourni par Air liquide. Avantage : le produit de la combustion est du CO2 concentré à 90 % ou 95 %, accompagné seulement de vapeur d'eau.

Il ne reste qu'à le laver, le sécher et le comprimer, avant de l'injecter dans le gazoduc. "Nous avons opté pour la filière potentiellement la moins consommatrice d'énergie et la moins coûteuse", explique Nicolas aimard, chef du projet.

A elles seules, les opérations de captage représentent les deux tiers du prix de la chaîne complète, qui peut monter jusqu'à 140 euros par tonne de CO2 séquestré. C'est donc sur la réduction de leur coût que se concentrent les efforts. Après bientôt cinq mois d'expérimentation, les ingénieurs se disent "satisfaits de la robustesse de la technologie".

Le transport du CO2 comprimé ne pose pour sa part guère de difficultés. Le gaz emprunte la conduite dans laquelle circulait auparavant, en sens contraire, le méthane extrait du gisement de Rousse. La partie la plus délicate est le piégeage souterrain du gaz carbonique. Total n'en a encore injecté dans le sous-sol qu'un peu moins de 2 000 tonnes. "Le gisement de Rousse est un site de stockage idéal", explique M. Aimard.

Ici, le réservoir est desservi par un puits unique. Le milieu géologique, vieux de plus de 35 millions d'années, a résisté aux plissements de la formation des Pyrénées. Et surtout, le gisement a été exploré de fond en comble durant son exploitation. C'est ce qui permet d'étudier ses capacités de confinement. A priori en toute sécurité, puisque le CO2 est stocké, à l'état de gaz liquide), à une pression de 80 bars, très inférieure aux 480 bars de l'ancien gisement de méthane. Ce qui écarte le risque d'un relargage inopiné de dioxyde de carbone, gaz acide et, à forte concentration, mortel.

LM

UE : baisse des émissions de CO2 pour la 5ème année
Vendredi, 11/06/2010 - 00:00

L'UE a produit 4,9 milliards de tonnes d'équivalent CO2 en 2008 (dont 2,12 milliards de tonnes -43 %- en provenance des installations industrielles couvertes par le système d'échange de quotas), soit 99 millions de tonnes de moins qu'en 2007 et 800 millions de moins qu'en 1990, a indiqué le 2 juin l'Agence européenne pour l'environnement (AEE).L'UE27 a donc émis en 2008 9,8 tonnes de GES par habitant (8,5 tonnes/hab en France, 20 tonnes/hab aux USA, 4,5 tonnes/hab en Chine et 6,9 tonnes/hab au niveau mondial).

Il s'agit de la cinquième baisse consécutive des émissions annuelles. L'inventaire des émissions de gaz à effet de serre pour l'année 2008, qui est la dernière année pour laquelle des données complètes sont disponibles, montre queles émissions de l'UE-15 ont chuté de 1,9 % par rapport à 2007 alors même que l'économie connaissait une croissance de 0,6 %.

Les émissions de l'UE-27 ont quant à elles chuté de 2 % pendant l'année considérée, pour s'établir à un niveau inférieur de 11,3 % à celui de 1990.Entre 2007 et 2008, les émissions de l'UE-15 ont chuté de 1,9 % tandis que l'économie enregistrait une croissance de 0,6%: l'UE a ainsi montré une nouvelle fois que la croissance économique pouvait aller de pair avec un développement à faibles émissions de carbone.

En 2008, les émissions vérifiées de l'ensemble des installations relevant du système d'échange de quotas d'émission de l'UE se sont établies à 2,12 milliards de tonnes équivalent CO2, soit quelque 43 % des émissions totales de l'UE. Ce chiffre représente une baisse de 3,06 % par rapport à 2007 (en 2009, les émissions des installations couvertes par le système ont enregistré une baisse supplémentaire de 11,6 %).

Enerzine

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le deuxième code génétique
Vendredi, 11/06/2010 - 00:00

L'idée selon laquelle un gène donné code une seule protéine a longtemps prévalu. Ce dogme s'est écroulé dans les années 1980 : un gène peut conduire à plusieurs protéines différentes. Mais les mécanismes sous-jacents au choix de la protéine fabriquée restaient largement inconnus. Une équipe au Canada est parvenue à les éclaircir en partie.

Dans les années 1960, les biologistes ont déchiffré le code génétique, c'est-à-dire le « dictionnaire » qui établit une correspondance entre l'information génétique et les protéines qu'elle code : à chacun des 43 = 64 triplets possibles de bases (A, T, C et G) de l'ADN d'un gène est associé un des 20 acides aminés disponibles (ou une instruction, telle que STOP) de la protéine que ce gène code. Ce dictionnaire, simple et efficace, a contribué à former le dogme « un gène - une protéine » ; et tant pis pour l'ARN, la molécule intermédiaire par laquelle l'information génétique est transcrite puis traduite en protéines.

Cependant, les ARN sortirent rapidement de l'ombre et on leur découvrit plusieurs rôles incontournables dans la vie cellulaire : on ne pouvait plus les négliger ! Parmi ces fonctions, l'une des plus étonnantes est l'épissage alternatif : il s'agit d'un phénomène grâce auquel un seul gène peut coder plusieurs protéines, parfois plusieurs milliers. Par exemple, les trois gènes nommés neurexin codent plus de 3 000 protéines qui participent à l'établissement des synapses dans le cerveau. Dès lors, on comprend mieux comment l'être humain, avec « seulement » quelque 20 000 gènes, peut disposer d'un nombre bien supérieur de protéines.

Toutefois, on ignorait tout de la logique du fonctionnement de cette « source de complexité ». L'enjeu est d'importance quand on sait qu'une perturbation de l'épissage alternatif conduit parfois à des maladies. Yoseph Barash, Brendan Frey et Benjamin Blencowe, de l'Université de Toronto, au Canada, et leurs collègues ont réussi à y voir plus clair dans ce désordre apparent.

Comment fonctionne l'épissage alternatif ? Chez les eucaryotes (les organismes, tel l'être humain, dont les cellules sont pourvues de noyaux), les gènes ne sont pas d'un seul tenant, mais constitués de plusieurs fragments, les exons et les introns : seuls les premiers participent au codage des protéines. Lors de l'épissage, les introns sont éliminés et les exons sont raboutés en un ARN messager dit mature : c'est lui qui est ensuite traduit en protéine.

Mais parfois, certains exons sont eux aussi mis de côté et n'interviennent donc pas dans la fabrication de la protéine. Ainsi, à partir d'un nombre donné d'exons dans un gène, c'est tout une combinatoire qui est autorisée.

L'une des difficultés pour comprendre les ressorts de l'épissage alternatif est qu'il dépend des séquences à la frontière des introns et des exons, mais aussi d'une multitude d'autres séquences, situées dans les exons et dans les introns. Ces séquences dites auxiliaires sont reconnues par des facteurs de régulation qui favorisent ou à l'inverse empêchent l'épissage de tel ou tel morceau. Une autre difficulté tient aux effets variables d'une séquence auxiliaire selon sa position dans le gène. Comment s'y retrouver dans cet imbroglio de relations ?

L'équipe canadienne a utilisé deux types d'informations : d'abord, une liste de près de 3 000 exons de gènes liés à quatre types de tissus différents (cerveau, muscle, cellules embryonnaires, tube digestif) ; ensuite, un répertoire de milliers de séquences auxiliaires (identifiés par des années de travaux de différentes équipes). Les biologistes ont aussi tenu compte de l'organisation spatiale des exons et des introns. L'ensemble de ces données a alimenté un algorithme informatique qu'ils ont mis au point et qui a livré de nombreux résultats.

Le programme a identifié les exons alternatifs (ceux qui ne sont pas gardés à chaque fois) ainsi que leur destin (conservation ou élimination) selon les tissus où le gène s'exprime. En outre, il a identifié les combinaisons de motifs (séquences frontières, séquences auxiliaires, etc.) qui correspondent le mieux à telle ou telle sélection d'exons. L'algorithme a aussi mis en évidence une classe d'exons, inconnue jusqu'alors, dont l'inclusion, qui conduit à des protéines non fonctionnelles, est fréquente lorsqu'on passe de tissus embryonnaires à des tissus adultes. Ce nouveau code a été mis au jour, qui éclaire la mécanique des réarrangements d'information génétique contenus dans les gènes selon les cellules.

PLS

Un premier tissu tridimensionnel obtenu à partir de cellules souches embryonnaires
Vendredi, 11/06/2010 - 00:00

Une équipe de chercheurs de l'Université de Californie à Irvine (UCI) a réussi à recréer une rétine à partir de cellules souches embryonnaires. La rétine est le tissu biologique complexe, constitué de 10 couches cellulaires distinctes, qui tapisse le fond des globes oculaires et transforme l'information contenue dans la lumière incidente en signaux électriques utilisés par le cerveau pour reconstituer la scène observée.

L'assemblage tridimensionnel obtenu par les chercheurs de UCI constitue une version précoce de la rétine, contenant uniquement 8 des 10 couches : l'épithélium pigmenté rétinien et plusieurs couches de cellules précurseurs de la rétine. Ce résultat constitue une première dans le domaine de la recherche sur les cellules souches : c'est en effet la première fois qu'un tissu biologique tridimensionnel est obtenu à partir de cellules souches embryonnaires.

L'équipe menée par Hans Keirstead a tout d'abord créé une "base" d'épithélium pigmenté rétinien à partir de cellules souches embryonnaires, sur laquelle ont été superposées des couches de cellules souches traitées afin de recréer les cellules présentes dans chaque couche. Dans le but de reconstituer les conditions naturelles du développement de la rétine et de provoquer la différenciation nécessaire des cellules souches contenues dans chaque couche, les chercheurs ont plongé l'assemblage dans une solution présentant des micro-gradients de concentration en composés biologiques.

Ainsi, chaque couche est soumise à un environnement présentant des caractéristiques biologiques définies, qui permettent sa différenciation en type de cellule souhaité. L'assemblage a alors été testé par des méthodes d'immunohistochimie afin de vérifier les niveaux d'expression de certains facteurs de transcriptions et marqueurs cellulaires spécifiques aux différents types de cellules constituant la rétine. La présence de facteurs de transcription spécifiques du développement rétinien a confirmé la composition de l'assemblage.

L'équipe du Dr. Keirstead avait initié en 2009, en coopération avec la société biopharmaceutique Gerons, un essai clinique de phase I pour tester, sur des personnes dont la moelle épinière avait été endommagée, un traitement basé sur la même technique de différenciation. Cet essai, le premier réalisé à base de cellules souches embryonnaires transplantées sur un être humain, a cependant été temporairement stoppé, suite à des résultats inquiétants obtenus sur modèle animal. Des discussions sont en cours avec la Food and Drug Administration et devraient aboutir à la reprise des tests .

Dans le domaine oculaire, les chercheurs de UCI ont a présent initié la phase d'essais sur modèle animal afin de tester les effets thérapeutiques d'une greffe de rétine utilisant leur assemblage tridimensionnel comme greffon. Le succès de cette étape pourrait mener à la conduite d'essais cliniques.

Les chercheurs espèrent à terme pouvoir développer une technique de culture de rétine à base de cellules souches afin de traiter un grand nombre de troubles de la vision issus d'un endommagement ou d'une dégénérescence de la rétine. Aujourd'hui environ 100.000 Américains sont atteints de rétinites pigmentaires, maladies génétiques de l'oeil, et plus de 10 millions souffrent de dégénérescence maculaire, première cause de cécité chez les plus de 55 ans.

BE

Un lien entre entre système immunitaire et désordre psychique
Vendredi, 11/06/2010 - 00:00

Pas évident d'imaginer qu'il puisse y avoir un lien direct entre le système immunitaire, qui permet de combattre virus et bactéries, et certaines maladies mentales. C'est pourtant ce que suggère le prix Nobel 2007 de médecine, Mario Capecchi, dans une étude publiée dans Cell. Avec son équipe, celui-ci a montré qu'une greffe de moelle osseuse, cette substance fondamentale du système immunitaire, permettait de guérir des souris atteintes d'un trouble comportemental bien identifié.

Capecchi a travaillé sur une population de souris souffrant d'une sorte de trouble obsessionnel compulsif (TOC) : elles se toilettent de manière pathologique et peuvent ainsi aller jusqu'à l'automutilation. Capecchi connaissait déjà bien cette maladie «mentale» puisque c'est lui qui avait montré un lien en 2002 entre ce désordre psychique chez la souris et la présence d'un gène mutant appelé Hoxb8.

Le mécanisme précis qui permettait d'expliquer comment ce gène pouvait conduire à la maladie restait toutefois assez vague. Les scientifiques savaient simplement qu'il générait certaines déficiences dans les microglies, des cellules particulières qui se forment dans la moelle osseuse. Capecchi a tout simplement imaginé que ces cellules, qui migrent après leur formation vers le cerveau, étaient la cause de la maladie.

Sur les 10 souris dont les chercheurs ont «échangé» le système immunitaire déficient par celui de souris saines (par greffe de moelle osseuse), 4 souris ont été complètement guéries et les 6 autres ont montré de considérables progrès puisque leurs poils ont commencé à repousser et leur plaies à cicatriser. Pour le moment, il reste difficile de comprendre comment les microglies ayant migré dans le cerveau peuvent modifier le comportement des animaux. «Nous pensons qu'elles affectent les circuits neuronaux d'une manière ou d'une autre», explique Capecchi.

Seule certitude, ce n'est pas en jouant sur la sensibilité à la douleur des souris que se manifeste le gène Hoxb8. Différentes équipes de scientifiques avaient en effet laissé entendre que ce gène induisait une diminution de la sensibilité qui aurait pu expliquer pourquoi ces souris pouvaient se toiletter jusqu'au sang. Cette théorie est battue en brèche par ces nouveaux travaux puisqu'aucun des cobayes n'a présenté d'accroissement de la sensibilité après la greffe.

Quelles applications pour l'homme ? Aucune pour le moment. Si le TOC animal étudié ressemble fortement à la trichotillomanie humaine (arrachage compulsifs de ses propres poils et/ou cheveux), Mario Capecchi souligne bien «ne pas proposer de faire des greffes de moelle osseuse sur des patients pour les guérir d'un quelconque trouble psychiatrique». Cette opération chirurgicale est en effet particulièrement risquée et n'est réalisée chez l'homme qu'en cas de vie ou de mort. Sans compter qu'elle est particulièrement coûteuse.

Mais l'implication du système immunitaire dans un modèle permettant de comprendre les causes physiologiques des TOC reste fascinante. Si quelques études avaient déjà montré des liens peu clairs des gènes qui favoriseraient certaines pathologies mentales et des problèmes immunitaires, c'est bien la toute première fois qu'un lien de cause à effet direct est observé entre système immunitaire et trouble comportemental. La transposition éventuelle de ces mécanismes chez l'homme ouvre des perspectives vertigineuses. Avec, en ligne de mire, la mise au point potentielle de nouveaux médicament permettant de traiter plus efficacement la dépression, la schizophrénie ou encore les TOCs.

LF

Cancer de la prostate : ajouter de la radiothérapie réduit la mortalité
Vendredi, 11/06/2010 - 00:00

La radiothérapie combinée à un traitement hormonal réduit de 43 % le risque de mortalité d'hommes atteint d'un cancer localisé et avancé de la prostate, selon une étude clinique dont les résultats ont été annoncés récemment. "Cet essai clinique de phase 3 va remettre en question le dogme actuel de traitement selon lequel seule l'hormonothérapie suffit pour traiter des cancers localisés et avancés de la prostate", a souligné le Dr Padraig Warde, directeur adjoint du programme de médecine radiologique à l'hôpital universitaire de Toronto (Canada), principal auteur de cette recherche.

"Nous avons observé que les hommes ayant reçu un traitement combiné vivaient plus longtemps et avaient moins de probabilités de mourir de leur cancer de la prostate", a-t-il ajouté dans sa présentation à la 46e conférence annuelle de l'American Society of Clinical Oncology (ASCO) réunie ce week-end à Chicago (Illinois, nord).

Environ 20 % des hommes atteints d'un cancer de la prostate sont dans la même situation que les participants à cet essai clinique. "Ces résultats laissent penser que l'ajout de la radiothérapie au traitement du cancer de la prostate chez ces patients pourrait devenir une partie de la thérapie standard", a poursuivi ce médecin. Certains cancérologues et guides cliniques recommandent de la radiologie en combinaison avec une hormonothérapie comme une option pour traiter les cancers localisés et avancés de la prostate.

Mais il n'a jamais été clairement établi si un traitement hormonal seul était suffisant chez ces malades et si les effets secondaires des radiations pouvaient être évités.

L'hormonothérapie réduit le niveau des hormones mâles qui dopent le cancer. Ce traitement est classique chez les hommes dont le cancer de la prostate persiste malgré des traitements localisés comme la radiologie ou après une intervention chirurgicale. Pour cet essai clinique, 602 patients pris au hasard ont été traités avec une hormonothérapie seule et 603 ont, en plus, suivi une radiothérapie.

Après sept ans, 66 % des hommes du premier groupe étaient encore en vie comparativement à 74 % dans le second groupe. Parmi les patients du groupe traités avec seulement l'hormonothérapie, 26 % ont succombé à leur cancer comparativement à 10 % pour ceux ayant bénéficié des deux thérapies.

Les hommes ayant reçu les thérapies combinées ont vécu six mois de plus en moyenne que ceux traités avec seulement l'hormonothérapie, indique aussi l'étude qui n'a pas détecté d'augmentation notable d'effets nocifs sur le long terme des traitements dans les deux groupes.

Selon les projections de ces chercheurs, environ 15 % des patients ayant eu les deux thérapies (radiologie et hormonale) devraient mourir de leur cancer de la prostate au cours des dix prochaines années contre 23 % dans le groupe soumis à la seule hormonothérapie. La période médiane de suivi est de six ans 320 patients sont décédés de toute cause dont 175 dans le groupe de la thérapie hormonale seule et 145 dans celui ayant aussi bénéficié de radiothérapie.

AFP

Un nouvel anticorps découvert pour lutter contre le mélanome
Vendredi, 11/06/2010 - 00:00

Un nouvel anticorps a permis pour la première fois un net gain de survie de malades atteints d'un mélanome avancé, forme agressive de cancer de la peau en forte augmentation dans le monde.

Selon l'essai clinique, dévoilé récemment, deux ans après le début du traitement 24 % des patients traités avec cet anticorps, appelé Ipilimumab, étaient encore en vie comparativement à 14 % dans le groupe témoin. La durée médiane de survie a été de dix mois avec l'ipilimumab contre un peu plus de six mois pour les malades traités avec les thérapies traditionnelles.

Tous ces patients étaient inopérables alors que leur mélanome s'était déjà propagé dans d'autres organes de leur corps, rendant le pronostic sombre. "C'est tout simplement la première fois qu'un essai clinique avec des patients atteints d'un mélanome avancé montre un gain de survie", a commenté le Dr Lynn Shucter, professeur de médecine à l'Université de Pennsylvanie et spécialiste du cancer de la peau depuis 25 ans qui n'a pas participé à l'étude.

L'Ipilimumab est un anticorps monoclonal administré par intraveineuse, généralement bien toléré mais peu avoir dans 10 à 15 % des patients des effets secondaires graves voire mortelles liés à l'action de l'anticorps sur le système immunitaire. A la différence de la plupart des traitements qui ciblent les cellules cancéreuses, cet anticorps appartient à une nouvelle classe de médicaments qui stimule les cellules T (thymocytes), une catégorie de lymphocytes jouant un rôle clé dans la réponse immunitaire cellulaire.

Ces résultats très encourageants devraient déboucher assez rapidement sur l'autorisation de mise sur le marché. Selon des estimations des milieux spécialisés l'Ipilimumab devrait générer plus de 400 millions de dollars de ventes dans les premières années de sa commercialisation.

Le mélanome est l'une des formes de cancers les plus fatales et dont l'incidence a le plus fortement augmenté parmi tous les cancers depuis trente ans, indique l'OMS->http://www.lemonde.fr/sujet/d8a4/organisation-mondiale.html] de la Santé (OMS). Selon l'OMS, le cancer de la peau est responsable de 66 000 décès annuellement dans le monde dont environ 80 % sont des mélanomes.

LM

Nouveau traitement ciblé très prometteur contre le cancer du poumon
Vendredi, 11/06/2010 - 00:00

Une thérapie expérimentale a montré des résultats très prometteurs pour combattre la forme la plus fréquente de cancer du poumon avancé chez des malades ayant un profil génétique particulier, selon un petit essai clinique présenté dernièrement. Ce traitement, appelé crizotinib, développé par la firme pharmaceutique américaine Pfizer, cible l'enzyme "anaplastic lymphoma kinase" ou ALK, qui est essentielle pour la croissance des cellules cancéreuses.

L'étude a porté sur 82 patients atteints d'un cancer du poumon baptisé "carcinome non à petites cellules" et qui présentaient par ailleurs une variation génétique spécifique de l'enzyme ALK. Environ 90 % de ces patients traités avec du crizotinib ont répondu positivement au traitement et plus de la moitié (57 %) ont vu leur tumeur régresser après huit semaines, a précisé le Dr Yung-Jue Bang, professeur de médecine interne à la faculté de médecine de l'Université nationale de Séoul en Corée du Sud.

Il est le principal auteur de cette étude clinique présentée à la conférence de l'American Society of Clinical Oncology réunie ce week-end à Chicago (Illinois, nord). Ces résultats "représentent une amélioration importante par rapport à ce que nous observons avec une chimiothérapie standard chez des malades atteint de cancer du poumon ayant fait des métastases", a-t-il souligné lors d'une conférence de presse.

Un grand nombre des patients, anciens fumeurs ou non, ayant participé à cet essai clinique de phase 1 avec le crizotinib avaient déjà suivi trois ou quatre traitements, a précisé ce médecin. Les chercheurs s'attendaient avant le début de l'essai clinique à ce que seulement 10 % des patients réagissent au crizotinib, qui cible une variation génétique dont sont porteurs environ 5 % des personnes atteintes d'un cancer du poumon.

Ce pourcentage, bien que faible, représente un grand nombre de patients puisque plus de 12 millions de nouveaux cas de cancer du poumon sont diagnostiqués chaque année dans le monde et que près de 8 millions de personnes en meurent. Selon Pfizer, il y aurait aux Etats-Unis environ 10.000 personnes atteintes d'un cancer du poumon et présentant cette mutation génétique particulière.

Le cancer du poumon, provoqué le plus souvent par le tabagisme, est le cancer le plus fréquent et le plus meurtrier. Pfizer, qui a financé cette étude clinique, a déjà commencé un essai clinique plus étendu dit de phase 3 pour comparer le crizotinib avec les thérapies classiques actuelles. La firme pharmaceutique américaine espère que les résultats spectaculaires de cette première étude lui permettront d'obtenir le feu vert de la Food and Drug Administration (FDA), l'autorité américaine des médicaments, en 2011, pour la mise sur le marché du crizotinib.

AFP

Cancer du sein : l'influence du mode de vie reste prédominante
Vendredi, 11/06/2010 - 00:00

Les gènes n'expliquent qu'une petite proportion des cancers du sein alors que pour la plupart des femmes les facteurs de risque liés au mode de vie restent prédominants, selon des spécialistes. Traitement hormonal à la ménopause, consommation exagérée d'alcool, grossesse tardive ou absence de grossesse, et obésité font partie des facteurs de risque liés au mode de vie.

Une étude publiée dans la revue médicale The Lancet visait à déterminer si ces facteurs interfèrent avec une douzaine de variations génétiques fréquentes associées à une faible augmentation du risque de développer un cancer du sein. L'étude sur 7.160 femmes ayant eu un cancer du sein et 10.196 qui en étaient indemnes, dirigée par Ruth Travis de l'Université d'Oxford (Royaume-Uni), visait à mieux faire la part des choses entre les influences génétiques (très faible risque) et non génétiques (une dizaine relevant du mode de vie et d'autres particulatités comme par exemple une puberté précoce).

Au final, le risque faiblement accru de cancer du sein associé à ces douze variations génétiques courantes n'est pas affecté, ni renforcé, par des facteurs liés au mode de vie comme le traitement hormonal substitutif ou la naissance tardive du premier enfant, notent les auteurs de l'étude.

Ils soulignent toutefois que leur travail n'inclut pas deux gènes bien connus, les gènes BRCA1 et BRCA2, plus rares mais véritablement porteurs d'un haut risque de développer un cancer du sein. "Les gènes n'entrent en compte que dans une petite proportion des cancers du sein et pour la plupart des femmes les principaux facteurs de risque restent ceux liés au mode de vie (âge de la maternité, de la puberté, traitements hormonaux prolongés à la ménopause, obésité, alcool...)", commente le Dr Jane Green, co-auteur de l'étude. "La bonne nouvelle est que certains d'entre eux sont modifiables, et en modifiant leurs comportements les femmes peuvent modifier leur risque", ajoute-t-elle.

Lancet

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top