RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 675
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 12 Novembre 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Matière
Le cobalt va-t-il remplacer le platine dans la production d'hydrogène ?
Un nouveau pas vers l'ordinateur quantique
Miniaturisation électronique : les nanotubes de carbone ouvrent une nouvelle voie
Un biodiesel obtenu directement à partir du sucre
Le memristor ferroélectrique sera-t-il la mémoire du futur ?
Espace
Des astonomes lyonnais révèlent la trame cosmique du big bang
Vivant
L'aspirine : un traitement efficace contre certains cancers du colon
Cancer du sein : vers une meilleure prise en charge des métastases cérébrales
Une firme française réussit à reprogrammer les cellules immunitaires pour les mobiliser contre le cancer
Résistance aux antibiotiques : une avancée majeure
Cancer : une nouvelle voie de recherche prometteuse est ouverte
Cancer du pancréas : un nouveau traitement à l'essai
Maladies intestinales : une nouvelle bactérie thérapeutique
Les oméga-3 améliorent sensiblement les performances de la mémoire
Vers un traitement personnalisé du cancer du sein
Vers une détection précoce de la maladie d'Alzheimer
Homme
La datation au carbone 14 fait un bond de 40 000 ans dans le passé !
Edito
OGM : pour un débat serein, honnête et global



On se souvient que le 19 septembre dernier, la publication dans une revue réputée « Food and Chemical Toxicology » des résultats de l’étude du Professeur Séralini avait créé un grand choc dans l’opinion publique en affirmant que la consommation régulière de maïs transgénique NK603 augmentait sensiblement le risque de tumeurs cancéreuses chez la souris.

Depuis cette date, une vive polémique scientifique s’est engagée et une partie de la communauté scientifique ainsi que plusieurs organismes officiels, dont le Haut Conseil des biotechnologies (HCB), l'Agence de sécurité sanitaire française (Anses) et l’Autorité européenne de sécurité des aliments (EFSA) ont émis de vives réserves sur les conclusions de cette étude et ont critiqué ses faiblesses et lacunes méthodologiques.

En outre, fait rarissime, six académies scientifiques ont publié un communiqué commun dans lequel elles dénoncent les faiblesses et insuffisances méthodologiques de cette étude et contestent ses conclusions (Voir communiqué).

La communauté scientifique reconnaît néanmoins la nécessité de réaliser des études à long terme, qui seraient menées par les laboratoires ou organismes totalement indépendants des groupes industriels concernés, afin d’évaluer de manière rigoureuses et incontestable les effets biologiques précis de la consommation régulière d’OGM par des animaux ou des êtres humains.

Sur ce dernier point, il est urgent, pour dissiper les doutes en matière de conflits d’intérêt et lever les incertitudes scientifiques, que notre pays dispose au plus vite d’une autorité d'évaluation indépendante qui réalise des études sur les effets à long terme de la consommation d’OGM.

Il faut toutefois rappeler que les plus hautes instances internationales et notamment l’OMS et le Conseil International Pour la Science, qui regroupent les meilleurs scientifiques de la planète, ont publié des avis confirmant que, dans l’état actuel des connaissances, les OGM cultivés dans le monde ne présentaient pas de dangers connus et scientifiquement démontrés pour la santé humaine, tout en précisant qu’il fallait poursuivre et approfondir les recherches sur ce sujet.

On le voit, la question des OGM et de leur impact sur notre santé et sur l’environnement préoccupe de plus en plus l’opinion publique et est devenue depuis quelques années un enjeu scientifique, social, politique et idéologique majeur. C’est pourquoi nous devons essayer d’éclairer toutes les facettes de ce débat et de le recadrer dans sa dimension planétaire.

Il faut d’abord rappeler qu'en France, la culture d'OGM commerciale est totalement interdite depuis 2008 et qu'elle reste  limitée en Europe : les surfaces cultivées  en maïs transgénique en Europe sont de l’ordre de 115 000 hectares (moins de 0,1 % de la surface agricole européenne).

Seul le maïs MON 810 de Monsanto est autorisé et cultivé en Europe mais plusieurs pays européens, dont la France, ont interdit cette culture transgénique sur leur sol en invoquant la clause de sauvegarde et le principe de précaution. Néanmoins, plusieurs OGM sont importés de pays extérieurs à l’Europe et sont utilisés sur notre continent pour l'alimentation animale mais également pour la fabrication de produits alimentaires pour l'homme.

La réglementation européenne fait obligation de signaler sur les produits la présence d’OGM, dès lors que ceux-ci dépassent 0,9 % de la quantité totale ; le consommateur est donc informé de la présence de ces OGM dans les produits qu’il achète.

Le problème c'est que même si toute culture OGM était interdite en Europe, nous vivons dans une économie ouverte. Il serait donc très difficile, voire impossible, sauf à enfreindre les règles du commerce international et à s’exposer à des mesures de rétorsion de la part des pays exportateurs, d’empêcher totalement les importations extra-européennes de produits contenant des OGM.

La question des OGM est donc devenue mondiale et il suffit, pour s’en convaincre, d’observer qu’au niveau planétaire, les surfaces cultivées en OGM ne cessent d'augmenter : elles ont presque été multipliées par trois en 10 ans, passant de 59 millions d’hectares en 2002 à 170 millions d’hectares en 2012, ce qui représente plus de 10 % des terres cultivées du monde ou encore l’équivalent de l’ensemble de la surface agricole de l’Union européenne !

Qu’on le déplore ou non, il faut bien admettre que les cultures transgéniques progressent partout dans le monde. En 2011, elles ont ainsi progressé de 12 millions d'hectares, comme le montre le rapport annuel de l'ISAAA (International Service for the Acquisition of Agri-biotech Applications).

Cette étude très complète révèle par ailleurs que dans les pays en voie de développement, cette progression des cultures OGM est en moyenne deux fois plus rapide que pour l’ensemble du monde : elle atteint 11 % par an et concerne 8 millions d'hectares dans ces pays émergents, contre 5 % par an et 4 millions d'hectares dans les pays développés. Les pays émergents et notamment le Brésil, la Chine, l’Inde et l’Afrique du Sud, représentent désormais plus de la moitié de la croissance mondiale des cultures OGM et vont dépasser en 2013 les pays industrialisés en termes de surfaces cultivées.

Au Brésil, les cultures OGM dépassent les 30 millions d'hectares et ce pays en pleine croissance augmente de 20 % par an ce type de productions agricoles. En Inde, le coton transgénique couvre à présent 11 millions d’hectares et en Chine, il représente environ 4 millions d’hectares (70 % de la production chinoise de coton) qui se répartissent entre 6,5 millions de petits agriculteurs. A cet égard, il faut souligner les résultats d’une étude très intéressante publiée en juin 2012 dans la célèbre revue « Nature ».

Cette étude réalisée par des chercheurs publics de l’INRA montre qu'en Chine, depuis la mise en production en 1997, de plusieurs types de coton OGM résistants aux insectes parasites, on constate une remarquable amélioration de la biodiversité qui s'étend jusqu’aux cultures voisines conventionnelles (Research Letter et INRA).

Cette étude montre que, contrairement aux insecticides chimiques à large spectre d'action, la toxine Bt ne détruit que les larves de papillons qui s’attaquent au coton. L’étude montre également que l’utilisation de ce coton transgénique a permis de réduire considérablement le recours aux insecticides chimiques, ce qui contribue également au maintien d’une bonne diversité biologique.

Cette étude va donc à l’encontre des discours alarmistes et catastrophistes véhiculés par les opposants irréductibles à toutes formes de cultures OGM et montre que, lorsqu’ils sont utilisés dans de bonnes conditions, les OGM peuvent à la fois entraîner un progrès économique et écologique.

Il est également, dans ce débat, intéressant d’écouter la position de Mankombu Sambasivan Swaminathan, généticien indien et Président d'une fondation de recherche pour l’amélioration de l’agriculture indienne.

Cette éminente personnalité indienne considère que le recours encadré aux OGM peut avoir des effets très positifs pour les pays en développement, tant en matière de sécurité alimentaire que d’environnement. Il rappelle que plus du quart des récoltes indiennes est détruit chaque année par des prédateurs naturels et souligne que l’utilisation avisée des OGM peut permettre d’améliorer le rendement agricole, sans affecter de nouvelles terres à l’agriculture, et peut également contribuer à réduire la consommation d’eau, d’engrais et de pesticides chimiques.

Néanmoins, Monsieur Swaminathan souligne qu’il appartient aux Etats et aux populations concernés de veiller à ce que la diversité génétique en matière de productions agricoles soit préservée et ne soit pas contrôlée par quelques grands groupes mondiaux. Il évoque également l’exemple de l'Etat indien d'Orissa, dans l’est de l'Inde, où les habitants et paysans sont associés dans l’inventaire, la  conservation et la valorisation de cette biodiversité agricole. Ce point de vue intelligent et équilibré d’un spécialiste mondialement reconnu mérite d’être médité.

Autre exemple d’utilisation encadré et concerté des OGM : celui du Burkina Faso qui a autorisé certaines cultures OGM mais à condition de garder le contrôle des variétés de semences et de plantes OGM.

A présent, le coton transgénique représente plus de la moitié du coton cultivé dans ce pays. Le paysan qui cultive ce coton OGM ne fait que deux traitements de ses champs aux pesticides, contre au moins six pour le coton conventionnel, ce qui représente un bénéfice sensible sur le plan économique et écologique. Quant à la productivité de ce coton OGM, elle est liée à la taille des exploitations agricoles : elle reste identique chez les petits producteurs mais elle augmente en moyenne de 20 % chez les gros producteurs.

La majorité de la communauté scientifique considère aujourd’hui qu’il n’est pas réaliste de vouloir nourrir toute la population mondiale en 2050 en pratiquant uniquement l’agriculture biologique, même si ce type d’agriculture doit être encouragé et est amené à prendre une part de plus en plus importante dans la production agricole mondiale. En effet, de nombreuses études montrent qu’il est très difficile, voire impossible d’atteindre en cultures biologiques les mêmes rendements qu’en agriculture classique. Dès lors, pour nourrir une large partie de la planète grâce à l’agriculture biologique, il faudrait augmenter considérablement les surfaces cultivables mondiales.

Problème : cette extension ne pourrait se faire que des deux façons : prendre ces terres agricoles sur les forêts qui jouent un rôle essentiel contre le changement climatique ou réaffecter à l’agriculture une large part des terres dévolues à l’élevage, ce qui suppose une diminution mondiale massive  de la consommation de viande.

Dès lors, plusieurs questions se posent. La première est simple : alors que nous allons devoir nourrir 9 milliards d’hommes dans 40 ans, pourquoi devrions-nous refuser les progrès que peuvent offrir les biotechnologies et considérer, a priori, que toute culture OGM est, par principe, à proscrire et ne peut avoir que des effets négatifs sur la santé et l’environnement ?

Autre question sans réponse : pourquoi les OGM ne cessent-ils de gagner du terrain dans le monde et notamment dans tous les pays émergents s’ils n’offrent aucun intérêt ni aucun avantage pour les paysans qui les utilisent et les pays qui les autorisent ?

Enfin, pourquoi faudrait-il opposer, dans une vision simpliste et manichéenne du monde, le développement nécessaire des productions agro-écologiques et le recours aux cultures OGM, à condition qu’elles soient issues de la recherche publique, répondent à un véritable besoin agricole, associent les populations locales concernées et bien entendu, qu’elles fassent l’objet d’une évaluation scientifique indépendante et incontestable.

Faut-il rappeler que, dès le début de la révolution néolithique, il y a plus de 11 000 ans, les hommes n’ont cessé de se battre contre la nature pour arrêter de subir ses caprices et améliorer leur sort. Ils n’ont cessé de transformer et d’améliorer les productions agricoles et animales, d’abord de manière empirique, par croisement et sélection d’espèces puis, plus récemment (à partir du XIXème siècle), par hybridation et enfin, depuis une vingtaine d’années, grâce aux OGM.

La plupart des variétés de fruits, de légumes et de céréales que nous consommons actuellement sont issues de cette inventivité humaine qui a permis à l’homme, combinée aux progrès technologiques et agronomiques, d’améliorer sans cesse la productivité, la qualité et la diversité de ses productions agricoles en dépit de l’augmentation de la population mondiale et de la raréfaction des terres cultivables.

Grâce à cette extraordinaire révolution agraire, de vastes régions du monde sont sorties de la misère absolue et ont éloigné le spectre des grandes famines récurrentes et endémiques en devenant autosuffisantes pour leurs productions vivrières et souvent même exportatrices nettes de produits agricoles, comme l’Inde. Peut-on sérieusement croire qu’une telle évolution en si peu de temps aurait été possible en conservant les méthodes ancestrales de l’agriculture traditionnelle et en refusant tous les progrès agronomiques et technologiques ?

Le temps est, me semble-t-il, venu d’ouvrir un débat serein, global et honnête sur cette question des OGM en nous libérant des grilles idéologiques réductrices qui dénaturent ce débat, en sortant de notre cadre de raisonnement franco-français et en acceptant enfin de considérer la complexité de cette question dans toutes ses dimensions.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


Matière
Matière et Energie
Le cobalt va-t-il remplacer le platine dans la production d'hydrogène ?
Dimanche, 11/11/2012 - 00:10

Des chercheurs du CEA, du CNRS et de l'Université Joseph Fourier, à Grenoble, ont mis au point deux nouveaux matériaux à base de cobalt capables de remplacer le platine, métal rare et cher, dans la production d'hydrogène à partir d'eau (électrolyse). Le premier matériau fonctionne en solutions aqueuses de pH2 neutre. Le second matériau permet pour la première fois une réaction catalytique sans métaux précieux et peut être utilisé pour l'électrolyse de l'eau qui décompose l'eau en hydrogène et oxygène.

Ces recherches se sont inspirées des mécanismes biochimiques fonctionnant dans les organismes biologiques. Ces organismes se caractérisent par des processus enzymatiques, appelés hydrogénases, qui utilisent des substances simples et abondantes dans la nature, comme le fer, le nickel, le cobalt ou le manganèse pour effectuer leur réaction et produire l'énergie nécessaire à partir d'hydrogène.

L'électrolyse provoque deux réactions : une production d'hydrogène et une  production d'oxygène, et le défi à relever est que, pour se passer du platine, il faut réussir à trouver des catalyseurs de substitution qui puissent fonctionner dans des conditions qui vont du de pH neutre à un pH basique. Les chercheurs ont surmonté cette difficulté en imaginant un nouveau catalyseur à base de cobalt qui fonctionne très bien et de manière très stable en pH neutre.

Parallèlement, les chercheurs ont également développé un autre matériau constitué de nanoparticules de cobalt enrobées qui fonctionne en pH neutre. Ce matériau possède la propriété remarquable de pouvoir commuter entre deux formes différentes. La première forme lui permet de catalyser la production d'hydrogène (H2) et la seconde de catalyser la production d'oxygène (O2) à partir d'eau. Avec ce nouveau matériau, il devient donc possible de catalyser sans platine et de manière stable la production d'hydrogène à partir d'eau de pH neutre.

On peut dire que ces nouveaux matériaux prometteurs arrivent à point nommé car l'un des grands défis non résolu, pour pouvoir utiliser massivement, à l'échelle industrielle, les énergies renouvelables par nature intermittentes et difficilement prévisibles, est de pouvoir stocker en grande quantité et de manière peu coûteuse l'électricité excédentaire sous forme chimique pour pouvoir l'utiliser plus tard, en fonction de la demande.

Avec l'arrivée de tels matériaux, on peut donc enfin imaginer la constitution d'une chaîne complète de photosynthèse artificielle qui reposerait sur la production renouvelable et propre d'hydrogène à partir de l'énergie solaire et éolienne ou de la biomasse.

Article rédigé par Mark FURNESS pour RTFlash

Nature

Un nouveau pas vers l'ordinateur quantique
Dimanche, 11/11/2012 - 00:00

Une équipe américaine de l’Université de Princeton (New Jersey), dirigée par Jason Petta, a franchi une nouvelle étape vers l'ordinateur quantique. L’équipe a mis au point un système de communication entre les composants d'un ordinateur (l'équivalent d'un bus informatique) utilisant des propriétés quantiques.

Concrètement, le circuit se compose d'un nano fil semi-conducteur dans lequel sont intégrées des cages quantiques. Ce système comporte une cavité quantique qui retient captifs une paire d’électrons. Comme ces électrons ont un spin (un moment cinétique intrinsèque comparable à une rotation sur eux-mêmes) qui modifie le comportement d’un faisceau de micro-ondes traversant la cavité quantique, il est possible de mesurer, donc de lire ce changement d'état. Ce spin électronique étant contrôlable et mesurable, il peut devenir la base d'une porte logique quantique.

Comme le souligne Jason Petta, "Nous créons une cavité comportant des micromiroirs aux deux extrémités et ceux-ci vont réfléchir le rayonnement micro-ondes qui a été affecté par le changement des états de spin des électrons dans la cavité. Il ne nous reste plus ensuite qu'à lire ce changement."

Jason Petta poursuit : "A notre échelle, le dispositif expérimental semble minuscule et les distances parcourues par les électrons très petites ; mais à l'échelle subatomique, ces distances deviennent immenses et le défi devient comparable à celui qui consiste à synchroniser le mouvement d'une toupie sur la lune avec une autre sur la surface de la terre."

Jason Petta est convaincu que son système pourrait permettre de manipuler un grand nombre de qbits en même temps, ce qui lève un des principaux obstacles à la réalisation de l'ordinateur quantique.

Article rédigé par Mark FURNESS pour RTFlash

Princeton University

Miniaturisation électronique : les nanotubes de carbone ouvrent une nouvelle voie
Samedi, 10/11/2012 - 13:24

Alors que les puces commercialisées les plus intégrées comportent des transistors de 22 nanomètres, les principaux "fondeurs" (Intel, AMD et IBM) annoncent déjà des transistors à 14 nanomètres en 2014, 10 nanomètres en 2015 et 5 nanomètres en 2020 !

Mais à cette échéance, la loi de Moore, édictée en 1965 par le co-fondateur d'Intel et qui stipule que la taille des transistors est divisée par deux tous les 18 mois (puis tous les deux ans à partir des années 80) risque d'atteindre ses limites physiques. Pour poursuivre la miniaturisation électronique, plusieurs voies technologiques sont explorées, dont les transistors à graphène.

Après avoir annoncé un transistor en nanotubes de carbone de seulement 9 nanomètres en début d'année, IBM vient de révéler, dans la revue "Nature Nanotechnology", que son centre de recherche T.J. Watson d’IBM situé à Yorktown Heights (N.Y.) avait réussi à implanter sur une puce en silicium plus de dix mille transistors opérationnels constitués de nanotubes en carbone. Ce faisant, ils ont combiné des transistors à nanotubes de carbone offrant une vitesse supérieure et une taille inférieure, à des méthodes de production connues du monde du silicium.

Cette opération est considérée en général par les scientifiques comme une percée, parce qu’un pas est ainsi accompli en direction des puces offrant les plus grands nombres de transistors à nanotubes (plus d’1 milliard) nécessaires pour les processeurs modernes, etc. Jusqu’à présent, l’on n’était en effet pas parvenu à placer plus de quelques centaines de ces transistors de manière parfaitement agencée. En outre, les transistors ont aussi pu être rapidement testés grâce à la compatibilité avec des processus connus.

Le développement de transistors à nanotubes de carbone est considéré comme l’une des possibilités de contourner les limites proches dans la mise au point de transistors au silicium compacts. D’ici quelques générations de puces, les lois naturelles juguleront en effet la loi de Moore (doublement du nombre de transistors par surface donnée tous les 12 à 18 mois environ) dans le secteur de la technologie au silicium. Les adeptes des transistors aux nanotubes de carbone doivent encore résoudre des problèmes comme la pureté de la production des nanotubes de carbone (dans l’optique de tubes moins conducteurs) et les possibilités de les installer de manière ordonnée (où l’on a donc à présent enregistré une avancée importante).

Article rédigé par Mark FURNESS pour RTFlash

IBM

Un biodiesel obtenu directement à partir du sucre
Vendredi, 09/11/2012 - 22:38

Des chercheurs de l'Université de Californie à Berkeley ont mis au point un biocarburant performant et peu coûteux pouvant être produit à partir de n'importe quel sucre d'origine végétale et qui pourrait à terme remplacer le bio-éthanol. Ce nouveau biocarburant repose sur un procédé ancien qui consiste à produire, à l'aide de la bactérie Clostridium acetobutylicum, de l'acétone et de l'éthanol par fermentation de sucres.

Actuellement, l'intensité énergétique du bioéthanol est plus faible que celle des hydrocarbures conventionnels car sa molécule ne contient que deux atomes de carbone. C'est pourquoi ce bioéthanol est principalement utilisé comme additif à l'essence.

Comme le souligne Harvey Blanch, de l'Université de Californie, "Le bioéthanol ne peut être mélangé avec du gazole et ne peut être transporté par oléoduc. Il est donc peu rentable".

Harvey Blanch et son équipe ont mis au point des catalyseurs qui agissent directement sur le processus de fermentation bactérienne et augmentent le nombre des atomes de carbone des alcools en utilisant ceux de l'acétone. Ce procédé permet d'obtenir des molécules qui comptent entre sept et quinze atomes de carbone.

Autre avantage de cette méthode, elle est utilisable à partir de sucres très différents qui peuvent provenir du glucose mais également du maïs ou de la cellulose issue du bois.

"Pour l'instant, notre procédé qui en est au stade expérimental, reste plus coûteux que les carburants issus du pétrole mais il peut devenir rapidement, en quelques années, très compétitif pour une raison simple : à partir de la même quantité de sucre, nous obtenons un biocarburant bien plus efficace", souligne Harvey Blanch qui précise toutefois que le point de rentabilité de son procédé dépendra également de l'évolution du cours du pétrole.

Article rédigé par Mark FURNESS pour RTFlash

Phys.Org

Le memristor ferroélectrique sera-t-il la mémoire du futur ?
Vendredi, 09/11/2012 - 22:08

Pour surmonter le défi des limites physiques de la miniaturisation électronique, les scientifiques explorent de nombreuses voies technologiques nouvelles. Parmi celles-ci, le memristor, une nano-résistance à effet mémoire, semble promis à un bel avenir. Le memristor fonctionne selon le même principe que la synapse et possède la propriété d'autoapprentissage.

Jusqu'à présent, les memristors reposaient sur le transfert d’ions ou d’atomes dans un matériau sous l’effet d’une tension électrique et d’une brusque montée de température provoquée par le courant électrique. Mais ce procédé était grand consommateur d'énergie. C'est pourquoi une équipe de recherche associant le CNRS, Thales et l’Université de Cambridge, a mis au point un nouveau type de memristor beaucoup plus économe en énergie.

Ces chercheurs ont réalisé un nouveau type de memristor reposant sur une propriété quantique de la matière, l'effet tunnel, qui permet aux électrons de "sauter" à travers une couche très fine de matériau ferroélectrique polarisé électriquement, comme un aimant. Grâce à ce dispositif, le courant électrique peut d’un facteur 300 en fonction de l'orientation de la polarisation. En outre, la polarisation peut être inversée sous l'effet d'un champ électrique extérieur. En modulant ce champ électrique, il est possible de faire varier la résistance électrique.

Ce nouveau type de memristor peut être utilisé comme mémoire numérique ou analogique. Il est en outre particulièrement sobre et consomme dix fois moins que les mémoires flash, pour un temps d’écriture d'une dizaine de nanosecondes. Enfin, autre avantage, cette mémoire est réinscriptible plus de 1000 fois contre une centaine pour les mémoires flash.

Plus économe, plus rapide, plus robuste ? Ce memristor pourrait bien être un élément incontournable pour la construction de neurones artificiels.

Article rédigé par Mark FURNESS pour RTFlash

Nature

^ Haut
Espace
Espace et Cosmologie
Des astonomes lyonnais révèlent la trame cosmique du big bang
Samedi, 10/11/2012 - 13:05

Selon la théorie du Big Bang, les fluctuations de matière lors de la naissance de notre Univers ont provoqué une forte condensation de cette matière qui s'est alors structurée selon une trame constituée d'un "tissage" de filaments. Des simulations numériques viennent de montrer que l'Univers est bien structuré comme une « toile cosmique », constituée de filaments à l’intersection desquels on trouve des amas de galaxies très massifs. Ces filaments sont principalement constitués de matière noire ou "sombre".

La matière noire, dont on ne connaît toujours pas la nature exacte, représente environ les trois quarts du contenu en matière de notre Univers. Comme son nom l'indique, elle n’émet ni ne réfléchit aucune lumière et sa présence ne peut être détectée que par ses effets gravitationnels, notamment sur la vitesse de rotation des galaxies ou la trajectoire de la lumière cosmique.

Après avoir identifié un premier filament cet été, une équipe de recherche internationale comprenant des chercheurs français du LAM et du Centre de recherche astrophysique de Lyon (CRAL, CNRS / ENS de Lyon / Université Claude Bernard Lyon 1) est parvenue à analyser un autre filament en trois dimensions. Il s'agit d'un véritable exploit scientifique quand on sait à quel point ces filaments sont étendus et diffus dans l'esapce.

Pour parvenir à ce résultat remarquable, les chercheurs ont d'abord localisé des milliers de galaxies au sein du filament. Ils ont ensuite mesuré le déplacement de ces galaxies entre elles et ont alors pu mesurer un filament cosmique d'une longeur de 60 millions d’années lumière.

La question est à présent de savoir si ce filament identifié à des caractéristiques représentatives des autres filaments proches d’amas géants. Si tel était le cas, les filaments cosmiques pourraient contenir plus de la moitié de la masse de notre Univers, ce qui conduirait à revoir sérieusement le modèle théorique actuel du big bang.

Le futur télescope spatial, le James Webb Space Telescope, devrait permettre, grâce à sa très haute résolution, de détecter à partir de 2018 un grand nombre de ces filaments cosmiques et de mieux comprendre cette trame qui constitue notre Univers.

Article rédigé par Mark FURNESS pour RTFlash

Astronomical Society, octobre 2012

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
L'aspirine : un traitement efficace contre certains cancers du colon
Lundi, 12/11/2012 - 00:10

L'aspirine peut vraiment être efficace contre le cancer du colon selon une étude américaine réalisée sur 964 femmes souffrant d'un cancer du colon. Cette étude montre que certains patients atteints d'un cancer du colon et porteurs d'une mutation génétique spécifique augmentent nettement leur espérance de vie en prenant régulièrement de l'aspirine. En revanche, l'aspirine ne présente aucun bénéfice pour ceux dont la tumeur ne présente pas cette mutation du gène PIK3CA.

Les chercheurs ont constaté que les malades ayant cette mutation génétique voyaient leur mortalité à cinq ans diminuer de 82 %. Parmi ces patientes, 26 %, ne prenant pas d'aspirine régulièrement, sont décédées de leur cancer, contre seulement 3 % pour celles qui prenaient régulièrement de l'aspirine.  20 % des malades atteints d'un cancer colorectal seraient porteurs de cette mutation dans le gène PIK3CA.

Comme le souligne le Docteur Shuji Ogino, du Dana-Farber, Brigham and Women's Hospital de Boston, "Ces résultats montrent que l'aspirine peut être particulièrement efficace pour prolonger la vie des patients dont le cancer du colon teste positif pour une mutation dans le gène PIK3CA et nous avons identifié pour la première fois un marqueur génétique qui nous permet de savoir si un malade particulier va répondre positivement à cet effet bénéfique de l'aspirine.

D'autres études, publiées depuis 2007, avaient par ailleurs montré l'effet bénéfique de l'aspirine dans la prévention du cancer colorectal. Selon ces études, la prise régulière d'aspirine entraînerait une réduction du risque de décès par cancer du colon qui irait de 25 % à 40 % en fonction de la quantité d'aspirine consommée et de la durée de la prise de ce médicament qui n'a décidément pas fini de nous étonner.

Article rédigé par Mark FURNESS pour RTFlash

NEJM

Cancer du sein : vers une meilleure prise en charge des métastases cérébrales
Lundi, 12/11/2012 - 00:00

Environ une femme sur dix touchée par un cancer du sein devra faire face à des métastases cérébrales et les malades jeunes qui présentent un cancer de type HER2+, ont deux fois plus de risques de développer ce type de métastases. Actuellement, ces métastases sont traitées par radiothérapie et radiochirurgie, ce qui peut entraîner des effets secondaires importants.

Le Docteur Thomas Bachelot, cancérologue au Centre Léon Bérard à Lyon, a mené une étude sur l'effet d'un traitement combinant deux molécules anticancéreuses, lapatinib et capécitabine, sur 45 femmes atteintes d'un cancer du sein HER2+ et présentant des métastases cérébrales non traitées. Les résultats de la phase 2 de cette étude, baptisée LANDSCAPE, montrent une réduction de la tumeur dans 84 % des cas. La taille a été réduite de moitié ou plus pour 29 femmes et de 80 % pour 9 autres.

Ces résultats confirment ceux de deux études, publiées en 2006 et 2010, qui montraient l'intérêt d'associer ces deux molécules chez les femmes atteintes d'un cancer avancé du sein.

Ce traitement combiné permet de repousser l'irradiation du cerveau de 8 mois en moyenne et de nouvelles études cliniques sont prévues pour mieux évaluer les bénéfices de cette nouvelle stratégie thérapeutique en termes de survie et de qualité de vie.

Article rédigé par Mark FURNESS pour RTFlash

The Lancet

Une firme française réussit à reprogrammer les cellules immunitaires pour les mobiliser contre le cancer
Dimanche, 11/11/2012 - 00:20

Cellectis, une société française basée à Paris et spécialisée dans l’ingénierie des génomes, a annoncé avoir réussi à programmer des cellules du système immunitaire, les cellules T, pour tuer les cellules cancéreuses.

Cette technologie inédite a été dévoilée en avant-première mondiale samedi 27 octobre à l’occasion du congrès ESGCT (European Society of gene and Cell Therapy), qui s’est déroulé à Versailles. Ce projet est mené par le Docteur Andrew Scharenberg, directeur scientifique de Cellectis therapeutics, filiale du Groupe Cellectis, Médecin spécialisé en immunologie au Children’s Hospital de Seattle (États-Unis) et Professeur de pédiatrie et d’immunologie à l’Université de Washington.

On le sait, le cancer s'accompagne d'une prolifération anarchique dans l'organisme de certaines cellules dont le comportement est devenu anormal et incontrôlable. Normalement, notre système immunitaire est capable d'identifier et de détruire les cellules cancéreuses qui se forment dans notre organisme mais il arrive parfois qu'il soit débordé par l'invasion de ces cellules tumorales ou qu'il perde sa capacité de reconnaissance des cellules cancéreuses.  L'approche de Cellectis, très originale, consiste à isoler les cellules du système immunitaire de patients sains. Celles-ci sont ensuite reprogrammées génétiquement afin qu’elles sachent identifier et détruire les cellules cancéreuses. L'idée de départ de cette approche est de pouvoir produire à un niveau industriel ces cellules tueuses, de manière à pouvoir les utiliser pour traiter un grand nombre de malades simultanément.

Les premiers essais ont donné des résultats prometteurs dans le traitement de certains cancers, comme le cancer du poumon, de la prostate ou le glioblastome, un grave cancer du cerveau. Les essais cliniques sur l'homme devraient commencer en 2014.

Comme le souligne Andrew Scharenberg, Directeur scientifique de Cellectis therapeutics, "Ces résultats encourageants ouvrent de nouvelles perspectives de traitement pour un grand nombre de patients atteints de cancers graves."

Article rédigé par Mark FURNESS pour RTFlash

Cellectis

Cellectis

Résistance aux antibiotiques : une avancée majeure
Samedi, 10/11/2012 - 18:18

Des chercheurs de l'Institut Pasteur, du CNRS et de la faculté de médecine de l'Université de Tsukuba au Japon, ont pour la première fois prouvé que l'activation d'un gène du staphylocoque doré (Staphylococcus aureus) permettait à ce dernier d'incorporer de l'ADN exogène et de devenir résistant à la méticilline. Ils ont également identifié deux mécanismes d'activation de ce gène. Ces résultats constituent un pas important dans la compréhension des mécanismes d'acquisition des gènes de résistance aux antibiotiques par S. aureus. Ces travaux sont publiés dans la revue PLoS Pathogens du 1er novembre.

Staphylococcus aureus est une bactérie extrêmement pathogène pour l'homme. Elle est la cause de multiples infections, qui vont de la  lésion cutanée (furoncles, panaris, impétigo, etc.), à l'endocardite, la pneumonie aiguë, l'ostéomyélite ou la septicémie. Elle est très redoutée en milieu hospitalier et arrive au premier rang des germes à Gram positif responsables d'infections nosocomiales. Les souches les plus dangereuses sont celles qui sont multi-résistantes aux antibiotiques. C'est le cas du Sarm1, résistant à la méticilline (comme 60 % des souches multirésistantes), répandu dans le milieu hospitalier européen et qui pose un problème de santé publique majeur.

Jusqu'à présent, les mécanismes à l'origine de l'acquisition des gènes de résistance par les bactéries du genre staphylocoque étaient inconnus. Cependant, l'équipe de Tarek Msadek, chercheur dans l'unité Biologie des bactéries pathogènes à Gram-positif, Institut Pasteur-CNRS, en collaboration avec la faculté de médecine de Tsukuba, vient de faire une importante découverte : pour la première fois, les chercheurs ont démontré que l'activation d'un gène de S. aureus, appelé sigH, permet à ce dernier de mettre en route une machinerie spécialisée et de capturer de l'ADN présent dans son environnement, et donc potentiellement d'acquérir des gènes de résistance aux antibiotiques.

Les chercheurs ont également mis en évidence deux mécanismes distincts d'activation du gène sigH. Dans leur démonstration, après avoir activé expérimentalement le gène sigH, les chercheurs sont parvenus à transformer naturellement une souche de S. aureus sensible à la méticilline en une souche résistante, analogue à celles responsables des infections nosocomiales. L'ensemble de ces résultats suggère que l'inhibition du gène sigH serait une piste sérieuse pour lutter contre l'apparition de souches de S. aureus multirésistantes aux antibiotiques.

Article rédigé par Mark FURNESS pour RTFlash

PLOS

Cancer : une nouvelle voie de recherche prometteuse est ouverte
Samedi, 10/11/2012 - 18:03

L’ADN de nos cellules peut être endommagée par de multiples causes mais heureusement pour nous, plusieurs mécanismes moléculaires très efficaces sont à l'oeuvre pour réparer ces lésions. Dans les cas de cassure des brins d'ADN, la cellule ne peut plus se diviser normalement et doit donc réparer cet accident. Mais il peut arriver que cette réparation ne soit pas parfaite et provoque l’apparition de cellules cancéreuses qui ne cessent plus de se diviser.

L’un des principaux mécanismes de réparation de la cellule utilise un type particulier de molécules (les PARP) qui peuvent détecter les cassures de l’ADN et les réparer en provoquant la synthèse de poly(ADP-riboses) qui se lient aux protéines. Le problème est que ce système très efficace peut également s'avérer très dangereux si la réparation n'est pas parfaite car il y a alors risque d'apparition et de propagation de cellules cancéreuses.

Les chercheurs commencent à bien comprendre les mécanismes moléculaires très fins (PARP et PARG) impliqués dans le maintien de l'intégrité de notre ADN et ils savent qu'une action ciblée sur ce mécanisme peut potentialiser l’action des médicaments anti-cancéreux.

Une récente étude a montré que PARG intervenait non seulement dans la réparation du génome mais également dans la modulation de l’activité biochimique globale de la cellule.

Cette étude montre clairement le mécanisme d’action de PARG dans la régulation de l’expression des gènes et devrait déboucher sur une nouvelle approche thérapeutique en matière de cancer.

Article rédigé par Mark FURNESS pour RTFlash

Science Direct

Cancer du pancréas : un nouveau traitement à l'essai
Samedi, 10/11/2012 - 13:15

A l'occasion du congrès de la Société européenne de thérapie génique et cellulaire, Le Professeur Louis Buscail (Toulouse) a présenté une nouvelle technique de transfert intratumoral de gènes qui provoque une chimiosensibilisation à la gemcitabine dans le cadre du traitement du cancer du pancréas.

Face à ce cancer redoutable, ces chercheurs de Toulouse travaillent sur une nouvelle approche utilisant la thérapie génique. Il s'agit, en utilisant conjointement deux gènes thérapeutiques, de provoquer une chimiosensibilisation à la gemcitabine.

Le premier de ces gènes est le sst2 qui commande un récepteur disparaissant dans le cancer du pancréas. En réactivant ce récepteur, on provoque une inhibition de la prolifération des cellules cancéreuses ainsi qu'un un effet antiangiogénique (blocage de la formation de nouveaux vaisseaux sanguins pour alimenter le tumeur). L’autre gène est le DCK-UMK qui commande les enzymes de phosphorylation de la gemcitabine. Ces deux gènes associés permettent une puissante chimiosensibilisation ainsi qu'une action antitumorale.

Les premiers essais sur l'animal ont montré la faisabilité de ce transfert de gène dans le pancréas et ont confirmé l'action de réduction de la dissémination des cellules cancéreuses qui est obtenue à la fois par cette sensibilisation des cellules à la chimiothérapie et par le blocage de l’angiogenèse nécessaire au développement de la tumeur.

D'autres résultats sur 22 patients atteints d'un cancer du pancréas sont également encourageants et montrent une réponse partielle au traitement dans neuf cas sur dix et une réduction des marqueurs tumoraux dans la moitié des cas. Une nouvelle étude clinique plus étendue sera lancée en 2013 sur 80 patients.

Article rédigé par Mark FURNESS pour RTFlash

Laas

Essais cliniques

Maladies intestinales : une nouvelle bactérie thérapeutique
Samedi, 10/11/2012 - 12:24

En France, plus de 200 000 personnes souffrent de maladies inflammatoires chroniques de l'intestin, dites MICI (en particulier la maladie de Crohn et les rectocolites hémorragiques) et cette pathologie très pénible et invalidante ne cesse de progresser avec 8 000 nouveaux cas par an.

Les causes exactes de cette maladie sont multiples et intriquées et font intervenir des facteurs génétiques et environnementaux. On sait également que la composition bactérienne de la flore intestinale, le microbiote dont la cartographie génétique est en cours d'achèvement, est fortement impliquée dans l'apparition de ce type d'inflammation.

Une équipe de recherche associant l’Inserm (Centre de physiopathologie de Toulouse Purpan), l’Inra et l’Institut Pasteur, a réussi à produire des bactéries spécifiques capables de protéger l’organisme des inflammations intestinales. Cette propriété protectrice est assurée par une protéine humaine, l’Élafine qui est introduite artificiellement dans des bactéries de produits laitiers. Les chercheurs ont en effet constaté que l'Élafine, présente naturellement dans l’intestin sain, est absente chez les patients atteints d'inflammation chronique.

Après avoir isolé le gène de l’Élafine humaine, les chercheurs l'ont introduit chez Lactococcus lactis et Lactobacillus casei, deux bactéries alimentaires présentes dans les produits laitiers. Ils ont ensuite pu vérifier chez la souris que la présence de l'Élafine dans leur intestin s'accompagnait d'une puissante action anti-inflammatoire. 

Ces recherches ont donc montré que l’Élafine restaurait rapidement l’équilibre et les fonctions de la muqueuse intestinale en diminuant l’inflammation. L'étape suivante va consister à réaliser des essais cliniques chez l'homme pour évaluer le potentiel thérapeutique de l'Elafine contre les maladies inflammatoires de l'intestin. Si cet effet est confirmé, le traitement contre les MICI pourrait prendre la forme de probiotiques mofifiés et contenant de l'Elafine qui seront consommés sous forme de produits laitiers.

Article rédigé par Mark FURNESS pour RTFlash

Science

Science Daily

Les oméga-3 améliorent sensiblement les performances de la mémoire
Vendredi, 09/11/2012 - 22:27

Une étude américaine dirigée par Bita Moghaddam, Professeur à l'université de Pittsburg, vient de montrer que la prise régulière d'oméga-3 pendant au moins six mois améliorait de manière sensible les performances de la mémoire de travail chez les jeunes adultes.

Cette étude qui a duré six mois a notamment montré une corrélation entre les taux sanguins d'oméga-3 et la mémoire de travail mais les mécanismes biochimiques impliqués dans ces  bénéfices cognitifs restent peu clairs. L'étude n'a en effet pas confirmé l'hypothèse d'une augmentation de la neurotransmission de dopamine par le biais du transporteur vésiculaire de monoamines (VMAT2).

Au cours de l'étude, onze jeunes adultes de 18 à 25 ans ont reçu 2g/j de Lovaza contenant 750 mg/j d'acide docosahexaénoïque (DHA) et 930 mg/j d'acide eicosapentaénoïque (EPA).

Plusieurs types d'examens ont été réalisés pendant l'étude, dont un PET scan utilisant un traceur sélectif du VMAT2 mais également des prélèvements sanguins afin de déterminer la composition en acide gras des membranes cellulaires des globules rouges. Les performances de la mémoire de travail ont été évaluées par des tests de mémorisation rapide de plusieurs séries de lettres et de nombres.

Les chercheurs ont confirmé l'existence, avant le début de l'étude, d'une corrélation nette entre le taux d'oméga-3 et les performances cognitives, ce qui montre que les oméga-3 contenus dans l'alimentation avaient déjà un impact bénéfique sur la mémoire de travail des participants à l'étude.

Au terme des six mois de supplémentation en oméga-3, cette corrélation entre performances de la mémoire de travail et taux d'oméga-3 dans le sang s'était sensiblement accrue.

De manière logique, l'étude souligne que d'autres travaux ont montré qu'une carence prolongée en oméga-3 était associée à une diminution des performances cognitives mais également à des troubles de l'humeur et à une augmentation de l'anxiété. Par ailleurs, plusieurs études préconisent une supplémentation en oméga-3, en complément avec les neuroleptiques et anxiolytiques, dans la prévention et la prise en charge des troubles de l'humeur, de la schizophrénie et des troubles de l'attention.

Stephen Manuck, Professeur de psychologie à l'Université de Pittsburg, précise que cette étude "est l'une des premières qui montre un lien puissant entre alimentation des jeunes et capacités mentales". Selon lui, "Il faut poursuivre ces recherches pour déterminer si les bénéfices observés en matière de performances de la mémoire de travail persistent dans le temps ou si une supplémentation permanente en oméga-3 est nécessaire pour maintenir ce gain cognitif".

Article rédigé par Mark FURNESS pour RTFlash

Université de Pittsburgh

Vers un traitement personnalisé du cancer du sein
Vendredi, 09/11/2012 - 22:20

Des scientifiques européens ont identifié un marqueur moléculaire chez les femmes atteintes de cancer du sein résistant au tamoxifène, un médicament utilisé dans le traitement hormonal des cancers du sein. Utilisé en complément à la chimiothérapie et la radiothérapie, le tamoxifène bloque la production d'œstrogènes, une hormone qui, dans les cancers dits "hormonodépendants" représentant 70 % des cancers du sein, favorise la croissance tumorale.

Comme le souligne le professeur Göran Landberg, "Le tamoxifène, en association avec des traitements anticancéreux traditionnels, permet en moyenne de réduire d'un tiers la mortalité globale mais sans qu'on comprenne  bien pourquoi, il ne fonctionne pas pour environ un tiers des patientes. Il est donc très important de parvenir à prévoir comment les patientes réagiront au tamoxifère de manière à mettre en oeuvre des thérapies personnalisées plus efficaces».

Les chercheurs ont découvert que les cellules de fibroblastes, qui forment les tissus de conjonction dans notre corps, possèdent des signatures moléculaires spécifiques et permettent de prévoir si les patientes seront sensibles au tamoxifène.

Au cours de cette étude, les chercheurs ont analysé les tissus cellulaires de 564 femmes atteintes d'un un cancer du sein et divisées en deux groupes : l'un traité au tamoxifène et l'autre non. L'étude a montré que les femmes présentant une faible concentration de protéine pERK n'étaient pas sensibles au tamoxifène.

Cette étude montre donc qu'en plus des marqueurs traditionnels de la tumeur, les marqueurs stromaux permettent de prédire si les patientes vont réagir au traitement endocrinien.

Article rédigé par Mark FURNESS pour RTFlash

PLOS

Vers une détection précoce de la maladie d'Alzheimer
Vendredi, 09/11/2012 - 22:13

Des chercheurs américains de l'Institut Banner (Arizona), dirigés par Eric Reiman, ont mis au point une nouvelle technique de détection très précoce de la maladie d’Alzheimer. Cette méthode s'appuie sur l'analyse par imagerie du cerveau de 1 500 volontaires appartenant à des familles colombiennes porteuses d’une mutation génétique rare les prédisposant à une forme précoce d’Alzheimer, vers 40 ans.

Cette étude révèle des modifications des structures cérébrales qui sont tout à fait repérables au moins 20 ans avant l’apparition des premiers symptômes de la maladie chez les patients porteurs de cette mutation spécifique. Les chercheurs ont par ailleurs constaté, grâce à l'analyse du liquide céphalo-rachidien, un excès de production du peptide amyloïde. Ces travaux montrent donc qu’il est possible d'envisager une détection très précoce et très fiable de la maladie d’Alzheimer.

En comparant par PET-SCAN les images des cerveaux de 11 patients atteints de la maladie d' Alzheimer, de 19 personnes porteuses d’une mutation et de 20 sujets témoins, les chercheurs ont pu montrer que, dans les deux premiers groupes, l'accumulation anormale des peptides béta-amyloïdes dans le cerveau commence autour de 28 ans, soit plus de 16 ans avant la manifestation des premiers symptômes de la maladie.

Cette détection précoce pourrait permettre une bien meilleure prise en charge des malades qui pourraient bénéficier de traitements actifs et personnalisés plusieurs années avant l'apparition des premiers signes cliniques de détérioration de leur cerveau.

L'enjeu est de taille quand on sait que le nombre de malades d'Alzheimer dans le monde devrait presque doubler d'ici 2030, passant 36 à 66 millions.

Article rédigé par Mark FURNESS pour RTFlash

The Lancet

^ Haut
Homme
Anthropologie et Sciences de l'Homme
La datation au carbone 14 fait un bond de 40 000 ans dans le passé !
Vendredi, 09/11/2012 - 22:50

Des chercheurs de l'Université d'Oxford en Grande-Bretagne ont réussi à améliorer de manière considérable la précision de la datation au carbone 14 en utilisant les propriétés tout à fait uniques du lac japonais de Suigetsu.

Une couche d'algue se dépose chaque année au fond de ce lac et, en raison de sa configuration particulière, ces couches sont restées intactes depuis plusieurs dizaines de milliers d'années. Les chercheurs ont ainsi pu établir un relevé très fiable des 52 800 dernières années, ce qui a permis d'augmenter la précision de cette méthode de datation.

Le radiocarbone est un isotope radioactif naturel du carbone qui se désintègre à un taux constant. Pour estimer l'âge d'un objet, les chercheurs se basent sur la quantité de radiocarbone qu'il contient et compare cette quantité à celle du carbone 12.

Mais sur le terrain, les choses se compliquent car la quantité de radiocarbone présent dans l'environnement varie sensiblement en fonction de l'année et du lieu. Pour tenir compte de ces variations naturelles, il faut donc appliquer des coefficients de correction qui s'appuient sur des relevés réalisés sur de longues périodes. Ces relevés proviennent essentiellement de sédiments marins et doivent être corrigés à partir d' hypothèses de calcul concernant les variations du taux de radiocarbone dans les mers et le sol.

Mais la datation des sédiments terrestres du lac Suigetsu n'exige pas ces corrections car le radiocarbone des fossiles de feuilles présents dans les sédiments provient directement de l'atmosphère et n'est pas soumis aux mêmes types de fluctuations que celles qui modifient le radiocarbone des sédiments terrestres et marins.

Christopher Bronk Ramsey qui dirige ces recherches pense que cette méthode va permettre de réaliser des estimations de datation bien plus précises. Il devrait par exemple être possible de mieux dater les différentes périodes d'apparition et de migrations d'Homo Sapiens.

Article rédigé par Mark FURNESS pour RTFlash

Nature

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top