RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 696
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 05 Avril 2013
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
États-Unis : la première base de données intelligente contre le cancer
Google développe un algorithme pour prévoir l'évolution d'un cancer
Avenir
Un robot-méduse pour explorer les océans
Le transcriptor, futur composant de l'ordinateur biologique ?
Matière
Un excès d'antimatière d'origine inconnue découvert dans l'Espace
Une batterie qui se recharge aussi vite qu'un super condensateur !
Produire de l'hydrogène à partir de méthane sans émettre de CO2 !
Les nanotubes de carbone, futurs composants de l'ordinateur quantique ?
L'antimatière commence à révéler ses secrets
Est-il possible de transformer le CO2 atmosphérique en carburant ?
Espace
Au moins 100 milliards de planètes semblables à la Terre !
Terre
Le réchauffement accéléré de la couche profonde des océans confirme le changement climatique
Vivant
Maladie d'Alzheimer et Sclérose en plaques : un lien biologique surprenant
Prevent : un outil en ligne qui donne une nouvelle dimension à la prévention
Cancer : une nouvelle forme de radiothérapie particulièrement efficace
La stimulation ciblée du cortex, un traitement prometteur contre la dépendance
Découverte d'un micro ARN qui favorise la croissance tumorale
Première thérapie à l'essai contre une maladie à prions
Vers une détection très précoce du cancer du sein
Cancer : l'effet protecteur des oméga-3 mieux compris
Le Président Obama annonce un projet de cartographie complète du cerveau humain
La flore intestinale jouerait un rôle important dans la régulation pondérale
Trisomie 21 : un traitement est-il envisageable ?
Fumer tôt le matin augmente le risque de cancer
La consommation régulière de poisson réduit le risque de pathologie et augmente l'espérance de vie
Reconstruire des tissus vivants à l'aide de microfibres
Caractériser en quelques instants une tumeur grâce à la microfluidique
Une puce électronique pour réguler l'appétit !
La consommation de drogue augmente le risque de schizophrénie précoce
Les enfants dépressifs ont plus de risques de problèmes cardiaques à l'adolescence
La migraine est-elle provoquée par des anomalies cérébrales ?
La méditation fait baisser le stress dans le cerveau
Surveiller le patient à distance grâce aux implants électroniques
Une alimentation riche en fibres diminue le risque d'AVC
Des cellules-souches du sang reprogrammées pour ralentir le vieillissement
Une étude américaine confirme l'effet bénéfique sur la santé de l'agriculture biologique
Les polymères photovoltaïques utilisables comme implants rétiniens
Homme
Les enfants regardent trop la télévision
Recherche
La propulsion ionique franchit une nouvelle étape
Edito
Du Boson à Planck : l’Univers se dévoile !



Le 27 avril 1900, Lord Kelvin, le père de la thermodynamique (avec Carnot et Clausius) fit un discours demeuré fameux à Londres devant ses collègues scientifiques. Il rappela à la docte assemblée de ses pairs, qu’après les avancées théoriques majeures de Kepler, Galilée et Newton, il ne fallait plus espérer faire de découvertes majeures en physique mais concéda tout de même qu’il y avait deux « petits nuages » dans ce beau ciel limpide des lois de l’Univers enfin révélées : le premier nuage était l’impossibilité de mettre en évidence le fameux « éther », le milieu diffus et impalpable dans lequel étaient censés se déplacer tous les objets de notre Univers.

L'autre nuage était la question non résolue du rayonnement du corps noir.

Selon le cadre classique de la thermodynamique de la fin du XIXème siècle, le rayonnement émis par un corps chauffé devait être proportionnel à la température absolue et inversement proportionnel au carré de la longueur d'onde.

Mais les expérimentations réalisées montraient que cette théorie ne fonctionnait pas du tout pour le « haut » du spectre, c’est-à-dire l’ultraviolet et il fallut tout le génie de Max Planck pour montrer, en décembre 1900, que l’émission d’énergie ne se faisait pas de manière continue mais discontinue et procédait par palier, par « saut ». La mécanique quantique venait de naître !

Quant à l’hypothèse de l’éther, elle fut définitivement renvoyée aux oubliettes de la science par un jeune physicien appelé Albert Einstein qui publia en 1905 sa théorie de la relativité restreinte.

Aujourd’hui, la théorie du « Big Bang », formulée entre 1922 et 1927 par Friedmann, Lemaître et Hubble est globalement confirmée par de multiples observations (notamment le bruit de fonds cosmique découvert en 1965 par Penzias et Wilson et le décalage vers le rouge  des galaxies, découvert par Hubble), même si elle s’est considérablement enrichie et complexifiée et qu’il en existe plusieurs « versions » théoriques différentes.

Il y a quelques jours, un communiqué de l’Agence spatiale européenne a révélé les dernières et extraordinaires observations du satellite Planck (Voir ESA) sur notre Univers.

Cette moisson de nouvelles données d’une précision sans précédent étaye le scénario prévu par le big-bang et sa version théorique « inflationniste » qui postule qu’en moins d’une seconde, notre Univers serait passé de la taille d'un atome à celle d’une galaxie, ce qui défie notre entendement.

Selon ces dernières observations, notre Univers serait un peu plus âgé que prévu. Ensuite, la masse de matière ordinaire (celle dont nous sommes composés), représenterait 4,9 % de la masse totale. La matière noire représenterait, pour sa part, 26,8 % de la masse totale, soit 20 % de plus qu’admis précédemment. La part de l’énergie noire serait légèrement moins importante que prévue mais resterait largement prédominante. Enfin, la vitesse de l’expansion de l’Univers serait plus faible de 7 %.

On le voit, à première vue, ces nouvelles données ne constituent pas une surprise et ne remettent apparemment pas en cause le cadre général du « Modèle standard » cosmologique, à savoir celui d’un Univers homogène, isotrope (qui possède les mêmes lois et propriétés physiques dans toutes ses régions) et en expansion.

Mais, comme toujours, le diable se loge dans les détails et à y regarder de plus près, on trouve dans le communiqué de l’Agence spatiale européenne une petite phrase qui pourrait bien annoncer un grand bouleversement dans la physique. De quoi s’agit-il ?

L’ESA note que les observations du satellite Planck révèlent une « asymétrie des températures moyennes ». Concrètement, la partie droite de la nouvelle carte de l'Univers apparaît nettement différente de la partie gauche. Problème, comme le reconnaît L’ESA, ces anomalies « sont réelles et n'ont pas d'explication satisfaisante pour l'instant ».

Alors, pourquoi cette asymétrie cartographique est-elle si intéressante ? Peut-être parce qu’elle reflète les interrogations et frustrations d’un nombre croissant de physiciens, de cosmologistes qui ne parviennent pas à se satisfaire pleinement du cadre théorique général actuel de la physique et qui constatent notamment que la question fondamentale de l’articulation entre la théorie quantique et la théorie de la relativité générale n’est toujours pas réglée.

Il y a quelques semaines par exemple, des chercheurs français de l'Université de Paris-Sud, à Orsay, ont montré que le vide pouvait, selon les lois de la physique quantique, être plein de particules virtuelles en fluctuation constante. (Voir Science Daily)

Dans cette interprétation de la physique quantique, il n’existerait qu’un nombre fini de particules dans le vide et, dans ce cas, la vitesse de la lumière pourrait très légèrement varier sous l’effet de ces fluctuations quantiques affectant les propriétés spatio-temporelles du vide.

Parmi les nombreuses énigmes encore non résolues qu’affrontent les physiciens, il faut également évoquer la question de l’antimatière. Comment se fait-il en effet, alors qu'au moment du big-bang, matière et antimatière ont été créées en même quantité, qu’aujourd’hui notre Univers observable soit uniquement composé de matière et ne se soit pas autodétruit lors de sa création par annihilation réciproque de la matière et de l'antimatière ?

Autre interrogation de taille : la nature de l'énergie sombre qui représente la majeure partie de l'Univers et qui s'oppose victorieusement à la gravitation depuis au moins 7 milliards d'années, reste toujours un mystère. Il y a là une faille de taille dans l'édifice théorique de la cosmologie moderne et de la physique qui ne savent toujours pas expliquer de quoi est faite exactement cette "5ème force fondamentale" qui semble pourtant gouverner le Cosmos et imposer sa loi à la puissante gravitation en accélérant l'expansion de l'Univers !

Alors que l’Agence spatiale européenne publiait les dernières données du satellite Planck sur la structure de l’Univers, le CERN de Genève confirmait pratiquement au même moment (Voir CERN) que la particule présentée en grande pompe en juillet 2012 était bien le fameux boson de Higgs, la pierre manquante pour parachever l’édifice du modèle standard de la physique des particules.

Mais là aussi, les choses sont moins simples qu’il n’y paraît et le boson découvert pourrait bien ne pas être celui prévu par la théorie et appartenir à une nouvelle famille de particules « exotiques » comme les appellent joliment les physiciens !

Paradoxalement, alors que la physique vient d’accomplir deux avancées majeures et de remporter deux succès éclatants, dans le domaine de l’infiniment petit et dans celui de l’infiniment grand, avec la découverte du boson de Higgs, d’une part et les observations cosmologiques du satellite Planck, d’autre part, nous nous trouvons peut-être dans la même situation qu’en 1900, quand Lord Kelvin avait annoncé que tout était découvert en physique et qu’il ne resterait plus aux scientifiques du XXe siècle qu’à confirmer le cadre théorique achevé par des mesures plus précises.

Il n’est en effet pas impossible que les fissures de plus en plus visibles qui apparaissent dans le bel édifice théorique de notre physique conduisent plus rapidement que prévu à des remises en cause radicales du cadre scientifique et conceptuel actuel.

À cet égard, même si la question est délicate et gêne un grand nombre de scientifiques, il faut évoquer l’énigme de l’ajustement des constantes universelles.

Sans rentrer dans des débats très techniques, la majorité des scientifiques considère aujourd’hui qu’il existe au moins trois constantes universelles fondamentales dans l’Univers : la vitesse de la lumière, notée C , la constante de gravitation, notée G et enfin la constante de Planck, notée H.

À ces trois constantes, certains physiciens ajoutent la constante de Boltzmann, notée K, le nombre d'Avogadro, noté Na,  la charge élémentaire de l’électron et enfin la perméabilité du vide. 

Dans un essai remarquable, publié en 1991 et intitulé « seulement six nombres », l’astronome Martin J. Rees décrit de manière saisissante l’extraordinaire « réglage » mathématique qui semble régir notre Univers et ses lois.

Il rappelle, preuves à l’appui, que si l’on modifie, même très légèrement, une seule des constantes universelles, la nature et le développement de notre Univers se transforment radicalement et l’apparition de la vie, telle que nous la connaissons, devient strictement impossible.

Ces six nombres essentiels proposés par Rees sont N, le rapport de la puissance entre force électrique et force de gravité, ε (epsilon), qui exprime la cohérence de noyaux atomiques, Ω (oméga), qui exprime la quantité de matière dans l’Univers, λ (lambda), qui exprime l’effet de l’énergie sombre qui s’oppose à la force de gravitation, Q, qui exprime le niveau de structure dans l’Univers et enfin D, qui représente les trois dimensions spatiales que nous connaissons.

Outre le fait que le livre de Rees est absolument passionnant et très argumenté sur le plan scientifique, sa thèse présente également le mérite d’essayer d’éviter de trouver à cette surprenante réalité cosmique des explications mystiques ou théologiques.

Ne voulant pas s’en remettre à une explication divine, non par hostilité à la religion mais par souci de rigueur scientifique et épistémologique, Rees postule (ainsi d'ailleurs que d'autres astrophysiciens de renom comme Andrei Linde) l’existence d’un « Multivers » éternel qui contiendrait une infinité d’univers ayant chacun des lois physiques différentes.

Dans cette hypothèse, nous vivrions dans un Univers (peut-être le seul) dont les lois physiques seraient compatibles avec l’apparition et le développement de la vie puis de la conscience.

Le problème est que nous n’avons et n’aurons sans doute jamais aucun moyen de pouvoir vérifier l’existence de ces autres univers dans lesquels les lois de la physique seraient différentes. Or, comme l’a bien montré le grand philosophe Karl Popper en 1936, une théorie pour être scientifique doit être falsifiable et vérifiable et prévoir les conditions expérimentales de sa réfutation.

On voit donc que, face à cette énigme de l’ajustement prodigieux des constantes universelles, l’hypothèse du « Multivers » ne résout rien puisqu’elle n’est pas démontrable et relève plus de la métaphysique que de la science. Cette hypothèse, pour séduisante qu'elle soit, ne fait que déplacer le problème sans y apporter de réponse satisfaisante pour la raison.

Il n’en demeure pas moins vrai que, comme l’a pressenti avec force Rees et comme le pensent un nombre croissant de scientifiques, cette question fondamentale de la nature des constantes universelles et de leur « réglage » d'une précision incroyable devra être affrontée et, si possible, intégrée dans le prochain cadre théorique qui articulera de manière cohérente physique quantique et relativité générale.

Mais laissons une fois plus le dernier mot à Einstein qui aurait dit : « Ce qu'il y a de plus incompréhensible dans l'Univers, c'est qu'il soit compréhensible.»

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat 


TIC
Information et Communication
États-Unis : la première base de données intelligente contre le cancer
Samedi, 30/03/2013 - 08:31

La société américaine d'oncologie clinique (Asco) vient d'annoncer l'ouverture d'un nouveau type de base de données visant à exploiter et à croiser l'ensemble des informations issues des dossiers médicaux des patients atteints de cancer.

Baptisé CancerLinQ, ce réseau intelligent va permettre d'établir une multitude de liens entre les différentes données biologiques et médicales provenant des dossiers des patients, ce qui constituera une aide précieuse pour les chercheurs et les médecins, tant sur le plan épidémiologique que dans le choix des meilleures options thérapeutiques.

"Aujourd'hui, nous en savons très peu sur les expériences de la plupart des personnes atteintes de cancer car leur dossier médical est souvent inaccessible à l'ensemble de la communauté scientifique" souligne Sandra M. Swain, qui préside la puissante association américaine d'oncologie clinique. Celle-ci poursuit  "Seuls 3 % des patients participent aujourd'hui aux essais cliniques et sont en mesure de contribuer au progrès des traitements. CancerLinQ va transformer radicalement cette situation en permettant enfin d'exploiter toute la richesse potentielle de l'information médicale et scientifique que représente le dossier de chaque malade".

"Dans la communauté des cancérologues, la révolution du big data est en bonne voie", a déclaré Lynn Etheredge, Professeur à l'Université George Washington qui ajoute "L'avenir de notre système de santé dépend de la mise en réseau et de l'exploitation intelligente de l'ensemble des données scientifiques et médicales disponibles. Les autorités locales et le gouvernement fédéral doivent absolument soutenir et accélérer cette mutation qui va révolutionner la santé. "

Pour l'instant, la première version du réseau de l'Asco intègre les données anonymisées de 100.000 patientes atteints de cancer du sein et traitées sur le territoire américain.

La mise en œuvre d'un tel réseau a nécessité l'interconnexion physique et logicielle d'une multitude de systèmes informatiques et réseaux hétérogènes.

À présent, CancerLinQ permet la collecte en temps réel des données médicales, l'aide à la décision clinique (avec l'accompagnement personnalisé des malades), l'exploitation et l'exploration des données présentes sous forme d'analyse ou d'images et enfin une évaluation en temps réel du niveau d'efficacité et de qualité des soins définis par rapport aux standards de l'Asco.

À terme, cette base de données unique au monde devrait inclure les dossiers de 133 000 malades américains et permettre des progrès considérables en matière de prévention, de soins, d'options thérapeutiques, d'évaluation et de transfert entre la recherche fondamentale et l'hôpital.

Article rédigé par Georges Simmonds pour RT Flash

ASCO

Google développe un algorithme pour prévoir l'évolution d'un cancer
Samedi, 30/03/2013 - 08:25

L'Université de Californie a mis au point un modèle mathématique issu d'un algorithme conçu par Google pour calculer les probabilités de diffusion métastatique d'une tumeur du poumon. Grâce à cet algorithme, il serait possible de déterminer l'itinéraire de propagation de la tumeur et d'établir une carte prévisionnelle de la diffusion probable d'un cancer, de la tumeur initiale aux métastases distantes.

Dans ce travail, les chercheurs se sont notamment servis de la chaîne de Markov, un instrument algébrique puissant, très utilisé dans les télécommunications, l’informatique et l'Internet, notamment par Google.

Le modèle mathématique mis au point a été appliqué aux rapports d'autopsie de 163 patients atteints d'un cancer du poumon qui vivaient en Nouvelle-Angleterre entre 1914 et 1943. À cette époque, il n'y avait pratiquement aucun traitement contre le cancer, ce qui a permis aux chercheurs de suivre précisément toute l'évolution de la maladie chez ces patients. Parmi les 163 patients, les chercheurs ont ainsi pu cartographier le développement de 619 métastases.

À l'issue de ces travaux, les scientifiques pensent être en mesure de mieux pouvoir prévoir l'évolution d'un cancer du poumon. « Si nous parvenons à anticiper la migration des cellules cancéreuses et à prévoir vers quels organes elles vont se diriger, nous pourront plus facilement combattre le cancer en proposant aux patients des traitements personnalisés plus efficaces » soulignent les chercheurs.

Cette étude s'inscrit dans une tendance nouvelle mais prometteuse d'étroite collaboration scientifique, entre biologistes physiciens et mathématiciens, pour mieux comprendre la complexité du cancer dans toutes ses dimensions.

Article rédigé par Georges Simmonds pour RT Flash

HI

^ Haut
Avenir
Nanotechnologies et Robotique
Un robot-méduse pour explorer les océans
Mercredi, 03/04/2013 - 15:37

Des chercheurs du collège technologique de Virginie (VTC) ont mis au point un robot sous-marin qui se comporte comme une méduse. Baptisé Cyro, ce robot flasque mesure environ 1,50 m de long sur 20 cm de large. Il se déplace comme une vraie méduse, en repliant et en dépliant simultanément ses huit bras.  Cyro se compose d'une armature rigide dans laquelle se trouve un moteur à courant continu qui permet d'actionner des bras mécaniques. Ceux-ci sont recouverts d'une gelée synthétique qui produit un mouvement hydrodynamique.

Ce robot est essentiellement destiné à explorer les océans du globe. Cette forme de méduse a été retenue pour plusieurs raisons : d'une part, la méduse est présente dans toutes les mers du globe et un robot ayant son apparence ne devrait pas perturber les autres espèces aquatiques. En outre, cet animal méduse est d'une remarquable efficacité énergétique et dépense de très faibles quantités d'énergie pour se déplacer.

Ces robots méduses pourraient être disséminés dans les océans et deviendraient de précieux auxiliaires pour les scientifiques et les chercheurs en les renseignant en permanence sur les espèces vivantes sous-marines mais également sur l'évolution des paramètres physico-chimiques des océans : température, salinité, vitesse du courant, etc. Pour l'instant, ce robot fonctionne grâce à une batterie au nickel-hydrure métallique. Mais à terme, il pourrait être équipé d'une pile à combustible et fonctionner à l'hydrogène.

« Notre robot Cyro a montré sa capacité à se déplacer dans l'eau de manière autonome tout en présentant une apparence très proche de celle des véritables méduses » souligne Shashank Priya, l'un des chercheurs impliqués dans ce projet.

Article rédigé par Georges Simmonds pour RT Flash

VTC

Le transcriptor, futur composant de l'ordinateur biologique ?
Lundi, 01/04/2013 - 11:22

Des chercheurs de l'Université de Stanford essayent d'imaginer ce que pourrait être l'informatique du futur, utilisant les éléments et composants biologiques.

Dans un récent article, ces scientifiques ont présenté le concept d'un transistor biologique fabriqué à partir de matériel génétique - ADN et ARN - et baptisé "transcriptor." "Ces transcriptors seront à la bio-informatique ce que le transistor est à l'électronique" souligne Jérôme Bonnet, principal auteur de cet article. "Les ordinateurs biologiques pourraient être utilisés pour étudier et reprogrammer les systèmes vivants et contrôler des thérapies au niveau cellulaire", précise pour sa part Drew Endy, coauteur de l'article.

En électronique, un transistor commande le flux d'électrons le long d'un circuit. Le Transcriptor joue un rôle un peu similaire et  contrôle le débit d'une protéine spécifique, l'ARN polymérase, qui se déplace le long d'un brin d'ADN. "Nous avons utilisé une famille de protéines naturelles, les intégrases, pour réaliser une commande numérique de la production d'ARN et concevoir une logique d'amplification génétique", précise Drew Endy.

En dépit de leurs différences apparentes, tous les ordinateurs modernes, de l'ENIAC à l'Apple, ont en commun trois fonctions de base : stockage, transmission et exécution d'opérations logiques.

Les chercheurs de Stanford ont réussi à concevoir deux "bio composants" qui pourraient être utilisés dans un futur ordinateur biologique. Le premier est un outil de stockage de données numériques réinscriptibles au sein de l'ADN. Le second est un mécanisme qui permet la transmission de l'information génétique entre les cellules, un peu comme un "Internet" biologique.

Cet article rappelle que toute l'informatique moderne repose sur la logique booléenne, du nom de George Boole, génial mathématicien qui a imaginé ce concept en 1854. Aujourd'hui, la logique booléenne prend généralement la forme de 1 et de 0 dans un ordinateur. Le zéro correspond à une porte logique fermée, sans passage de courant et le 1 correspond à une porte ouverte qui laisse passer le courant.

Comme toutes les grandes idées, celle de Boole est très simple mais elle permet d'accomplir une multitude de choses. L'étude rappelle que "dans un environnement biologique, les possibilités de fonctionnement et de commandes logiques sont aussi riches que dans l'électronique". Il est par exemple envisageable de commander et de programmer certaines fonctions de la cellule à l'aide de ces composants biologiques. Pour créer ces transcriptors et des portes logiques, l'équipe a utilisé des combinaisons d'enzymes - les intégrases - qui contrôlent le flux de l'ARN polymérase le long des brins d'ADN.

"Le choix des enzymes est déterminant et nous avons pris soin de sélectionner des enzymes qui fonctionnent dans les bactéries, les champignons, les plantes et les animaux, afin que ces bio-ordinateurs puissent fonctionner un jour dans tous les types d'organismes" précise l'étude.

Comme son cousin électronique, le transcriptor permet une forte amplification du signal : un minuscule changement dans l'expression d'une intégrase peut donc produire une modification très importante dans l'expression d'un gène. C'est la parfaite illustration de l'adage "les petites causes produisent de grands effets".

Article rédigé par Georges Simmonds pour RT Flash

Stanford

Science Codex

^ Haut
Matière
Matière et Energie
Un excès d'antimatière d'origine inconnue découvert dans l'Espace
Jeudi, 04/04/2013 - 15:23

Le projet AMS système étudie les rayons cosmiques à l'aide d'un détecteur de particules placées dans la station spatiale internationale. Ces rayons cosmiques sont constitués de différentes particules et notamment des électrons et des protons.

Les positons sont des particules d'antimatière qui peuvent être définies comme des « anti électrons » puisqu'ils sont semblables aux électrons mais ont une charge électrique opposée. Les premières données provenant de cette expérience AMS montre de manière très nette la présence inattendue d'un excès de positons dans le flux des rayons cosmiques.

Ces observations montrent que la quantité de positons augmente de manière telle que ce phénomène n'est pas explicable par la seule collision des noyaux d'hydrogène avec des particules présentes dans le vide cosmique.

Il reste à expliquer les causes de ce flux anormalement élevé de particules antimatière. Plusieurs explications sont en concurrence : parmi celles-ci, on trouve la manifestation de particules de matière noire, l'une des composantes principales de l'Univers dont on ne connaît pas encore la nature exacte.

L'existence de cette mystérieuse matière noire se manifeste indirectement par ses effets gravitationnels. Mais cette matière représente près du quart de l'Univers, contre moins de 5 % pour la matière ordinaire visible et serait constituée de particules non encore identifiées qui interagissent très faiblement avec la matière ordinaire. 

Article rédigé par Gaël Orbois pour RT Flash

AMS

Une batterie qui se recharge aussi vite qu'un super condensateur !
Mercredi, 03/04/2013 - 16:44

Des chercheurs de l'Université Rice ont mis au point un nouveau type de batterie utilisant des micro- rubans revêtus d'oxyde de vanadium pour constituer une électrode très performante. Selon Pulickel Ajayan, l'un des chercheurs, ces rubans combinant oxyde de vanadium et graphène permettent de réaliser une cathode bien supérieure à celles existant dans les batteries actuelles et pouvant fournir à la fois une densité d'énergie élevée et une puissance accrue.

Ces travaux ont permis de montrer que ce nouveau type de cathode pouvait se charger et se décharger en à peine 20 secondes, tout en conservant 90 % de sa capacité initiale après plus de 1000 cycles de fonctionnement.

Avec de telles cathodes, les batteries pourraient avoir des performances proches de celles des supercondensateurs. Contrairement aux oxydes, qui ont tendance à se charger et se décharger lentement, en raison d'une faible conductivité électrique, le revêtement en treillis sur un substrat de graphène permet une très grande rapidité de déplacement des électrons.

Le plus grand défi pour les scientifiques a été de contrôler les conditions de la synthèse délicate de ces nano-rubans. Pour y parvenir, ils ont  vaporisé ces nanofeuillets en oxyde de graphène avec du pentoxyde de vanadium en poudre.

Article rédigé par Georges Simmonds pour RT Flash

Electronic News

Produire de l'hydrogène à partir de méthane sans émettre de CO2 !
Lundi, 01/04/2013 - 11:59

L'hydrogène n'existe pas sur terre à l'état natif et, pour pouvoir être utilisé comme vecteur énergétique, il doit d'abord être extrait et séparé d'autres composants chimiques. Le problème est que les méthodes classiques de production d'hydrogène sont émettrices de CO2 et participent donc à l'aggravation de l'effet de serre. Actuellement, on estime que 5 % environ des émissions humaines mondiales de CO2 seraient liées à la production d'hydrogène. Dans ce contexte, on comprend tout l'intérêt du programme allemand de recherche visant à produire de l'hydrogène à partir du méthane mais sans émissions de gaz à effet de serre.

Ce programme ambitieux regroupe l'Institut technologique de Karlsruhe et l'Institut de recherche sur le développement durable (IASS) de Potsdam. Il est piloté par le grand physicien Carlo Rubbia, prix Nobel de physique en 1984.

Pour parvenir à une production d'hydrogène qui n'émette pas de CO2, ce projet table sur un procédé très innovant : la décomposition thermique à haute température du méthane en hydrogène et en carbone.

Pour produire cette réaction, un prototype de réacteur d'un type nouveau, à métal liquide et colonne à bulles, est actuellement en cours de construction. Comme le souligne le professeur Thomas Wetzel qui participe activement à ces recherches, "Si nous arrivons à montrer que ce procédé est fiable, nous disposerons d'un nouvel outil permettant la production industrielle d'hydrogène, y compris à partir des énergies fossiles, ce qui constituera un progrès considérable dans la perspective de la transition énergétique mondiale".

Ce réacteur se présente sous la forme d'un tube de 50 cm de haut et contient du métal liquide chauffé à 1000 degrés. Du méthane, sous forme de petites bulles, est introduit par la partie inférieure du réacteur et transite jusqu'à la surface à travers un réseau poreux. Sous l'effet de la température très élevée, le méthane se décompose et on peut alors en extraire facilement ses deux constituants, l'hydrogène et le carbone.

Article rédigé par Georges Simmonds pour RT Flash

KIT

Les nanotubes de carbone, futurs composants de l'ordinateur quantique ?
Samedi, 30/03/2013 - 09:39

Les physiciens de l'Université de Munich, en Allemagne, ont démontré qu'il était possible de stocker des informations dans des nanotubes, sous forme de "qbits" quantiques.

Jusqu'à présent, la plupart des systèmes informatiques quantiques, encore à l'état expérimental, utilisent des particules électriquement chargées qui sont maintenues dans un "piège électromagnétique". L'inconvénient de cette technique est qu'elle est très sensible aux interactions électromagnétiques et nécessite un blindage extrêmement puissant pour isoler les particules.

Le procédé mis au point par les chercheurs allemands consiste à stocker l'information sous forme de vibrations mécaniques en utilisant un nanotube de carbone comme une minuscule corde de guitare dont on pince les deux extrémités pour produire des vibrations. Le tube vibre alors plus d'un million de fois, en raison de sa très petite taille, permettant à l'information d'être conservée pendant une seconde. Ces informations peuvent ensuite être lues et écrites de manière optoélectronique.

"L'avantage de notre concept est qu'il repose sur une technologie immédiatement disponible", explique Michael Hartmann qui dirige ces recherches. Celui-ci ajoute : "nous avons ouvert une voie nouvelle et intéressante qui pourrait permettre de réaliser un ordinateur quantique".

Article rédigé par Gaël Orbois pour RT Flash

TUM

L'antimatière commence à révéler ses secrets
Samedi, 30/03/2013 - 09:02

Des physiciens de l'Université d'Harvard ont réussi à mesurer la charge magnétique des particules de matière et d'antimatière avec une précision jamais obtenue jusqu'à présent.

Cette équipe, dirigée par Gerald Gabrielse et George Leverett Vasmer, a réussi à capturer des protons et des antiprotons en les piégeant grâce à de puissants champs magnétiques. En mesurant avec précision les oscillations de chaque particule, l'équipe a pu mesurer le magnétisme d'un proton avec une précision 1000 fois supérieure aux précédentes mesures. Les chercheurs ont également pu mesurer la charge magnétique des antiprotons avec une précision 680 fois supérieure aux meilleures mesures disponibles.

"C'est une avancée extraordinaire en matière de mesures des propriétés des particules", a déclaré Gérald Gabrielse qui ajoute "ces progrès nous permettront peut-être un jour de répondre à une question qui semble relever davantage de la philosophie que de la science : pourquoi sommes-nous ici ?"

Gérald Gabrielse poursuit : "L'un des grands mystères de la physique repose sur le fait que notre Univers est fait de matière car, selon nos théories, la même quantité de matière et d'antimatière a été produite lors du Big Bang. Nous ne savons toujours pas pourquoi notre Univers ne s'est pas autodétruit par confrontation de la matière et de l'antimatière, ni pourquoi il y a à présent beaucoup plus de matière que d'antimatière".

Article rédigé par Gaël Orbois pour RT Flash

Eurekalert

Est-il possible de transformer le CO2 atmosphérique en carburant ?
Samedi, 30/03/2013 - 08:46

Pourra-t-on un jour utiliser directement le CO2 que nous rejetons par milliards de tonnes dans l'atmosphère pour produire du carburant ? Une telle perspective pourrait non seulement changer la donne énergétique mondiale mais également résoudre le problème de l'élimination et du recyclage du CO2, principal gaz à effet de serre responsable du réchauffement climatique.

Des chercheurs de l'Université de Géorgie ont franchi une étape importante vers cet objectif. Ils ont en effet réussi à créer un micro-organisme capable de transformer le dioxyde de carbone de l'air pour produire une substance chimique très utile.

Pour réussir cette prouesse, les chercheurs ont travaillé sur un micro-organisme marin, Pyrococcus furiosus, qui se nourrit des hydrates de carbone présents dans les fonds océaniques à proximité de cheminées géothermiques. En manipulant les gènes de cet organisme, les chercheurs ont réussi à créer une souche de P. furiosus qui est capable de transformer à des températures beaucoup plus basses le dioxyde de carbone en 3-hydroxy-acide. Cet acide est un produit chimique industriel courant, utilisé notamment dans la production des acryliques et de nombreux autres produits chimiques.

Cette découverte pourrait avoir un énorme potentiel dans la perspective d'une production de biocarburants. Les chercheurs soulignent en effet qu'il est possible de créer d'autres souches de P. furiosus qui génèrent de nombreuses substances utiles sur le plan industriel, y compris certains types de biocarburants. En outre, le carburant ainsi créé par ce processus émettrait la même quantité de dioxyde de carbone que celle utilisée pour le produire : le bilan carbone serait neutre.

"Il s'agit d'une première étape importante et très prometteuse vers une production industrielle rentable de biocarburants à partir de CO2", a déclaré Michael Adams, l'un des chercheurs.

Article rédigé par Georges Simmonds pour RT Flash

UGA

SWR

^ Haut
Espace
Espace et Cosmologie
Au moins 100 milliards de planètes semblables à la Terre !
Jeudi, 04/04/2013 - 15:35

Des chercheurs de l'Université d'Auckland ont publié un nouveau mode de calcul pour inventorier le nombre de planètes semblables à notre Terre et, selon leur méthode, ce nombre serait de l'ordre de 100 milliards. Ce nouvel outil utilise une technique appelée microlentille gravitationnelle, actuellement développée dans le cadre d'une collaboration scientifique entre le Japon et la Nouvelle-Zélande.

L'auteur principal de ces travaux, le Professeur Phil Yock, de l'Université d'Auckland, souligne que ce calcul repose sur l'analyse des données cosmologiques provenant de la NASA et du télescope spatial Kepler.

Ces travaux rappellent que le télescope Kepler a permis d'estimer à 17 milliards le nombre de planètes qui peuplent notre Voie lactée. Ces planètes sont généralement plus chaudes que la Terre, mais certaines pourraient être d'une température similaire et s'avérer propices à la vie, notamment si elles sont en orbite autour d'une étoile basse température, comme une naine rouge.

Cette étude propose donc d'évaluer le nombre de planètes semblables à la Terre en prenant en compte les orbites allant jusqu'à une distance deux fois supérieure à celle qui séparent la Terre du Soleil.

"Sous réserve de confirmation de nos estimations par recoupement à l'aide de différentes méthodes de nos observations, nous avons de bonnes raisons de penser qu'il existe au moins 100 milliards de planètes habitables dans notre seule galaxie" Souligne le professeur Yock.

La première planète extra solaire n'a été détectée qu'en 1995 car il est très difficile de repérer un minuscule objet sombre orbitant autour d'une étoile brillante. Mais grâce aux mesures de déviation de la lumière résultant du phénomène de microlentille gravitationnelle prévu par Einstein en 1936, des astrophysiciens peuvent à présent espérer détecter dans un futur proche une multitude de planètes de la taille de la Terre en utilisant un réseau mondial de télescopes robotisés.

Article rédigé par Georges Simmonds pour RT Flash

Science Daily

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le réchauffement accéléré de la couche profonde des océans confirme le changement climatique
Lundi, 01/04/2013 - 11:28

Des chercheurs américains, Magdalena Balmaseda, Kevin Trenberth et Erland Källén, viennent de montrer que les océans de la planète s'étaient sensiblement réchauffés depuis 10 ans.

L’océan absorbe une grande partie du rayonnement solaire, le stocke puis le restitue sous forme de chaleur. L’étude publiée dans la revue américaine de géophysique montre que la majeure partie du réchauffement climatique impacte les couches océaniques profondes. Selon ces travaux, 30 % du réchauffement des océans constaté depuis 2004 s’est produit en dessous de 700 m de profondeur. Ces observations confirment l'accélération du réchauffement océanique depuis 15 ans.

L'évolution des échanges de chaleur dans l’océan profond a été évaluée à partir des données du Centre européen pour les Prévisions Météorologiques à Moyen Terme (ECMWF). Ces informations qui intègrent les données fournies par le satellite Aviso, mesurent principalement la température, la pression de l’océan, le niveau de la mer et la salinité.

Les scientifiques ont décomposé l’océan en trois strates : la couche de surface (jusqu’à 300 m de profondeur), la couche intermédiaire (entre 300 et 700 m) et la couche profonde (en dessous de 700 m).

Ces recherches montrent qu’après chaque éruption volcanique majeure, comme celle du Pinatubo, l’océan s’est refroidi. Après l’événement El Niño de 1998, un refroidissement des couches moins profondes a également été observé. Mais la découverte la plus importante et la plus inquiétante de cette étude est qu'en dessous de 700 m de profondeur l’océan a accumulé beaucoup plus de chaleur qu’au cours des 50 années précédentes.

Article rédigé par Gaël Orbois pour RT Flash

Wiley

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Maladie d'Alzheimer et Sclérose en plaques : un lien biologique surprenant
Jeudi, 04/04/2013 - 15:42

Des chercheurs de l'Université de Stanford ont montré que certains composants présents dans les plaques amyloïdes, qui détruisent progressivement les neurones des malades d'Alzheimer, pourraient également avoir une action anti-inflammatoire et un effet thérapeutique dans certaines pathologies neurodégénératives apparentées à la Sclérose en plaques. Ces recherches ont notamment montré que le peptide tau, fortement impliqué dans la maladie d'Alzheimer, avait une action anti-inflammatoire dans certains types de sclérose en plaques.

Les plaques amyloïdes désignent un terme générique pour un ensemble de protéines présentes dans le cerveau. Parmi celles-ci, on trouve notamment des versions mal repliées de la protéine tau ainsi que les prions. Ces travaux menés par Lawrence Steinman, neurologue à l'Université de Stanford, soulignent de manière étonnante l'ambiguïté du rôle de ces plaques amyloïdes selon le type de pathologie considérée. Tout se passe comme si ces peptides pouvaient avoir selon les circonstances, un rôle pathogène ou au contraire un rôle protecteur.

L'An dernier, la même équipe avait déjà montré que l'injection de ce peptide amyloïde chez des souris atteintes de sclérose en plaques améliorait leur état.

Cette nouvelle étude confirme ces résultats et montre que plusieurs peptides semblent pouvoir bloquer le processus inflammatoire dans la sclérose en plaques quand ils se replient pour former des structures appelées fibrilles. Des analyses sanguines ont confirmé que ces peptides pouvaient réduire le niveau de concentration de plusieurs protéines impliquées dans l'inflammation et notamment des interleukines 2 et 6.

Comme le souligne le professeur Steinman, "en neurobiologie, rien n'est simple et nous ne devons pas oublier qu'une même molécule peut avoir des effets très différents en fonction des circonstances du milieu dans lequel elle agit. Nous devons donc creuser cette piste qui révèle des liens très intéressants entre les causes qui sont à l'origine de pathologies neurodégénératives différentes".

Article rédigé par Georges Simmonds pour RT Flash

Science News

Prevent : un outil en ligne qui donne une nouvelle dimension à la prévention
Jeudi, 04/04/2013 - 15:29

Le diabète touche près de 80 millions de personnes dans le monde et concerne 8 % de la population américaine. Un peu plus du quart des malades atteints de diabète, soit 7 millions d'Américains, ne savent pas qu'ils souffrent de cette pathologie. Selon le Centre américain de contrôle et de prévention des maladies, un adulte sur trois pourrait souffrir de diabète d'ici 2050 si la courbe actuelle de progression se maintient.

Une société américaine, Omada Health, vient de lever 4,7 millions de dollars pour développer Prevent, un outil de télésanté destiné à la prévention du diabète.

Le but de cet outil est de permettre un large accès à des programmes personnalisés d'informations de prévention destinés aux malades. Il s'agit d'apporter au malade, sans qu'il ait besoin de rechercher cette information, un véritable mode d'emploi indiquant les changements à effectuer dans son mode de vie pour réduire et prévenir le diabète.

Prevent se fixe également comme but de réduire le coût financier de cette pathologie pour la collectivité et ça marche ! Les patients qui suivent ce programme perdent en moyenne 6 % de leur poids en moins de quatre mois, qui constitue le meilleur résultat que celui observé avec toutes les autres méthodes classiques.

Article rédigé par Georges Simmonds pour RT Flash

Forbes

Cancer : une nouvelle forme de radiothérapie particulièrement efficace
Jeudi, 04/04/2013 - 11:13

Des chercheurs de l'Université du Missouri, dirigés par le Professeur Frédéric Hawthorne, ont mis au point une nouvelle technique de radiothérapie qui s'est avérée très efficace sur plusieurs variétés de tumeurs cancéreuses chez la souris. Ce traitement innovant ne présente pas les inconvénients propres aux chimiothérapies conventionnelles, ni les effets secondaires inhérents aux radiothérapies classiques.

"Depuis les années 1930, les scientifiques tentent de mettre au point une radiothérapie contre le cancer reposant sur la capture de neutrons par le bore (BNCT)", souligne le Professeur Hawthorne, qui a reçu en février dernier la médaille nationale de la science des mains du Président Obama. Ce chercheur de haut niveau et ses collègues ont en effet réussi à utiliser cette technique de capture de neutrons par le bore pour l'appliquer à la radiothérapie.

Les cellules cancéreuses se développent plus rapidement que les cellules normales et ces chercheurs ont profité de la capacité des cellules tumorales à absorber et à stocker plus facilement un composé chimique à base de bore. Lorsque ces cellules cancéreuses sont exposées à un faisceau de neutrons, les atomes de bore se désintègrent de façon sélective, détruisant les cellules cancéreuses en épargnant les cellules saines voisines.

"Une grande variété de cancers peuvent être traités grâce à notre technique innovante", précise le Professeur Hawthorne qui ajoute : "Notre technique a donné des résultats excellents chez la souris et nous comptons bien passer à des essais sur de plus gros mammifères puis sur l'homme". 

Article rédigé par Georges Simmonds pour RT Flash

MU News Bureau

La stimulation ciblée du cortex, un traitement prometteur contre la dépendance
Jeudi, 04/04/2013 - 11:08

Peut-on imaginer un jour un traitement neurocérébral qui puisse directement agir sur le centre de l'addiction ? Peut-être, si l'on en croit des recherches menées aux États-Unis, dans le cadre du programme national de recherche sur la toxicomanie, par l'Institut national de la santé et l'Université de Californie à San Francisco.

Ces travaux ont montré que certains rats présentaient un comportement addictif à la cocaïne et pas d'autres. En examinant les cellules du cortex préfrontal de ces animaux, les chercheurs ont montré que la cocaïne n'agissait pas de la même façon sur le cerveau des rats dépendants et sur celui des rats ne présentant pas d'addiction à cette drogue.

Les chercheurs ont ensuite utilisé de récentes techniques optogénétiques, consistant à utiliser certains types de faisceaux lumineux à des longueurs d'onde différentes pour augmenter ou diminuer l'activité dans cette partie du cerveau. Ils ont alors constaté qu'il était possible de réduire la dépendance à la cocaïne chez les rats intoxiqués par cette méthode optogénétique. Chez les rats non dépendants, la désactivation des cellules du cerveau par cette même technique a au contraire provoqué l'apparition d'une addiction à la cocaïne.

"Cette étude est la première à montrer une relation de cause à effet entre les effets induits par la cocaïne dans le cortex préfrontal et le risque de dépendance à cette drogue" souligne Billy Chen, auteur de l'étude. Comme le souligne le docteur Antonello Bonci, l'un des chercheurs, "En ciblant une partie spécifique du cortex préfrontal, nous pensons pouvoir réduire fortement l'addiction des toxicomanes vis-à-vis de la cocaïne".

Les autorités américaines estiment qu'environ un million et demi d'Américains consomment régulièrement de la cocaïne. Mais pour l'instant, il n'existe encore aucun traitement médicamenteux permettant de lutter contre la dépendance à cette drogue.

Article rédigé par Georges Simmonds pour RT Flash

NIH

Découverte d'un micro ARN qui favorise la croissance tumorale
Jeudi, 04/04/2013 - 11:02

Des chercheurs américains du renommé centre Moffit contre le cancer ont découvert que la surexpression de microARN-155 (miR-155), codés par le gène miR-155, favorise l'angiogenèse, c'est-à-dire la croissance de nouveaux vaisseaux sanguins qui permettent à une tumeur de se développer.

Cette surexpression favorise également la formation de métastases distantes. MiR-155, qui joue un rôle important dans de nombreux processus cellulaires, est considéré comme un indicateur de mauvais pronostic pour les patientes atteintes d'un cancer du sein. Mais selon les chercheurs, le contrôle de l'expression de miR-155 pourrait inhiber la croissance cancéreuse.

"Notre étude montre que miR-155 est un moteur de croissance important qui permet le développement des vaisseaux sanguins dans les tumeurs", souligne Jin Cheng, auteur principal de cette étude. Ces travaux montrent également que ce micro ARN est fortement impliqué dans la formation des métastases, en particulier dans le cancer du sein "triple négatif".

D'autres études ont déjà montré que ce micro ARN miR-155 est également fortement impliqué dans d'autres cancers, comme ceux du poumon, du pancréas et du côlon.

"Nos résultats montrent clairement que miR-155 bloque le suppresseur de tumeur VHL et contribue de manière essentielle à la croissance et la dissémination tumorale. Il s'agit donc d'une nouvelle cible thérapeutique très importante dans le cancer du sein", ajoute Jin Cheng.

 Article rédigé par Georges Simmonds pour RT Flash

Moffitt

Première thérapie à l'essai contre une maladie à prions
Jeudi, 04/04/2013 - 10:56

Les maladies humaines causées par les prions, protéines mal repliées, restent pour l'instant incurables. La plus connue de ces pathologies est la maladie de Creutzfeldt-Jakob, l'équivalent humain de la maladie de la vache folle.

Des chercheurs de l'Institut de recherche Scripps, en Floride, ont pour la première fois identifié deux médicaments, le tacrolimus et l'astémizole qui semblent  efficaces contre ces maladies à prions particulièrement graves. Des tests en laboratoire ont montré que ces médicaments pouvaient diminuer de 70 % la concentration de ces protéines anormales et pathogènes.

Le tacrolimus est un immunosuppresseur largement utilisé dans la transplantation d'organes et l'astémizole est un antihistaminique disponible sous forme générique dans plus de 30 pays et présentant la capacité de traverser la barrière hémato-encéphalique pour aller éliminer les prions dans le cerveau.

Ces travaux montrent que l'astémizole semble stimuler l'autophagie, un processus par lequel les cellules éliminent leurs composants indésirables. "L'autophagie est impliquée dans plusieurs maladies neurodégénératives impliquant un mauvais repliement des protéines, telles que les maladies d'Alzheimer, de Parkinson et la chorée de Huntington," souligne l'étude qui poursuit : "en décortiquant le mode d'action de l'astémizole, nous espérons découvrir de nouvelles cibles thérapeutiques pour les maladies à prions".

L'étude précise également que le mécanisme d'action de ces médicaments, qui implique un récepteur de surface cellulaire PrP, pourrait être intéressant sur le plan thérapeutique pour lutter contre la maladie d'Alzheimer, qui se caractérise par l'accumulation de plaques β-amyloïde dans le cerveau.

Article rédigé par Georges Simmonds pour RT Flash

Scripps

Vers une détection très précoce du cancer du sein
Jeudi, 04/04/2013 - 10:49

Des chercheurs de l’Université de Jérusalem ont découvert un mécanisme inconnu qui permet aux cellules normales de se transformer en cellules malignes dans le cancer du sein.

Le processus de reproduction cellulaire normal utilise l’ARN messager, ou ARNm, pour transmettre l’information génétique qui commande la synthèse de protéines particulières. Dans ce mécanisme, l’information nécessaire à la fabrication d’une protéine précise est codée en "séquences", appelées exons, qui doivent se succéder dans un ordre bien précis, un peu comme les scènes d'un film.

Mais il arrive que se produise un épissage alternatif, c'est-à-dire l'insertion non prévue ou la suppression d'une de ces séquences. La plupart de nos gènes sont concernés par cet épissage alternatif d’un ou plusieurs exons, processus indispensable au métabolisme cellulaire normal. Et lorsqu'un cancer se développe, il va perturber ce mécanisme de l'épissage alternatif et va le détourner pour produire des protéines spécifiques qui favorisent sa croissance.

Ces chercheurs de l'Université de Jérusalem ont notamment observé que les cellules tumorales du sein altèrent l’épissage alternatif d’une enzyme-clé, nommée S6K1, qui est impliquée dans la transmission de l’information cellulaire.

Ces scientifiques ont ensuite constaté que, dans cette situation, les cellules cancéreuses du sein se mettaient à produire des copies modifiées et plus courtes de cette enzyme, copies véhiculant un signal de croissance à l'intention des autres cellules. Mais les chercheurs ont également constaté qu'a contrario, la version longue de cette enzyme pouvait inhiber la croissance tumorale.

Ces recherches fondamentales devraient avoir plusieurs retombées. D'une part, il est envisageable d'utiliser la version courte de S6K1 comme marqueur pour le diagnostic très précoce du cancer du sein. D'autre part, il est possible de bloquer, à l'aide de certains médicaments, ces formes courtes de S6K1 qui favorisent la prolifération cancéreuse.

À terme, les chercheurs pensent pouvoir inverser ce processus d'épissage alternatif de S6K1 dans les cellules cancéreuses, ce qui constituerait une nouvelle voix thérapeutique prometteuse.

Article rédigé par Georges Simmonds pour RT Flash

JPOST

Cancer : l'effet protecteur des oméga-3 mieux compris
Mercredi, 03/04/2013 - 17:04

L'équipe de recherches regroupant des chercheurs du Centre d'études sur le cancer de l'université de Californie et de l'université de Harvard a découvert qu'une substance dérivée des oméga-3 avait un effet nocif sur les cellules cancéreuses en les privant d'approvisionnement en oxygène et en nutriments.

Cette substance est un métabolite, l'acide docosapentaénoïque époxy (EDP). Ce composé est produit par l'organisme à partir des acides gras de type oméga-3 et plus particulièrement de l'acide docosahexaénoïque (DHA), que l'on trouve dans l'huile de poisson et le lait maternel.

Ces recherches ont notamment montré que l'EDP inhibe l'angiogenèse, un mécanisme de formation de nouveaux vaisseaux sanguins que détournent à leur profit les tumeurs cancéreuses pour se développer.

"Notre étude ouvre une nouvelle voie dans la compréhension des mécanismes par lesquels les acides gras de type oméga-3 exercent leurs effets protecteurs en matière de cancer", souligne Zhang Guodong, auteur principal de cette étude.

Ces travaux montrent que les métabolites de ces lipides peuvent agir en empêchant la croissance de nouveaux vaisseaux sanguins nécessaires pour nourrir la croissance tumorale. En coupant l'approvisionnement de la tumeur par ce moyen, ces composés peuvent donc ralentir considérablement la croissance des tumeurs et prévenir leur propagation par métastase.

Selon cette étude, "il est envisageable d'améliorer l'efficacité des chimiothérapies anticancéreuses en les combinant avec une alimentation riche en oméga-3 et pauvre en oméga-6".

Les chercheurs ont également constaté qu'un métabolite issu de l'acide arachidonique (ARA), un oméga-6, a l'effet inverse de l'EDP. Les ARA augmentent en effet l'angiogenèse et la progression tumorale chez la souris.

Comme le souligne Katherine W. Ferrara, Professeur de génie biomédical, " Nous savons à présent que l'alimentation est tout sauf neutre en matière de cancer et que la consommation préférentielle de tel ou tel type d'acides gras peut ralentir ou au contraire accélérer la propagation d'un cancer".

Concrètement, ces recherches ont montré que l'EDP affame les tumeurs en inhibant à la fois le facteur de croissance endothélial vasculaire (VEGF) et le facteur de croissance des fibroblastes-2 (FGF-2)-angiogenèse. In vitro, l'EDP bloque également la migration des cellules endothéliales nécessaires à la production de nouveaux vaisseaux sanguins.

Article rédigé par Georges Simmonds pour RT Flash

UCDM

Le Président Obama annonce un projet de cartographie complète du cerveau humain
Mercredi, 03/04/2013 - 16:55

Il y a quelques semaines, nous vous proposions un éditorial entièrement consacré au projet de cerveau humain (Human Brain Project) qui venait d'être consacré comme prioritaire au niveau européen. Ce projet venait de se voir attribuer 1 milliard d'euros de financement.

Face à ce geste fort et à cette affirmation des ambitions européennes dans un domaine de recherche stratégique, la riposte américaine ne s'est pas faite attendre. C'est en effet le Président Obama en personne qui vient d'annoncer, le 2 avril, au cours d'une conférence de presse à la Maison-Blanche, que les États-Unis allaient à leur tour lancer un grand projet de recherche entièrement consacré au fonctionnement et à la cartographie complète du cerveau humain.

Baptisé "BRAIN Initiative" (acronyme de Brain Research through Advancing Innovative Neurotechnologies ou Recherche sur le Cerveau par les Technologies Innovantes Avancées), ce projet, qui sera lancé dès 2014,  sera doté d'un financement initial de 100 millions de dollars. Il rassemblera des acteurs scientifiques de premier ordre des secteurs publics et privés et notamment l'Institut national de la santé (NIH), l'Agence pour les projets de recherche avancée de défense (DARPA), la Fondation nationale pour les sciences (NSF), l'Institut Allen Brain Science, l'Institut Salk pour les études biologiques (SIBS) et l'Institut médical Howard Hughes (Howard Hughes Medical Institute).

Le Président Obama a précisé que la finalité de ce projet était double. Il s'agit d'une part de progresser dans la connaissance fondamentale du fonctionnement du cerveau humain et, d'autre part, d'ouvrir de nouvelles voies thérapeutiques pour soigner les maladies neurodégénératives et des pathologies psychiatriques, telles que la maladie d'Alzheimer, l'épilepsie, l'autisme ou la schizophrénie.

Le président américain a comparé ce nouveau projet au projet de cartographie du génome humain, achevée en 2001. Il a notamment déclaré : "il est vital pour la science et également pour l'économie et la société que nous comprenions mieux comment notre cerveau apprend, imagine et mémorise".

"Nous ne pouvons pas nous permettre de regarder passer ce train scientifique et nous devons nous mobiliser massivement pour redevenir leaders dans ce domaine de recherche qui sera à terme créateur d'activité, de richesses et d'emplois pour notre pays. Alors que nous comprenons à présent des phénomènes cosmiques qui se déroulent à des milliards d'années-lumière, nous ignorons encore une grande partie de ce qui se passe dans cet organe que nous avons entre nos oreilles" a ajouté le Président Obama qui a également rappelé que la recherche fondamentale restait une priorité pour les États-Unis.

Le Président Obama a enfin précisé qu'un comité d'éthique rassemblant d'éminents juristes et scientifiques sera chargé de superviser cet ambitieux projet.

Article rédigé par Georges Simmonds pour RT Flash

Maison-Blanche

BBC

The New York Times

La flore intestinale jouerait un rôle important dans la régulation pondérale
Mercredi, 03/04/2013 - 16:37

Les scientifiques savaient déjà que notre flore intestinale ou microbiote, composée de plusieurs milliards de bactéries, remplissait plusieurs fonctions essentielles au bon fonctionnement de notre organisme et notamment la dégradation de certains composés alimentaires, la production de vitamines, le développement du tube digestif et bien entendu les défenses immunitaires.

Mais une récente étude de l'Université de Harvard montre que notre flore intestinale pourrait également jouer un rôle majeur dans la régulation de notre poids. Ces chercheurs américains ont voulu évaluer l'impact d'un pontage gastrique (une intervention qui consiste à réduire la taille de l’estomac) sur le microbiote.

Travaillant sur la souris, ces scientifiques ont transféré des bactéries intestinales de rongeurs ayant subi un pontage gastrique dans l'intestin d'autres souris n'ayant pas été opérées. Les chercheurs ont alors constaté que ces animaux perdaient rapidement du poids et que leur flore intestinale se transformait profondément.

"Les souris chez lesquelles nous avions transféré ces bactéries intestinales ont perdu jusqu'à 20 % de leur poids, c'est-à-dire autant que si elles avaient elles-même subi un pontage gastrique", souligne le docteur Peter Turnbaugh, coauteur de cette étude.

"Nos travaux montrent que la composition de la flore intestinale à un effet déterminant sur le métabolisme et la capacité de perdre du poids" souligne pour sa part le Docteur Lee Kaplan, directeur de l'Institut sur l'obésité, le métabolisme et la nutrition au Massachusetts General Hospital à Boston.

"Nous allons à présent essayer de trouver un moyen de modifier le microbiote de manière à provoquer une perte de poids, ce qui nous donnera un nouvel outil thérapeutique contre l'obésité" ajoute ce chercheur.

L'étude souligne par ailleurs qu'un tel traitement serait très utile pour prendre en charge les patients obèses qui ne veulent pas ou ne peuvent pas subir un pontage gastrique.

Article rédigé par Georges Simmonds pour RT Flash

STM

Trisomie 21 : un traitement est-il envisageable ?
Mercredi, 03/04/2013 - 16:26

Il est possible depuis de nombreuses années de détecter la trisomie 21 au cours de la grossesse mais il n'existe encore aucun traitement contre cette maladie congénitale qui se caractérise par la présence de trois chromosomes 21 au lieu de deux.

Des chercheurs du Sanford-Burnham Medical Research Institute (Floride) viennent de découvrir que ce chromosome surnuméraire perturbait la production d'une protéine, la SNX27, qui joue un rôle-clé dans la communication interne neuronale.

"Dans la trisomie 21, le déficit de cette protéine SNX27 est en partie responsable des anomalies du développement et des déficits cognitifs qui sont associés", souligne le Professeur Xu Huaxi, auteur principal de l'étude.

Les scientifiques américains ont pu vérifier leur hypothèse en réintroduisant cette protéine dans le cerveau de souris trisomiques et en constatant que celles-ci récupéraient alors leurs capacités cognitives perdues.

Reste cependant à transposer ce succès à l'homme, ce qui est une autre affaire. Dans cette perspective, les chercheurs ont essayé d'identifier des molécules qui puissent augmenter la production de SNX27 à l’intérieur des cellules. 

Article rédigé par Georges Simmonds pour RT Flash

Nature

Fumer tôt le matin augmente le risque de cancer
Mercredi, 03/04/2013 - 15:57

Selon une étude de l'Université de Pennsylvanie, le fait de fumer dès le réveil augmente sensiblement les risques de cancer du poumon et de la bouche. "Les personnes qui fument au réveil ont un taux de NNAL – un métabolite cancérigène – dans leur sang supérieur à celles qui s'abstiennent une demi-heure ou plus après leur réveil, en rapportant les résultats au nombre de cigarettes qu'elles fument", précise Steven Branstetter, coauteur de cette étude.

Ce travail a porté sur 1 945 fumeurs qui ont communiqué tout au long de l'étude leurs habitudes. Ils ont notamment indiqué aux chercheurs à quel moment de la journée ils se mettaient à fumer. 32 % d'entre eux consommaient leur première cigarette dans les cinq minutes après leur réveil, 31 % la fumaient entre 6 et 30 minutes après s'être levés, 18 % entre 31 et 60 minutes, et 19 % ne commençaient à fumer que plus tard dans la journée (plus d'une heure après le réveil).

"Ceux qui fument au réveil inhalent plus profondément la fumée. C'est sans doute pourquoi on retrouve une concentration plus élevée de NNAL dans leur sang ainsi qu'un risque accru de développer un cancer du poumon ou de la bouche", explique le professeur Branstetter.

L'étude conclut que "le moment de la première cigarette consommée dans la journée pourrait constituer un facteur important pour identifier les fumeurs les plus à risque et développer les actions de prévention les concernant".

Article rédigé par Georges Simmonds pour RT Flash

PSU

La consommation régulière de poisson réduit le risque de pathologie et augmente l'espérance de vie
Mercredi, 03/04/2013 - 15:51

Selon une étude réalisée par des chercheurs de l'Université d'Harvard, dirigés par Dariush Mozaffaris, les personnes de plus de 65 ans ayant les niveaux d'omega-3 les plus élevés vivent en moyenne 2,2 ans de plus que ceux présentant les taux les plus faibles de ces acides gras que l'on retrouve notamment dans les « poissons gras », thon, saumon, sardines, maqueraux.

Cette étude a été réalisée sur 2700 personnes âgées de plus de 65 ans, vivant dans trois états américains (Caroline du Nord, Maryland et Pennsylvanie) qui ont été suivies pendant 16 ans. Ces travaux montrent que la consommation régulière de ce type de poisson pourrait réduire le risque de mortalité, toutes causes confondues, jusqu'à 27 % et d'environ 35 % pour la mortalité cardio-vasculaire.

"La consommation de poissons riches en acides gras ne cesse d'augmenter mais jusqu'à présent, il y avait eu peu de travaux pour essayer de mesurer rigoureusement les effets bénéfiques des oméga-3 sur la santé et l'espérance de vie des personnes âgées", précise le Professeur Dariush Mozaffari, co-auteur de ces travaux.

"Les résultats de cette recherche confirment l'importance de niveaux suffisants d'omega-3 dans le sang pour la santé cardiovasculaire et laissent penser que, plus tard dans la vie, ces bienfaits pourraient en fait prolonger le nombre d'années restant à vivre", ajoute-t-il.

Selon cette étude, la consommation régulière de poissons et notamment de poissons gras permet de réduire sensiblement le risque d'accident vasculaire cérébral, de démence, d'asthme, de maladies rénales et de diabète.

Aux Etats-Unis, la consommation de poisson par habitant a augmenté de 50 % depuis 1980, selon le Département américain de l'Agriculture.

Article rédigé par Elisa Tabord pour RT Flash

AIM

Reconstruire des tissus vivants à l'aide de microfibres
Mercredi, 03/04/2013 - 15:44

Des chercheurs japonais de l'Institut des sciences industrielles de Tokyo dirigés par Shoji Takeuchi ont réussi à fabriquer des structures en microfibres contenant cellules et protéines et pouvant être utilisées pour assurer certaines fonctions défaillantes dans des tissus vivants lésés.

Ces scientifiques ont pu, grâce à cette structure synthétique intégrant des cellules de pancréas, réguler le taux de sucre d'une souris diabétique en moins de deux semaines.

L'étude souligne que ces "microfibres cellulaires" pourraient être utilisées dans l'avenir pour se substituer à des éléments ou fonctions défaillantes du corps humain, qu'il s'agisse de vaisseaux sanguins, de nerfs, de muscles, de peau.

Ces structures en microfibres fabriquées à partir d'hydrogel et de gel polymère ne sont pas nouvelles mais, jusqu'à présent, elles n'étaient pas capables de reproduire des assemblages cellulaires complexes, comme ceux que l'on trouve dans les systèmes vivants.

La prouesse des chercheurs japonais a été de parvenir à intégrer des protéines opérationnelles dans ces structures synthétiques. Pour atteindre cet objectif, les chercheurs ont fabriqué une micro seringue permettant d'injecter des microcapsules contenant une combinaison de protéines et de tissus cellulaires. En fin de processus, les scientifiques japonais ont utilisé une enzyme qui va dissoudre cette hydrogel artificiel et libérer cette combinaison de cellules et de protéines.

Les premiers essais chez le rat de ces tissus synthétiques ont permis de restaurer la fonction cardiaque mais également de remplacer des vaisseaux sanguins et de créer un réseau de neurones.

Selon ces chercheurs, « ces fibres cellulaires pourraient constituer les éléments de base d'assemblage de tissus vivants complexes ». En outre, la technique actuelle peut être perfectionnée en utilisant l'impression ou l'auto assemblage pour produire des tissus complexes intégrant un réseau nerveux et sanguin.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Caractériser en quelques instants une tumeur grâce à la microfluidique
Mercredi, 03/04/2013 - 15:30

Dans le traitement du cancer du sein, il est très important de caractériser le plus rapidement possible le profil moléculaire et génétique de la tumeur dont souffre la patiente.

Chez certaines malades, on peut évaluer le risque de métastases en mesurant la concentration de protéines HER2, situées à la surface des cellules cancéreuses. Des chercheurs suisses ont mis au point un nouveau système particulièrement rapide et fiable pour identifier ces protéines dans les tumeurs. Cette analyse permet aux médecins de choisir la meilleure option thérapeutique pour la malade.

Cet outil très novateur permet de réaliser une évaluation précise du type de cancer en seulement quelques minutes, contre plusieurs heures avec les méthodes classiques. Le système se présente sous la forme d'une puce composée de verre et de silicium et traversée par un réseau de canaux de 100 microns de diamètre. Un échantillon de la tumeur est placé à l'intérieur de la puce puis mis en contact avec un sérum contenant des anticorps. Ces derniers ont été modifiés de manière à ne s'arrimer qu'aux protéines HER2. Grâce à cette méthode, les médecins peuvent détecter, en combinant fluorescence et microfluidique, avec une extrême précision et très rapidement, la quantité de protéines recherchées.

Grâce à ce système, qui associe de techniques différentes, les médecins peuvent atteindre un très haut niveau de fiabilité : des analyses avec cette méthode sur 76 échantillons de tumeurs ont permis de ramener à trois le nombre de résultats ambigus, contre 27 par les méthodes traditionnelles.

« Pour l'instant, nous avons testé notre système avec la protéine HER2, mais notre technique peut sans problème être utilisée pour détecter d'autres biomarqueurs présents dans différents types de cancers », souligne Ata Tuna Ciftlik, l'un des chercheurs.

Article rédigé par Georges Simmonds pour RT Flash

EPFL

PNAS

Une puce électronique pour réguler l'appétit !
Lundi, 01/04/2013 - 12:10

Des chercheurs britanniques de l'Imperial College de Londres, dirigés par les Professeurs Chris Toumazou et Sir Stephen Bloom, ont mis au point une puce « intelligente » qui permettrait de contrôler l'appétit. Cet implant est relié au nerf vague (nerf pneumogastrique) qui joue un rôle-clé dans la régulation de l'appétit ainsi que dans de nombreuses autres fonctions physiologiques. Cette puce est capable d'envoyer un signal au cerveau pour déclencher la satiété. Comme le souligne le Professeur Bloom, c'est un peu comme si le cerveau recevait une instruction lui disant "votre intestin est rempli de nourriture, il n'est pas nécessaire de manger davantage".

Selon ses concepteurs, il s'agit du premier modulateur intelligent implantable de ce type. D'une taille de seulement quelques millimètres de diamètre, cet implant est fixé au nerf vague, dans l’abdomen, au moyen d'électrodes.

La puce a été conçue pour pouvoir reconnaître et interpréter les signaux biochimiques liés à l'appétit dans le nerf vague. Quand la puce considère que le porteur a suffisamment mangé, elle envoie un signal au cerveau pour déclencher le processus de satiété.

Les essais en laboratoire de cet implant ont déjà permis de fournir la preuve de ce concept et les chercheurs affirment que cette puce pourrait représenter une alternative viable à la pose d'un anneau gastrique.

Le projet vient de recevoir plus de 7 millions d'euros du Conseil européen de la recherche et les mêmes chercheurs ont déjà mis au point une puce permettant de réduire les crises d'épilepsie en ciblant également le nerf vague. Les essais sur l'homme de cet implant devraient commencer en 2016.

Article rédigé par Georges Simmonds pour RT Flash

BBC

La consommation de drogue augmente le risque de schizophrénie précoce
Lundi, 01/04/2013 - 12:04

La schizophrénie est une pathologie mentale lourde qui est d'autant plus difficile à traiter qu'elle apparaît précocement.

Le développement actuel constaté au niveau mondial de la polytoxicomanie est considéré comme un facteur aggravant en termes de risque de développer une schizophrénie précoce.

Il reste cependant à évaluer de manière précise l'ampleur de ce risque. C'est ce travail qu'a réalisé une équipe de l’Université d’Australie Occidentale sur une population de 167 patients schizophrènes, répartis en quatre groupes, en fonction de leurs pratiques en matière de consommation de drogue.

Le premier groupe comptait 65 patients ne présentant aucune addiction. Le deuxième groupe comptait 68 patients présentant une addiction au cannabis. Le troisième groupe comptait 25 patients addictifs au cannabis et aux amphétamines et enfin le dernier groupe qui comptait neuf patients, addictifs au cannabis, aux amphétamines et à la cocaïne.

Selon cette étude, l'âge moyen d'apparition de la schizophrénie est de 23,3 ans, chez les sujets ne consommant aucune drogue, 22 ans et demi chez les consommateurs exclusifs de cannabis, 20,8 ans, chez les sujets consommant à la fois du cannabis et des amphétamines et enfin 19 ans et demi, chez les sujets consommant de la cocaïne, du cannabis et des amphétamines.

Ce travail confirme que la consommation simultanée de plusieurs drogues augmente sensiblement le risque de développer une schizophrénie précoce puisqu'on constate un écart de presque quatre ans entre l'âge moyen de déclenchement de la schizophrénie chez les sujets ne consommant pas de drogue et l'âge chez ceux qui sont polytoxicomanes.

Cette étude souligne enfin que la consommation de cannabis peut ouvrir la voie à la prise régulière d'autres substances plus puissantes et plus dangereuses.

Article rédigé par Georges Simmonds pour RT Flash

Deepdyve

Les enfants dépressifs ont plus de risques de problèmes cardiaques à l'adolescence
Lundi, 01/04/2013 - 11:41

Une étude réalisée par l'École de Médecine de Saint-Louis et l'Université de Pittsburgh vient de montrer que les enfants victimes d’un syndrome dépressif ont un risque sensiblement plus grand de problèmes cardiaques au cours de l'adolescence.

Ces travaux confirment d’autres études qui montrent un lien important entre l’existence de facteurs de risque cardiaques à l’adolescence, le développement d’une maladie cardiaque et le risque de décès à l'âge adulte.

Le professeur Mac Carney, l'un des auteurs de cette étude, souligne également le lien entre dépression et tabagisme et rappelle que les adolescents qui fument ont un risque deux fois plus grand de mourir avant 55 ans.

Ces travaux ont étudié 550 enfants de 2004 à 2011. En début d'études, ces enfants avaient en moyenne neuf ans. La moitié des participants avait déjà souffert de dépression et l'autre moitié n'avait jamais connu de problèmes psychiatriques. En 2011, les enfants, devenus adolescents, ont répondu à un questionnaire sur leur mode de vie.

Dans le groupe des enfants qui avaient déjà connu la dépression, 22 % étaient devenus obèses à l'adolescence alors que ce taux d'obésité n'était que de 11 % chez les adolescents n'ayant pas connu la dépression pendant l'enfance. Autre constatation inquiétante, un tiers des adolescents qui avaient connu la dépression pendant l'enfance étaient devenus des fumeurs réguliers, contre 13 % seulement des adolescents de l'autre groupe.

L'étude montre enfin que les facteurs de risque de maladies cardiaques sont plus fréquents chez les enfants qui ont été touchés par la dépression et que cette pathologie augmente, indépendamment de tous les autres facteurs, le risque cardiaque à l'adolescence.

Article rédigé par Georges Simmonds pour RT Flash

WUSTL

La migraine est-elle provoquée par des anomalies cérébrales ?
Lundi, 01/04/2013 - 11:35

Des chercheurs italiens de l'Université Vita-Salute San Raffaele de Milan ont montré que la migraine pouvait être liée à certaines anomalies cérébrales existant depuis la naissance et à d'autres anomalies se développant au cours de la vie.

Ces scientifiques ont mesuré précisément, grâce à l'IRM, l'épaisseur corticale et les anomalies de surface chez 63 patients migraineux et 18 personnes exemptes de troubles migraineux. Ces deux indicateurs ont été retenus car ils fournissent des informations complémentaires : l'épaisseur corticale évolue tout au long de la vie et peut être modifiée par la maladie ; la surface corticale augmente pour sa part à la fin du développement fœtal.

Ces examens ont révélé que les personnes souffrant de migraine chronique présentent une réduction de l’épaisseur corticale et de la surface dans les régions liées au traitement de la douleur. Les chercheurs ont également constaté, chez les personnes atteintes de migraine, une répartition particulière de l'épaisseur corticale et des anomalies de surface.

S'appuyant sur ces observations, les chercheurs émettent l'hypothèse que les anomalies corticales observées chez les patients souffrant de migraine pourraient résulter d'un double mécanisme, d'une part une prédisposition génétique qui s'exprimerait par la modification de la surface corticale, et d'autre part les effets de la maladie elle-même, qui entraînerait des anomalies de l’épaisseur corticale.

Les chercheurs vont à présent essayer de voir si ces anomalies corticales sont stables ou ont tendance à s'aggraver au cours de la maladie.

Article rédigé par Elisa Tabord pour RT Flash

Eurekalert

La méditation fait baisser le stress dans le cerveau
Lundi, 01/04/2013 - 11:13

Des chercheurs de l'Université de Californie dirigés par Tonya Jacobs ont réussi à établir, pour la première fois, une relation directe entre méditation, attention et stress.

On sait qu'un niveau élevé de cortisol, une hormone produite par la glande surrénale, correspond à un stress physique ou psychologique. Dans cette expérience, les chercheurs ont évalué les effets neurobiologiques d'un stage de trois mois de méditation sur un groupe de volontaires. Pendant ce stage, les volontaires ont bénéficié de l'enseignement d'un moine bouddhiste qui les a formés aux techniques de la méditation et de la concentration.

Les scientifiques ont pu constater l'existence d'un lien de causalité entre la maîtrise d'un niveau élevé de concentration, une méditation et la diminution du taux de cortisol. Cette expérience montre en effet que, plus les participants progressaient dans la pratique de la méditation, plus leur taux de cortisol diminuait et moins ils étaient stressés.

Ces recherches confirment donc à quel point l'esprit et le corps sont en connexion étroite. En outre, les participants à ce stage ont également amélioré leur perception visuelle, leur sommeil et leur bien-être global.

Les chercheurs indiquent que ce type d'entraînement mental, s'il conduit à une pratique régulière de la méditation, est susceptible d'entraîner des effets biologiques et biochimiques durables au niveau cérébral. Dans une boucle rétroactive positive, ces effets bénéfiques sur l'esprit rétro-agissent à leur tour sur le corps, provoquant une sensation de détente et de calme.

Article rédigé par Elisa Tabord pour RT Flash

Alphagalileo

Surveiller le patient à distance grâce aux implants électroniques
Lundi, 01/04/2013 - 11:08

Des chercheurs de l’Ecole Polytechnique Fédérale de Lausanne (EPFL) ont mis au point un micro-implant qui permet de détecter et mesurer jusqu’à cinq substances – protéines ou acides organiques - présentes dans le corps du patient.

Cet implant minuscule qui ne mesure que 14 mm de long est équipé d'un microémetteur radio qui lui permet de transmettre en temps réel des informations recueillies. Celles-ci peuvent alors être directement consultées et exploitées par le médecin à partir de son smartphone, d'une tablette numérique ou d'un ordinateur.

Ce micro implant est destiné en priorité aux malades souffrant de pathologies chroniques et nécessitant un contrôle permanent de différents paramètres biologiques. Par exemple, un malade souffrant d'un cancer pourra bénéficier, grâce à cet implant, d'un suivi médical plus fin de sa maladie, incluant évaluation permanente de la thérapie mise en œuvre.

Dans ce minuscule implant, les chercheurs ont pu loger cinq capteurs et un microémetteur radio. Autre innovation, l'alimentation de cet implant se fait de l'extérieur, à l'aide d'un patch posé sur l'épiderme qui transmet l'énergie directement à l'implant. Celui-ci fonctionne en consommant seulement 0,1 watt !

En théorie, comme le soulignent les chercheurs suisses, ce type d'implant est capable de détecter des centaines de substances différentes. À terme, les chercheurs imaginent que chaque malade atteint d'une maladie chronique bénéficiera de la pose d'un implant de ce genre qui analysera en permanence les différents paramètres biologiques et biochimiques pouvant intéresser son médecin, permettant un suivi médical bien meilleur qu'aujourd'hui avec un confort accru pour le malade.

Article rédigé par Georges Simmonds pour RT Flash

EPFL

EPFL

Une alimentation riche en fibres diminue le risque d'AVC
Samedi, 30/03/2013 - 09:50

Selon une étude publiée dans le journal de l'Association américaine du cœur, manger plus de fibres peut diminuer le risque d'accident vasculaire cérébral. Les fibres ne sont pas absorbées pendant la digestion et de précédentes recherches avaient montré que les fibres alimentaires peuvent réduire les facteurs de risque d'AVC, comme l'hypertension artérielle et des taux de LDL, le «mauvais» cholestérol.

Dans cette étude, les chercheurs ont découvert que chaque augmentation de sept grammes de la consommation totale de fibres par jour entraîne une diminution de 7 % du risque de premier AVC. Une telle consommation de fibres correspond à une portion de pâtes au blé entier, soit deux portions de fruits et légumes.

La consommation moyenne quotidienne de fibres chez les adultes américains reste inférieure à la recommandation de l'American Heart Association d'au moins 25 grammes par jour. Aux États-Unis, l'AVC est la quatrième cause de décès, tuant plus de 137.000 personnes chaque année.

En conclusion de cette étude, l'Association américaine du cœur recommande donc d'augmenter sensiblement la consommation de fibres dans son alimentation pour diminuer les risques d'accidents vasculaires cérébraux et de maladies cardio-vasculaires.

Article rédigé par Georges Simmonds pour RT Flash

AHA

Des cellules-souches du sang reprogrammées pour ralentir le vieillissement
Samedi, 30/03/2013 - 09:34

En reprogrammant les cellules-souches qui produisent le sang, des chercheurs de la Lund University ont réussi à rajeunir le sang des souris. Selon ces travaux, la plupart des effets négatifs du vieillissement ne seraient pas causés par des altérations de l'ADN et seraient en fait réversibles, car liés à des facteurs épigénétiques.

"Je sais que la composition sanguine évolue avec l'âge. Chez les personnes âgées, le nombre de lymphocytes T diminue alors que le nombre de cellules myéloïdes augmente", souligne Martin Wahlestedt, auteur principal de cette étude. "Le processus de vieillissement est une conséquence des changements dans nos cellules-souches au fil du temps", précise Martin Wahlestedt qui ajoute "Certains de ces changements sont irréversibles, par exemple les dégâts sur l'ADN des cellules-souches mais d'autres changements sont en fait des modifications épigénétiques. Celles-ci peuvent être réversibles si nous parvenons à reprogrammer les cellules souches impliquées".

Wahlestedt souligne toutefois que ces recherches en sont encore à un stade fondamental mais elles confirment néanmoins l'hypothèse d'une possible reprogrammation de ces cellules-souches sanguines pour lutter contre les effets du vieillissement.

Article rédigé par Georges Simmonds pour RT Flash

BJH

Une étude américaine confirme l'effet bénéfique sur la santé de l'agriculture biologique
Samedi, 30/03/2013 - 08:39

Des chercheurs américains de la Southern Methodist University de Dallas (Texas) dirigés par Johannes H. Bauer viennent de publier une étude largement reprise par les médias outre-Atlantique. Ces travaux avaient pour but d'évaluer l'impact sur la santé d'une consommation régulière de produits issus de l'agriculture biologique, un sujet qui reste controversé car les études antérieures réalisées sur cette question ont donné des résultats différents.

Dans ce travail très solide et publié dans PLOS,  les chercheurs ont utilisé la mouche Drosophila melanogaster, afin d'essayer de déterminer si la consommation d'aliments issus de l'agriculture biologique pouvait être bénéfique pour la santé. Cette espèce de mouche est largement utilisée dans les laboratoires pour étudier les maladies humaines, qu'il s'agisse du diabète, des maladies cardio-vasculaires ou de la maladie d'Alzheimer.

Sur le plan méthodologique, ces mouches ont été nourries avec des produits biologiques et non biologiques achetés dans le commerce. Les chercheurs ont utilisé des extraits de pommes de terre, du soja, des raisins et des bananes. Chaque type d'aliment a été évalué séparément afin d'éviter des résultats biaisés liés à une association de produits différents.

À l'issue de cette expérimentation, les chercheurs ont mesuré la condition physique générale des insectes, l'évolution de leur longévité, la fertilité et leur niveau de stress. Le résultat de cette étude est que globalement les mouches nourries avec des aliments biologiques étaient en meilleure santé que celles ayant consommé des aliments industriels.

Mais cette étude souligne que ces résultats ne veulent pas dire que tous les aliments biologiques se valent et ont un impact bénéfique sur la santé. Dans certains cas en effet, la consommation par ces insectes de certains aliments biologiques (par exemple des raisins secs) n'a eu aucun effet bénéfique sur leur santé.

"A notre grande surprise, dans la majorité de nos tests, les mouches nourries avec des aliments biologiques ont obtenu des résultats sensiblement meilleurs aux évaluations de leur état de santé que les mouches nourries avec des aliments conventionnels", souligne Johannes Bauer qui a dirigé cette étude.

Plusieurs études antérieures avaient déjà montré que les aliments biologiques contenaient des concentrations plus élevées de nutriments essentiels, tels que les protéines, les acides gras insaturés ou encore les antioxydants. Les aliments biologiques se caractérisent par ailleurs par des niveaux plus faibles de nitrates, ce qui pourrait expliquer certains effets bénéfiques constatés sur les mouches drosophiles.

Autre constatation intéressante : les aliments biologiques contiennent des concentrations élevées de polyphénols, des composés organiques produits par de nombreuses plantes pour lutter contre les maladies. Or, on sait à présent que ces polyphénols ont également un effet bénéfique sur la santé des animaux en diminuant leur stress et en stimulant leur système immunitaire.

L'étude conclut en affirmant que les effets d'une consommation régulière d'aliments issus de l'agriculture biologique sont mesurables et bénéfiques pour la santé mais souligne que "les mécanismes moléculaires exacts des effets observés sur la santé restent à élucider."

Article rédigé par Georges Simmonds pour RT Flash

SLW

SMU

PLOS

Les polymères photovoltaïques utilisables comme implants rétiniens
Samedi, 30/03/2013 - 08:19

Une équipe de recherche italienne, de l'Institut Italien de Technologie de Gênes, a montré qu'un polymère photovoltaïque pouvait permettre de restaurer les capacités de détection de lumière d’une rétine endommagée, offrant l'espoir de restaurer la vision des personnes atteintes de maladies dégénératives de l'œil, comme la dégénérescence maculaire liée à l'âge (DMLA).

En effet, ce type de polymère qui convertit la lumière en signal électrique ne nécessite pas d'alimentation en énergie, comme c'est le cas pour les autres types de prothèses artificielles. Pour parvenir à ce résultat, les chercheurs ont utilisé un film organique de poly 3-hexylthiophène pour permettre la stimulation neuronale par photo sensibilisation.

Il existe déjà plusieurs types d'implants rétiniens électroniques et bioniques mais ces systèmes offrent une résolution limitée et nécessitent l'utilisation de puces rigides qui ne se plient pas à la courbure de l'œil.

"Les polymères organiques pourraient devenir les substrats de la prochaine génération de prothèses rétiniennes car ils combinent finesse et souplesse" précise Stephen Rose, directeur de la Fondation de lutte contre la cécité.

Les chercheurs italiens, dirigée par Fabio Benfenati et Guglielmo Lanzani, sont partis d'une idée saugrenue : essayer et faire croître des neurones sur des polymères photovoltaïques pour vérifier s'il était possible d'exciter des neurones à partir de la lumière transmise par ce polymère. Leurs recherches en 2011 ont montré que tel était bien le cas.

Dans cette nouvelle étude, les chercheurs italiens ont montré qu'il était possible de restaurer l'activité électrique des neurones rétiniens grâce à une stimulation lumineuse transmise par des polymères. Il semblerait que, lorsque le polymère est exposé à la lumière, des charges électriques négatives s'accumulent à sa surface, ce qui entraînerait une dépolarisation ionique à la surface du neurone, provoquant ainsi son excitation. Pour l'instant toutefois, les films en polymère testés ne répondent pas encore pas à la gamme complète de sensibilité lumineuse que permettent les photorécepteurs classiques. Mais selon les chercheurs cet obstacle n'est pas rédhibitoire et pourrait assez facilement être surmonté.

Compte tenu de ces résultats encourageants, les scientifiques ont déjà commencé à expérimenter des implants rétiniens à base de polymère chez des rats atteints de rétinite pigmentaire.

Article rédigé par Georges Simmonds pour RT Flash

MIT Technology Review

Nature

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Les enfants regardent trop la télévision
Samedi, 30/03/2013 - 09:45

Une étude menée par des chercheurs de l'Université de Glasgow (Écosse) montre qu'il serait souhaitable de limiter chez les jeunes enfants le temps de consommation des programmes de télévision et de vidéo.

Selon cette étude, les enfants qui passent plus de trois heures par jour devant la télévision présentent un risque accru de comportement asocial. En revanche, ces recherches montrent qu'un tel risque semble absent pour les enfants qui pratiquent des jeux éducatifs et non des jeux violents sur ordinateur ou sur console.

Des études antérieures avaient déjà montré qu'une forte consommation de télévision pour la petite enfance augmentait le risque de comportement criminel. Cette étude s'est focalisée sur l'impact psychologique et social de la consommation télévisuelle par des enfants âgés de cinq à sept ans.

L'étude portait sur un échantillon de 11.000 enfants américains nés entre 2000 et 2002. La santé et le comportement de ses enfants ont été observés et suivis pendant plusieurs années par les chercheurs.

Ces travaux montrent que près des deux tiers des enfants regardent la télévision pendant une durée qui va de une à trois heures chaque jour. 15 % des enfants regardent la télévision trois heures par jour et seulement 2 % des enfants ne regardent jamais la télévision.

Cette recherche conclut que les enfants regardant la télévision plus de trois heures par jour ont sensiblement plus de risques de développer des comportements asociaux ou violents par rapport à ceux qui ont une consommation télévisuelle plus faible.

Article rédigé par Elisa Tabord pour RT Flash

Science World Report

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
La propulsion ionique franchit une nouvelle étape
Jeudi, 04/04/2013 - 14:46

Quand un courant passe entre deux électrodes, il produit un déplacement d'air et si une tension suffisante est appliquée, elle peut générer une poussée sans l'aide de moteurs classiques à carburant chimique. Ce phénomène, appelé poussée électrohydrodynamique ou propulsion ionique, est connu depuis les années 60.

L'opinion dominante de la communauté scientifique a longtemps été que la propulsion ionique n'était pas viable car elle nécessite la production d'une énorme puissance électrique pour produire une poussée suffisante pour propulser un véhicule. Mais cette réalité est en train de changer et des chercheurs du MIT ont montré que les propulseurs ioniques peuvent être tout aussi efficaces que les moteurs à turbine conventionnels.

Dans leurs expériences, ils ont réussi, à l'aide d'un moteur ionique, à produire 110 newtons de poussée par kilowatt contre 2 pour un moteur à réaction classique. Selon Steven Barrett, professeur d'aéronautique au MIT, il est envisageable, compte tenu de ces avancées, d'utiliser des systèmes de propulsion ionique pour de petits engins terrestres ou aériens.

Outre leur rendement élevé, les propulseurs ioniques sont silencieux et invisibles dans l'infrarouge, car ils ne dégagent pas de chaleur. Cette caractéristique en fait un moteur idéal pour équiper de petits appareils automatiques d'observation de détection et de surveillance.

Il reste cependant de sérieux obstacles à surmonter pour généraliser la propulsion ionique. Le premier est la densité de poussée qui s'exprime par le rapport entre la quantité de poussée produite et la surface concernée. Or, les performances des moteurs ioniques dépendent du déplacement d'air entre les électrodes : plus ces électrodes sont éloignées, plus la poussée sera forte.

On voit tout de suite les difficultés qu'entraîne cette caractéristique pour faire voler un avion et des chercheurs précisent que la propulsion ionique pour des engins volants devra englober l'ensemble de l'appareil. Un autre inconvénient est la tension nécessaire pour fournir une poussée suffisante.

Les chercheurs pensent néanmoins que ce défi n'est pas insurmontable et que de petits engins à propulsion ionique pourraient être alimentés par des panneaux solaires très performants associés à des piles à combustible.

"Bien sûr, il n'est pas question dans un futur proche de faire voler de gros avions avec des moteurs ioniques. Cette technique n'en est qu'à ses débuts et sa marge de progression est considérable en termes d'efficacité énergétique. Je reste donc convaincu que nous verrons dans le futur toute une panoplie d'engins automatiques légers de surveillance utiliser des moteurs ioniques pour se déplacer", ajoute le professeur Nicole.

Article rédigé par Georges Simmonds pour RT Flash

MIT

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top