RTFlash

RTFLASH Recherche & Technologie
NUMERO 744
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 28 Mars 2014
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
Avanade : une cabine d'essayage intelligente !
Des nanocapteurs pour détecter les antibiotiques dans le sang
Des robots pour ravitailler les satellites dans l'Espace !
Matière
L’impression 3D va-t-elle révolutionner la cardiologie ?
Transformer la biomasse marine en biogaz
Un système de stockage photovoltaïque pour bus électriques
Vivant
Une étude américaine remet en cause l'intérêt de la cigarette électronique pour arrêter de fumer
Cancer du côlon : mieux comprendre le rôle de la flore intestinale
Cancer du poumon : vers un test de dépistage sanguin
Des fraises pour protéger le cœur
La pollution de l'air, nouvelle hécatombe planétaire selon l'OMS !
Allez-vous mourir avant 5 ans ?
Prévoir les épidémies de grippe grâce à la génomique
Le chocolat noir bon pour les artères !
Les cerveaux des autistes créeraient plus d'information
Edito
Les ondes gravitationnelles : le témoignage du premier milliardième de seconde de la création de notre Univers !



La découverte est historique et a fait l’effet d’un coup de tonnerre dans le monde de la science : des chercheurs américains, dirigés par John Kovac et Clement Pryke, ont annoncé le 17 mars dernier avoir détecté pour la première fois des ondes gravitationnelles primordiales, émises au tout début de notre Univers, 10-38 secondes après le Big Bang, probablement au cours d’une phase d’inflation pendant laquelle le volume de l’espace a été multiplié à une vitesse fantastique par 1026.

Résultat de deux ans d’observations patientes, cette avancée décisive en physique et en cosmologie, a été rendue possible grâce au nouveau télescope Bicep, installé au pôle Sud. Pour parvenir à ce résultat, ce télescope qui observe le Cosmos dans le domaine des micro-ondes a établi une cartographie du fond diffus de l’Univers assez comparable à celle du satellite Planck. Cette dernière avait permis d’observer avec une précision inégalée les infimes fluctuations de température – d’un millionième de degré - de la première lumière de l’Univers, émise 380.000 ans après le Big Bang.

Selon le même principe, Bicep2 (Background Imaging of Cosmic Extragalactic Polarization) a analysé l’une des caractéristiques de ce rayonnement : sa polarisation particulière. C’est en analysant cette carte de la polarisation que la première onde gravitationnelle a été mise en évidence. Bien que le télescope Bicep2 n’ait pas directement observé ces ondes gravitationnelles primordiales, il a pu en mesurer les effets  sur ce rayonnement primordial révélé en mars 2013 par le satellite Planck.

En exploitant la cartographie de ce fonds diffus cosmologique révélé par le satellite Planck, les chercheurs ont pu vérifier que certains photons venant de l’Espace étaient bien polarisés de façon particulière, exactement comme le prévoyait la théorie de la Relativité générale d’Einstein.

C’est en 1918 que le génial physicien, s’appuyant sur sa théorie récente formulée en 1915, avait prévu l’existence de ces ondes gravitationnelles sous l’effet de très grandes masses accélérées à de très grandes vitesses. Selon la théorie d’Einstein, ces ondes gravitationnelles doivent principalement provenir d’objets massifs et très denses, tels que des trous noirs ou encore des étoiles à neutrons.

En 1974, deux astronomes, Russel Hulse et Joseph Taylor (Prix Nobel de Physique en 1993), avaient observé pour la première fois une preuve indirecte de l'existence de telles ondes en observant un pulsar binaire (un couple d'étoiles dont l'une des étoiles est une étoile à neutrons) et en montrant que sa période orbitale diminuait exactement, en perdant son énergie par émission gravitationnelle, comme le prédisait la théorie de la relativité générale.

Mais, comme le souligne de manière pertinente Thibault Damour, professeur à l’Institut des hautes études scientifiques, « Ce qui est beau dans cette découverte, c’est moins les ondes gravitationnelles elles-mêmes que leur origine quantique. »

Il est en effet très important de préciser que le type d’ondes  gravitationnelles qui vient d’être observé est différent des ondes gravitationnelles « classiques », comme celles découvertes par Hulse et Taylor et qui sont produites par des étoiles doubles ou des trous noirs. Ces ondes « classiques » sont en effet directement liées à la théorie de la relativité générale d’Einstein qui propose un modèle global de la structure de l’espace-temps. Elles n’ont pas encore été détectées directement mais pourraient bien l’être en 2015, grâce à la mise en service de deux interféromètres d’une extrême sensibilité : Virgo en Italie et Ligo aux Etats-Unis.

Celles révélées le 17 mars auraient pour leur part été créées par des fluctuations du vide quantique régnant aux premiers instants de l’Univers.

Bicep2 fait même d’une pierre deux coups car elle conforte plusieurs théories qui ont toutes en commun de postuler une période très brève d’inflation, c’est-à-dire une prodigieuse expansion de l’Univers juste après le Big Bang. « C'est une preuve cosmologique totalement nouvelle et indépendante de la vision inflationniste », souligne dans la revue «  Nature » le physicien Alan Guth qui avait proposé cette théorie de l’'inflation en 1980 (Voir Nature).

Comme le souligne François Bouchet, cosmologue, directeur de recherche à l'Institut d'astrophysique de Paris, du CNRS et de Paris VI, « Dans le modèle du Big Bang, il y a une phase dite d'inflation qui se produit très tôt, dans les premiers milliardièmes de milliardièmes de secondes. L'Univers, d'abord essentiellement homogène et sans déformation, subit ensuite une phase très rapide d'augmentation des distances puisqu’il passe en une seconde de la taille d’un atome à celle d’une galaxie. C’est au cours de cette phase que se forment des « grumeaux » qui se traduisent par des variations de densité et des accumulations de différentes quantités de matières en différents endroits".

C’est cette première phase « inflationniste » qui aurait laissé son empreinte dans le rayonnement fossile de l'Univers depuis sa création, il y 13,7 milliards d’années, comme l’a magistralement confirmé la cartographie ultra-précise de l'Univers dressée par le satellite Planck l’année dernière.

Elargissant la portée de cette découverte, François Bouchet souligne que cette avancée fondamentale vient également conforter "le degré de validité des lois que l'humanité a réussi à extraire de la nature", faisant notamment allusion aux grandes théories qui constituent le cadre de référence de notre compréhension du réel, de l’infiniment petit à l’infiniment grand : lois de la gravitation de Newton (1685), l'électromagnétisme de Maxwell (1865) , la relativité générale d’Einstein (1915) et bien entendu la mécanique quantique, formalisée par une dizaine de physiciens parmi lesquels Albert Einstein, Max Planck, Niels Bohr, Louis de Broglie, Paul Dirac, Ervin Schrödinger et Bernard Heisenberg, Louis de Braille, Paul d’Irak entre 1900 et 1927.

Aujourd’hui, la théorie du « Big Bang », élaborée entre 1922 et 1927 par Friedmann, Lemaître et Hubble a été largement confirmée par de multiples observations et expérimentions, qu’il s’agisse de la découverte en 1965 du bruit de fond cosmique (rayonnement fossile du Cosmos) par Penzias et Wilson, du décalage vers le rouge des galaxies, découvert par Hubble et bien sûr de la cartographie cosmique d’une stupéfiante précision, dressée par le satellite Planck en 2013.

Cette carte du Cosmos confirme que notre Univers est bien constitué à plus des deux tiers par une mystérieuse « énergie sombre », dont on ne sait à peu près rien, si ce n’est qu’elle semble contrebalancer la force de gravitation et provoquer un développement accéléré de notre Univers depuis environ 7 milliards d’années. Le « solde » de ce qui constitue l’Univers est composé de « matière noire » (27 % de l’Univers), dont on ne connaît toujours pas la nature exacte et enfin de « matière ordinaire » (celle dont nous sommes composés), pour seulement 5 %...

Le moins qu’on puisse dire est qu’on ne peut pas se satisfaire d’un modèle théorique global, le Big Bang, aussi incomplet puisqu’il reste incapable d’expliquer de quoi sont faits 95 % de notre Univers ! Autre anomalie très intéressante : la partie droite de la nouvelle carte de l'Univers apparaît nettement différente de la partie gauche et comporte ce que les physiciens appellent « asymétrie des températures moyennes ». Or cette étrange dissymétrie n’a aucune explication satisfaisante dans le cadre du « modèle standard » actuel…

Et puisque l’on évoque cette curieuse dissymétrie, comment ne pas être également intrigué par celle, non moins étrange, concernant la présence très majoritaire de matière noire dans notre Univers ? Sachant que matière et antimatière ont été créées en même quantité au moment du Big Bang, on peut en effet se demander pourquoi aujourd’hui notre Univers observable est uniquement composé de matière et ne s’est pas immédiatement autodétruit lors de sa création par annihilation réciproque de la matière et de l'antimatière ?

Mais la physique de « l’infiniment petit » réserve également bien des surprises à mesure qu’elle progresse. On se rappelle qu’en juillet 2012, le CERN de Genève confirmait (Voir CERN) la découverte du fameux boson de Higgs, la pierre manquante pour compléter enfin l’édifice du modèle standard de la physique des particules. Mais en 2013 les physiciens ont eu la grande surprise de constater qu’au lieu de découvrir une seule particule de masse d’environ 125 gigaélectronvolts (GeV), ils en avaient apparemment identifié deux, la première ayant une masse de 123,5 GeV et la seconde de 126,6 GeV.

Si cette surprenante découverte, qui ne semble pas due à des erreurs de calcul, se confirme, elle viendrait sérieusement remettre en cause non seulement le modèle standard mais également la supersymétrie, une théorie qui postule l’existence d’une relation fondamentale entre les particules appartenant à la famille des fermions (celles qui constituent la matière ordinaire) et les particules appartenant à la famille des bosons (celles qui véhiculent les quatre grandes forces de l’Univers).

En fait, contrairement à la présentation simplifiée qui en a été faite dans les médias, ce n’est pas le boson de Higgs lui-même qui confère une masse aux autres particules. En effet ce boson, découvert par le CERN, n’est qu’une manifestation du champ de Higgs. Pour prendre une comparaison que chacun peut comprendre, ce champ de Higgs pourrait représenter l’eau de l’océan et les bosons de Higgs, l’énergie transportée par les vagues.

On comprend mieux alors, grâce à cette métaphore, que ce boson de Higgs se matérialise uniquement lorsqu’un objet vient interagir avec l’eau, c’est-à-dire quand une particule interagit avec ce champ de Higgs. Il faut donc bien comprendre que, dans ce nouveau modèle physique, la masse d’une particule élémentaire cesse d’être une propriété intrinsèque mais dépend de l’interaction de cette particule avec le champ de Higgs.

Avec la découverte presque concomitante du boson de Higgs et des ondes gravitationnelles d’origine quantique, sans oublier la récente cartographie cosmique effectuée par le satellite Planck et ses inexplicables anomalies dissymétriques, les physiciens sont plus que jamais confrontés à un problème théorique majeur : comment articuler correctement dans un nouveau cadre conceptuel cohérent et global les deux grands édifices théoriques construits au début du XXe siècle : la théorie de la relativité générale et la physique quantique ?

Comme l’explique très bien le physicien américain Brian Greene dans ses essais et notamment dans « l’Univers élégant », l'incompatibilité actuelle entre la relativité générale et la physique quantique est fondamentalement liée à la structure de l'espace-temps à petite échelle. La relativité générale suppose en effet que la force de gravité se manifeste par la courbure à grande échelle et progressive de l'espace-temps à quatre dimensions (trois dimensions spatiales et une dimension temporelle).

En revanche, au niveau atomique qui est celui de la mécanique quantique, c'est le principe d'incertitude d’Heisenberg (formulé en 1927 et qui montre qu’il est impossible de connaître simultanément la vitesse et la position précise d’une particule) qui domine la trame microscopique de l’espace-temps qui est soumise à des fluctuations trop violentes pour être compatible avec la relativité générale.

Actuellement, beaucoup de physiciens pensent que la théorie des cordes, imaginée en 1968 par Gabriele Veneziano puis complétée et unifiée en 1995 grâce aux travaux de plusieurs physiciens dont l’Américain Edward Witten, constitue l'une des voies de recherche les plus prometteuses pour parvenir enfin à dépasser les incompatibilités actuelles entre la relativité générale et la mécanique quantique. Dans la théorie des cordes, qui suppose un Univers à 11 dimensions (une dimension temporelle et 10 dimensions spatiales), chaque particule serait en fait constituée d’une minuscule corde (10-33 cm) qui pourrait être ouverte ou fermée et dont le mode de vibrations particulier entraînerait l’apparition physique de cette particule et de ses propriétés physiques singulières.

Cette théorie des cordes se heurte cependant à un formalisme mathématique d’une complexité déroutante et reste très spéculative, n’étant pas directement vérifiable pour l’instant sur le plan expérimental. Néanmoins, en 1997, des physiciens américains, dont Juan Malcadena, sont parvenus à utiliser la théorie des cordes pour montrer que, même lorsqu’un trou noir s’évapore, les principes de la physique quantique restent valides et l’information contenue par ce trou noir ne se perd pas. Cette brillante démonstration finit par convaincre Stephan Hawking lui-même en 2004 !

Il reste que cette théorie des cordes pose autant de questions qu’elle est censée en résoudre. Elle comporte notamment un nombre absolument immense de solutions mathématiques et conforte une autre théorie, celle du « Multivers », ardemment défendue depuis plus de 30 ans par le physicien d’origine russe Andrei Linde.

Linde est persuadé que la théorie du Big Bang comporte trop de questions non résolues et doit tout simplement être abandonnée et remplacée par une autre hypothèse. Il souligne notamment que le Big Bang prévoit un Univers beaucoup plus petit qu’il l’est en réalité et n’explique pas pourquoi les différentes régions de l’Univers sont si semblables, ni pourquoi les galaxies les plus lointaines sont distribuées de façon aussi uniforme dans l’Univers.

Linde propose de remplacer la théorie du Big Bang par une nouvelle théorie baptisée « Univers auto-reproducteur et très forte croissance ». Selon cette théorie fascinante, notre Univers ne serait qu’une bulle à la surface d’un « Méta-Univers » infini et éternel. Dans ce modèle, ce « Multivers », qui n’aurait ni commencement ni fin dans le temps et dans l’espace ne cesserait de produire de nouveaux Univers par autoreproduction et de se développer selon une arborescence inspirée par les mathématiques fractales. Pour Linde, chacun de ces Univers posséderait ses propres lois physiques et serait à jamais déconnecté des autres Univers.

Le grand avantage de cette théorie du « Multivers » est qu’il résout deux questions lancinantes qui taraudent tous les physiciens. La première peut se formuler ainsi : comment se fait-il que toutes les constantes fondamentales de notre Univers possèdent les valeurs arbitraires qu’elles ont et pas d’autres ? Quant à la deuxième question qui découle directement de la première, elle est encore plus radicale : pourquoi l’ensemble de ces constantes fondamentales sont-elles réglées avec une précision inouïe de manière à permettre l’apparition de la vie et de la conscience ?

Il a en effet été démontré qu’il suffirait qu’une seule de ces constantes ait une valeur très légèrement différente à celle observée pour que l’apparition de la vie, telle que nous la connaissons, devienne absolument impossible dans l’Univers.

Face à cette énigme vertigineuse, un autre astrophysicien de renom, Trinh Xuan Thuan, Professeur à l’Université de Virginie et auteur de remarquables essais, comme « Le Chaos et l’harmonie » et plus récemment « Désir d’Infini », n’est pas du tout convaincu par cette hypothèse en vogue du « Multivers ».

S’appuyant notamment sur le fameux «  rasoir d'Ockham », du nom du philosophe franciscain Guillaume d’Ockham qui vécut au XIVe siècle et sur les réflexions de l’évêque philosophe irlandais Georges Berkeley, cet éminent chercheur défend avec passion le principe d’économie qui consiste à ne pas multiplier inutilement les entités pour résoudre un problème. Trinh Xuan Thuan souligne également que l’hypothèse du « Multivers » restera à jamais invérifiable et relève donc de la spéculation métaphysique et pas de la science. Il relève également que cette théorie n’apporte aucune réponse à la question fondamentale formulée par Emmanuel Kant : « pourquoi existe-il quelque chose plutôt que rien ? ».

Pour Trinh Xuan Thuan, nous devons, tout en conservant une parfaite rigueur scientifique, revenir au seul cadre du réel que nous pouvons appréhender et observer : celui de notre Univers considéré comme une entité unique, régie par des lois stables, précises et tout à fait extraordinaires qui lui permettent d’évoluer dans le temps en ne cessant de se développer en complexité, puisque nous sommes là pour en parler !

A la lumière de cette rapide synthèse des avancées récentes en physique des particules et en cosmologie, on voit donc à quel point la découverte expérimentale du – ou des – bosons de Higgs, des ondes gravitationnelles prévues par la relativité générale et de leur version quantique résultant des tout premiers instants de l’Univers, rend nécessaire une nouvelle construction théorique qui intègre la relativité générale et la physique quantique dans un ensemble plus complet et cohérent.

Mais quel que soit le nouveau cadre conceptuel et scientifique qui permettra demain d’unifier la relativité générale et la physique quantique, il ne pourra pas faire l’économie de cette troublante réalité qui nous a placés dans un Univers dont les lois étranges semblent organisées depuis sa création pour aller de la matière à la vie puis de la vie à la pensée et à la conscience…

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


Avenir
Nanotechnologies et Robotique
Avanade : une cabine d'essayage intelligente !
Mardi, 25/03/2014 - 08:10

Une cabine d'essayage intelligente, baptisée Avanade, a été présentée récemment à l'occasion du  Mobile World Congress. Ce nouveau concept part du constat que les clients qui utilisent la salle d'essayage sont sept fois plus susceptibles d'acheter que les autres.

Utilisant la technologie Microsoft, la cabine Avanade est capable de détecter automatiquement le vêtement porté par le client grâce à un lecteur RFID. S'il s'agit d'une veste par exemple, celle-ci va s'afficher immédiatement sur l’écran tactile intégré à la cabine via Windows Embedded 8. Si le client souhaite une taille ou une couleur différente, les vendeurs en sont instantanément prévenus via leurs smartphones connectés à la cabine.

Cette cabine interactive peut également proposer au client des combinaisons de produits, par exemple une chemise et une veste assorties au pantalon qu'il vient d'essayer.

Non seulement cette cabine intelligente est bien plus agréable pour le client et l'incite davantage à acheter mais elle constitue également un outil précieux d’analyse de l’activité en magasin. La solution Avanade permet en effet de recueillir des données anonymes des visites des clients dans une base de données Microsoft SQL Server hébergé dans Windows Azure.

En cours de déploiement aux États-Unis dans les magasins Kohl's depuis quelques mois, cet outil de vente très sophistiqué devrait rapidement s'imposer dans la vente de prêt-à-porter car il permet d'orienter de manière bien plus efficace les achats et la gestion des stocks. En France, cette cabine intelligente devrait faire son apparition d'ici la fin de l'année…

Article rédigé par Georges Simmonds pour RT Flash

Avanade

Des nanocapteurs pour détecter les antibiotiques dans le sang
Lundi, 24/03/2014 - 12:10

Des chercheurs britanniques du London Center of Nanotechnology, dirigés par Joseph Ndieyira, ont mis au point une technique innovante pour mesurer le taux sanguin des antibiotiques. Cette méthode repose sur l'utilisation d’un « capteur nanomécanique » capable de mesurer la concentration d’antibiotiques efficaces dans le sang.

Cette approche utilise le fait que les protéines circulantes d’un individu peuvent altérer la liaison entre une molécule d’antibiotique et la paroi bactérienne cible, et réduire son efficacité. En outre, les taux d’antibiotiques se liant aux protéines sériques sont variables d’un individu à l’autre. Mais, grâce à ce capteur nanomécanique, les chercheurs peuvent détecter la présence de molécules d’antibiotiques même à des concentrations très faibles.

Cette méthode d'évaluation pourrait permettre d' éviter un usage excessif d’antibiotiques, qui peut être à l’origine de résistances. Elle pourrait également être étendue à l’évaluation d’anesthésiques, d’anticancéreux et d’anti-VIH.

article rédigé par Georges Simmonds pour RT Flash

Nature

Des robots pour ravitailler les satellites dans l'Espace !
Vendredi, 21/03/2014 - 16:44

Le ravitaillement dans l'Espace reste un processus coûteux, dangereux et complexe. Pour relever ce défi, la Nasa travaille à la mise au point d'une méthode efficace et sûre de ravitaillement à distance, effectué directement dans l'Espace par des robots.

Les agents oxydants utilisés comme comburant par les satellites pour permettre leur déplacement dans l'Espace sont toxiques et très corrosifs, et la Nasa souhaite, grâce à sa nouvelle approche RROxiTT (Remote Robotic Oxidizer Transfer Test) éviter les risques liés au remplissage des réservoirs avant le décollage, actuellement effectué directement par le personnel, et prolonger la vie et la rentabilité des satellites déjà en orbite en les ravitaillant dans l'Espace.

Cette opération s'annonce toutefois délicate car l'agent oxydant à transférer, le tétraoxyde de diazote (NTO), produit une combustion instantanée dès qu'il est mélangé avec le carburant. Il est donc stocké dans un réservoir à très haute pression et doit être manipulé avec beaucoup de précautions.

Le projet s'appuie sur le succès du programme RRM de l'équipe SSCO (Satellite Servicing Capabilities Office), qui avait démontré que des robots contrôlés à distance étaient capables avec la technologie actuelle de manipuler les valves de carburant des satellites et de transférer un fluide sur des appareils qui n'avaient pas été prévus à cet effet.

La prochaine étape de ce projet consistera à transférer d'autres éléments servant à la propulsion des satellites, comme par exemple le Xénon, qui est utilisé par les systèmes de propulsion électrique solaire.

Article rédigé par Georges Simmonds pour RT Flash

NASA

Phys

^ Haut
Matière
Matière et Energie
L’impression 3D va-t-elle révolutionner la cardiologie ?
Jeudi, 27/03/2014 - 11:19

En utilisant de nouvelles techniques d'impression 3D, les chercheurs de l'Université d'Illinois, dirigés par Igor Efimov et John Roges, ont mis au point un nouveau type de capteur cardiaque personnalisé et sur mesure, permettant d’améliorer la quantité et la qualité des informations récoltées et de prévenir certains troubles cardiaques.

Cette nouvelle approche devrait permettre de mieux prendre en compte la forme et la dimension particulières de chaque cœur dans les actes et thérapies en cardiologie. Afin d’élaborer ces capteurs personnalisés à chaque coeur, les chercheurs ont scanné, par IRM et rayon X, des cœurs d’animaux pour reproduire des modèles de l’organe via l’impression 3D. Ensuite, ils créent un maillage ou enveloppe électronique au dessus de ces modèles.

Le matériau élastique peut être décollé du modèle pour être appliqué au véritable cœur, avec un ajustement parfait.  Les recherches vont à présent se poursuivre pour développer des capteurs non électriques capables de détecter les premiers signes d’une artère coronaire qui se bouche. 

Article rédigé par Georges Simmonds pour RT Flash

Nature

Transformer la biomasse marine en biogaz
Vendredi, 21/03/2014 - 16:49

Le biogaz issu des microalgues remplacera-t-il les carburants fossiles en voie d'épuisement ? Peut-être, si l'on en croit les chercheurs de l’Institut Paul Scherrer (PSI) et de l’EPFL en Suisse. Dans le cadre du projet SunCHem, ils ont développé un processus permettant de cultiver des microalgues et de les convertir efficacement, en seulement quelques heures, en gaz naturel synthétique, un biocarburant compatible avec les réseaux de distribution de gaz.

Pour parvenir à ce résultat, les chercheurs ont utilisé un procédé appelé gazéification hydrothermale. L’eau riche en algues est d’abord chauffée sous pression, jusqu’à ce qu’elle atteigne un état liquide supercritique avoisinant 400°C. Elle peut alors dissoudre efficacement les matières organiques contenues dans la biomasse. Les sels inorganiques sont récupérés sous la forme d’un concentré de substances nutritives. Cette technique permet de séparer rapidement l’eau du CO2 et d’un biogaz riche en méthane.

Autre avantage : ces microalgues peuvent être cultivées dans des bassins placés sur des terres non cultivables sans empiéter sur la production agricole de nourriture. En outre, les espèces d'algues choisies peuvent vivre en eau douce ou salée, et pourraient même être utilisées dans un futur proche pour traiter les eaux usées.

L'ensemble de ce processus est conçu pour fonctionner en circuit fermé, ce qui économise ainsi les ressources, réduit les coûts et augmente l’efficacité générale du processus. Reste à présent à diviser par cinq le coût du biogaz ainsi produit pour le rendre compétitif par rapport au gaz naturel.

Article rédigé par Georges Simmonds pour RT Flash

EPFL

Un système de stockage photovoltaïque pour bus électriques
Vendredi, 21/03/2014 - 16:37

La ville japonaise de Kitakyushu a présenté il y a quelques semaines son projet de mise en place d'un système de stockage d'électricité générée par une centrale photovoltaïque de grande envergure pour recharger des bus électriques. A Hibikinanda et Wakamatsu, le gouvernement vient par ailleurs de mettre en service des bus électriques dans le cadre de son projet "Transports à zéro émission".

Dans un premier temps, ces bus se rechargeront en utilisant le réseau électrique traditionnel mais dans une phase ultérieure, les autorités nipponnes ont prévu de construire d'ici la fin de l'année une centrale photovoltaïque de 7,5MW afin de recharger les véhicules. Dans le cadre de ce projet, un vaste système de stockage sera mis en service en avril 2015. Cet ensemble énergétique devrait permettre d'exploiter et de stocker plus efficacement l'énergie solaire et de garantir un système stable de rechargement pour les bus.

À terme, l'objectif vise à alimenter les véhicules sans recourir à l'électricité du réseau. Les bus participant à cette expérimentation sont particulièrement performants et possèdent notamment une carrosserie en fibre de carbone et une batterie Li-ion haute performance fabriquée par Mitsubishi Heavy Industries. Les véhicules électriques pourront transporter 72 personnes et disposer d'une autonomie d'environ 80 km pour une vitesse maximale de 85km/h.

Article rédigé par Georges Simmonds pour RT Flash

Techon

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une étude américaine remet en cause l'intérêt de la cigarette électronique pour arrêter de fumer
Jeudi, 27/03/2014 - 11:29

Selon une étude américaine réalisée par l'Université de San Francisco, dirigée par Pamela Ling, qui vient d'être publiée, la cigarette électronique ne serait pas plus efficace pour arrêter de fumer que les patchs. Ce traval a été réalisé auprés de 949 fumeurs en Californie, dont 13,5 % ont indiqué avoir arrêté de fumer dans l'année.

Or l'étude souligne que  les utilisateurs de cigarettes électroniques "n'ont pas été plus nombreux à arrêter de fumer que les autres fumeurs" et précise que "Ces données viennent appuyer les autres études indiquant que la cigarette électronique n'accroîtrait pas le taux de fumeurs renonçant à la cigarette".

Selon cette étude, "les réglementations devraient interdire les publicités affirmant ou laissant entendre que les cigarettes électroniques sont efficaces pour arrêter de fumer tant que cela n'a pas été démontré scientifiquement".

Article rédigé par Georges Simmonds pour RT Flash

University Herald

Cancer du côlon : mieux comprendre le rôle de la flore intestinale
Jeudi, 27/03/2014 - 11:25

À l'origine du cancer colo-rectal, on trouve toujours des polypes d'abord bénins mais qui peuvent devenir cancéreux. Il est donc très important de comprendre comment vont se localiser ces polypes dans le côlon car les observations radiologiques montrent que cette localisation ne dépend pas simplement de la génétique.

On sait que le développement des polypes est associé à une plus grande perméabilité de la paroi intestinale, à la production de molécules antimicrobiennes ou à l’augmentation de l’expression de différents facteurs inflammatoires. S'appuyant sur ces découvertes, des chercheurs de l’Université de New York dirigés par Sergio Lira ont montré, en travaillant sur des souris génétiquement modifiées et traitées avec des antibiotiques de manière à ce que leur microbiote soit détruit, qu'en dépit des mutations génétiques, ces rongeurs ne développaient ni polypes ni cancers.

Selon les chercheurs, les bactéries pourraient utiliser la perméabilité de la paroi épithéliale pour pénétrer des zones qui leur sont normalement inaccessibles et provoquer une réaction inflammatoire de la part du corps humain, ce qui augmenterait le risque de formation de polypes à l’origine des cancers. Il reste cependant à déterminer quelles espèces de bactéries sont impliquées dans ces processus inflammatoires afin de proposer un traitement préventif qui vise à diminuer leurs populations. 

Article rédigé par Georges Simmonds pour RT Flash

JEM

Cancer du poumon : vers un test de dépistage sanguin
Mercredi, 26/03/2014 - 16:43

Une étude menée à l'Institut National du Cancer de Milan vient de montrer qu'un test basé sur une analyse de sang est capable de réduire de façon significative le taux de faux positifs obtenus avec un scanner, qui est l'examen radiologique le plus utilisé pour le diagnostic du cancer du poumon chez les fumeurs.

Ce test basé sur l'analyse des microARN circulants a démontré une grande fiabilité et permet de détecter le cancer du poumon jusqu'à deux ans avant le diagnostic obtenu avec un scanner. Les résultats de l'étude, intitulée "Les origines moléculaires du cancer du poumon" par Gabriella Sozzi, directrice de l'Unité de Génétique Cancéreuse de l'Institut National du Cancer, ont été présentés à San Diego, en Californie, lors de la conférence de l'Association Américaine pour la Recherche sur le Cancer (AACR) et l'Association Internationale pour l'Etude du Cancer du Poumon (IALSC).

Dans cette étude, les chercheurs ont travaillé sur des échantillons sanguins provenant de 939 fumeurs, dont 870 n'étaient pas malades et 69 avaient un cancer du poumon et ont analysé la concentration de 24 microARN dans le plasma sanguin.

Résultat : ce test des microARN a permis de détecter les cancers du poumon avec une précision de 87 %. Ce test permet de réduire de 80 % le nombre de faux positifs détectés par le scanner qui avait identifié des nodules suspects chez des fumeurs non atteints du cancer du poumon.

Article rédigé par Georges Simmonds pour RT Flash

Galileo

Des fraises pour protéger le cœur
Mercredi, 26/03/2014 - 08:10

Une équipe de recherche italo-espagnole vient de montrer que la consommation régulière de fruits rouges permet de prévenir le cholestérol et réduit le risque de maladies cardiovasculaires. Dans cette nouvelle étude, vingt-trois personnes en bonne santé - onze hommes et douze femmes âgés en moyenne de 27 ans - ont consommé 500g de fraises par jour pendant un mois.

Ces fruits rouges contiennent des concentrations élevées de vitamine C (50mg pour 100g) et d'anthocyanines - des composé appartenant au groupe des flavonoïdes, responsables de la coloration des fruits et des fleurs. L'activité anti-oxydante de ces pigments protège les cellules des radicaux libres, ce qui évite le développement de plaques d'athérome, des dépôts de lipides dans les artères.

Ces travaux confirment donc les résultats d'une autre étude américaine qui avait déjà montré qu'une consommation régulière de fraises était protectrice. Dans cette étude réalisée sur quatre ans et portant sur 96 000 femmes âgées de 25 à 42 ans, les chercheurs ont en effet montré une réduction de 32 % du risque d'infarctus.

Comme le précise Maurizio Battino, responsable de cette étude, "Une consommation importante de fraises réduit le taux de cholestérol de plus de 8 %, le taux de LDL-cholestérol (le «mauvais» cholestérol) de 13 % et le niveau de triglycérides de 20 %". Ces recherches montrent également que la consommation régulière de fraises a un effet bénéfique sur les globules rouges.

Ces résultats confirment donc l'effet protecteur, chez des sujets sains, d'un régime riche en fruits et légumes pour prévenir les maladies cardiovasculaires. De nouvelles recherches vont être entreprises pour évaluer l'effet protecteur de la consommation de fraises chez les sujets qui présentent des facteurs importants de risques cardio-vasculaires. Selon l'Organisation mondiale de la santé (OMS), les maladies cardio-vasculaires sont la première cause de mortalité dans le monde, avec 17,3 millions de décès par an.

Article rédigé par Georges Simmonds pour RT Flash

NCBI

La pollution de l'air, nouvelle hécatombe planétaire selon l'OMS !
Mercredi, 26/03/2014 - 08:00

Selon la dernière étude publiée le 25 mars 2014 par l'Organisation Mondiale de la Santé (OMS), environ 7 millions de personnes dans le monde sont décédées en 2012 en raison de la pollution de l'air, ce qui représente 12,5 % de l'ensemble des décès de la planète, soit un mort sur huit lié à la pollution ! À supposer que la mortalité liée à la pollution de l'air reste à ce niveau, cela signifie que cette pollution de l'air, atmosphérique et intérieure, tuera d'ici 10 ans plus de personnes dans le monde que les deux guerres mondiales réunies…

Ce vaste travail évalue à 4,3 millions, le nombre de morts provoquées par la pollution intérieure et à 3,7 millions le nombre de décès entraînés par la pollution de l'air. Mais comme beaucoup de victimes ont été exposées simultanément à ces deux types de pollution, l'étude précise qu'il n'est pas possible d'additionner directement ces deux chiffres. C'est pourquoi après prise en compte de ces expositions multiples, l'OMS a estimé à 7 millions le nombre total de décès provoqués par la pollution globale de l'air.

L'étude révèle également, sans surprise, que ce sont les régions de l'Asie et du Pacifique qui sont les plus touchées par cette hécatombe environnementale, avec 5,9 millions de décès, soit 84 % des décès mondiaux dus à la pollution.

Commentant ces chiffres accablants, la Docteure Maria Neira, directrice du département de la santé publique à l'OMS souligne que "La pollution de l'air est clairement devenue le principal risque environnemental de santé dans le monde, que ce soit dans les pays riches ou dans les pays pauvres et c'est la pollution intérieure, provoquée par les fumées et émanations liées aux appareils de cuisson, chauffés au bois ou au charbon et aggravée par le manque de ventilation satisfaisante, qui tue le plus."

"Les femmes et les enfants composant les foyers les plus pauvres paient un lourd tribut à la pollution de l'air intérieur, car ils passent plus de temps chez eux à respirer les fumées et la suie que dégagent les fourneaux à bois ou à charbon mal ventilés", précise pour sa part  le Docteur Flavia Bustreo, Sous-Directeur général de l'OMS chargé de la santé de la famille, de la femme et de l'enfant. On estime en effet que près de 3 milliards de personnes dans le monde continuent à vivre  dans des foyers où l'on utilise le bois, le charbon ou la biomasse comme principaux combustibles pour la cuisson.

Les maladies les plus fréquentes développées par la pollution de l'air sont, par ordre d'importance,  les accidents vasculaires cérébraux (37 %), les cardiopathies ischémiques (33,5 %), les maladies pulmonaires (16 %) et les cancers (6 %). Cette étude montre également que le lien de causalité entre la pollution de l'air et ces trois grands groupes de pathologies a été largement sous-estimé jusqu'à présent.

Une autre étude de l'OMS avait montré que même si l'on équipe des habitations et logements de systèmes modernes de filtration de l'air, cela n'empêche pas un quart environ des substances polluantes présentes dans l'air extérieur d'entrer dans les foyers.

Une étude réalisée conjointement par l'Université du Texas et des chercheurs du Jet Propulsion Laboratory de la NASA a révélé pour sa part que la pollution de l'air dans les pays asiatiques entraîne également de profondes perturbations climatiques, en affectant des formations nuageuses et en perturbant le régime des précipitations.

Selon l'OMS, dans certaines villes d'Asie, le niveau de pollution de l'air est 100 fois plus élevé que les normes internationales en vigueur et à Pékin, par exemple, cette pollution diminuerait en moyenne de 16 ans l'espérance de vie des habitants, la ramenant à 57 ans…

Article rédigé par Georges Simmonds pour RT Flash

OMS

Allez-vous mourir avant 5 ans ?
Mardi, 25/03/2014 - 08:20

En travaillant sur des échantillons sanguins prélevés sur une population de 9 842 individus âgés de 18 à 103 ans, des chercheurs estoniens ont découvert qu'une association de seulement 4 biomarqueurs (sur les 106 testés) prédisait de manière fiable le risque de décès au cours des cinq années suivantes...

Selon cette étude, les personnes dont ces quatre marqueurs (l'albumine, l'orosomucoïde, les lipoprotéines de basse densité et l'acide citrique) dépassent  simultanément une certaine valeur présentent un risque 19 fois plus grand de décéder dans les cinq ans, par rapport aux sujets dont ces marqueurs présentent les valeurs les plus faibles.

Ce surprenant résultat a été confirmé de manière indépendante par des chercheurs finlandais de l'Université d'Helsinki qui ont travaillé sur les analyses sanguines de 7 503 personnes. Markus Perola qui a conduit ces recherches souligne : "nous étions plutôt sceptiques au départ de cette expérience et nous avons été obligés d'admettre que ces quatre biomarqueurs semblent bien être en mesure d'indiquer de manière fiable un risque de décès accru chez les personnes en bonne santé, exemptes de toute pathologie grave".

Article rédigé par Georges Simmonds pour RT Flash

PLOS

Prévoir les épidémies de grippe grâce à la génomique
Mardi, 25/03/2014 - 08:00

Actuellement, les outils de prévision des épidémies de grippe reposent sur les souches existantes et ne prennent pas en considération l’apparition de nouvelles souches, alors que la famille des Orthomyxoviridæ – qui comprend cinq genres dont celui des Influenzavirus, responsables des différentes grippes – mutent très rapidement.

Pour améliorer ces prévisions, des chercheurs allemands dirigés par Marta Luska et Michael Lässig, de l’Université de Cologne, ont développé un modèle bio-informatique prédictif qui s’appuie sur l’adaptation génomique du virus. Les chercheurs ont travaillé à partir de bases de données recensant les séquences – notamment celles des hémagglutinines – des virus H3N2 circulant depuis 1968.

Ce modèle repose sur l’analyse de 3 944 séquences, corrélée à la fréquence et à la capacité d’adaptation de ces différentes souches. Ce dernier critère est évalué en fonction des changements d’épitopes mais aussi des modifications de séquences qui ne codent pas directement des protéines de surface. Un système qui permet de prévoir efficacement l’évolution des lignées virales H3N2 d’une année sur l’autre.

En testant leur modèle sur les épidémies postérieure à 1993, les chercheurs ont ainsi pu prévoir, rétrospectivement, 113 émergences de lignées H3N2 sur 121 et 51 déclins sur 67. Ces chercheurs pensent que ce modèle bio-informatique de prédiction des épidémies de grippe pourrait être étendu et utilisé à l'ensemble des souches du virus de la grippe et notamment aux  souches potentiellement pandémiques H5N1 et H7N9.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Le chocolat noir bon pour les artères !
Lundi, 24/03/2014 - 12:20

Une nouvelle étude néerlandaise conduite par le Professeur Diederik Esser, de l'Université de Wageningen, vient de confirmer les bienfaits du chocolat noir pour le cœur et les artères. Ces chercheurs ont mis en place un protocole alimentaire avec 44 patients en surpoids. Ces volontaires ont dû manger 70g de chocolat noir par jour puis, la semaine suivante, 70g de chocolat enrichi en flavonols. Parallèlement, les participants ont suivi un régime alimentaire appauvri en calories pour prévenir le gain de poids.

Les scientifiques ont ensuite évalué la santé vasculaire des volontaires et ont constaté que ce régime avait bien entraîné la dilatation des vaisseaux sanguins et une diminution de la concentration des globules blancs. Diederik Esser rappelle toutefois qu'« il ne faut pas manger n'importe quel chocolat mais uniquement du chocolat noir à forte teneur en cacao et suivre un régime alimentaire équilibré pauvre en graisses saturées et en sucres. »

Cette nouvelle étude confirme d'autres travaux et notamment une étude allemande conduite pendant près de 10 ans sur plus de 19 000 adultes, qui a montré que le chocolat noir consommé en petites quantités chaque jour (7 grammes), permettait de réduire la tension artérielle, et de diminuer de 39 % les risques de maladies cardiovasculaires.

Article rédigé par Georges Simmonds pour RT Flash

Fasebj

Les cerveaux des autistes créeraient plus d'information
Lundi, 24/03/2014 - 12:00

Une nouvelle étude en neurosciences de l'Université de Toronto et de l'Université Case Reserve a montré que le cerveau au repos des enfants autistes génère plus d'information (en moyenne + 42 %) par rapport aux enfants indemnes de ce trouble. A partir de ces résultats, les auteurs forment l'hypothèse que le repli sur soi, l'une des caractéristiques de l'autisme, pourrait résulter d'une production excessive et incontrôlée d'informations qui expliquerait le détachement des enfants par rapport à leur environnement et leur manque d'intérêt envers les stimuli extérieurs.

Ces scientifiques ont analysé l'information liée à l'activité cérébrale et enregistrée par magnétoencéphalographie (MEG) en utilisant un modèle stochastique dynamique de la dynamique cérébrale. Selon le Professeur José L. Pérez Velazquez qui dirige ces travaux, "Il s'agit d'une nouvelle interprétation qui propose une approche différente pour comprendre la cognition des enfants par l'analyse de leur activité cérébrale".

Cette étude vient conforter la "théorie du monde intense" proposée par les neuroscientifiques Henry and Kamila Markram du Brain Mind Institute en Suisse, qui considère l'autisme comme le résultat d'un circuit neural hyperfonctionnel menant à un état de surexcitation.

D'une manière plus large, ces recherches éclairent la façon dont la création d'informations dans le cerveau peut être reliée à des traits cognitifs ou psychologiques et permettent de mieux articuler les données neurophysiologiques à la dimension psychologique du sujet.

Article rédigé par Georges Simmonds pour RT Flash

Science Daily

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top