RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 772
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 07 Novembre 2014
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Un nouveau pas vers l'ordinateur quantique
Avenir
Des meubles qui se montent eux-mêmes grâce à l'impression 4D !
Quand les robots aideront les humains lors des catastrophes
Un casque qui modifie l'état mental…
Vers une intelligence artificielle quantique
Matière
Un nouveau procédé INRA pour le bio-raffinage des végétaux
Vers des vêtements solaires durables et performants
Vivant
Le tabagisme passif plus dangereux que la pollution
Les boutons de fièvre augmenteraient le risque de maladie d'Alzheimer
Vers une détection précoce du cancer des ovaires
Des virus -liquéfient- leur ADN pour infecter les cellules
La dépression chronique reduirait les performances cognitives…
L’obésité accélère le vieillissement du foie
Le lien entre cholestérol et cancer se confirme
Edito
L’Europe face au changement climatique



Même s’il n’a pas eu la couverture médiatique du précédent « Paquet énergie-climat » adopté fin 2008, l’accord conclu le vendredi 24 octobre par les 28 états de l’Union européenne dans la lutte contre le changement climatique peut être qualifié d’historique par son ampleur et son ambition. Ce nouveau « Paquet Energie Climat 2030 » fixe en effet les nouveaux objectifs à la politique européenne dans ce domaine capital et vise également à réformer le marché communautaire de quotas d’émission. 

Après l’objectif des « trois fois vingt » de 2010 (- 20 % d’émissions de gaz à effet de serre, - 20 % d’énergie consommée et 20 % d’énergies propres), l’Union européenne a décidé, non sans mal, de se fixer des objectifs beaucoup plus ambitieux : réduire de 40 %, «au moins», ses émissions de gaz à effet de serre entre 1990 et 2030, porter à 27 % la part d’énergie propre dans la consommation énergétique totale de l’Union et enfin améliorer de 27 % l’efficacité énergétique. Mais à la différence des deux premiers objectifs, le dernier concernant l’efficacité énergétique n’est pas contraignant.

Depuis 1990, l'UE est parvenue à découpler le lien puissant entre croissance économique et émissions de gaz à effet de serre. Alors que les émissions ont diminué de 20 % entre 1990 et 2014, l’économie de l’UE a connu une croissance de 45 %. Les émissions par unité de PIB ont donc été réduites de près de la moitié, ce qui fait de l'UE l'une des économies les plus efficaces du monde sur le plan énergétique.

Aujourd’hui, avec moins de 4 gigatonnes de CO2 émises par an, l’UE, et ses 500 millions d’habitants, compte pour à peine 10 % des émissions mondiales de gaz carbonique (39,5 gigatonnes en 2014 en incluant la déforestation) et se situe à présent loin derrière les USA qui émettent 14 % du CO2 mondial et surtout de la Chine qui émet à elle seule 28 % de ce CO2.

Il est intéressant de noter que ce « Paquet » pour 2030 prévoit également de réformer le système communautaire d’échange de quotas d’émission de GES, appelé ETS, qui fonctionne très mal et n’a pas permis d’empêcher l’effondrement du prix de la tonne de CO2 qui a été divisé par six depuis sept ans et est descendu à cinq euros la tonne…

Pour enrayer ce processus et redonner une valeur suffisante au carbone émis, l’UE va réduire progressivement l’allocation annuelle de quotas de 1,74 % jusqu’en 2020. A partir de 2021, ce «facteur annuel de réduction du plafond d’émission» passera à 2,2 %.

Autre mesure importante, la mise en place d’un mécanisme permettant de réduire les surplus de quotas. Ce nouveau dispositif permettra de mettre automatiquement de côté les quotas en surnombre et, inversement, de les réinjecter dans le marché en cas de tension. Selon les simulations de la Commission, ce système, dans le cadre du nouvel objectif contraignant de 40 % de réduction d’émissions, permettrait de faire monter le prix du quota à 70 euros en 2030.

Le moins que l’on puisse dire est que cet accord européen d’une importance politique, économique et environnementale considérable arrive à point nommé et vient de trouver une nouvelle et puissante justification avec les conclusions du cinquième Rapport d’évaluation du GIEC qui ont été révélées le 2 novembre 2014 (voir IPCC).

Ce nouveau rapport du GIEC rappelle que la température moyenne à la surface de la planète a gagné 0,85°C entre 1880 et 2012, une hausse sans précédent. Et il n’est pas exclu que la température mondiale moyenne puisse grimper de 6 degrés d’ici 2100 si nous continuons à émettre des GES au rythme actuel (50 gigatonnes d’équivalent-carbone par an, dont 40 gigatonnes de CO2).

Le niveau moyen des océans s'est lui élevé entre 1901 et 2010 de 19 cm et pourrait monter de plus d’un mètre d’ici la fin de ce siècle si rien n’est fait pour limiter drastiquement nos émissions de GES. La surface de la banquise Arctique a diminué de 3,5 à 4,1 % par décennie depuis 1980. Le GIEC note également la fréquence de plus en plus grande des événements climatiques extrêmes : ouragans, tornades, sécheresses ou précipitations catastrophiques.

La communauté scientifique souligne que ces changements climatiques brutaux en cours, si on ne les maîtrise pas, pourraient avoir des incidences irréversibles et dangereuses pour l’être humain et les écosystèmes. Mais le rapport précise également que rien n’est encore perdu et que nous disposons d’options pour nous adapter à ces changements et agir de manière à limiter les conséquences de l’évolution du climat.  

Le GIEC rappelle que les concentrations de GES dans l’atmosphère ont atteint les niveaux les plus élevés « depuis 800 000 ans » et qu’il faut absolument opérer rapidement un virage sans précédent dans l’histoire de l’économie mondiale pour limiter la hausse moyenne des températures à 2°C. Selon les scientifiques, pour atteindre cet objectif, il faudra réduire d’au moins 50 % nos émissions mondiales de GES d’ici à 2050 (par rapport à 2010) et les faire complètement disparaître en 2100.

Pour stabiliser le réchauffement à 2°C, l’effort à fournir résulte d’une équation incontournable : « Entre la fin du XIXe siècle et le milieu de ce siècle, nous disposons d’un capital de 2.900 milliards de tonnes de CO2. Nous en avons déjà consommé 2.000, dont 1.000 ces 40 dernières années et au rythme actuel de nos émissions, il nous reste à peine 25 ans avant d’avoir consommé notre budget carbone », souligne que Sylvie Joussaume, directrice du groupement d’intérêt scientifique Climat Environnement Société.

Compte tenu de l’augmentation prévue de la population mondiale, cela signifie que le monde doit réduire chaque année d’au moins 7 % ses émissions de GES (alors qu’elles ont augmenté en moyenne de 2,5 % par an depuis 10 ans) et que chaque terrien va devoir diviser par trois ses émissions de GES d’ici 40 ans, passant de 7 à 2,4 tonnes…

Mais, selon le GIEC, cet effort sans précédent pour lutter contre les changements climatiques reste, contrairement à beaucoup d’idées reçues, tout à fait compatible avec la croissance de l’économie mondiale qui ne serait affectée qu’à la marge (0,06 point de baisse du taux mondial de croissance, estimé entre 1,6 et 3 % par an au cours du XXIe siècle). En revanche, le GIEC rappelle que l’inaction aurait un coût bien plus considérable, pouvant atteindre plus du quart du Produit Mondial Brut, comme l’ont montré les travaux de l’économiste Nicolas Stern.

Youba Sokona, coprésident du Groupe de travail III du GIEC souligne pour sa part « Qu’il est possible, sur le plan technique, de passer à une économie à faible teneur en carbone mais à condition de mettre en œuvre les politiques et des institutions appropriées ». A cet égard, le remarquable rapport Stern- Calderón, sorti en septembre dernier (Voir The New Climate Economy), remet les pendules à l’heure et montre que le véritable coût économique d’un plan de lutte mondial global et cohérent contre le changement climatique – incluant la reforestation, la réorientation agricole et l’urbanisation intelligente -  serait dérisoire (de 1 à 4 % du produit mondial brut annuel) au regard du coût exorbitant de l’inaction et de l’attentisme… 

C’est dans ce contexte pour le moins alarmiste qu’une une étude publiée il y a quelques jours par Bloomberg New Energy Finance (BNEF) révèle que la transition énergétique mondiale ne concerne plus seulement les pays développés mais commence également à produire ses effets dans les pays émergents.

Dans les 55 pays étudiés par BNEF pour son "Climatescope 2014", 142 gigawatts (GW) de nouvelles capacités d'énergies renouvelables (solaire, éolien, géothermie, biomasse, petite hydroélectricité) ont été installés entre 2005 et 2010, soit une croissance moyenne annuelle de 18,8 % (hors grande hydroélectricité). Au cours de la même période, les pays de l'Organisation de coopération et de développement économiques (OCDE) ont installé 213 GW de nouvelles capacités, ce qui représente une croissance de 12,8 % par an en moyenne. Et pour la seule année 2013, les pays émergents étudiés ont installé presque autant de nouvelles capacités renouvelables (37 GW) que les pays de l'OCDE (43 GW).

Parmi ces pays émergents, la Chine arrive en tête de ce classement qui évalue, outre les capacités installées, l'attractivité des pays pour les investissements dans les renouvelables. L’étude souligne que si le géant chinois a installé le plus de capacités renouvelables en 2013, c’est parce qu'il est le plus important fabricant au monde d'équipements solaires et éoliens et qu’il a fait d'importants efforts pour améliorer son cadre réglementaire… 

Au niveau européen, selon l’Agence internationale de l’énergie (AIE), l’énergie éolienne représentera de 15 à 17 % de l’électricité produite en Europe en 2020 et 50 % en 2050. Mais ces chiffres masquent une grande disparité entre les états-membres de l’Union : en effet, l’Allemagne à elle seule dispose du plus grand parc en Europe avec 34 GW (9,6 % de la consommation électrique), suivi de l’Espagne (22 GW, 21 %), de l’Italie (8,5 GW, 4,7%) et enfin de la France (8,2 GW (3,2 %).

Dans ce cadre européen, la France, avec une surface maritime de 11 millions de km2, dispose d’un potentiel techno-économique issu de la mer parmi les plus importants au monde. Dans le cadre du Programme des Investissements d’Avenir (PIA), destiné à accélérer le déploiement de la filière française des énergies marines renouvelables, plusieurs nouveaux projets sont soutenus par l'État.

Le premier, baptisé SeaTC, concerne les connexions sous-marines qui assurent l’acheminement de l’électricité au fond de la mer jusqu’au câble de raccordement à terre. Il s'agit de développer des technologies innovantes pour acheminer l’électricité en réduisant significativement les coûts de connexion, tout en conservant un rendement élevé.

Un autre projet, Sea Reed, vise à développer une solution d'éoliennes flottantes semi submersibles industrialisables et compétitives. Pour cela, Sea Reed développe une turbine adaptée aux vents des champs éloignés ainsi qu’un flotteur spécifique limitant l’impact sur l’environnement. Alstom vient d’ailleurs d’annoncer qu’il travaillait à la mise au point d’une éolienne marine géante flottante de 6MW qui devrait être commercialisée en 2017 et pourra être implantée au large, en eau profonde, dans des zones où l’impact sur l’environnement et la navigation est bien moins important, et qui sont traversées par des vents plus forts et plus réguliers. Une seule de ces éoliennes marines pourra produire en moyenne assez d’électricité pour alimenter plus de 7 000 foyers (hors chauffage).

Autre filière d'avenir soutenue par ce programme : l'exploitation de l'énergie thermique des mers. Cette technologie consistant à générer de l'électricité grâce à la différence de température entre les couches d'eau de l'océan, chaudes en surface et froides en profondeur, sera expérimentée à grande échelle dans le cadre du projet "Marlin".

Chez nos voisins d’outre-Rhin, en Allemagne, les énergies renouvelables pourraient, pour la première fois de l’histoire, devenir la principale source de production d’électricité en 2014. Sur les 3 premiers trimestres de cette année la production d’électricité d’origine renouvelable (éolien, solaire, hydroélectrique, bioénergie), avec 27,7 % de la production électrique allemande a en effet devancé celle issue du lignite. 

Au niveau mondial, l'Agence internationale de l'énergie (AIE) prédit, dans deux études récentes, que l'énergie solaire pourrait représenter 27 % de la production électrique mondiale d'ici 2050. A cet horizon, le soleil deviendrait la première source de production d’électricité mondiale devant l’éolien terrestre et marin (22 %), l’hydraulique (19 %), le nucléaire (9 %) et la biomasse (8 %).

Ces prévisions de l’AIE sont cohérentes avec l’étude prospective « 2030 Market Outlook » publiée par de Bloomberg New Energy Finance en juillet 2014. Selon ce rapport, la capacité électrique installée dans le monde va presque doubler d’ici 2030, passant de 5,5 TW en 2012 à 10.5 TW en 2030. 60 % des nouvelles capacités ajoutées sur la période seront renouvelables et les deux principales composantes de cette mutation énergétique seront le solaire, avec 1,9 TW et l’éolien terrestre, avec 1, 3TW installés. La puissance installée des autres sources d’énergies propres (dont l’hydroélectricité) sera de 2 TW. Au total, les énergies renouvelables représenteront donc 5,2 TW installées en 2030, soit environ la moitié de la production mondiale d'électricité.

Selon cette étude, la seule montée en puissance du solaire devrait permettre d’éviter l’émission de 6 milliards de tonnes d'émissions de CO2 par an, soit l’équivalent des émissions annuelles des États-Unis…Ce rapport souligne également que les panneaux solaires et les centrales thermiques à concentration sont des technologies complémentaires mais que les centrales thermodynamiques devraient prendre le pas sur les centrales photovoltaïques vers 2030.

L'AIE confirme cette irrésistible progression du solaire et prévoit que le prix de l'électricité produite à partir de panneaux solaires devrait ainsi baisser de 25 % d'ici 2020, 45 % en 2030 et 65 % en 2050. De manière encore plus large, une autre étude publiée début octobre dans la revue scientifique américaine PNAS (Proceedings of the National Academy of Sciences) montre que le transfert de la production de l'électricité issue des énergies fossiles vers les énergies renouvelables est non seulement positif pour le climat, mais également pour la qualité de l'air, des eaux et de l'environnement en général.

Dans cette étude inédite, les chercheurs sont parvenus à évaluer l'ensemble du cycle de vie de la mise en œuvre de la production d'électricité renouvelable (issue du solaire thermique et photovoltaïque, de l'éolien et de l'hydraulique), comparativement à la production d'électricité issue des énergies fossiles.

Les chercheurs ont étudié deux scénarios. Le premier repose sur le modèle énergétique actuel basé sur les énergies fossiles, avec une augmentation de 134 % de la production d'électricité d'ici 2050. Le second scénario intègre en revanche les recommandations du GIEC pour limiter à 2°C l'augmentation globale des températures d'ici 2050. Il prévoit le développement des énergies renouvelables, des mesures d'efficacité énergétique et de stockage-captage de CO2.

Dans cette hypothèse, on constate qu’il est possible de doubler la production d’électricité tout en réduisant à terme de 62 % les émissions de gaz à effet de serre liées à cette production et en diminuant également de 40 % les émissions de particules toxiques dans l'air et de 50 % la pollution de l'eau.

Fait révélateur, même les USA sont à présent convaincus de la nécessité et de la faisabilité technologique de cette mutation énergétique. Selon une étude du laboratoire national des énergies renouvelables (NREL) l'offre et la demande d'électricité pourront être équilibrées d’ici 2050 à chaque heure de la journée et ce pendant toute l'année et dans chaque région des Etats-Unis avec près de 80 % d'électricité produite à partir de ressources renouvelables, dont 50 % issues du solaire et de l’éolien.

Mais il reste qu’au niveau mondial, le développement tous azimuts des énergies renouvelables ne constitue, au mieux, qu’un tiers du défi de civilisation auquel nous sommes confrontés. En effet, une remarquable étude publiée il y a cinq ans par le cabinet Mac Kinsey a montré de manière très convaincante que les mesures de lutte contre le réchauffement basées sur la sauvegarde de forêts tropicales, le reboisement et l’évolution des pratiques agricoles, peuvent permettre de réduire d’au moins 30 % les émissions mondiales de gaz à effet de serre, pour un coût bien inférieur, à quantité de carbone égale, à celui des technologies propres et des énergies renouvelables mises en œuvre par les pays développés pour limiter leurs émissions de CO2.

Cette étude souligne également que le dernier tiers du problème lié au réchauffement climatique concerne l’amélioration de la sobriété et l'efficacité énergétique de nos systèmes économiques, industriels et urbains. Ce volet est sans doute le plus sensible politiquement et socialement car il suppose de repenser complètement l’organisation et le fonctionnement de nos villes mais également de nos systèmes de transports et de nos modes de production et de travail. Est-il vraiment nécessaire, par exemple, que tous les agents et salariés du secteur tertiaire, continuent à se rendre tous les jours dans un bureau situé parfois à plusieurs dizaines de km de leur domicile, alors que les technologies numériques leur permettent de travailler aussi efficacement de chez eux ?

Un autre exemple mérite d’être médité : la métropole de Barcelone, qui compte la même population que celle d’Atlanta, aux Etats-Unis, consomme pourtant dix fois moins d’énergie pour fonctionner, pourquoi ? Parce que cette ville méditerranéenne s’est construite sur le modèle dense alors qu’Atlanta s’est développée sur le modèle « étalé », grand consommateur d’espace, d’énergie et de ressources naturelles.

En parvenant le 28 octobre à cet accord ambitieux, l’Europe n’a pas seulement fait preuve de courage et de lucidité politique, elle a également fait le pari de l’avenir et s’est donné les moyens d’être demain à la pointe technologique et industrielle mondiale de la lutte contre le changement climatique qui est en train de devenir l’un des moteurs de la croissance économique, de l’innovation et de l’emploi.

Souhaitons que notre Pays, qui possède à la fois une situation géographique exceptionnelle et des ressources humaines et intellectuelles de premier ordre, sache prendre la tête de ce nouveau défi et anticiper l’ère de « l’après carbone » qui a déjà commencé et va entraîner le changement de civilisation planétaire le plus radical dans la longue histoire de l’homme.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Un nouveau pas vers l'ordinateur quantique
Lundi, 03/11/2014 - 16:38

Deux équipes de recherche du même laboratoire au sein de l'Université de Nouvelle-Galles du Sud (UNSW) en Australie ont chacune découvert une méthode pour résoudre l'un des principaux obstacles à la création d'un super-ordinateur quantique : la perte de précision. Elles ont créé deux types de qubits avec un taux de précision record de 99,99 %.

La première équipe a travaillé sur un atome de phosphore et l'autre sur un "atome artificiel". Pour atteindre une telle précision, les chercheurs ont utilisé une fine couche de silicium spécialement purifié, ne contenant que l'isotope 28Si. Cet isotope est stable (aucune radioactivité décelable), et n'interfère pas avec le qubit, contrairement aux isotopes naturellement présents dans le silicium.

D’une part, l'équipe d'Andrew Dzurak est parvenue à créer son qubit à partir d'un "atome artificiel" à la conception proche de celle des transistors Mosfet (transistors à effet de champ à grille isolée) utilisés dans l'électronique grand public.

En parallèle, l'équipe d'Andrea Morello a affiné la technique associée au qubit obtenu du spin d'un atome de phosphore "naturel". L'atome de phosphore possède en réalité deux qubits, l'un correspondant au noyau et l'autre à l'électron. En outre, les chercheurs ont pu conserver cette information quantique pendant plus de 30 secondes au sein du noyau d'un atome de phosphore.

La prochaine étape de ces recherches consistera à créer des paires de ces qubits super précis. Mais pour réaliser un ordinateur quantique véritablement révolutionnaire, il faudra produire des milliers de qubits, ce qui pourrait être possible en combinant l'utilisation d'atomes naturels et artificiels.

Article rédigé par Georges Simmonds pour RT Flash

Phys.org

^ Haut
Avenir
Nanotechnologies et Robotique
Des meubles qui se montent eux-mêmes grâce à l'impression 4D !
Vendredi, 07/11/2014 - 06:00

Autodesk, leader mondial du logiciel d’impression 3D, mise sur l’impression 4D qui consiste à ajouter une source d’énergie. Il peut s’agir d’eau, de chaleur ou de lumière, par exemple. L’énergie va agir comme un stimulateur sur le matériau pour le configurer autrement.

L'idée est d'utiliser l’auto-assemblage, un processus qui se produit tout le temps dans la nature et dans les cellules de notre corps : notre ADN s’auto-assemble aussi de cette manière.

Le but est d'arriver à programmer des objets pour qu’ils s’auto-assemblent selon la forme et les propriétés de leur matériau. Pour le moment, les seules applications possibles ne fonctionnent que dans un environnement extrême de faible gravité : sous l’eau ou dans l’espace.

Mais Autodesk est persuadé qu'un jour viendra où vous irez alors acheter un objet en pièces détachées dans un magasin comme Ikea, et vous n’aurez plus besoin de lire la longue notice d’instruction pour le monter : votre étagère s'autoassemblera spontanément !

Article rédigé par Georges Simmonds pour RT Flash

Archdaily

Quand les robots aideront les humains lors des catastrophes
Jeudi, 06/11/2014 - 08:20

À l’université de Guadalajara au Mexique, une équipe de scientifiques menée par le professeur d'ingénierie Nancy Guadalupe Arana Daniel travaille sur un système de reconnaissance pour les robots. Ces recherches visent à rendre ceux-ci capables de distinguer clairement les humains, leur visage, leur voix, leur silhouette quelle que soit la position.

Concrètement, le robot est équipé d’une lumière flash et d’une caméra HD capable de saisir les reliefs. Grâce à un algorithme établi par les chercheurs mexicains, il parvient à distinguer les formes des humains. Les scientifiques sont allés plus loin, ils ont également fait en sorte de rendre le robot contrôlable à distance.

Ces robots ainsi améliorés devraient être capables de retrouver des victimes au milieu des gravats lors de catastrophes. La nouveauté apportée par les ingénieurs mexicains tient en réalité dans la nature de l’aide délivrée par le robot. Ce dernier pourrait atteindre des endroits inaccessibles du fait de sa taille réduite et localiser des victimes prisonnières de débris, ce qu’aucun robot n’était encore capable de faire véritablement.

Article rédigé par Georges Simmonds pour RT Flash

Scientific Computing

Un casque qui modifie l'état mental…
Jeudi, 06/11/2014 - 08:00

Il existe à présent sur la marché des casques EEG (pour électroencéphalogramme) qui récupèrent, grâce à des électrodes placées sur le front, les signaux électriques émis par le cerveau et les traduisent ensuite en signaux électroniques.

La start-up la plus connue dans ce domaine est Neurosky avec son casque EEG Mindwave. Celui-ci permet par exemple de contrôler par la pensée une voiture télécommandée. De son côté, la start-up MindRDR se sert des casques EEG pour contrôler des objets connectés comme les Google Glass : en se concentrant suffisamment, les utilisateurs peuvent, par la pensée, commander la prise d’une photo avec les lunettes et les poster sur Instagram après.

Mais le casque Thync fait encore mieux et vise à modifier l’activité neuronale. Ce produit utilise le neurosignaling, technique qui permet de communiquer avec les connexions neuronale grâce à des ondes, pour transformer l’état d’esprit de l’utilisateur. Plus précisément, il envoie des signaux sur des zones spécifiques du cerveau : celles correspondant à l'énergie, au calme et à la concentration. L’appareil envoie des signaux électroniques ou des ultrasons au cerveau, dédiés au calme, à la concentration et à l’énergie. Ces ondes peuvent être contrôlées grâce à une application smartphone.

Article rédigé par Georges Simmonds pour RT Flash

Xconomy

Vers une intelligence artificielle quantique
Mardi, 04/11/2014 - 07:20

Des scientifiques de l’Université de sciences et technologie de Chine (USTC) ont réalisé un dispositif expérimental d’intelligence artificielle « quantique ». L’ordinateur « a appris les polices de caractères standards et reconnu les caractères manuscrits d’un ensemble. À notre connaissance, c’est la première démonstration d’intelligence artificielle réalisée sur un processeur quantique », ont déclaré les chercheurs.

Menée par Zhaokai Li, Xiaomei Liu, Nanyang Xu et Jiangfeng Du, l’expérience a débuté avec un jeu de données. L’équipe a entraîné l’ordinateur à reconnaître les différences entre un 6 et un 9 manuscrits en un temps donné.

Plus le nombre d’images et les dimensions augmentent, plus le temps nécessaire pour assimiler les données s’allonge fortement. C'est sur ce point que les scientifiques de l’USTC ont utilisé un nouvel algorithme quantique qui privilégie le temps logarithmique plutôt que le temps polynomial.

Alors que les systèmes conventionnels basés sur la physique électrique classique peuvent être équipés de multiples processeurs de 32 ou 64 bits, les calculateurs quantiques sont équipés d’un processeur quantique qui traite des « qubits ». Le qubit ou quantum bit peut être un 1, un 0 ou une superposition des deux. L'utilisation de ces états superposés permet d'effectuer des calculs complexes bien plus rapidement que ne peuvent le faire nos ordinateurs actuels.

Article rédigé par Georges Simmonds pour RT Flash

Cornell

^ Haut
Matière
Matière et Energie
Une batterie lithium-ion qui se recharge en deux minutes
Mercredi, 05/11/2014 - 08:00

En utilisant les nanotechnologies, des scientifiques de Singapour ont développé une batterie qui se recharge à 70 % en seulement quelques minutes !

Dans la plupart des batteries lithium-ion d’aujourd’hui, l’anode - qui va accueillir et fixer les ions Li+ émis par la cathode - est constituée de graphite. Mais ces chercheurs de l’Université technologique Nanyang, dirigés par le Professeur Chen Xiaodong, ont eu l'idée d' utiliser du dioxyde de titane assemblé en nanotubes, ce qui autorise un chargement ultrarapide.

L’utilisation de ces nanotubes de dioxyde de titane permet également de rallonger considérablement la durée de vie des batteries, qui est actuellement autour de 500 cycles de recharges, c’est-à-dire deux ou trois ans. La nouvelle technologie permettrait en effet de dépasser les 10.000 cycles, soit 20 fois plus !

Autre avantage : le dioxyde de titane est un composant peu cher que l’on peut trouver de manière abondante dans le sol. Enfin, cette substance peut être intégrée dans les processus de fabrication existants, ce qui laisse espérer la commercialisation de ces nouvelles batteries en 2016.
 
Article rédigé par Georges Simmonds pour RT Flash

Clean Technica

Un nouveau procédé INRA pour le bio-raffinage des végétaux
Mercredi, 05/11/2014 - 07:30

La biomasse ligno-cellulosique, constituée de paille, tiges, feuilles et copeaux de bois, peut produire de l'énergie sous forme d’éthanol. Mais cette transformation nécessite  plusieurs étapes : le prétraitement, l’hydrolyse enzymatique et la fermentation. Le prétraitement est un processus lourd et coûteux, destiné à rendre la cellulose disponible aux enzymes et levures. Quant à l’hydrolyse enzymatique, elle est indispensable pour produire des sucres qui se transformeront en bio-éthanol.

Le problème est que les procédés utilisés pour transformer la biomasse en bio-carburants utilisent beaucoup d'eau, d'énergie et de produits chimiques. Pour surmonter cet obstacle, les chercheurs de l’INRA ont développé un procédé de fractionnement par voie sèche de la biomasse ligno-cellulosique qui utilise moins d’eau et d’énergie et qui,surtout, n'a pas besoin de produits chimiques.

Cette technologie repose sur un broyage ultrafin suivi d’un tri électrostatique. Cette méthode qui permet de rendre la cellulose très accessible aux enzymes pourrait servir de base à la production de bio-carburant ou servir de substrat pour l’extraction ou la synthèse de bio-molécules pour la chimie.

article rédigé par Georges Simmonds pour RT Flash

Green Chemistry

Vers des vêtements solaires durables et performants
Lundi, 03/11/2014 - 16:52

Une équipe de chercheurs coréens de l'Institut de Recherche sur l'Electro-Technologie a mis au point un textile muni de cellules solaires à pigments photosensibles. Ces cellules solaires associées au textile ont l'avantage d'être plus légères et d'avoir une grande flexibilité tout en étant mécaniquement robuste. Ces capteurs photovoltaïques ont été tissés sur différentes matières telles que le coton, la soie, le feutre ou encore le papier.

La demande en cellule solaire plus légère, plus souple, notamment pour l'industrie du bâtiment ou de l'électronique, a rapidement augmenté au cours de ces dernières années. Les recherches ne s'étaient alors concentrées que sur des techniques utilisant des plastiques flexibles sur lesquels des oxydes conducteurs transparents (TCO) étaient intégrés. Toutefois, ces cellules solaires sont très fragiles et peuvent facilement se briser.

L'équipe coréenne a développé un processus en plusieurs étapes. Tout d'abord, les photoanodes d'une part et les contres électrodes d'autre part, sont assemblées à l'aide d'un fil métallique pour former deux "textiles" d'électrode. Ces deux parties sont ensuite placées de part et d'autre du tissu support choisi et cousu avec un fil métallique. Ces textiles pourront être utilisés dans la fabrication de montres ou encore de tentes ou sacs militaires qui permettraient alors une autonomie en énergie.

Les structures solaires ainsi obtenues ont une efficacité de conversion d'énergie de l'ordre de 6 % et les textiles solaires ainsi fabriqués ont montré une grande flexibilité et des performances durables.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Pubfacts

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le tabagisme passif plus dangereux que la pollution
Vendredi, 07/11/2014 - 06:20

La fumée du tabac contient plus de 4 000 substances chimiques dont plus de 60 cancérogènes. Extrêmement nocive pour le fumeur, elle est également toxique pour son entourage et l'on estime qu'en France 5 000 personnes ne fumant pas décèdent chaque année à cause du tabagisme de leurs proches…

Une nouvelle étude réalisée par des chercheurs écossais de l’Université d’Aberdeen montre que le fait de partager son domicile avec un fumeur serait aussi nocif pour les poumons que d’habiter dans une ville très polluée. Pour arriver à ce résultat, le docteur Sean Semple et son équipe ont analysé la concentration de l’air de 110 maisons : 93 dans lesquelles vivaient au moins un fumeur et 17 sans fumeur.

Les chercheurs ont découvert que l'atmosphère des premières, indépendamment des autres sources de particules fines provenant du chauffage, était dix fois plus chargée en nanoparticules que les secondes. La concentration moyenne en PM2,5 trouvée chez un fumeur était de 31 µg/m3, soit trois fois le niveau moyen recommandé par l'Organisation mondiale de la santé. A long terme, soit sur une vie de 80 ans, l’étude estime qu’une personne habitant avec un fumeur inhalera un total de 5,82 g de particules fines, contre seulement 0,76 g dans une maison sans tabac.

Le tabagisme passif augmenterait les risques de cancer du poumon (+26 % si le conjoint fume). Quant aux maladies cardiovasculaires, le risque est augmenté de 25 % en cas de tabagisme passif au foyer ou au travail.

L'étude montre également que le risque de mort subite du nourrisson est doublé lorsque la mère fume et ce risque augmente en fonction du nombre de fumeurs dans la maison, du nombre de cigarettes fumées et du temps d'exposition. Quant au risque de bronchite de l'enfant, il augmente de 72 % si la mère fume.

Article rédigé par Georges Simmonds pour RT Flash

BMJ

Les boutons de fièvre augmenteraient le risque de maladie d'Alzheimer
Vendredi, 07/11/2014 - 06:10

Selon l'équipe suédoise menée par Hugo Lövheim and Fredrik Elgh, deux professeurs du département de virologie de l'Université d'Umeå, les boutons de fièvre joueraient un rôle dans l'apparition chez les personnes âgées de certaines maladies neurologiques.

Il semble, selon ces travaux, que les personnes porteuses du virus de l'herpès simplex de type 1, plus communément connu sous le nom d'herpès buccal, ne l'éliminent jamais. Présent à vie dans le corps humain, il peut se réactiver régulièrement, d'où l'apparition de nouveaux boutons de fièvre.

Mais ces éruptions régulières ne concernent pas tous les porteurs du virus. Sur les 90 % de personnes infectées par l'herpès simplex de type 1, un tiers seulement est concernée par la réactivation du virus et l'apparition de nouveaux boutons de fièvre.

Il semble que ce virus profite de la baisse des défenses immunitaires des personnes âgées et vulnérables pour se répandre dans l'organisme et s'installer dans le cerveau. Il provoque alors la destruction de cellules et récepteurs permettant la communication cellulaire.

Rassemblant 3 432 participants suivis pendant plus de 11 ans, l'étude réalisée par cette équipe suédoise a démontré que ce virus, s'il était réactivé (ce qui n'arrive pas à tous les porteurs) doublait le risque de maladie d'Alzheimer. "Nos résultats montrent qu'il y a un lien entre les infections de l'herpès simplex de type 1 et le risque de développer la maladie d'Alzheimer. Cette découverte ouvre donc de nouvelles voies pour mettre au point des traitements pour stopper cette maladie", précise Hugo Lövheim.

Article rédigé par Georges Simmonds pour RT Flash

Science Daily

Vers une détection précoce du cancer des ovaires
Jeudi, 06/11/2014 - 08:10

Parmi les trois cancers les plus répandus chez la femme (cancer du sein, des ovaires et de l'utérus), le cancer des ovaires est l'un des plus compliqués à diagnostiquer en grande partie à cause du manque de symptômes spécifiques à cette maladie.

Des chercheurs de l'Institute of Medical Biology de Singapour ont récemment identifié un biomarqueur des cellules souches ovariennes qui permettrait une détection précoce du cancer, et donc un traitement dès les premiers signes de maladie. L'équipe a en effet isolé une molécule connue sous le nom de Lgr5 présente chez un sous-groupe de cellules à la surface de l'épithélium.

En appliquant une approche d'analyse bioinformatique, des scientifiques du Bioinformatics Institute ont été capables d'identifier des gènes dont les mutations pourraient être utilisées pour le pronostic et le développement de traitement personnalisé pour ce type de cancer. Le gène, Checkpoint Kinase 2 (CHEK2), a été identifié comme un marqueur effectif pour le pronostic de survie des patients, ce qui ouvre la voie à un test de détection rapide et fiable de ce cancer. 

Article rédigé par Georges Simmonds pour RT Flash

A*STAR

Des virus -liquéfient- leur ADN pour infecter les cellules
Mercredi, 05/11/2014 - 07:00

Comment les virus parviennent-ils aussi facilement à infecter les cellules hôtes et à y injecter leur ADN ? La réponse à cette question capitale est très étonnante. Selon deux études, publiées séparément dans les revues Nature Chemical Biology et Proceedings of the National Academy of Sciences (PNAS), les virus, pour pénétrer dans les cellules, transformeraient leur ADN solide en ADN liquide !

Selon ces travaux, dirigés par Alex Evilevitch (Université Carnegie Mellon de Pennsylvanie, Etats-Unis), de nombreux virus seraient capables de faire passer leur ADN de leur structure cristalline rigide habituelle à une structure analogue à celle d’un fluide au cours de l’infection d’une cellule hôte. Ces chercheurs ont étudié le comportement de deux virus distincts : Herpex Simplex, un virus qui infecte les humains (il cause notamment l’herpès buccal), et le virus phage lambda (un virus bactériophage qui infecte la bactérie E. coli).

Cette découverte capitale pourrait permettre de mettre au point de nouveaux traitements qui viseraient non pas l’ADN des virus, mais qui empêcheraient ces derniers de "fluidifier" leur ADN et d'infecter ainsi les cellules-hôtes.

Article rédigé par Georges Simmonds pour RT Flash

Nature

La dépression chronique reduirait les performances cognitives…
Mardi, 04/11/2014 - 07:10

La dépression est une maladie fréquente qui concerne au moins une personne sur dix. Elle n'est pas sans risque pour le cerveau, puisqu'elle provoque un ralentissement psychomoteur chez les personnes déprimées.

L'équipe de Philip Gorwood, médecin au Centre Hospitalier Sainte-Anne, vient de montrer que les personnes ayant déjà connu deux épisodes dépressifs ou plus exécutent de manière anormalement lente des tâches cognitives courantes qui requièrent notamment attention, concentration et rapidité.

Pour aboutir à cette conclusion, les chercheurs ont évalué les capacités cognitives de plus de 2.000 patients ayant connu entre 1 et plus de 5 épisodes dépressifs au cours de leur vie. Ils leur ont demandé d'exécuter un test simple (le TMT : trail making test) qui consiste à relier des cercles numérotés et placés dans le désordre sur une feuille. Le test a été effectué deux fois chez chacun des patients : pendant l’épisode dépressif, puis six semaines après.

Juste après une première dépression, le temps moyen nécessaire pour réaliser ce test était de 35 secondes. Mais, pour les personnes qui ont déjà vécu deux, trois ou plus d’épisodes dépressifs dans leurs antécédents, ce temps est passé à 1 minute 20, et ce même chez les sujets rétablis.

Il semblerait donc que, même en prenant en compte les autres facteurs de risque, la dépression soit une maladie "neurotoxique", c'est-à-dire nocive pour le système nerveux. Cette étude conforte également les conclusions de précédentes études épidémiologiques, à savoir que la dépression est une maladie qui s’aggrave avec le temps.

Article rédigé par Georges Simmonds pour RT Flash

European Neuropsychopharmacology

L’obésité accélère le vieillissement du foie
Mardi, 04/11/2014 - 07:00

Selon des chercheurs qui ont utilisé un nouveau biomarqueur du vieillissement nommé « horloge épigénétique », l’obésité accélèrerait sensiblement le vieillissement du foie, ce qui pourrait expliquer la survenue précoce chez les sujets obèses de certaines maladies liées à l’âge telles que le diabète et le cancer du foie.

"Nos travaux démontrent pour la première fois qu'un indice de masse corporelle élevé (IMC) est associé à une augmentation de l’âge biologique du foie" souligne Steve Horvath, professeur de génétique humaine et biostatisticien à l’Université de Californie de Los Angeles.

Alors que chez les sujets minces, l’âge épigénétique des différents tissus correspond tout à fait à l’âge (chronologique) des individus, les tissus hépatiques chez les sujets obèses montrent un âge épigénétique plus élevé que prévu. En moyenne, l’âge épigénétique du foie accuse une hausse de 3,3 années pour chaque augmentation de 10 unités de l’IMC.

Article rédigé par Georges Simmonds pour RT Flash

Science World Report

Le lien entre cholestérol et cancer se confirme
Lundi, 03/11/2014 - 16:46

Selon une étude de l'université Duke, réalisée sur 843 hommes, des niveaux sanguins élevés de cholestérol total et de triglycérides seraient associés à un risque accru de récidive de cancer de la prostate chez des hommes ayant subi une chirurgie pour ce cancer. Ces résultats confirment le rôle important du cholestérol dans le cancer de la prostate.

Dans ces travaux, Le Professeur Emma Allott, chercheur à la Duke University (Caroline du Nord) rappelle qu’avec un régime alimentaire équilibré et l’utilisation des statines, il est possible de réduire son taux de cholestérol et de briser ce lien de causalité entre obésité, cholestérol et cancer de la prostate.

Cette étude a montré que les patients à taux de triglycérides sériques supérieur à 150 mg / dL présentent un risque accru de 35 % de récidive du cancer de la prostate, par rapport aux patients à niveaux normaux de triglycérides. Ces travaux montrent également que chaque augmentation de 10 mg / dl du « bon » cholestérol (HDL) chez les patients à faible niveau de HDL est associée à une réduction de 39 % du risque de récidive du cancer.

Il est intéressant de noter que deux autres récentes études ont également confirmé ce lien entre cholestérol et risque accru de certains cancers : une étude de l’Université de l'Illinois à Chicago qui établit un lien entre cholestérol et activation d'une voie de signalisation moléculaire qui favorise le cancer (voir Nature Communications) et une une étude du Tuft Medical Center qui montre le lien entre faible niveau de HDL et risque accru de cancer (voir American College of Cardiology).

Article rédigé par Georges Simmonds pour RT Flash

CEBP

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top