RTFlash

RTFLASH Recherche & Technologie
NUMERO 557
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 03 Juin 2010
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La voix rend le livre électronique encore plus mobile
La téléphonie sur IP gagne du terrain sur les terminaux mobiles
Une tablette à 75 dollars pour les pays défavorisés
L'iPad, une tablette pour les seniors
Téléassistance : les plaies bientôt soignées à distance
Matière
Des cellules photovoltaïques enroulables
Mise en service de l'une des centrales au gaz les plus efficaces et performantes du monde
Le Plan solaire méditerranéen attire de plus en plus les investisseurs
USA : 35 % de la demande couverte par les Enr en 2017
Espace
Comment la matière l'a emporté de justesse sur l'antimatière
Terre
Vers une taxe carbone européenne
Vivant
Cancer du sein : un vaccin testé avec succès chez la souris
L'acupuncture, son mécanisme d'action enfin dévoilé
Rôle du monoxyde d'azote chez les plantes : deux avancées majeures grâce au projet PIANO
Un riz au rendement augmenté de moitié grâce à la transgénèse
Les insectes, bifteck de l'avenir
Comment le cerveau humain mémorise-t-il un son ?
Recherche
Une voiture électrique parcourt 1000 km sans charger ses batteries
Mercedes accélère sur la voiture à hydrogène
Edito
le temps existe-t-il ?



Depuis le triomphe théorique de la mécanique quantique, élaborée au cours du premier tiers du XX ème siècle, un débat fondamental ne cesse de diviser scientifiques et philosophes : les propriétés des objets existent-t-elles indépendamment de l'observateur et de la mesure ou sont-elles au contraire produites par ces mesures ? Une particule peut-elle réellement se trouver simultanément à deux endroits différents avant d'avoir été observée ?

En 1964, le physicien irlandais John Bell démontra qu'il devait exister des inégalités observables si notre monde était bien régi par la physique "classique" qui suppose des principes stricts de causalité spatiale et temporelle. Mais en 1982, dans une expérience historique réalisée à Orsay, Alain Aspect parvint à démontrer de manière rigoureuse, en utilisant deux photons émis d'une même source puis séparés par une grande distance, que les inégalités prévues par Bell étaient clairement transgressées et que le comportement de ces photons restait bien corrélés : toute mesure sur l'un des photons entraînait instantanément une modification du « comportement » de l'autre photon, exactement comme le prévoyait la théorie quantique.

Cette expérience remarquable confirmait sans ambiguïtés la nature quantique de notre monde au niveau spatial en montrant que deux objets ayant interférés à un certain moment forment à jamais une espèce d'entité, quelle que soit la distance qui les sépare par la suite. Dans ce cadre étrange, toute mesure sur l'un de ces objets aura immédiatement un effet sur l'autre.

En 1985, le physicien Anthony Leggett montra qu'il existait une inégalité similaire à celle de Bell, appliquée cette fois, non pas à deux objets séparés spatialement, mais à un seul objet mesuré à des instants diffèrents.Cette nouvelle forme d'inégalité fut dénommée« inégalité de Bell en temps ».

En 2001, Antoine Suarez et son équipe parvint à démontrer à Genève, au terme d'une autre expérience tout à fait remarquable, que ces inégalités en temps n'étaient pas respectées au niveau quantique et que deux photons se comportaient toujours de la même façon alors qu'ils n'avaient eu, compte tenu du dispositif expérimental sophistiqué mis en oeuvre, aucune possibilité de communiquer entre eux.

Prolongeant celle d'Aspect, l'expérience de Suarez montrait que non seulement les deux photons agissait au niveau spatial comme s'ils constituaient une entité unique mais que l'ordre des évènements observés ne correspondaient à aucun ordre temporel précis et ne permettait plus de distinguer « l'avant » de « l'après » dans le déroulement de la causalité de cette fascinante expérience.

Enfin, il y a quelques semaines, des chercheurs du CEA, au lieu d'utiliser un objet quantique comme un photon, un atome ou un électron, ont testé un circuit électrique macroscopique composé de jonctions Josephson et de condensateurs. En mesurant ce circuit, ils ont également montré que l'inégalité de Bell en temps était à nouveau violée. Cette expérience met donc en évidence des propriétés quantiques à un niveau macroscopique. Elle montre qu'en l'absence de mesure, le circuit n'a pas d'état électrique défini. A contrario, toute mesure de ce système modifie son évolution temporelle. (Voir article du CEA

Ces avancées de la physique montrent que le temps, tel que nous le concevons à notre échelle humaine ou à l'échelle cosmique, avec la relativité générale, change radicalement de nature et n'a plus de sens ou peut-être même d'existence au niveau quantique.

Ces troublantes mais rigoureuses expériences nous conduisent plus largement à nous interroger sur la nature profonde du temps. S'agit-il d'une substance, existant indépendamment de tout objet, de tout observateur, ou d'une propriété émergente de la matière et de l'énergie, d'un simple paramètre physique ou d'une information que notre cerveau produit sur la nature ?

Cette question essentielle reste plus que jamais ouverte mais elle déborde la science et passionne également les philosophes depuis l'Antiquité. Face à cet énigme insondable que constitue le temps, laissons le dernier mot au grand philosophe perse Avicenne qui, au début du XIème siècle donna du temps une définition d'une surprenante modernité qui intégrait cette dualité entre le temps ressenti par notre esprit et le temps physique : « Le temps est une forme déduite de la matière et produite par la conscience ».

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
La voix rend le livre électronique encore plus mobile
Vendredi, 04/06/2010 - 00:00

Comment faciliter la lecture d'un livre électronique en situation de mobilité ? En numérisant et convertissant le contenu sur une plate-forme dédiée, explique à L'Atelier Benoît Drigny, directeur de l'activité dématérialisation au sein du groupe Jouve. Ce dernier a présenté un prototype de synchronisation audio et e-book lors d'une journée organisée par le programme de recherche et d'innovation industrielle Quaero.

L'idée est la suivante : "vous êtes en train de lire un ouvrage, et à l'instant même où vous entrez dans votre véhicule, la lecture passe en mode audio, un acteur reprenant à voix haute à partir de la phrase où vous vous étiez arrêté", développe le responsable. En précisant qu'il y a une différence majeure avec les voix de synthèse. Une technologie qui existe depuis plusieurs années, et qui s'assimile surtout à un soutien à la lecture, selon lui.

Techniquement, la solution proposée par Jouve suppose d'un côté la numérisation d'un ouvrage, et de l'autre l'enregistrement en format XML de la voix d'un acteur lisant ce même texte. Le but étant de permettre une synchronisation temporelle. "Il suffit de cliquer sur un mot, à partir duquel on veut lancer la lecture automatique", précise-t-il. La connexion avec l'autoradio du véhicule se faisant par Bluetooth. Les ergonomies d'usage sont variées. Charge aux créateurs d'appareils de proposer, à partir de cette technologie, des solutions appropriées.

Au niveau des usages professionnels, cette synchronisation peut s'avérer très utile pour les modules de formation à l'expression. "Pour préparer un responsable à rencontrer un client, savoir quel ton adopter, etc. ce type d'outils peut être intéressant", indique à L'Atelier Benoît Drigny.

De même, pour des applications dans le domaine de la traduction, avec la possibilité de lire en temps réel un texte écrit dans sa langue maternelle, en écoutant parallèlement une lecture audio en langue étrangère.

Atelier

La téléphonie sur IP gagne du terrain sur les terminaux mobiles
Vendredi, 04/06/2010 - 00:00

Les opérateurs de téléphonie mobile doivent-ils craindre la concurrence de la téléphonie sur IP, une technique qui permet de communiquer par la voix via l'Internet ? Skype, entreprise leader de ce type de services, qui permet de joindre gratuitement les plus de 500 millions d'inscrits ou à bas prix les numéros fixes ou mobiles, vient de mettre à jour son application pour les terminaux d'Apple.

Alors que la précédente version était en quelque sorte bridée, puisqu'elle nécessitait de se connecter à un réseau Wi-Fi pour pouvoir joindre un autre correspondant, il est désormais possible de passer ces appels en utilisant les réseaux Internet 3G des opérateurs de téléphonie. "Les appels de Skype à Skype via la 3G seront gratuits pendant une période d'essai qui durera jusqu'à la fin de l'année 2010", précise toutefois le groupe.

Avec ce nouveau système, les utilisateurs peuvent joindre gratuitement un correspondant Skype, si les conditions d'utilisation de l'opérateur télécom le permettent. C'est une victoire pour le service de VoIP, disponible depuis 2003 d'abord d'ordinateur à ordinateur, et qui va pouvoir croître sur les plates-formes mobiles.Le groupe, racheté par eBay en 2005, et revendu fin 2009 à des investisseurs, a d'ailleurs déjà signé plusieurs partenariats avec les opérateurs aux Etats-Unis.

En octobre, AT&T annonçait que ses clients, possesseurs de l'iphone pourraient utiliser Skype sur son réseau mobile, et en février, Verizon a aussi autorisé ses abonnés à utiliser ce service. En France, Orange est pour l'instant le seul opérateur à avoir intégré la téléphonie par Internet dans certains de ses forfaits pour terminaux mobiles.

Mais d'une manière générale, les opérateurs européens se montrent très réticents à ouvrir leurs réseaux à la VoIP, car les communications passées par Skype ne sont pas décomptées du forfait du client. Malgré ces freins, la téléphonie sur IP devrait représenter un marché de plus en plus important, selon les estimations du cabinet d'études : de 600 millions de dollars (491 millions d'euros) en 2008, il pourrait représenter près de 30 milliards de dollars (24,5 milliards d'euros) en 2015.

LM

Une tablette à 75 dollars pour les pays défavorisés
Vendredi, 04/06/2010 - 00:00

Une Laptop per Child (OLPC) est un projet destiné à donner accès aux nouvelles technologies aux enfants des pays défavorisés. Après avoir conçu le XO, un ordinateur à moins de 100 dollars (mais vendu près de deux fois ce prix), la fondation s'attelle à lui créer un remplaçant.

Ce sera donc une tablette tactile, la XO-3, que le fondateur d'OLPC Nicholas Negroponte présente, excusez du peu, « comme une synthèse d'un ordinateur, d'un iPad et d'un Kindle ». Le tout pour un prix de 75 dollars. La XO-3 s'appuiera sur la technologie développée par Marvell pour sa propre tablette à petit prix, la Moby.

La tablette mesurera au minimum 9 pouces (près de 23 cm) et sera dotée d'un écran tactile à la fois économe en énergie et lisible même par forte luminosité, On y trouvera un processeur ARM à 1 Ghz, du Wi-Fi n, ainsi qu'une Webcam et un appareil photo. La tablette sera capable d'afficher des vidéos HD en 1080p, des images en 3D et sera compatible avec Flash.

Côté logiciel, c'est Android de Google qui a été retenu pour équiper les premiers prototypes. Un autre OS basé sur Linux pourra ultérieurement être installé.Le tout devrait prendre place dans une coque plastique antichoc, qui reste encore à concevoir. C'est pour cela que Nicholas Negroponte a promis d'exposer les premiers prototypes, sans leur habillage définitif, au prochain CES (Consumer electronics show) de Las vegas, en janvier 2011. Et la tablette complète sera présentée lors de l'édition suivante.

OINet

L'iPad, une tablette pour les seniors
Vendredi, 04/06/2010 - 00:00

L'iPad n'est pas réservé aux geeks et aux early adopters (« adopteurs précoces »). La preuve avec cette expérimentation lancée par la secrétaire d'Etat à la Prospective et au Développement de l'économie numérique, Nathalie Kosciusko-Morizet. A partir du 11 juin, et pendant six mois, des seniors vont se voir confier des tablettes Internet de marque Apple et Archos.

L'objectif : « évaluer la facilité de prise en main des tablettes, leur ergonomie, l'apprentissage de la gestuelle, ainsi que l'impact de leur usage sur les services du Web », explique le ministère dans un communiqué.

A l'issue de cette étude, des recommandations seront publiées pour permettre aux industriels d'« améliorer l'ergonomie de ces interfaces tactiles pour l'usage des personnes âgées, mais également d'analyser l'apport des usages numériques sur le confort de vie et le bien-être social des plus de 65 ans ». Trente-cinq seniors vont participer à l'opération, dont cinq « geekettes » (c'est le terme employé par le ministère) de plus de 80 ans.

Nathalie Kosciusko-Morizet y voit une chance de « réduire la fracture numérique générationnelle ». L'initiative pourrait trouver un écho auprès des fabricants : 59 % des seniors se déclarent réticents aux nouvelles technologies, rappelle le secrétariat au Développement de l'économie numérique. Un joli marché en perspective pour ceux qui réussiront à inverser la tendance.

OINet

Téléassistance : les plaies bientôt soignées à distance
Vendredi, 04/06/2010 - 00:00

A Caen, un dispositif de téléassistance permettant de traiter les plaies des patients à distance va être lancé dans les prochaines semaines. Cette nouvelle approche médicale utilisera les outils de communication pour réduire au maximum l'hospitalisation des patients. Une infirmière se déplacera directement chez le blessé pour filmer la plaie, dont elle enverra ensuite les images au centre d'expertise grâce à la visioconférence. La communication pourra s'établir grâce au réseau 3G, plus efficace et étendu sur le territoire français que l'ADSL.

Ce dispositif permettra aux infirmiers experts de faire valider leur diagnostic auprès du médecin, ainsi que de suivre l'évolution des plaies des patients souffrant d'ulcères de la jambe, d'escarres ou encore de pieds diabétiques grâce aux images enregistrées.

Pour l'heure, cinq établissements de santé et quatre centres experts devraient adhérer au réseau Téléassistance des plaies (Telap), piloté par le CHU de Caen qui sera bientôt doté d'une unité mobile de plaies.

Yahoo

^ Haut
Matière
Matière et Energie
Des cellules photovoltaïques enroulables
Vendredi, 04/06/2010 - 00:00

En randonnée ou en haute mer, les cellules photovoltaïques enroulables peuvent s'avérer des producteurs d'électricité durables et flexibles. Attachées sur un sac à dos ou un kayak, elles permettent par exemple aux appareils de navigation et de communication de fonctionner indépendamment du réseau électrique. Un groupe de recherche de l'Université de Duisbourg-Essen (UDE) développe actuellement un nouveau concept photovoltaïque. Le Land de Rhénanie du Nord Westphalie et l'UDE soutiennent le projet à hauteur de 1,42 million d'euros pour les 5 prochaines années. L'équipe de recherche, sous la direction de Niels Benson, travaille en particulier sur le photovoltaïque hybride enroulable : "Le besoin en énergie mobile disponible augmente considérablement. Satisfaire à la "fringale énergétique" croissante de façon la plus durable possible est notre objectif."

La plupart des cellules photovoltaïques utilisées actuellement sont constituées de silicium cristallin rigide. La nouveauté est l'utilisation de semi-conducteurs organiques et à base d'oxyde métallique, qui possèdent potentiellement un haut rendement en tant que système purement organique et peuvent aussi être intégrés dans diverses applications mobiles malléables. Selon Benson, "un avantage réside dans le fait que ces substances ne nécessitent pas de hautes températures de fabrication pour utiliser des matériaux porteurs flexibles - une condition importante pour les cellules solaires enroulables".

BE

Mise en service de l'une des centrales au gaz les plus efficaces et performantes du monde
Vendredi, 04/06/2010 - 00:00

En présence d'Ernst Burgbacher, secrétaire d'Etat parlementaire au Ministère fédéral de l'économie (BMWi), la centrale thermique au gaz Irsching 5 en Haute-Bavière vient d'être mise en service le 17 mai 2010 après 2 ans de construction. Il s'agit de l'une des turbines gaz-vapeur les plus efficaces et performantes du monde. Le propriétaire du projet est GKI (Gemeinschaftskraftwerke Irsching GmbH), une entreprise dans laquelle coopèrent E.ON, N-ERGIE (Nuremberg), Mainova (Francfort sur le Main) et HSE (Darmstadt). E.ON sera responsable de l'exploitation de la centrale.

La centrale est développée par Siemens sur le site d'une centrale déjà existante, à Irsching (près d'Ingolstadt) : les unités 1 et 2 (151 MW et 312 MW respectivement) sont gardées en réserve, alors que l'unité 3 produit 415 MW. Siemens construit actuellement deux centrales à cycle combiné (CCGT) d'une nouvelle génération, plus performantes et plus respectueuses de l'environnement : la turbine à gaz de 340 MW d'Irsching 4, testée pendant 18 mois entre 2008 et début 2009 1], a été couplée à une turbine à vapeur pour former une centrale à cycle combiné d'une puissance de 530 MW.

Cet assemblage doit permettre d'atteindre un rendement record de 60% en 2011 (permettant une économie d'émission de 40.000 tonnes de CO2 par an), année de livraison de la centrale à E.ON. Irsching 5 est la nouvelle unité de 800 MW, désormais mise en service, avec un rendement supérieur à 59,5%.

Cette centrale est équipée de deux turbines à gaz SGT5-4000F et d'une turbine à vapeur SST5-5000, trois générateurs d'hydrogène froid et des systèmes électriques. Les émissions d'oxyde d'azote seront maintenues à un niveau très faible (<15ppm). La centrale atteint sa pleine production en 30-40 minutes afin de répondre aux exigences les plus pointues du réseau électrique, en considération de l'intégration de l'énergie éolienne.

Un tel rendement nécessite des températures de combustion et de gaz d'échappement extrêmement élevées. La forme des aubes des turbines joue également un rôle important. Des matériaux à la fois extrêmement solides et résistants aux très hautes températures ont été développés à cet effet, ainsi que des nouvelles technologies pour le brûleur et la chambre de combustion.

[BE

Le Plan solaire méditerranéen attire de plus en plus les investisseurs
Vendredi, 04/06/2010 - 00:00

La terre ou l'eau font souvent l'objet de conflits. En revanche, le soleil brille pour tous et le vent n'appartient à personne. C'est pourquoi le Plan solaire méditerranéen avance sans subir trop de vicissitudes politiques de l'Union pour la Méditerranée (UPM), dont il est un des axes de travail. Jeudi 27 mai, à Marseille, lors du forum de l'UPM, ce plan occupait une bonne place dans les débats.

Au-delà des stratégies nationales pour les énergies vertes définies ces derniers mois par les pays méditerranéens, acteurs publics et investisseurs souhaitent que se dégage un cadre technique, réglementaire et financier pour accueillir des projets moteurs. La présentation, jeudi, de Transgreen, consortium d'entreprises destiné à favoriser la création de liaisons sous-marines transméditerranéennes de transport d'électricité, va dans ce sens.

Formulé lors de la naissance de l'UPM en juillet 2008, le Plan solaire méditerranéen part d'une idée simple. Les pays du sud et de l'est de la Méditerranée disposent d'un potentiel important en énergie verte, notamment solaire et éolienne, et leur demande en électricité va fortement progresser dans les années à venir.

Parallèlement, sous l'impulsion du 'paquet énergie-climat' adopté en 2008 par l'Union européenne, les pays du nord de la Méditerranée cherchent à intégrer une part croissante d'électricité verte dans leur consommation, au moins 20 % en 2020. D'où l'idée d'un partenariat entre les 43 pays riverains pour tirer parti de ce potentiel, tout en favorisant des solutions d'efficacité énergétique.

L'initiative concrétisée, via des accords multilatéraux ou bilatéraux, a un objectif : l'installation dans les pays du Maghreb et du Machrek d'une capacité en énergies renouvelables de 20 gigawatts (GW) en 2020, dont une partie (environ 5 GW) a vocation à être exportée vers l'Europe, afin de garantir la rentabilité des projets.Deux points sont centraux dans le déploiement du plan : l'interconnexion et le renforcement des réseaux nationaux ; et la mise en place de financements.

LM

USA : 35 % de la demande couverte par les Enr en 2017
Vendredi, 04/06/2010 - 00:00

Selon un rapport publié par le NREL (Laboratoire national sur les énergies renouvelables), le solaire et l'éolien pourraient répondre en 2017 à 35 % de la demande en électricité dans cinq États des Etats-Unis, sans aucun investissement supplémentaire dans de nouvelles infrastructures.

En moins de sept ans, le solaire et l'éolien seraient ainsi en mesure de satisfaire 35 % de la demande en électricité dans la région Ouest des Etats-Unis et notamment dans cinq États : le Wyoming, le Colorado, le Nouveau Mexique, l'Arizona et le Nevada.

Plus précisément, les éoliennes pourraient satisfaire 30 % de la demande et l'énergie solaire 5 %, selon le rapport intitulé "Western Wind and Solar Integration Study" (rapport d'intégration de l'éolien et du solaire dans l'Ouest), rédigé par le NREL, un centre dédié à la recherche et au développement sur les énergies renouvelables et l'efficacité énergétique.

Afin de parvenir à ce résultat en si peu de temps, l'étude montre que les investissements qui ont déjà été réalisés dans les parcs éoliens et l'infrastructure solaire semblent suffisants pour atteindre cet objectif. Néanmoins, une réorganisation structurelle demeure nécessaire, et plus précisément, une meilleure coordination entre les nombreuses compagnies d'énergie et une planification d'approvisionnement en énergie remise à jour plus fréquemment.

"Le rapport montre qu'avec ces principaux changements, l'éolien et le solaire pourraient être intégrés au réseau électrique sans avoir recours à d'énorme quantité de production de secours. La coordination des opérations entre les services publics sur une grande surface diminue l'effet de variabilité des ressources éoliennes et solaires", a déclaré le Dr Debra Lew, directeur de projet au NREL.

Etude sur l'intégration des énergies solaires et

éoliennes

^ Haut
Espace
Espace et Cosmologie
Comment la matière l'a emporté de justesse sur l'antimatière
Vendredi, 04/06/2010 - 00:00

Le monde qui nous entoure bien réel. Parce que l'Univers a choisi la matière plutôt que l'antimatière. De très peu : une infime pincée supplémentaire de la première, qui a suffi à faire toute la différence. Pourquoi, comment ?

Des expériences menées au Fermilab de Chicago, avec le détecteur DZero du Tevatron - le collisionneur de particules le plus puissant au monde après le Large Hadron Collider (LHC) de l'Organisation européenne pour la recherche nucléaire (CERN) de Genève -, lèvent peut-être un coin du voile. Tout en ébranlant le socle de la physique fondamentale. Ces travaux, auxquels participent 500 physiciens de 19 pays, parmi lesquels une cinquantaine de chercheurs français du CNRS et du Commissariat à l'énergie atomique (CEA), ont été soumis pour publication à la revue Physics Review D.

En théorie, lors du Big Bang originel, voilà 13,7 milliards d'années, matière et antimatière ont été formées en quantités égales. Leurs composants élémentaires sont de même masse, mais de charge électrique opposée, à chaque particule de matière correspondant une antiparticule : ainsi de l'électron, de charge négative, et du positon, chargé positivement.

Or, lorsqu'une particule et une antiparticule se rencontrent, elles disparaissent dans un flash de lumière, leur masse se transformant en énergie. Si matière et antimatière étaient restées en quantités égales, elles auraient donc dû s'annihiler. A moins de supposer que l'Univers s'est scindé en domaines distincts, faits soit de matière, soit d'antimatière.

Mais, alors, des déflagrations devraient se produire en permanence aux frontières de ces domaines, créant des rayons gamma cosmiques parvenant jusqu'à la Terre

Les calculs montrent que, compte tenu du flux de ces rayons gamma, de tels domaines auraient au moins la taille de la totalité de l'Univers visible. Conclusion : l'antimatière primitive a totalement disparu de notre Univers. Celle qu'observent aujourd'hui les physiciens provient des rayons gamma heurtant l'atmosphère terrestre, ou des collisionneurs où elle est fabriquée en très petites quantités.

Les cosmologistes imaginent que l'Univers primordial a connu à ses tout premiers instants, alors qu'il était encore extrêmement dense et chaud, une phase de transition au cours de laquelle son équilibre thermodynamique a été rompu. Une particule de matière sur 10 milliards aurait survécu à l'annihilation générale entre particules et antiparticules. C'est de ces rescapées que serait né le monde que nous connaissons.

Lm

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Vers une taxe carbone européenne
Vendredi, 04/06/2010 - 00:00

Le transport routier, bâtiment et agriculture seront soumis prochainement à une taxe carbone dans l'ensemble de l'UE si les Etats membres donnent unanimement leur accord à une proposition en ce sens de la Commission européenne.Cette mesure - différente de la taxe carbone aux frontières de l'Europe réclamée par Nicolas Sarkozy - est contenue dans un document détaillant la révision à venir de la directive sur la taxation de l'énergie.

L'objectif est double, dit le texte, qui doit désormais être discuté au sein du collège des commissaires le 23 juin prochain : "corriger les prix de l'énergie pour refléter les coûts des émissions de CO2 et les contenus en énergie, dans le but de changer les comportements, les technologies utilisées ; s'assurer que les Etats membres peuvent avoir des politiques fiscales efficaces sans peur de pertes de compétitivité au sein du marché intérieur (européen)".

Une fois présenté officiellement par la Commission, le projet sera étudié par les Etats membres, qui devront se prononcer à l'unanimité pour l'adopter. Si tel est le cas, les nouvelles règles seront mises en oeuvre progressivement entre 2013 et 2018 et viendront compléter le système d'achat et d'échanges de permis de polluer déjà mis en place au sein de l'UE pour les secteurs industriels.

En taxant ainsi le transport et le logement, responsables respectivement de 23 % et 10 % des émissions de CO2 européennes, l'Union européenne souhaite se donner les moyens d'atteindre son objectif de réduction des rejets de dioxyde de carbone de 20 % à d'ici à 2020. Tout en se refusant à tout commentaire sur le document, la porte-parole du commissaire à la Fiscalité, Aldirgas Semeta, insiste aussi sur l'objectif pédagogique de cette taxe.

"L'objectif n'est pas d'augmenter les taxes mais de les restructurer afin que le consommateur puisse choisir (...) Les consommateurs seraient en mesure de réduire le montant des taxes qu'ils paient en modifiant leur comportement et en ayant une consommation d'énergie plus efficace", dit-elle. Par exemple, les bio-carburants seraient beaucoup moins taxés qu'à l'heure actuelle alors que le charbon verrait, quant à lui, son coût grimper en flêche.

Afin de ne pas s'attirer les foudres des contribuables ou de certains secteurs déjà fortement pénalisés par la crise, De leur côté, les industries lourdes, la production d'électricité ou l'aviation, déjà intégrées dans le système de quotas de CO2, ne tombent pas sous le coup de la taxe et n'auront pas à craindre pour leur compétitivité par rapport à leurs concurrents internationaux.

Le secteur agricole ou les ménages pauvres, déjà fortement affectés par la crise, devrait être exemptés de cette taxe. De même, les industries lourdes, la production d'électricité ou l'aviation ne seront pas soumises à de nouvelles taxes puisqu'elles sont déjà intégrées dans le système de quotas de CO2.

Concernant les revenus générés par cette taxe, le texte dispose qu' "il reviendra aux Etats membres de décider, en fonction des circonstances nationales et de leurs besoins, comment faire la meilleure utilisation des revenus potentiels obtenus de la taxation du CO2". En outre, ils pourront faire le choix de compenser leurs contribuables ou d'encaisser les revenus de cette taxe pour assainir leurs finances publiques.

Lp

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cancer du sein : un vaccin testé avec succès chez la souris
Vendredi, 04/06/2010 - 00:00

Des chercheurs du Cleveland Clinic Learner Research Institute, dirigés par le professeur Vincent Tuohy, a obtenu des résultats prometteurs, publiés dans la revue Nature Medecine. Mais les scientifiques préviennent: plusieurs années pourraient être nécessaires avant une disponibilité chez l'être humain.

Le vaccin a été testé chez des souris génétiquement modifiées. 100% des animaux non vaccinés ont développé des tumeurs mammaires. En revanche, aucun cancer n'a été enregistré chez ceux ayant reçu une injection d'un vaccin ciblant la protéine alpha-lactalbumin.

La vaccination préventive cible en général un virus, facilement reconnu comme un agent étranger. C'est le cas des vaccins déjà approuvés (comme pour le cancer du col de l'utérus avec le papillomavirus). En revanche, empêcher la multiplication folle des cellules cancéreuses est complexe car les vaccins jusqu'ici testés détruisent également des cellules saines.

«Si cela marche aussi bien chez l'humain que chez la souris, cela serait monumental. Nous pourrions éliminer le cancer du sein», estime Vincent Tuohy. Malgré des progrès dans les traitements et le dépistage, le cancer du sein reste le plus fréquent chez la femme: 52.600 nouveaux cas par an (soit un tiers des cancers), et 11.300 décès (20% des décès).

Nature

L'acupuncture, son mécanisme d'action enfin dévoilé
Vendredi, 04/06/2010 - 00:00

L'acupuncture, apparue il y a environ 5.000 ans en Asie a la faculté de soulager certaines douleurs grâce à l'implantation d'aiguilles fines dans des endroits spécifiques du corps. Cependant, certains spécialistes ne reconnaissent pas l'efficacité de cette médecine et parlent d'un effet placebo.Maiken Nedergaard, neurologue au centre médical de l'université de Rochester et son équipe ont donc voulu identifier les mécanismes d'action de cette médecine traditionnelle chez les souris.L'étude est publiée sur le site internet de la revue britannique Nature neuroscience et montre que l'acupuncture augmente la libération d'adénosine, une molécule ayant des effets antalgiques.

Les scientifiques ont réalisé des séances d'acupuncture de 30 minutes sur des souris souffrant au niveau des pattes. Elles étaient piquées au niveau d'un point près du genou puis on faisait tourner l'aiguille toutes les 5 minutes. Le niveau d'adénosine était alors multiplié par 24 et la douleur réduite de 2/3.Afin de vérifier le réel effet de l'acupuncture sur la molécule, les chercheurs ont supprimé chez certaines souris le récepteur de l'adénosine : plus aucun effet n'était alors constaté. De même, la douleur diminuait lorsque l'on administrait la molécule antalgique aux souris.

Yahoo

Rôle du monoxyde d'azote chez les plantes : deux avancées majeures grâce au projet PIANO
Vendredi, 04/06/2010 - 00:00

Courant juin, les participants du projet PIANO se réuniront afin de définir une nouvelle piste à explorer qui pourrait conduire au dépôt d'un nouveau projet à l'ANR (Agence Nationale de la Recherche) afin d'obtenir un financement. Rappelons que PIANO, labellisé par le pôle VITAGORA et financé par l'ANR, se termine à la fin de cette année. "Notre objectif était d'appréhender et de comprendre les mécanismes moléculaires par lesquels le monoxyde d'azote, produit par les plantes, guide la cellule vers une réponse appropriée", résume le professeur David Wendehenne qui coordonne ce projet et dirige, par ailleurs, l'équipe "Signalisation Cellulaire et Moléculaire dans les Réactions de Défense" au sein de l'Unité Mixte de Recherche "Plante-Microbe-Environnement" (INRA/CNRS/ Université de Bourgogne). Or les résultats obtenus sont plus que satisfaisants et ont déjà fait l'objet de plusieurs articles publiés dans des revues internationales.

"Dans un premier temps, nous avons réussi à mettre en évidence un rôle assez inattendu du monoxyde d'azote", explique le chercheur dijonnais. Ce monoxyde d'azote participe en effet à une rétention du fer, lors d'interactions avec des microorganismes. Ainsi, lors d'une infection par l'un de ces derniers, on observe une compétition pour le fer que renferme la plante. "Or le monoxyde d'azote met alors en place un processus spécifique qui va permettre à la plante de mieux conserver ce fer", précise-t-il avec d'autant plus d'enthousiasme que lui et ses collègues ne s'attendaient pas du tout à faire cette observation.

Par la suite, les chercheurs ont pu identifier des gènes directement régulés par le monoxyde d'azote dans ce contexte, dont l'un d'entre eux les intéresse tout particulièrement, puisque dans une situation de carence en fer, le monoxyde d'azote régule positivement ce gène qui code pour une protéine dont le rôle est de transporter le fer dans la plante. "Ainsi, en réponse à des stress abiotiques qui déclenchent une carence en fer dans la plante, le monoxyde d'azote va jouer un rôle de régulateur du gène en question, ce qui permet alors à la plante de procéder à une redistribution de son fer".

Les chercheurs ont alors proposé l'hypothèse selon laquelle lorsqu'il se produit une infection par un microorganisme dans une plante, le fer pourrait être redistribué dans des zones non accessibles à ce microorganisme, d'où alors une meilleure protection de la plante.

Afin de vérifier cette hypothèse, ils ont "éteint" l'expression de ce gène avec, pour résultat, une plante plus sensible à un certain organisme pathogène. Ces résultats devaient faire l'objet de la publication d'un article au cours des prochains mois.

Autre avancée majeure réalisée dans le cadre de PIANO, l'identification de protéines directement régulées par le monoxyde d'azote. Chez les mammifères, ce mécanisme est connu et une centaine de protéines régulées par celui-ci ont été déjà identifiées. Cela a permis de mieux comprendre le rôle de NO et de découvrir de nouvelles fonctions de ce monoxyde d'azote.

BE

Un riz au rendement augmenté de moitié grâce à la transgénèse
Vendredi, 04/06/2010 - 00:00

Une équipe de chercheurs de l'université de Nagoya a identifié un gène permettant d'augmenter le rendement du riz et a réussi à produire avec succès un riz génétiquement modifié possédant ce gène.Le riz (Oryza sativa) est un aliment fondamental dans de nombreux pays du monde et c'est la céréale la plus consommée par l'homme.

Il possède en outre une signification culturelle particulièrement importante dans les pays d'Asie : Japon, Chine, Inde... Le grain de riz est situé dans ce qu'on appelle un épillet (soit un petit épi). Ces épillets se trouvent sur des embranchement, rassemblés sous une forme que l'on appelle panicule. Le rendement d'un plant de riz dépend donc du nombre d'épillets par panicule.

Les chercheurs ont étudié le génome d'une variété de riz dont la panicule possède trois fois plus de ramifications que celle de la variété "Nipponbare" (ou "ciel clair japonais", variété de référence dont le génome est bien connu des chercheurs). Ils ont identifié un gène, OsSPL14, dont la surexpression au cours du stade reproductif de la vie de la plante stimule la production d'embranchements au niveau de la panicule. La variété de riz au rendement élevé possède une version mutante de ce gène, appelée WFP (pour Wealthy Farmer's Panicle).

Les chercheurs ont ensuite produit des plants transgéniques de Nipponbare qui possèdent l'allèle WFP. Les plants transgéniques ont développé en moyenne 23,8 embranchements par panicule contre 11,6 pour les plants normaux.

Au final, le rendement en grains de riz a été augmenté de 52%.On peut imaginer l'application de la même méthode avec d'autres plantes, comme le blé ou le maïs. Si l'on considère la place essentielle des céréales dans l'alimentation humaine, la découverte a des implications importantes pour les questions de sécurité alimentaire, non seulement au Japon (dont le taux d'autosuffisance alimentaire est autour de 40%) mais également pour le reste du monde.

BE

Les insectes, bifteck de l'avenir
Vendredi, 04/06/2010 - 00:00

L'entomophagie présente, selon ses promoteurs, de multiples avantages. Les qualités nutritionnelles des insectes sont grandes. Ils contiennent des protéines, des lipides, des minéraux (zinc, fer), des vitamines, parfois plus que la viande ou le poisson. Et ils ont un bien meilleur rendement que le bétail traditionnel. "Il faut 10 kg de nourriture végétale pour produire 1 kg de boeuf, explique Arnold Van Huis, entomologiste à l'université de Wageningen (Pays-Bas). Alors qu'il en faut seulement un ou deux pour les insectes comestibles."

Ils ont également besoin de beaucoup moins d'eau. Or 70 % des terres arables et 9 % de l'eau douce sont aujourd'hui consacrées à l'élevage, qui est en outre responsable de 18 % des émissions de gaz à effet de serre, selon la FAO. Quant aux poissons sauvages, ils sont souvent surexploités. Et les poissons d'élevage sont nourris avec... du poisson sauvage. Comment nourrir, dans ces conditions, les 9 milliards d'habitants de la planète en 2050 ?

Disponibles en grande quantité à l'état sauvage, ils sont aussi faciles à élever, car ils peuvent se reproduire rapidement dans des espaces fermés (le confinement permet de prévenir d'éventuelles pollutions). Les espèces les plus productives pourraient donc devenir une sorte de "mini-bétail".

Quelque 1 400 espèces sont consommées en Afrique, en Asie, et en Amérique latine : larves de coléoptères, fourmis, chenilles, criquets, chrysalides des vers à soie, punaises, cigales, grillons, araignées, scorpions... (Avis aux amateurs, cependant, comme pour les champignons ou les végétaux, tous les insectes ne sont pas comestibles.) La Chine, le Japon, la Thaïlande, l'Afrique du Sud, le Mexique figurent parmi les plus importants consommateurs.

"Dans certains cas, il s'agit de plats de fête ou d'amuse-gueules très appréciés, dans d'autres les insectes sont nécessaires à la survie, souligne Nicolas Cesard, ethnologue, spécialiste des relations entre hommes et insectes. Selon M. Vantomme. "L'élevage d'insectes pourrait fournir des aliments, mais aussi du travail dans les sociétés rurales", estime M. Vantomme, qui cite l'exemple du Laos, où cette activité se développe.

Les spécialistes espèrent aussi progresser dans les pays occidentaux. Tout est selon eux une question de "psychologie". "Il suffit de goûter pour recommencer", disent les amateurs. Pourquoi délaisser les insectes quand on consomme du miel, des escargots, des grenouilles ou des huîtres ? Leur saveur est souvent comparée à celle des fruits de mer ou des noisettes. Dans l'Antiquité, les Romains appréciaient les chenilles.

Autre potentiel considérable : utiliser le "mini-bétail" pour alimenter le gros. "Les insectes pourraient par exemple remplacer les huiles et farines de poissons sauvages dans l'alimentation des poissons d'élevage", affirme M. Vantomme. Bien que peu connue, la pratique existait en France jusqu'aux années 1980, sur les bords de la Saône, où les éphémères, de petits insectes volants, étaient récoltés et utilisés dans les rations animales. Des essais très concluants ont en outre déjà eu lieu dans des élevages porcins.

LM

Comment le cerveau humain mémorise-t-il un son ?
Vendredi, 04/06/2010 - 00:00

« Jusqu'à présent, les seules données concernant la mémorisation auditive concernaient des sons simples ou bien le langage », précise Daniel Pressnitzer, chercheur CNRS au Laboratoire psychologie de la perception (CNRS/Université Paris Descartes/ENS Paris). S'attaquer aux sons complexes et étudier nos capacités à les mémoriser, tel est le défi que se sont lancés trois chercheurs français. En effet, d'importantes lacunes persistaient en la matière.

Afin d'étudier comment se forme la mémoire auditive, les chercheurs ont soumis des volontaires à divers échantillons sonores : ces bruits étaient générés de manière totalement aléatoire et imprévisible, de façon à éviter que les auditeurs ne les aient déjà entendus. De plus, ces ondes sonores originales et complexes n'avaient aucune signification : elles sont perçues, de prime abord, comme des chuchotements indistincts. Ce que les auditeurs ne savaient pas, c'est qu'un motif sonore complexe pouvait être présenté plusieurs fois, à l'identique, pendant l'expérience.

Grâce à ce protocole expérimental assez simple, les scientifiques ont découvert que notre oreille est remarquablement efficace pour distinguer des répétitions sonores. Les auditeurs sont ainsi parvenus à reconnaître de manière quasi-infaillible le motif sonore qui leur était présenté plusieurs fois : deux écoutes suffisaient pour les personnes à l'oreille aguerrie, une dizaine d'écoutes seulement était nécessaire pour les moins entraînées.

La répétition sonore induit donc un apprentissage extrêmement rapide, tout en étant efficace. Celui-ci se met en place de façon implicite (il est non supervisé). De plus, cette mémoire des bruits peut persister pendant plusieurs semaines. Deux semaines après la première expérience, les volontaires repèrent de nouveau le motif sonore, et ce du premier coup.

Les scientifiques ont ainsi démontré l'existence d'une forme d'apprentissage auditif rapide, solide et pérenne. Leur dispositif expérimental se révèle une méthode pertinente et simple qui pourrait permettre d'étudier la mémoire auditive tant chez l'homme que chez l'animal.

Ces résultats supposent qu'un mécanisme de plasticité auditive rapide, c'est-à-dire un mécanisme impliqué dans la capacité d'un neurone auditif à moduler le type de réponse qu'il donne suite à une stimulation sonore, interviendrait de manière extrêmement efficace dans notre apprentissage de l'univers sonore.

Ce processus est très vraisemblablement essentiel pour repérer et mémoriser les motifs sonores récurrents dans notre environnement acoustique, comme la voix d'un proche. Il présente toutes les caractéristiques qui seraient nécessaires à l'être humain pour apprendre à associer un son et l'objet qui en est la cause.

CNRS

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Une voiture électrique parcourt 1000 km sans charger ses batteries
Vendredi, 04/06/2010 - 00:00

Le Japan Electric Vehicle Club, une association de citoyens qui se consacrent au développement des véhicules électriques, a réussi à rouler avec une voiture légère sur une distance dépassant les 1000 km, sans effectuer une seule recharge des batteries.

Le gouvernement japonais a fait du développement des véhicules électriques une de ses priorités pour réduire les émissions de gaz à effet de serre du pays. Si les moteurs électriques ont depuis longtemps prouvé qu'ils n'étaient en rien inférieurs aux moteurs thermiques (le projet Eliica de l'Université Keio a permis notamment de construire une voiture qui atteint les 370 km/h), il est régulièrement reproché aux véhicules électriques de manquer d'autonomie. De fait, celle des voitures actuellement vendues dans le commerce ne dépasse guère les 150 km.

En réalisant ce type de démonstration, l'association espère faire prendre conscience aux populations que le problème de l'autonomie pourra être réglé et qu'il ne sera plus longtemps un frein au développement des véhicules électriques. L'association avait ainsi réalisé un premier voyage entre Tokyo et Osaka, parcourant les 555,6 km qui séparent les deux villes sans recharger les batteries de sa Daihatsu "Mira EV". Cependant, les aléas du trafic multiplient les accélérations et les freinages, ce qui entraine une décharge prématurée des batteries. L'équipe a donc décidé de retenter l'aventure, cette fois sur une piste de 689 m de circonférence située à Shimotsuma, dans le département d'Ibaraki (Est de Tokyo).

La voiture dispose de batteries lithium-ion composées au total de 8 320 éléments cylindriques fournis par Sanyo. La capacité totale maximale est de 74 kWh. 17 pilotes se sont succédé pour effectuer 1 456 tours de piste, parcourant ainsi 1003,184 km à une vitesse moyenne de 40 km/h, et consommant au total 63 kWh (soit une consommation moyenne de 62,8 Wh/km).

Même s'il ne s'agit que d'un prototype, c'est la première fois au monde qu'un véhicule électrique parcourt une distance supérieure à 1.000 km sans qu'il soit nécessaire de recharger ses batteries. Ces résultats sont encourageants pour l'avenir des véhicules électriques.

BE

Mercedes accélère sur la voiture à hydrogène
Vendredi, 04/06/2010 - 00:00

L'allemand pourrait s'allier à Toyota pour baisser les coûts. Ils visent un lancement en 2015. Les partenariats se multiplient dans la voiture «verte». Après avoir conclu une alliance stratégique avec Renault dont l'un des axes concerne les véhicules électriques, Daimler chercherait un partenaire pour ses futures voitures équipées d'une pile à combustible, qui transforme l'hydrogène en électricité.

Le constructeur allemand, fabricant des Mercedes et des Smart, et le japonais Toyota songeraient à coopérer dans ce domaine, selon le Financial Times Deutschland. «Il y a un grand intérêt à partager les coûts de développement» via une entreprise commune, selon une source interne citée par le journal. Un porte-parole de Daimler a reconnu que le groupe était «ouvert à des coopérations dans ce domaine».

Daimler et Toyota, parmi les plus en pointe sur cette technologie, travaillent sur la voiture à pile à combustible depuis le début des années 1990 et visent le lancement d'un modèle grand public début 2015. «Nous comptons vendre 100 000 Mercedes Classe B fonctionnant à l'hydrogène en 2015», précise Herbert Kohler, le directeur de la recherche du constructeur allemand. Ce dernier a commencé la production d'une petite série de 200 exemplaires de ce modèle. Les premiers clients européens et américains, des flottes professionnelles, seront livrés à la fin de l'année. «Nous serons les premiers à fabriquer un véhicule de ce type en série», affirme Herbert Kohler.

Daimler veut proposer à terme cette voiture «à un prix équivalent de celui d'un véhicule hybride diesel», indique Herbert Kohler. Soit un tarif plus élevé que celui d'un modèle classique, mais tout de même «abordable». Or le coût des prototypes à l'hydrogène est estimé à plusieurs centaines de milliers d'euros, en raison du besoin en métaux précieux.

D'où l'intérêt d'un développement commun. Les progrès techniques devraient aussi contribuer à la baisse des coûts. «Nous sommes parvenus à réduire de 90% depuis environ huit ans la quantité de platine nécessaire à la fabrication de la pile à combustible. Nous pouvons la baisser d'encore au moins 50%», explique Herbert Kohler. Objectif : ne pas en utiliser plus que dans un pot catalytique, soit environ 10 grammes.

Principal intérêt de la voiture à pile à combustible : elle n'émet que de l'eau. Autre avantage, l'autonomie de la Classe B à hydrogène atteint 400 kilomètres, contre 130 à 160 kilomètres pour un véhicule 100% électrique. Enfin, le plein - environ 12 euros - se fait en seulement trois minutes, contre une nuit pour une voiture électrique, en charge lente.

Cette technologie sera toutefois confrontée à un obstacle majeur : elle nécessite la création de stations de distribution d'hydrogène, capables de stocker ce gaz à - 250°C.

L'installation de 1 000 stations en Allemagne, qui permettraient de quadriller le pays, coûterait 1,7 milliard d'euros selon Mercedes. En septembre, Daimler, Ford, General Motors, Honda, Hyundai-Kia, Renault-Nissan et Toyota ont signé un accord visant à accélérer le développement de ce type d'infrastructures, d'abord en Allemagne.

LF

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top