RTFlash

RTFLASH Recherche & Technologie
NUMERO 509
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 19 Mars 2009
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Collège numérique pour cours interactifs
Un papier électronique couleur pour lire les journaux
Avenir
Japon : une "robote" va participer à un défilé de mode
Matière
Le MIT révolutionne le chargement des batteries
Les expériences de Fermilab cernent le boson de Higgs
Terre
Le plus noir des scénarios climatiques se profile
Les glaces arctiques pourraient disparaître en septembre dès 2100
La France devrait accélérer le développement de l'éolien en mer
53 % pour le marché des énergies renouvelables en 2008
Vivant
Découverte d'un gène accélérant l'apparition du cancer du côlon
Les végétariens sont moins touchés par le cancer
Un lien entre le diabète et la maladie d'Alzheimer
Un espoir de traitement pour des maladies de la rétine incurables
La conscience : une activité cérébrale globale
Le toucher permet de mieux connecter la vision et l'audition
Recherche
Des bus à hydrogène pour les jeux de Vancouver
Edito
Les virus redéfinissent les frontières de la vie



En 2003, le professeur Bernard La Scola, de l'équipe du Professeur Raoult (Unité de Recherche sur les Maladies Infectieuses et tropicales Emergentes, Faculté de Médecine de Marseille), publiait dans "Science" un article relatant la découverte d'un virus géant, le plus grand connu à ce jour, dont la taille de la particule et du chromosome était supérieure à celle de nombreuses bactéries. Ce microorganisme, baptisé "Mimivirus" et découvert dans l'eau d'une tour d'un système de climatisation située à Bradford (Royaume-Uni) avait d'abord été pris pour une bactérie par son découvreur.

Cinq ans après, en août 2008, la même équipe annonçait la découverte de deux nouveaux virus, dont l'un était capable d'infecter l'autre afin de se reproduire. Les scientifiques révélaient ainsi pour la première fois un mécanisme biologique tout à fait nouveau. Le premier de ces nouveaux virus était encore plus grand que Mimivirus, ce qui en fait le nouveau plus grand virus connu. Ce «Mamavirus» a été trouvé sur une amibe dans le système d'eau d'un système de climatisation.

Le second nouveau virus de petite taille (50 nanomètres et 18 000 paires de base contre plus de 2 millions pour Mamavirus) est capable d'infecter Mamavirus et Mimivirus quand ils sont en phase de réplication, en infectant directement l'organe de multiplication de ces virus géants dans l'amibe.

Cette infection d'un virus par un autre virus par un mécanisme remarquable et totalement inconnu jusqu'alors ouvre de nouveaux horizons à la biologie. En effet, le génome de "Spoutnik", la plus petit de ces deux virus, est constitué d'un ensemble de gènes provenant de virus qui infectent les trois domaines du vivant : les eucaryotes (animaux, plantes, champignons), les bactéries (ce virus sont appelés bactériophages) et les archaebactéries (organismes vivants dans des conditions extrêmes), ce qui démontre un échange de gènes entre les virus de l'ensemble du monde vivant. Cette découverte majeure vient éclairer d'une lumière nouvelle l'évolution des espèces mais également la définition même de la vie car depuis 2003, les scientifiques qui vont de surprise en surprise, ont notamment découvert, grâce à la métagénomique, que les virus géants sont présents partout dans la nature.

Pour beaucoup de scientifiques, ces découvertes font définitivement basculer les virus du côté des êtres vivants. En outre, la découverte de "Spoutnik" replace les virus dans un nouveau schéma d'évolution. Comme le souligne Didier Raoult "L'existence de Spoutnik montre que les virus peuvent, eux aussi, être pris entre la proie qu'ils exploitent et le virus qui les attaque..."

Alors les virus sont-ils vivants ? Pour Patrick Forterre, Professeur à l'Université Paris-Sud, la réponse ne fait aucun doute : selon lui "On peut commencer à parler de vie lorsque les mécanismes de la sélection darwinienne s'appliquent." Or, rappelle-t-il, "les virus y sont soumis..."

Mais au-delà du bouleversement théorique qu'elles représentent, ces récentes découvertes ouvrent également de nouvelles voies de recherche dans la mise au point d'outils thérapeutiques extrêmement ciblés et efficaces utilisant certains virus génétiquement modifiés pour combattre d'autres virus redoutables (celui du SIDA par exemple) mais aussi certaines bactéries dangereuses et résistantes aux antibiotiques. C'est donc bien un nouveau et passionnant chapitre de la biologie et de la médecine qui commence.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


TIC
Information et Communication
Collège numérique pour cours interactifs
Vendredi, 20/03/2009 - 00:00

Adieu craie et tableau noir, bienvenue au tableau numérique interactif et au stylet électronique. Ouvert à la rentrée 2008, le collège Charpack (Val-d'Oise) est sorti de terre équipé des dernières technologies high-tech en matière d'éducation.

Objectif : rendre attractif l'établissement dans une banlieue qui bénéficie d'une image scolaire dégradée et alléger le poids des cartables. Les manuels restent à la maison à disposition des élèves tandis que les enseignants utilisent des ressources numériques projetées sur un tableau tactile pour dispenser leurs cours. Les éditeurs ont joué le jeu en fournissant des manuels numériques et numérisés.

Pour réussir, l'initiative nécessitait une forte adhésion de l'équipe pédagogique. Situé dans une banlieue défavorisée à quelques encablures des pistes de Roissy, Goussainville n'attire pas a priori les enseignants chevronnés. La grande majorité des professeurs qui avaient fait acte de candidature pour être affectés dans l'établissement sortaient tout juste de l'école ou n'avaient derrière eux que quelques années d'expérience. Ils ignoraient que l'établissement serait tout numérique.

La jeunesse de l'équipe a contribué à la réussite du projet. Delphine Ollivier, professeur d'anglais de 26 ans, se remémore les débuts. "A la rentrée, nous avons eu une formation au maniement des tableaux numériques interactifs d'à peine trois jours. A la fin, on nous a dit qu'on ne nous forçait pas à rester, qu'il fallait le sentir, mais personne n'est parti." Pas spécialement calée en informatique, Delphine a appris vite, apprivoisant au fil des semaines les multiples fonctions qu'offre le tableau numérique interactif. "Maintenant, explique-t-elle, j'utilise des vidéos et des enregistrements en anglais sur Internet. Les situations sont plus authentiques que dans les manuels scolaires traditionnels. Du coup, les élèves sont plus motivés et ont davantage envie de parler."

Installé dans son bureau aux grandes baies vitrées, le principal du collège - M. Ravo pour son entourage -, détaille le dispositif. L'établissement, qui est prévu pour 600 élèves en accueille pour l'instant 375. Il est équipé de 17 tableaux numériques interactifs, 25 à la prochaine rentrée. Chaque professeur a reçu un ordinateur portable. Le collège dispose pour les élèves d'une salle informatique "XXL" avec 30 ordinateurs en libre accès. Par ailleurs, un jeu de 30 portables supplémentaire est disponible pour les professeurs qui auraient besoin ponctuellement d'équiper leur classe.

Le collège s'est également doté d'un environnement numérique de travail qui permet à tous, élèves, professeurs, mais aussi administration, de se connecter à partir d'un ordinateur à une sorte de bureau virtuel grâce à un mot de passe. Les élèves peuvent ainsi communiquer avec la classe, leurs enseignants avoir accès à leur emploi du temps et à des ressources numériques (encyclopédies, dictionnaires, manuels...).

Le câblage de l'établissement a coûté environ 200 000 euros, l'équipement en ordinateurs et en tableaux numériques, 300 000, soit un surcoût de l'ordre de 200 000 à 250 000 euros par rapport à un collège neuf classique.

Comment fonctionne un tableau numérique interactif ? Un écran blanc tactile est relié à un ordinateur par un câble ou sans fil. Un vidéoprojecteur affiche l'écran de l'ordinateur sur celui-ci. "Le tableau proprement dit est une sorte de grande tablette graphique. Un logiciel permet d'effectuer toute une série d'actions grâce au stylet électronique. En cliquant sur des icônes, l'utilisateur a accès à des outils comme un stylo, une gomme, un compas. Il peut, par exemple, agir sur une carte géographique affichée à l'écran en y ajoutant des informations, ou sur une figure géométrique.

"Cette nouvelle technologie bouleverse notre façon d'enseigner, explique un professeur d'histoire-géographie. Nous pouvons inclure dans nos cours du son, des vidéos, ce qui rend les faits plus concrets pour les élèves." Lors des cours sur la seconde guerre mondiale, l'enseignante a projeté à ses élèves des films d'archives de l'Institut national de l'audiovisuel sur le débarquement, le bombardement de Londres. Elle leur a fait écouter des messages codés de la Résistance. Le système présente aussi l'avantage d'enregistrer les cours, ce qui permet de les envoyer à un élève absent ou de reprendre le cours, le lendemain, où on l'a laissé la veille.

Mohammed, 13 ans, élève de quatrième, s'est vite habitué à ces nouveaux outils. "C'est beaucoup mieux qu'avant, on n'utilise pas la craie mais le stylet. Dans mon précédent collège, l'an dernier, presque personne ne voulait aller au tableau. Maintenant, tout le monde veut participer."

LM

Un papier électronique couleur pour lire les journaux
Vendredi, 20/03/2009 - 00:00

Il y a quelques années encore il s'agissait d'un rêve devenu aujourd'hui une réalité : le papier électronique apparaît comme l'outil capable de révolutionner l'industrie de l'impression. Fin, souple, léger et peu coûteux en énergie, celui-ci a de nombreuses applications :

- Transport : des publicités et des informations peuvent être changées en fonction du lieu par des données qui viennent directement d'Internet. Les horaires des bus, l'état du trafic routier... peuvent être mis à jour en temps réel.

- Cartes prépayées : le montant restant peut être affiché quelque soit le nombre d'utilisations.

- Livre électronique (ou e-reader) devient portable, fin, souple et capable de stocker de nombreux ouvrages tout en gagnant les multiples avantages des documents électroniques (moteur de recherche, notes...)

- Domotique : Les posters permettent de modifier la décoration dans une pièce

Outre ces nombreuses possibilités, le développement d'e-readers, tels que le Kindle d'Amazon, qui permet de lire livres et journaux, a conduit cette nouvelle technologie vers un succès grandissant. Bien qu'offrant de multiples avantages par rapport aux écrans LCD, les e-readers en vente sur le marché n'affichaient pas encore la couleur. Depuis peu, le "Flepia" de Fujitsu est le seul d'entre eux commercialisé qui permet de visualiser en couleur les journaux sur un support de format A4 ou A5.

Fujitsu Laboratoires Ltd., Fujitsu Frontech Limited et Fujitsu Limited ont conçu ensemble un papier électronique qui peut être souple ou rigide selon son usage. Il est l'élément de base du Flepia, un terminal doté d'un écran couleur qui possède les fonctionnalités d'organiseur, d'ebook et de navigateur web. Présenté fin avril 2007, sa commercialisation a débuté en 2008 pour les entreprises au japon et plus tard sur les marchés étrangers. La version grand public du produit est encore à l'essai.

BE

^ Haut
Avenir
Nanotechnologies et Robotique
Japon : une "robote" va participer à un défilé de mode
Vendredi, 20/03/2009 - 00:00

Elle marche, parle, sourit, et va participer à un défilé de mode à Tokyo. Mais ce nouveau robot féminin, baptisé HRP-4C, n'a pas vocation à concurrencer les top models humains, reconnaissent ses concepteurs. La "robote" aux cheveux de jais, censée représenter la Japonaise type, mesure 1,58 mètre, mais son poids a été réduit à 43 kilos, au lieu de 58 kilos pour sa devancière. Reste qu'elle est loin d'avoir les mensurations et la démarche idéales pour concurrencer les mannequins de chair et de sang. Sa principale fonction est de divertir et d'attirer les foules. Selon ses concepteurs à l'Institut national de science industrielle avancée et de technologie (NIAIST), elle pourrait être utilisée dans des parcs de loisirs, pour créer des attractions destinées à attirer l'attention du public et pour des simulations de mouvements humains, par exemple comme "coach" d'exercice physique.

En tout cas, elle n'est pas en mesure de participer aux tâches ménagères ou de travailler avec les humains. "Elle n'a pas atteint ce niveau technologique", souligne Hirohisa Hirukawa, un des concepteurs de HRP-4C. Même pour la mode, "les professionnels nous ont dit qu'elle était petite et avait une silhouette plutôt banale".

L'"humaine cybernétique" est vêtue d'une "carrosserie" noir et argent qui ressemble à une combinaison spatiale. Elle ne portera pas de vêtement, et ne côtoiera pas de vrais mannequins sur un podium, lors de sa participation au défilé de mode.

L'armature robotisée de HRP-4C, à l'exception du visage et d'autres éléments qui couvrent le corps du robot, sera mise en vente environ 20 millions de yens (150.000 euros) et sa technologie de programmation rendue publique pour permettre à ceux qui le veulent de trouver de nouveaux gestes à exécuter pour la machine, selon les chercheurs.

Le Japon est l'un des pays à la pointe de la robotique mondiale. Entre autres réalisations, le robot Asimo, construit par Honda, est capable de marcher et parler mais ne cherche pas à avoir l'air humain. D'autres machines, comme celles mises au point par Hiroshi Kobayashi à l'université des sciences de Tokyo et Hiroshi Ishiguro à l'université d'Osaka, ont des visages aux traits plus humains, et ont déjà été testées comme réceptionnistes.

Il existe une demande croissante au Japon pour des robots socialement utiles, capables de s'occuper des personnes âgées et des malades, souligne Yoshihiro Kaga, du ministère de l'Industrie. "Nous voulons que ce marché devienne une industrie", souligne-t-il.

HRP-4C est animé par 30 moteurs internes qui lui permettent de marcher et bouger les bras ainsi que huit moteurs supplémentaires dans le visage pour recréer des expressions humaines comme la colère ou la surprise.

CP

^ Haut
Matière
Matière et Energie
Le MIT révolutionne le chargement des batteries
Vendredi, 20/03/2009 - 00:00

Un téléphone mobile rechargé en moins de 10 secondes, ou une voiture électrique qui n'a pas besoin de passer plus de temps sur une borne pour se recharger qu'une voiture à essence passe à la pompe pour faire le plein, soit environ 5 à 10 minutes. Une telle rapidité de chargement sera peut être possible dans quelques années grâce à la découverte des chercheurs Byoungwoo Kang et Gerbrand Ceder du Massachusetts Institute of Technology (MIT). Leur découverte tient dans un nouveau revêtement pour les batteries lithium fer phosphate, qui accélère le transit des ions et des électrons de l'anode à la cathode dans une batterie. Utilisée dans des batteries Li-ion, cette technique permettrait de recharger bien plus rapidement qu'aujourd'hui des appareils comme des téléphones, des baladeurs ou des ordinateurs portables.

Mais cette meilleure conductivité des électrons dans la batterie offrirait aussi des possibilités d'accélération plus grande à des voitures électriques, un de leurs points faibles actuellement. Autre avantage : les cycles successifs de chargement-déchargement d'énergie n'altéreraient pas le potentiel de la batterie, d'où des besoins moins fréquents d'en changer. Mise au point en laboratoire, cette technologie reste encore à valider dans des batteries produites à grande échelle, mais deux sociétés (dont le nom n'a pas été révélé ni par les chercheurs ni par le MIT) en ont déjà acquis une licence.

Nature

Les expériences de Fermilab cernent le boson de Higgs
Vendredi, 20/03/2009 - 00:00

Le boson de Higgs est la pierre angulaire de la théorie des particules élémentaires, aussi appelée Modèle standard, qui permet à ce jour d'expliquer tous les résultats microscopiques connus. Le boson de Higgs est une particule élémentaire appartenant à la famille des bosons, qui se distingue de celle des fermions, tels l'électron ou le proton, par ses propriétés rotationnelles intrinsèques (le "spin"). Dans le Modèle standard, le boson de Higgs est nécessaire pour expliquer pourquoi la grande majorité des particules élémentaires ont une masse. Si tout le domaine de masse permis du boson de Higgs venait à être exclu, ce pourrait être une découverte encore plus importante que sa mise en évidence, puisque le Modèle standard serait mis en défaut pour la première fois depuis sa formulation, il y a quarante ans.

L'observation du boson de Higgs est aussi l'objectif principal du Large Hadron Collider (LHC) du CERN, qui prévoit de commencer à collecter des données avant la fin de cette année.

Jusqu'à présent, le boson de Higgs n'a pas pu être détecté directement. Les recherches au LEP (Large Electron Positron Collider) du CERN ont établi que le boson de Higgs devait peser plus de 114 GeV/c2. Les calculs d'effets quantiques appliqués à d'autres observations expérimentales mesurées principalement au LEP et au Tevatron, impliquent que sa masse est aussi inférieure à 185 GeV/c2. Avec ce nouveau résultat, il y a maintenant une grande probabilité pour que le boson de Higgs du Modèle standard ait une masse comprise entre 114 et 160 GeV/c2 (par comparaison, la masse du proton est de 0,9 GeV/c2).

Ce succès du Tevatron dans l'exploration du domaine du boson de Higgs a été rendu possible par les performances de l'accélérateur et par l'amélioration continuelle des techniques d'analyse des physiciens de CDF et DZero. Ceux-ci cherchent le boson de Higgs soit “directement” à travers ses possibles produits de désintégrations, soit “indirectement” via des mesures très précises de propriétés de certaines particules déjà connues, qui pourraient témoigner de la présence du boson de Higgs. Pour améliorer leurs chances de le trouver, les physiciens des deux expériences combinent les résultats de leurs analyses, ce qui revient en pratique à doubler la quantité de données pour cette recherche. Cette combinaison permet aussi à chacune des expériences de vérifier en détail les résultats de l'autre expérience, et d'adopter en commun les meilleures techniques d'analyse.

CNRS

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le plus noir des scénarios climatiques se profile
Vendredi, 20/03/2009 - 00:00

A Neuf mois de la conférence de Copenhague, où la communauté internationale s'est fixé un ultime rendez-vous pour s'accorder sur un plan de réduction des gaz à effet de serre responsables du réchauffement climatique, rien ne garantit qu'un accord sera trouvé. C'est dans l'espoir de conjurer un possible échec que près de 2 000 scientifiques, parmi lesquels les plus éminents climatologues mondiaux, se sont réunis du 10 au 12 mars dans la capitale danoise.

"Imaginez un avion dont la probabilité d'arriver à destination est de 10 %. Monteriez-vous à bord ? Evidemment non..." Stephan Ramstorf, de l'Institut de recherches de Potsdam sur le climat, aime bien cette métaphore pour expliquer ce qui est en train de se passer : depuis le dernier rapport du Groupe intergouvernemental d'experts sur l'évolution du climat (GIEC), publié en 2007, il est certain, à 90 %, que l'homme est à l'origine de la transformation du climat qui menace les grands équilibres planétaires.

Or tout se passe comme si les gouvernements s'interrogeaient encore sur la possibilité d'embarquer dans cet avion promis à la catastrophe. A Copenhague, la communauté scientifique a voulu démontrer une dernière fois, avant la fin des négociations, que le doute n'était plus permis.

Les conclusions du GIEC s'appuient sur des données datant au mieux de 2005. Compte tenu de la lourdeur de cette organisation, qui réunit 2 500 chercheurs de 130 pays et dont l'ensemble des publications est soumis au consensus, le prochain rapport ne paraîtra pas avant 2014. Or "les dernières observations confirment que le pire des scénarios du GIEC est en train de se réaliser. Les émissions ont continué d'augmenter fortement et le système climatique évolue d'ores et déjà en dehors des variations naturelles à l'intérieur desquelles nos sociétés et nos économies se sont construites", a affirmé le comité scientifique de la conférence. Les prévisions du GIEC anticipent une hausse des températures comprises entre 1,1°C et 6,4°C à la fin du siècle par rapport à la période préindustrielle.

Stefan Rahmstorf a présenté une étude selon laquelle le niveau des océans pourrait augmenter dans une fourchette de 75 cm à 190 cm d'ici à 2100. Soit bien au-delà des prévisions du GIEC allant de 18 cm à 59 cm. Celles-ci - et le GIEC avait pris soin de le souligner - ne prenaient pas en compte l'évolution des calottes glaciaires du Groenland et de l'Antarctique. Or leur rôle serait en réalité majeur, au travers de la fonte des glaces mais surtout de leur "écoulement" dans la mer. "Ce phénomène est beaucoup plus massif et beaucoup plus rapide que nous ne le pensions", confirme Eric Rignot, professeur à l'UC Irvine en Californie.

Lucka Kajfez-Bogatag, de l'université de Ljubljana (Slovénie), a épluché l'ensemble des études climatiques parues dernièrement. Elle conclut sans hésiter : "L'impact du réchauffement est plus précoce et plus rapide que prévu." Entre 1990 et 2006, le monde a connu les treize années les plus chaudes depuis 1880, qui marque le début de l'ère industrielle, cite-t-elle en exemple.

Spécialiste des écosystèmes, Andreas Fischlin, de l'Institut fédéral de technologie de Zurich, va dans ce sens : "Les écosystèmes stockent 25 % des émissions mondiales de carbone. Cette capacité de stockage devrait culminer vers 2050, avant que les écosystèmes fragilisés par le réchauffement ne se mettent à leur tour à relâcher du CO2 dans l'atmosphère aggravant ainsi le phénomène. Ce problème est beaucoup plus important que nous ne le pensions il y a cinq ans."

Ce que les scientifiques ont baptisé des tipping points, soit des seuils au-delà desquels les conséquences du réchauffement deviennent irréversibles et incontrôlables, pourraient être plus bas. "Nous pensions que la survie des ours polaires serait menacée à partir d'une hausse des températures de 2,8°C, il est probable que cela soit déjà vrai à partir de 1,5°C", avance M. Fischlin.

La richesse des hotspots ("points chauds") de la biodiversité, ces régions qui concentrent quantité d'espèces rares ou endémiques, serait en danger à partir d'un réchauffement de 1,6°C. "Les nouveaux modèles dont nous disposons nous montrent que beaucoup de seuils de rupture se trouvent dans la bande des 2°C à 3°C. Et qu'il faudrait mieux garder une distance de sécurité pour ne pas risquer de s'en approcher", poursuit le chercheur. Sir Nicola Stern, auteur du célèbre rapport sur "l'économie du changement climatique", a indiqué que "le coût de l'inaction sera supérieur à ce qu'il avait présenté en 2006".

LM

Les glaces arctiques pourraient disparaître en septembre dès 2100
Vendredi, 20/03/2009 - 00:00

L'océan Arctique sera libre de glaces pendant le mois septembre "avant" l'année 2100, confirme une nouvelle étude réalisée à partir de projections climatiques, et à paraître en ligne dans la revue Nature Geoscience. Une analyse de projections de 18 modèles climatiques et d'observations sur les années passées montre que "l'océan Arctique sera probablement libre de glaces en septembre avant la fin du XXIe siècle", écrivent les auteurs de l'étude, de l'Université de Californie à Los Angeles. Selon eux, la plupart des modélisations actuelles sous-estiment le taux de détérioration de la couverture de glace de mer de l'Arctique.

Leur analyse montre, selon eux, une relation linéaire entre l'évolution de l'extension simulée de la glace de mer au XXe siècle et le taux de diminution projeté pour la baisse de cette glace au XXIe siècle. Un glaciologue du Centre national américain de la neige et de la glace (National Snow and Ice Data Center/NSIDC), Mark Serreze, était beaucoup plus pessimiste en août dernier : "Il pourrait ne plus y avoir de glace l'été dans l'océan arctique d'ici 2030 ou autour de cette date", disait-il en rappelant qu'il y a quelques années, ce scénario était prévu entre 2050 et 2100.

L'été dernier, pour la première fois, les passages du Nord-Ouest - le long de l'Amérique - et du Nord-Est - le long de la Russie - ont été libres de glaces au même moment, et pendant quelques semaines. Par ailleurs, avec 4,24 millions de km2 de glaces restantes, l'été 2007 avait affiché un record de fonte depuis le début des mesures satellitaires. La banquise était alors 40 % inférieure à la superficie moyenne des glaces en été de 1979 à 2000, avait précisé le NSIDC.

GS

La France devrait accélérer le développement de l'éolien en mer
Vendredi, 20/03/2009 - 00:00

Les énergies renouvelables constituent l'un des meilleurs remparts de protection des consommateurs et de l'industrie face au double impact de l'accroissement des importations d'énergie et de la hausse des prix des carburants. Le développement de l'éolien, tant sur terre qu'en mer, est logiquement privilégié par l'Europe dans le cadre de la lutte contre le changement climatique.

La France fait partie, comme l'Espagne ou l'Italie, des pays de l'Union disposant de larges façades maritimes lui permettant d'exploiter l'éolien en mer à grande échelle. Toutefois, le choix des zones d'implantation ne peut se faire qu'au prix d'une concertation accrue et étroite de tous les acteurs, tels que l'Etat, les régions, les préfets, les investisseurs, les promoteurs de projets, les constructeurs d'éoliennes, les entreprises du secteur énergétique, les services publics, ou encore les ONG de défense de l'environnement.

C'est dans ce contexte que le ministre de l'Ecologie, Jean-Louis Borloo, vient d'inviter les préfets des régions Bretagne, Pays de la Loire, Haute-Normandie, Aquitaine et Provence-Alpes-Côte d'Azur, à planifier et accélérer le développement de l'éolien en mer, en attendant l'élaboration du plan d'action communautaire relatif à l'énergie éolienne en mer, prévu pour la fin de l'année. Un document de planification devra être remis par les Préfets, au ministère de l'Ecologie avant le 15 septembre 2009.

Rappelons que dans le cadre du Grenelle de l'environnement, un plan de développement de l'ensemble des énergies renouvelables a été arrêté (bioénergies, éolien, géothermie, hydroélectricité, solaire, énergies de la mer, etc.). Il prévoit de faire passer la part des énergies renouvelables dans la consommation d'énergie à l'horizon 2020, à 23 % minimum : une part importante de la production d'énergie verte devant provenir de l'éolien en mer. Le plan vise l'installation d'une capacité de 5.000 à 6.000 MW à l'horizon 2020. Pour parvenir à cet objectif, le Gouvernement a décidé deux mesures.

En effet, les ministères de l'Ecologie, de l'aménagement du développement du territoire vont simplifier les procédures applicables à l'éolien en mer, avec la suppression des zones de développement éolien et des procédures d'urbanisme. Ces dispositions sont intégrées dans le projet portant engagement national pour l'environnement, qui a été adopté le 7 janvier dernier par le Conseil des ministres. Le texte rend notamment possible l'inscription des éoliennes dans la procédure d'autorisation des installations classées. Cette inscription instaurera l'obligation d'une étude d'impact et d'une enquête publique au-delà d'un seuil qui sera défini par décret en Conseil d'État.

Pour chaque façade maritime (Atlantique et Méditerranée - la Manche devrait être exclue du plan en raison du fort trafic maritime dans la zone séparant la France du Royaume-Uni), une instance de concertation et de planification, rassemblant l'ensemble des parties prenantes conformément à la méthode du Grenelle Environnement, aura pour mission d'identifier des zones propices au développement de l'éolien en mer. Les zones seront déterminées au regard des différentes contraintes (usage de la mer, radars, réseau électrique, possibilité de rachat de l'électricité produite, etc.). Les porteurs de projets d'installation de parc d'éoliennes en mer seront invités à privilégier ces zones.

IRIS

53 % pour le marché des énergies renouvelables en 2008
Vendredi, 20/03/2009 - 00:00

Le marché mondial des trois principales énergies renouvelables (investissements et chiffre d'affaires de l'éolien, du solaire et des biocarburants) a grimpé de 53 % en 2008, à 115,9 milliards de dollars, contre 75,8 milliards en 2007.

- L'éolien (nouveaux investissements en capital) court en tête avec 51,4 milliards. Les installations en 2008 ont atteint 27 GW, dont 40 % (8 GW) installés en 2008.

- Les biocarburants (production totale, estimée au prix du marché, de l'éthanol et du biodiésel) 34,8 milliards. En 2008 la production mondiale a atteint environ 65 milliards de litres d'éthanol et près de 8 milliards de litres de biodiésel.

- Le solaire (marché des cellules, des composants et des installations) 29,6 milliards. 4GW de solaire supplémentaires ont été installés en 2008.

Pour 2018, Clean Edge prévoit 2,65 millions d'emplois dans les énergies renouvelables, contre 600.000 actuellement et un chiffre d'affaires mondial de 325 milliards dont 139,1 milliards pour l'éolien, 105,4 milliards pour les biocarburants et 80,6 milliards pour le solaire.

Les investissements des fonds et des gouvernements ont atteint 115,9 milliards en 2008, selon New Energy Finance (+4,7 %). La part des fonds de capital risque dédié aux énergies renouvelables est de 11,84 % en 2008, soit 3,35 milliards d'investissements sur un total de 28,3 milliards, contre 2,67 milliards sur 29,4 milliards en 2007.

CE

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Découverte d'un gène accélérant l'apparition du cancer du côlon
Vendredi, 20/03/2009 - 00:00

L'équipe du Pr Daniel Louvard, directeur du centre de recherche de l'Institut Curie, vient de découvrir le rôle du gène Notch dans l'initiation du processus tumoral conduisant aux cancers du côlon. Les gènes Notch et Wnt sont des acteurs clés de la signalisation cellulaire intestinale. Ils assurent le développement et l'organisation normale de l'intestin, en agissant sur la prolifération et la différenciation des cellules souches au sein du tissu intestinal. Or, l'équipe du Pr Louvard, en étroite collaboration avec celle de Spyros Artavanis-Tsakonas (Harvard medical school/Inserm/Institut Curie) vient de démontrer que l'activation anormale et simultanée de ces deux voies de signalisation chez la souris augmente de plus de vingt fois le nombre de tumeurs bénignes -des adénomes- dans l'intestin des animaux par rapport à l'altération seule de la voie Wnt.

Par ailleurs, ces tumeurs se développent de façon spectaculaire dans le côlon, mimant ainsi la physiopathologie observée chez l'Homme. L'action couplée de ces deux voies crée un environnement propice à la transformation tumorale des cellules. Le Pr Louvard précise ainsi que "le gène Notch agirait tel un accélérateur de la cancérogenèse colorectale. Son activation entraîne une augmentation de la division des cellules et en conséquence un accroissement des risques d'apparition de mutations". Au vu de cette étude, le gène Notch se révèle être un "accélérateur" indispensable à la formation des tumeurs colorectales chez l'Homme. En 2005, ces dernières ont touché plus de 37 000 Français et ont été à l'origine de 17 000 décès. Reste donc à découvrir le frein pouvant contrecarrer l'action de ce gène.

IC

Les végétariens sont moins touchés par le cancer
Vendredi, 20/03/2009 - 00:00

Le régime végétarien serait un rempart contre le cancer. C'est ce qui ressort d'une étude publiée par une équipe d'épidémiologistes de l'université d'Oxford (Royaume-Uni). Son auteur, le professeur Timothy Key, a passé au crible les comportements alimentaires de 63 500 hommes et femmes britanniques depuis les années 1990. Il en ressort que l'incidence de cancer en général est moins élevée - de l'ordre de moins 11 % - chez les personnes qui ne consomment pas de viande. Tous les cancers, quelle que soit leur localisation - seins, poumons, cerveau, foie, gorge... -, sont concernés par cette diminution, sauf paradoxalement ceux du côlon (pour les deux sexes) et de la prostate chez l'homme.

«C'est normal, relève Bernard Guy-Grand, vice-président de l'Institut français pour la nutrition (IFN) et ancien chef de service à l'Hôtel-Dieu (Paris). Généralement les végétariens ne fument pas, ne boivent pas et pratiquent une activité physique, autant d'éléments connus pour leurs effets protecteurs en matière de cancer.» Une analyse confirmée par Marina Touillaud, docteur en santé publique à l'Inserm, spécialisée en nutrition, hormones et cancer. «Si l'incidence du cancer du poumon est divisée par trois pour les végétariens, c'est tout simplement parce qu'ils ne fument pas !», observe la chercheuse.

l'Institut national du cancer (l'Inca) et l'Agence française de sécurité sanitaire des aliments (Afssa) releve que la consommation de viande rouge et de charcuterie est associée à une augmentation du risque de cancer colorectal. L'Inca estime que le risque de cancer colorectal est augmenté de 29 % par portion de 100 g de viande rouge consommée par jour et de 21 % par portion de 50 g de charcuterie consommée quotidiennement. Plusieurs mécanismes peuvent expliquer ce phénomène : apports de sels nitrités par certaines charcuteries ; production de composés N-nitrosés cancérogènes dans l'estomac et par les bactéries de la flore intestinale ; production de radicaux libres et de cytokines pro-inflammatoires...

Figaro

Un lien entre le diabète et la maladie d'Alzheimer
Vendredi, 20/03/2009 - 00:00

Les médecins soupçonnaient depuis longtemps le diabète d'abîmer les vaisseaux qui irriguent le cerveau. Mais il semble que le processus de détérioration débute avant le diagnostic de diabète, au moment où l'organisme perd peu à peu sa capacité de régulation du sucre dans le sang. En fait, les lignes sont floues entre ce que les spécialistes appellent "démence vasculaire" et la plus inquiétante maladie d'Alzheimer classique. Mais quel que soit le nom, il existe suffisamment de raisons pour préserver son cerveau en luttant contre le diabète et les risques cardio-vasculaires qui lui sont associés.

"Nous ne pouvons pas grand-chose contre la maladie d'Alzheimer", ces plaques adhésives qui s'agglutinent dans le cerveau des patients, explique le Dr Yaakov Stern, spécialiste de cette démence, au centre médical de l'Université de Columbia. Mais, "si vous pouviez contrôler ces facteurs vasculaires, vous pourriez ralentir l'évolution de la maladie".

Ne vous affolez pas si vous êtes diabétique, rassure toutefois le Dr Ralph Nixon, Université de New York. La génétique reste le premier facteur de risque de maladie d'Alzheimer. "En aucune manière, cela ne signifie que vous allez développer une maladie d'Alzheimer et beaucoup de personnes atteintes ne sont sans doute pas diabétiques", prévient-il. Mais la dernière étude renforce le lien.

Parmi les découvertes, les chercheurs ont constaté que l'activité du cerveau ralentit doucement, au fur et à mesure que la quantité de sucre dans le sang augmente, bien avant que les gens ne présentent des troubles de la mémoire manifestes. Dans une importante étude nationale, les médecins ont donné une batterie de tests cognitifs à près de 3.000 diabétiques. A chaque élévation de leur taux d'A1C (moyenne de taux de sucre dans le sang pendant trois mois), on constate une diminution légère, mais significative de la mémoire, de la capacité à faire plusieurs choses en même temps, ou d'autres tâches cognitives, ont écrit les scientifiques de l'Université Wake Forest dans le journal "Diabete Care".

La nouvelle étude financée par le gouvernement teste dans quelle mesure un meilleur traitement contre le diabète peut améliorer la fonction cérébrale. A Columbia, le Dr Stern co-dirige une étude importante : des centaines d'habitants âgés ont accepté de subir des tests alors qu'ils étaient encore en bonne santé, permettant aux scientifiques de ne pas rater les premiers signes de démence. Stern a suivi 156 personnes qui ont par la suite développé une maladie d'Alzheimer, et découvert que l'état de celles qui présentaient une histoire de diabète et un taux trop élevé de cholestérol s'aggravait plus vite, selon les résultats publiés dans un numéro spécial de "Archives of Neurology", consacré à ce lien.

Le diabète de type 2 survient comme une conséquence de l'insulinorésistance, qui empêche petit à petit l'insuline de faire rentrer le sucre dans la cellule. Un effet similaire dans le cerveau aide à expliquer le lien avec la démence, explique le Dr Suzanne Craft, de Veterans Affairs Puget Sound Health Care System dans une étude publiée également dans cette revue. L'insuline a une influence sur la mémoire de différentes manières, et l'insulinorésistance affecte en retour l'activité liée à l'insuline des cellules cérébrales. D'autres facteurs, notamment une inflammation du cerveau tout comme le stress oxydatif, pourraient aussi jouer un rôle.

AP

Un espoir de traitement pour des maladies de la rétine incurables
Vendredi, 20/03/2009 - 00:00

Les avancées effectuées par des chercheurs de l'Inserm et de l'Institut de la vision dans le domaine des maladies héréditaires de la rétine laissent entrevoir l'espoir de nouveaux traitements pour ces maladies incurables qui affectent 40 000 personnes en France. Les rétinopathies pigmentaires sont des maladies génétiques s'attaquant progressivement aux cellules de l'oeil (les photorécepteurs) et conduisant peu à peu à la cécité. 40 000 personnes en sont atteintes en France. Bien que de nouvelles approches par thérapie génique soient en cours de développement, ces maladies sont encore aujourd'hui incurables. Chez les personnes malades, les photorécepteurs à bâtonnets impliqués dans la vision de nuit sont atteints en premier. Dans un second temps les photorécepteurs à cônes, essentiels à la vision centrale et l'acuité visuelle de jour, dégénèrent.

En 2004, les chercheurs ont identifié une protéine à fort potentiel pour le traitement des dégénérescences rétiniennes héréditaires : la protéine RdCVF ou facteur de viabilité des cônes dérivé des bâtonnets. Cette protéine secrétée par les bâtonnets sert de "substance nutritive" aux photorécepteurs à cônes. Lors de l'évolution de la maladie, la disparition des bâtonnets entraîne la perte de sécrétion de RdCVF, puis la dégénérescence des cônes et l'altération progressive des fonctions visuelles associées.

Aujourd'hui, Ying Yang, chercheur dans l'équipe dirigée par Thierry Léveillard à l'Inserm, rapporte dans un modèle animal que l'injection de la protéine RdCVF augmente le nombre de cônes présents dans la rétine mais surtout, que les animaux traités ont une vision deux fois supérieure aux animaux non traités. Ces résultats indiquent que la protéine n'assure pas seulement la survie des cônes mais préserve significativement leur fonction et ralentit ainsi la perte visuelle. "Fort de ces dernières avancées, nous travaillons (...) à développer et valider une formulation de synthèse de la protéine RdCVF compatible avec une utilisation chez l'Homme. Notre objectif après cette dernière étape est de débuter les premiers essais cliniques le plus rapidement possible au Centre d'Investigation Clinique de l'hôpital des Quinze-Vingts" explique le Pr José-Alain Sahel, de l'Institut de la vision.

Inserm

La conscience : une activité cérébrale globale
Vendredi, 20/03/2009 - 00:00

La conscience est l'affaire de tout le cerveau : pas la peine de chercher une zone particulière qui abriterait cette faculté qu'ont les êtres humains de connaître leurs actes ou leurs pensées et de pouvoir les analyser et les partager. D'après une nouvelle étude menée par des chercheurs français, l'accès à la conscience mobilise tout le cerveau.

Pour mieux cerner la perception consciente chez l'être humain, l'équipe du neurologue Lionel Naccache (Hôpital de la Pitié-Salpêtrière, Inserm, UMPC) et de Stanislas Dehaene (spécialiste de psychologie cognitive, Inserm/CEA) a comparé l'activité cérébrale de personnes lorsqu'elles voient un mot sans en avoir conscience (présentation subliminale) et lorsqu'elles en ont conscience.

Pour ce faire, les chercheurs ont travaillé avec dix patients souffrant de formes d'épilepsie ne pouvant être soignées avec des médicaments. Avant d'être opérés, ces patients subissent des examens qui nécessitent une implantation profonde d'électrodes dans le cerveau à des endroits très précis. Ces électrodes permettent d'enregistrer l'activité électrique du cerveau.

Lors de la perception inconsciente d'un mot, l'activité électrique du cerveau s'arrête en moyenne au bout de 300 millisecondes, ont observé Stanislas Dehaene, Lionel Naccache et leurs collègues. L'accès à la conscience entraîne lui une mobilisation plus longue du cerveau et se traduit par la convergence de plusieurs aires cérébrales distantes. Il s'agit d'une «coopération cérébrale intense» écrivent les chercheurs, qui ont isolé quatre marqueurs spécifiques de cet accès à la conscience.

NO

Le toucher permet de mieux connecter la vision et l'audition
Vendredi, 20/03/2009 - 00:00

Pour lire des mots nouveaux, nous devons apprendre à associer un stimulus visuel (une lettre ou un graphème) à son stimulus auditif correspondant (le son ou le phonème). Lorsque les stimuli visuels sont explorés à la fois par la vision et le toucher, les adultes apprennent plus efficacement des associations arbitraires entre stimuli auditifs et visuels. Pour arriver à ce résultat, les chercheurs ont mené une expérience sur trente adultes francophones. Dans un premier temps, ils ont comparé deux méthodes d'apprentissage dans lesquelles ces adultes doivent apprendre 15 stimuli visuels nouveaux, inspirés de lettres japonaises, et leurs 15 sons correspondants (des stimuli auditifs nouveaux n'ayant aucune signification). Les deux méthodes d'apprentissage se différencient par les sens impliqués pour explorer les stimuli visuels. La première, « classique », sollicite uniquement la vision. La seconde, « multisensorielle », fait appel au toucher en plus de la vision, pour percevoir les stimuli visuels. Après la phase d'apprentissage, les chercheurs ont mesuré les performances de chaque adulte à l'aide de différents tests.

Les résultats, largement supérieurs au hasard montrent que tous les participants ont bien appris les stimuli visuels et les stimuli auditifs, et ce, de manière similaire après les deux méthodes. Forts de ce constat, les chercheurs ont ensuite soumis les participants de l'expérience à deux autres tests permettant cette fois de mesurer les capacités à apprendre les associations entre stimuli visuels et auditifs. Les résultats révèlent que les sujets sont capables d'apprendre ces associations avec les deux méthodes d'apprentissage mais que les performances sont bien meilleures après la méthode « multisensorielle ». La passation des mêmes tests une semaine après la phase d'apprentissage a donné les mêmes résultats.

Ces travaux corroborent ceux déjà précédemment observés par la même équipe chez les jeunes enfants. L'explication vient des propriétés spécifiques du toucher et du sens haptique manuel qui jouerait un rôle de « ciment » entre la vision et l'audition, favorisant ainsi la connexion entre ces sens.

CNRS

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Des bus à hydrogène pour les jeux de Vancouver
Vendredi, 20/03/2009 - 00:00

Le fleuron de ces Jeux verts de Vancouver est assurément l'autobus à hydrogène. Ce n'est que justice puisque le procédé a été inventé dans cette ville même par l'ingénieur canadien Geoffrey Ballard, élu en 1999 par le magazine Time «héros de la planète», et décédé l'an dernier à l'âge de 75 ans. Mise au point dans les années 80, son invention se cherche, depuis lors, un avenir commercial rentable. Quelques prototypes de véhicules à hydrogène circulent dans le monde, notamment à Madrid, mais le réseau urbain d'autobus qui sera inauguré à l'occasion des Jeux olympiques d'hiver de 2010 sera le premier du genre.

Une flotte de vingt véhicules construits par la firme canadienne New Flyer avec des piles manufacturées par Ballard Industries sera alors mise en service sur le mont Whistler pour transporter les spectateurs aux compétitions de ski. «Comme ils fonctionnent en boucle, ils reviennent toujours au même point pour se ravitailler, et il n'y a donc pas besoin de créer beaucoup de stations de rechargement», explique John Tak, le directeur l'Institut d'innovation en hydrogène et piles à combustible, situé sur le campus de la prestigieuse université de Colombie-Britannique (UBC).

L'enceinte de l'institut abrite une station de rechargement. L'hydrogène, stocké dans des bombones allongées, est distribué par une pompe ressemblant aux actuelles pompes à essence. Il faut 3 ou 4 minutes pour faire un plein, explique l'ingénieur, qui accompagne un groupe de journalistes français invités par le gouvernement canadien à découvrir les futures installations olympiques. La Ford que teste l'institut est prête à démarrer. Un tour de clé, et son moteur émet un léger bruit. «Ce que vous entendez, explique le chercheur Cyrille Decès-Petit, ce sont les compresseurs. L'hydrogène est comprimé mais pas l'air, donc il faut l'injecter dans la pile avec un compresseur.» En quelques mots, il explique le procédé : «La pile à combustible est une membrane par laquelle passe l'hydrogène qui se mélange avec l'air et génère alors de l'électricité.» Et c'est propre : ce qui sort du tuyau d'échappement, c'est de l'eau.

Quelques bus sont déjà en circulation en ville, la plupart confiés à des agences de tourisme. Ils sont plus volumineux, puisque l'hydrogène est stocké sur le toit, mais moins bruyants. «C'est le premier pas vers l'électrification, dit John Tak. Vous avez une batterie, une pile à combustible et un moteur électrique. La pile à combustible produit de l'électricité, la batterie aussi. Avec la batterie, la puissance augmente lors de l'accélération. Avec la pile à combustible, la puissance est de même intensité. Sur 80 % du trajet, on n'accélère pas. Donc, en combinant les deux, on peut avoir une batterie plus petite.»

Libé

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top