RTFlash

RTFLASH Recherche & Technologie
NUMERO 488
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 25 Septembre 2008
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Scotland Yard met en ligne une carte de la criminalité à Londres
Le livre électronique tente une nouvelle percée en France
Avenir
Les robots s'installent dans le paysage agricole
Matière
Des bactéries productrices d'hydrogène pourraient fournir de l'énergie propre
Système photovoltaïque intégrant une fonction de stockage
Terre
Eolien : gain de 1,2 milliard d'euros par an à partir de 2020
Le réchauffement climatique stimulerait l'activité cyclonique
La pollution atmosphérique peut modifier la météorologie sur un rythme hebdomadaire
Vivant
Faire pousser des dents à partir de cellules souches
Des taux sanguins élevés d'acide urique seraient liés à l'hypertension
Découverte d'une origine commune aux muscles et à la bonne graisse
Des injections de vitamine C ralentissent le cancer chez des souris
Des chercheurs français découvrent un virus infectant un autre virus
Déterminer la signature chimique des empreintes digitales
Constructions et déconstructions permanentes des connexions entre les neurones
Recherche
General Motors dévoile sa voiture hybride rechargeable
Edito
Le réchauffement climatique risque d'entraîner une élévation massive du niveau des mers et de diminuer sérieusement les ressources en eau



Selon de récentes études scientifiques convergentes, les changements climatiques menacent sérieusement les ressources en eau de la planète et risquent également d'entraîner une hausse bien plus importante que prévue du niveau des mers. Un rapport du Programme des Nations unies pour l'environnement publié le 2 septembre révèle que tous les glaciers auront fondu d'ici à la fin du siècle, ce qui devrait mettre en danger l'approvisionnement en eau de centaines de millions de personnes. Ce rapport confirme que la moyenne annuelle des taux de fonte des glaciers a doublé après le tournant du millénaire, avec des pertes record en 2006 au niveau d'un réseau de sites de référence.

Entre 1996 et 2005, les glaciers ont, selon ce rapport de l'ONU, perdu en moyenne l'équivalent en masse d'un mètre d'épaisseur d'eau, ce qui représente le double de la fonte observée durant la période 1986-1995, et plus de quatre fois la masse perdue entre 1976 et 1985. Les rares périodes de gains de masse se trouvent dans les Alpes à la fin des années 1970, au début des années 1980 dans les zones côtières de la Scandinavie et dans les années 1990 en Nouvelle-Zélande. Le programme des Nations Unies pour l'environnement rappelle aussi que l'augmentation moyenne mondiale de la température de l'air est d'environ 0,75°C depuis la fin du 19ème siècle.

"Les glaciers de l'Himalaya, région où la subsistance de 1,3 milliard de personnes est en jeu, reculent plus rapidement que partout ailleurs dans le monde", affirme Mats Eriksson, responsable du programme pour la gestion de l'eau au Centre international du développement intégré des montagnes. Bien que les hautes altitudes, l'éloignement et la coopération difficile entre les pays de cette région compliquent les études pour comprendre le phénomène, M. Eriksson estime qu'il est évident que "la région est particulièrement affectée par les changements climatiques". "Le recul des glaciers est énorme, jusqu'à 70 mètres par an", précise-t-il.

Xu Jianchu, qui dirige le Centre pour les études de l'écosystème montagnard en Chine, assure lui aussi que le changement climatique ravage l'Himalaya, soulignant par exemple que les températures sur le plateau tibétain ont augmenté de 0,3 degré par décennie, "le double, note-t-il, de la moyenne mondiale".

Il est difficile de quantifier les répercussions sur les disponibilités en eau, mais l'impact est réel dans la région où glaciers et neige contribuent à 50 % de l'eau qui coule des montagnes et alimente neuf des plus grandes rivières d'Asie. L'Himalaya, connu pour "être le toit du monde", s'étend à travers la Chine, l'Inde, le Népal, le Pakistan, la Birmanie, le Bhoutan et l'Afgas. La chaîne montagneuse constitue une source importante d'eau pour l'une des régions les plus peuplées de la planète, soit 1,3 milliard de personnes recensées dans le bassin de l'Himalaya. "La neige et la glace fondent, fournissant une source très importante d'eau fraîche pour l'irrigation, l'énergie et l'eau à consommer en aval", explique M. Xu.

Les glaciers ont d'énormes capacités de conservation de l'eau. Si les niveaux d'eau augmentent à mesure que la glace fond, à long terme, la disparition des glaciers va réduire l'eau disponible en aval. "La subsistance (des populations) sera durement affectée" par ce phénomène, souligne M. Eriksson. Parallèlement à la fonte des glaces, les scientifiques notent que les précipitations dans nombre de régions de l'Himalaya apportent plus de pluie en période de mousson et moins en période sèche. "Les régions plus sèches deviennent encore plus sèches alors que les régions les plus humides deviennent encore plus humides", résume Rakhshan Roohi, chercheuse à l'Institut de recherches en ressources en eau du Pakistan.

Selon M. Eriksson, les effets des changements climatiques ont été particulièrement ressentis dans la partie ouest plus sèche de l'Himalaya. Outre les conditions climatiques incertaines pour les récoltes, qui ont provoqué la migration de personnes à la recherche de moyens de subsistance alternatifs, les agriculteurs sont confrontés à un nombre croissant de désastres naturels tels que des crues soudaines et le débordement des lacs. "J'imagine qu'auparavant, la région souffrait d'une crue soudaine par saison et les gens arrivaient peut-être à s'y adapter. Mais si on a trois, quatre ou cinq crues soudaines, c'est probablement trop. La question est de savoir combien (de crues) la population est capable de tolérer sans perdre ses bases de subsistance", conclut M. Eriksson.

Une autre étude publiée en août 2008 montre que deux des plus grands glaciers du Groenland sont en passe de se désintégrer. Un morceau de 29 kilomètres carrés du glacier de Petermann dans le nord du Groenland s'est détaché entre le 11 et 24 juillet, ce qui correspond à la moitié de la superficie de Manhattan, a précisé Jason Box, professeur-associé au centre de recherche polaire de l'Université d'Ohio (nord) dans un communiqué. Les précédentes pertes importantes de glaces flottantes subies par le glacier Petermann, à savoir 86 kilomètres carrés, se sont produites entre 2000 et 2001.

Mais ce qui inquiète encore davantage Jason Box et son équipe dans les dernières images satellitaires est une énorme brèche partant du bord du glacier Petermann et qui pourrait signaler la brisure prochaine d'une partie beaucoup plus importante. Si la cassure se produit jusqu'au rift en amont du glacier, une portion allant jusqu'à 160 kilomètres carrés pourrait alors se détacher, ce qui représenterait un tiers de la masse du glacier, ont expliqué ces scientifiques. Le glacier a une surface de flottaison de 16 kilomètres de large sur 80,4 kilomètres de long, couvrant 1.295 kilomètres carrés. Ces scientifiques ont aussi indiqué que l'immense glacier Jakobshavn poursuivait sa contraction et que sa bordure n'avait jamais été aussi loin à l'intérieur des terres en 150 ans d'observation.

Selon eux, ce glacier ne s'est pas contracté aussi loin depuis au moins 4.000 à 6.000 ans. Le bras nord du Jakobshavn s'est détaché au cours des dernières semaines et le glacier a perdu dix kilomètres carrés depuis la fin de la dernière saison de fonte. Au moins un dixième des icebergs du Groenland proviennent du Jakobshavn, ce qui en fait le glacier le plus productif de cette région. Le glacier a perdu 94 kilomètres carrés entre 2001 et 2005, un phénomène qui a fait prendre conscience de l'ampleur de l'impact du réchauffement climatique sur les glaciers dans le monde, ont relevé ces glaciologues.

Une arche de glace de 60 mètres de hauteur et de plusieurs milliers de tonnes s'était subitement détachée le 8 juillet du gigantesque glacier argentin Perito Moreno, un phénomène unique en plein hiver austral. Les scientifiques ont lié cet événement surprenant aux effets du réchauffement du climat. Outre les images fournies par les satellites de la Nasa, l'agence spatiale américaine, les scientifiques de l'Université d'Ohio ont aussi utilisé des données provenant de caméras d'observation des effets du réchauffement climatique au Groenland.

En antarctique, la situation n'est pas moins alarmante, comme le montre une étude publiée le 13 janvier 2008 dans la revue ''Nature Geoscience''. Selon cette étude, la fonte des glaces s'est accélérée de 75 % en dix ans le long des côtes du continent antarctique pour atteindre 192 milliards de m3 en 2006. Eric Rignot du Jet Propulsion Laboratory de la NASA et l'ensemble des chercheurs ont utilisé des mesures prises par satellites couvrant 85 % de la côte du continent antarctique. D'après les scientifiques, cette fonte des glaces a atteint 132 milliards de m3 sur l'ouest du continent et 60 milliards de m3 dans la péninsule antarctique.

Le continent antarctique est le plus vaste domaine polaire de la planète, situé dans l'hémisphère Sud : grand comme une fois et demie les Etats-Unis, il porte suffisamment de glace pour élever le niveau des océans de près de 60 mètres en cas de fonte totale. Alors que si la totalité de la calotte glaciaire du Groenland fond, par comparaison, le niveau des mers du globe montera de sept mètres.

Le réchauffement du Pôle Nord est, pour sa part, deux fois plus rapide que celui de l'ensemble de la planète. Les glaces de la région arctique ont fondu à un rythme sans précédent l'an dernier, et le phénomène devrait s'amplifier du fait de la diminution de la réflexion des rayons du soleil sur la neige et la glace (albédo). Grâce aux observations réalisées avec ce satellite, la Nasa a constaté que "l'Arctique a perdu environ 10 % de sa couche de glace permanente tous les dix ans depuis 1980.

Pour la première fois dans l'histoire de l'humanité, il est possible de faire le tour du pôle Nord en bateau. De nouvelles images satellite ont démontré que la fonte des glaces a permis l'ouverture des légendaires passages du Nord-Ouest et du Nord-Est. La couche de glace couvre désormais trois millions de kilomètres carrés dans cette région, soit environ un million de moins que les minima enregistrés en 2005 et 2006, selon l'agence. "Au cours des dix dernières années, il y a eu une réduction de la couche de glace d'environ 100.000 km2 par an en moyenne, une baisse d'un million de km2 en seulement un an est donc extrême", souligne Leif Toudal Pedersen, du Centre spatial danois. Selon certaines prévisions, la calotte glaciaire arctique, sensible aux bouleversements climatiques, pourrait disparaître totalement d'ici 2040.

Ce réchauffement de l'océan Arctique a eu récemment des conséquences spectaculaires. En septembre, des chercheurs américains et canadiens ont annoncé que la plus importante plate-forme glaciaire de la région arctique, vieille de plus de 3.000 ans, s'était rompue entre 2000 et 2002, une conséquence selon eux du réchauffement climatique à long terme. "Des petits changements concernant la glace pourraient avoir de grandes conséquences sur le cycle de l'eau et finalement sur le climat", selon la Nasa.

Les experts internationaux sur le climat (Giec) ont, dans leur dernier rapport officiel remis en 2007, renoncé à extrapoler la hausse maximale du niveau des océans à la fin du siècle, du fait des incertitudes pesant sur la rapidité de la fonte des glaces du Groenland et de l'Antarctique. L'élévation minimale a été fixée à 18 centimètres jusqu'à la fin du siècle par le Giec, qui a renoncé à fixer une limite maximum, auparavant fixée à 59 centimètres. Selon une étude de novembre du Climate Institute australien, le niveau des mers pourrait monter en cent ans de 1,40 mètre. Quand on sait que 630 millions d'habitants habitent dans les zones côtières, on mesure mieux l'ampleur du désastre que constituerait une telle élévation du niveau des mers.

Toutes ces récentes études nous montrent de manière convergente que si nous voulons éviter de graves tensions en matière d'accès à l'eau potable ainsi qu'une élévation catastrophique du niveau des mers d'ici un siècle, nous devons absolument réduire de moitié nos émissions de gaz à effet de serre d'ici 2050 et de 80 à 90 % d'ici 2100. Ce défi est immense mais l'humanité n'a pas le choix si elle veut transmettre une Terre vivable aux générations futures.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Scotland Yard met en ligne une carte de la criminalité à Londres
Vendredi, 26/09/2008 - 00:00

La police de sa très royale majesté a pris le virage des nouvelles technologies. Scotland Yard vient ainsi de mettre en ligne une carte recensant les quartiers les plus dangereux de Londres. Basé sur le service de cartographie de Google Maps, ce mash-up permet de connaître le nombre de crimes commis dans la capitale britannique. Les autorités espèrent ainsi faire baisser la criminalité en appelant les Londoniens à plus de vigilance.

Pour l'heure, la carte ne recense que les délits les plus courants, comme les cambriolages, les vols sur les personnes et les atteintes aux véhicules. Les données, mises à jour mensuellement, permettent de suivre l'évolution de la criminalité, quartier par quartier. Afin d'établir cette carte, Londres a été découpée en 4 765 zones contenant en moyenne 633 foyers. Cette méthode a permis d'établir une topographie précise de la criminalité à Londres. Mais les internautes n'ont pas accès à ce degré de précision. Les informations sont fournies par circonscriptions (boroughs).

Ainsi apprennent-ils que Westminster est le quartier potentiellement le plus dangereux, avec 689 crimes commis au mois de juillet 2008. Et que Harrow, avec ses 273 crimes, figure parmi les quartiers les plus calmes. Ce site, d'un budget de 260.000 euros, fournit également les statistiques des années précédentes. D'autres données comme les chiffres sur la résolution des délits par la police et sur le nombre de viols ou de meurtres pourraient prochainement être communiqués.

OINet

Le livre électronique tente une nouvelle percée en France
Vendredi, 26/09/2008 - 00:00

Si vous êtes du genre à partir en vacances avec l'équivalent en livres de cinq Guerre et paix, de Tolstoï, vous êtes peut-être la cible que vise Sony. La tablette graphique du constructeur permettant de charger et de lire des livres électroniques sera disponible en France à la fin du mois d'octobre 2008 dans les Fnac. Le Reader, c'est son nom, peut contenir un maximum de 160 livres, et sa batterie est censée vous laisser tourner 6 800 pages avant de la recharger. Très pratique pour du Tolstoï, donc.

Ce sera la première fois en France qu'un tel appareil sera diffusé par un distributeur de l'ampleur de la Fnac, et alimenté par un éditeur de renom, Hachette. Le Reader est déjà accessible sur Fnac.com en précommande, avant d'être vendu dans la plupart des magasins, en théorie dans les rayons Livre et Electronique.

Mais le distributeur ne dévoile pas le nombre d'appareils qui seront mis en rayon. C'est en tout cas un moyen de se positionner sur le créneau avant Amazon, qui n'a toujours pas sorti en France son propre appareil.

D'un encombrement réduit, pas très lourd (260 g), le Reader utilise la technologie d'encre électronique E-Ink, et n'a donc pas besoin de rétroéclairage, comme l'Iliad, l'appareil de la marque iRex. Sony n'est en effet pas le premier en France à se lancer sur ce secteur encore incertain.

Le journal Les Echos a sa version e-paper depuis septembre 2007, sur deux appareils différents, l'Iliad ou le Reader de Ganaxa (vendu sous la marque du quotidien). Et depuis le début de l'année, l'éditeur M21 fournit des contenus pour le CyBook de Booken.

Le Reader de Sony lui-même n'est pas nouveau. Il est disponible depuis septembre 2006 aux Etats-Unis ainsi qu'au Canada, et est arrivé au Royaume-Uni au début du mois. Côté contenu, le groupe Hachette proposera dans un premier temps 2 000 titres issus de ses diverses maisons d'édition (Fayard, JC Lattès, Calmann-Lévy, Grasset, etc.). Les derniers ouvrages d'Amélie Nothomb, de Jean-Christophe Grangé ou de Jacques Attali en feront partie.

Ces livres électroniques seront téléchargeables sur Fnac.com, par le biais d'un bouton disponible sur la page du titre concerné. Il faudra connecter le Reader sur la prise USB de l'ordinateur pour rapatrier les ouvrages. C'est d'ailleurs pour cette raison que Les Echos, intéressés au départ, ne l'avait finalement pas choisi pour supporter la version e-paper. Le Reader n'étant pas une machine équipée d'une interface sans fil, il s'adaptait mal au projet du quotidien de pouvoir actualiser automatiquement son édition du jour, à proximité d'un accès Wi-Fi.

Il reste que les uns et les autres demeurent prudents. « Nous défrichons le marché, résume Philippe Citroën, directeur général de Sony France, rappelant que ce produit est dans nos cartons depuis pas mal d'années ». Même sentiment du côté de la Fnac : « On ne peut pas prédire quelle sera la taille du marché, note son PDG Christophe Cuvillier. L'idée est de d'abord séduire les early adopters, les utilisateurs pionniers. »

OINet

^ Haut
Avenir
Nanotechnologies et Robotique
Les robots s'installent dans le paysage agricole
Vendredi, 26/09/2008 - 00:00

Pas de fracture numérique. 90 % des agriculteurs français bénéficient aujourd'hui du haut débit. Indispensable. Pour, d'un clic, renvoyer les formulaires d'aides européennes, annoncer l'arrivée d'un petit veau, scruter les embardées du cours des matières premières à la bourse de Chicago. « Pour plus de 150.000 paysans, soit la moitié des exploitations professionnelles, c'est aujourd'hui une réalité », estime Christian Gentilleau, responsable d'une lettre spécialisée sur les nouvelles technologies agricoles.

La ferme numérique fait sa percée dans le paysage français. Et s'accompagne de l'arrivée de nouveaux appareils bourrés d'électronique. Des robots de lavage dans les porcheries pour s'affranchir de tâches fastidieuses et économiser jusqu'à 80 %.C'est aussi très tendance dans les élevages laitiers où les robots font à leur tour une percée. Un petit brossage avant la traite ? Oui, et plutôt deux fois qu'une. Les vaches en redemandent et la machine s'exécute. Tout bon pour le lait. Car l'étape suivante, c'est la traite bien sûr. En self-service, sans aucune présence humaine.

Une machine se charge de tout. Les robots de traite chez les éleveurs, c'est un peu comme l'arrivée des machines à laver le linge dans les années 1950. Rien que du bonheur, pour les hommes et pour les bêtes. Après les pays d'Europe du Nord, l'Ouest de la France, premier bassin laitier européen s'y met à son tour. « Le marché décolle », reconnaît Philippe Augeard de la Chambre d'agriculture de Bretagne. Près de 300 robots sont en place en Bretagne ou en passe de l'être. Toutes ces innovations seront présentées dans le cadre de la plateforme recherche et développement du Space, le salon international de l'élevage.

L'informatique permet de développer une agriculture de précision. Labours et semis réalisés avec l'aide d'un GPS, base de données sur les sols. Ces outils, précieux, améliorent les conditions de travail dans les exploitations. Ils aident aussi à mieux prendre en compte l'environnement. Donner à la terre uniquement ce dont elle a besoin. Alors que le Grenelle de l'environnement a fixé un objectif ambitieux : réduire de 50 % le volume des pesticides utilisés en agriculture.

OF

^ Haut
Matière
Matière et Energie
Des bactéries productrices d'hydrogène pourraient fournir de l'énergie propre
Vendredi, 26/09/2008 - 00:00

Une nouvelle technologie "verte" vient d'être développée par la collaboration des scientifiques de l'Agricultural Research Service (ARS) et de l'université de l'état de la Caroline du Nord : North Carolina State University (NC State). Cette découverte est la production d'hydrogène à partir de bactéries fixatrices d'azote. Les sources d'énergie renouvelables, comme l'hydrogène, qui ne produisent pas de polluants ou de gaz à effet de serre sont nécessaires pour résoudre le problème mondiale de pénurie d'énergie. Les combustibles fossiles comme le charbon, le pétrole et le gaz naturel, sont des sources d'énergie non renouvelables et fortement impliqués dans le problème de réchauffement climatique. Cette nouvelle source d'hydrogène pourra être utilisée dans la technologie des piles à combustible. Le dispositif des piles à combustible combine l'hydrogène et l'oxygène pour produire de l'électricité. Leurs avantages sont nombreux, car elles sont efficaces, silencieuses et non polluantes. Les piles à combustible sont actuellement à l'essai dans une large gamme de produits telle que les voitures qui ne dégagent ainsi pas d'autres émissions que la vapeur d'eau.

Les bactéries fixatrices d'azote jouent un rôle clé déjà bien connu dans l'agriculture. Elles vivent dans le sol et sur certaines racines de plantes, leur rôle est de convertir l'azote de l'air sous une forme chimique que les plantes peuvent utiliser pour se développer. Trois processus de base sont impliqués dans le recyclage de l'azote: la fixation de l'azote diatomique N2, la nitrification et la dénitrification. C'est lors de la réaction de nitrification qu'il y à production d'hydrogène.

L'équipe de chercheurs a développé une méthode qui utilise un agent de sélection pour identifier ces souches de bactéries productrices d'hydrogène. L'agent de sélection permet d'identifier une souche bactérienne sans qu'il soit nécessaire de faire un séquençage génomique ou de faire des modifications génétiques.

Grâce à cet agent de sélection, les scientifiques ont pu identifier un gène qui inactive la capacité d'absorption de l'hydrogène, ce qui permet ainsi à l'hydrogène produit d'être libéré. Cet hydrogène produit peut alors ensuite être capturé et utilisé comme un combustible ayant pour seul sous-produit de la vapeur d'eau.

BE-

Système photovoltaïque intégrant une fonction de stockage
Vendredi, 26/09/2008 - 00:00

La forte croissance des systèmes photovoltaïques (PV) raccordés au réseau dans le secteur du bâtiment va rendre incontournable l'ajout sur ces systèmes PV d'une fonction de stockage. Techniquement, cette solution offre l'avantage de soulager le réseau électrique aux heures de pointe, d'assurer une qualité continue du courant, d'assurer une fonction de secours en cas de coupure et d'introduire de la flexibilité dans la gestion de l'énergie. Economiquement le stockage représente aussi une valeur ajoutée pour l'utilisateur. Les partenaires du projet Solion se sont donc rassemblés dans l'objectif de développer un système modulaire PV intégrant une batterie Lithium-Ion pouvant stocker par exemple le surplus de l'énergie produite afin de la redistribuer en heure de pointe. Les systèmes développés au sein de ce projet sont destinés aux applications du bâtiment tertiaire et résidentiel.

Le projet Solion peut se découper en 3 étapes :

- modélisation du système et simulation de son fonctionnement en fonction de la stratégie de gestion de l'énergie,

- définition du système et intégration, dans un même ensemble, des différents composants pour le stockage, la conversion d'énergie et le dispositif de contrôle et de commande du système,

- expérimentations sur le terrain du système PV développé afin de valider le concept et montrer ses performances et sa viabilité économique.

Le consortium de ce projet est coordonné par Saft, industriel dans le domaine des batteries de technologies avancées, qui a pour tâches principales le développement de la fonction batterie, en utilisant la technologie Lithium-Ion, et la réalisation des produits testés sur sites ainsi que l'analyse économique du système PV. Tenesol, industriel spécialisé dans l'étude et la réalisation des systèmes PV, devra spécifier les conditions opératoires et les produits, développer et réaliser les fonctions de conversion et de gestion et conduire les démonstrations sur sites. Le CEA-INES, le centre de recherche du projet, prendra en compte la modélisation du système pour sélectionner les meilleures stratégies de gestion et mesurer leur impact sur le réseau lors de tests en utilisation réelle.

Le projet Solion est financé pour une durée de 3 ans et ½ puisque le Fonds Unique Interministériel (FUI) l'a retenu lors de son 4ème appel à projet. A terme, les partenaires industriels du projet Solion disposeront d'une offre compétitive sur le marché des systèmes PV.

Tenerrdis

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Eolien : gain de 1,2 milliard d'euros par an à partir de 2020
Vendredi, 26/09/2008 - 00:00

L'énergie éolienne terrestre représentera un gain net de 1,2 milliard d'euros par an pour la collectivité à partir de 2020, selon une étude du Syndicat des énergies renouvelables (SER) publiée en réponse aux critiques de l'Institut Montaigne. "L'énergie éolienne ne représentera pas un surcoût, mais un bénéfice pour chaque foyer français évalué à 48 euros par an", assure le SER. Cette estimation tient notamment compte de la dégressivité du tarif d'achat par l'Etat (-2% par an), la hausse des combustibles nécessaires à la production électrique (charbon, hydrocarbures), le coût du CO2 évité qu'il aurait fallu acheter d'ici 2020 sur le marché européen des permis d'émissions, ou encore le coût évité pour la construction de nouvelles centrales, thermiques ou nucléaires.

Une étude publiée en juillet par l'Institut Montaigne, un cercle d'universitaires et de dirigeants d'entreprise, affirmait qu'un développement de l'éolien conforme aux objectifs du Grenelle de l'environnement - 25.000 mégawatts en 2020, 10 % de l'électricité - induirait un surcoût pour la collectivité d'un milliard d'euros par an entre 2008 et 2020.

"Cette étude a surévalué la part de l'éolien offshore qui, pour l'heure, ne représente rien et dont personne ne peut dire à combien il s'élèvera en 2020", a expliqué le président du SER, André Antolini.

"Si on s'en tient à l'éolien terrestre : avec un tarif dégressif de 82 à 63 euros (constants) le mégawatt/heure (MWh), nous parvenons à une baisse de 12 % du coût d'installation à l'horizon 2020", poursuit-il. "La France a la chance d'avoir une filière nucléaire qui marche, mais il n'y a aucune raison de mettre tous ses oeufs dans le même panier : il paraît au contraire raisonnable de développer l'éolien" pour des raisons d'indépendance énergétique, ajoute-t-il.

ENR

Le réchauffement climatique stimulerait l'activité cyclonique
Vendredi, 26/09/2008 - 00:00

La communauté scientifique établit de plus en plus un lien entre la fréquence et l'intensité des cyclones et le réchauffement de la planète, comme l'indiquent plusieurs recherches publiées ces derniers mois. La Nasa, l'agence spatiale américaine, dont les satellites sont la principale source d'informations sur le climat terrestre, note sur son site internet qu'en raison de la montée des températures à la surface du globe "un plus grand nombre d'ouragans et de tempêtes tropicales pourraient se produire et être plus violents".

La saison 2008 (juin/novembre) a été particulièrement active dans l'Atlantique avec jusqu'à présent neuf tempêtes tropicales dont près de la moitié sont devenues des ouragans, quand la vitesse des vents atteint 120 kmh. Le dernier cyclone en date, Ike, de force 2 (154 à 177 kmh) sur une échelle qui en compte 5, a dévasté une partie du Texas. Le réchauffement climatique et ses conséquences sur la température des océans ont été responsables du doublement du nombre d'ouragans enregistré annuellement dans l'océan Atlantique au XXe siècle, selon une étude de chercheurs américains publiée l'été dernier.

Greg Holland, du Centre américain sur la recherche atmosphérique, et Peter Webster, de l'Institut de technologie de Georgie(sud-est), ont identifié depuis 1900 trois périodes durant lesquelles la moyenne annuelle des ouragans et tempêtes tropicales sur l'Atlantique a augmenté considérablement.

De 1900 à 1930, ce nombre a été de six et est passé à dix lors de la décennie suivante, avant d'atteindre 15 (huit ouragans et sept tempêtes tropicales) entre 1995 et 2005. Selon ces scientifiques, ce nombre va probablement continuer à augmenter avec l'accroissement de la température moyenne du globe qui s'est accrue de 0,7 degré Celsius au XXe siècle. "Ces chiffres constituent une forte indication que le changement climatique est un facteur majeur dans l'augmentation du nombre des cyclones dans l'Atlantique", a souligné Greg Holland.

Selon des travaux de chercheurs américains parus début septembre dans la revue britannique Nature, le nombre et l'intensité des cyclones les plus violents augmentent avec le réchauffement des océans.

Un accroissement de la température à la surface des océans d'un degré Celsius "entraîne une augmentation de 31 % de la fréquence des cyclones les plus puissants (vents supérieurs à 183,6 kmh), qui passent de 13 à 17 par an", ont calculé des chercheurs des universités de Floride et du Wisconsin.

Ce constat est conforme à un modèle théorique sur le fonctionnement des énormes machines thermiques que constituent les cyclones, qui montre que les vents doivent s'intensifier à la suite du réchauffement de la température de surface des océans.

"Nous observons une tendance à la hausse des valeurs maximales estimées des vents dans les cyclones tropicaux les plus violents dans tous les bassins océaniques, avec l'augmentation la plus forte dans l'Atlantique nord", observe James Elsner, un des coauteurs de travaux. Ces chercheurs ont étudié les ouragans dans l'Atlantique et les typhons en Asie de 1981 à 2006 mais n'ont pas pris en compte le rayonnement du soleil ou l'influence du courant marin chaud El Nino dans le Pacifique. Ils ont aussi noté l'existence d'une marge d'incertitude dans leur calcul.

Selon le quatrième rapport du Groupe intergouvernemental d'experts sur l'évolution du climat (GIEC) de l'ONU, les températures moyennes à la surface du sol devraient grimper de 1,8 à 4 degrés Celsius d'ici la fin du siècle. La surface des océans est plus lente à se réchauffer mais l'impact d'un changement de sa température est beaucoup plus grand, notent les scientifiques.

Yahoo

La pollution atmosphérique peut modifier la météorologie sur un rythme hebdomadaire
Vendredi, 26/09/2008 - 00:00

En Espagne, les week-ends d'hiver ont tendance à être plus ensoleillés et secs que les jours de la semaine. Cette "pulsation météorologique hebdomadaire", observée entre 1961 et 2004, serait liée aux variations des rejets dans l'atmosphère des particules très fines issues des activités humaines. On sait de longue date que ces aérosols peuvent, localement, favoriser les précipitations, en servant de noyau à la formation des gouttes. On leur attribue aussi un rôle dans la nébulosité et l'effet de serre. Mais l'équipe conduite par Arturo Sanchez-Lorenzo (université de Barcelone) suggère qu'elles peuvent aussi avoir un effet sur la circulation atmosphérique de l'Europe de l'Ouest, car le cycle hebdomadaire qu'elle a mis en évidence touche des zones non polluées, telle la station de ski de Navacerrada, située à 1 890 mètres d'altitude.

Les chercheurs espagnols, qui ont publié leurs observations dans les Geophysical Research Letters du 14 août, ont analysé les données météorologiques fournies pendant 44 ans par treize stations implantées dans différentes zones. Le cycle hebdomadaire le plus marqué est fourni par les anomalies de la température maximale, qui présentent un minimum de mardi à jeudi et une forte augmentation vendredi et le week-end.

Pour vérifier la véracité de ces résultats, l'équipe scientifique a croisé ces données météorologiques avec des modèles de circulation atmosphérique recouvrant l'Europe de l'Ouest et une partie de l'océan Atlantique, en prenant en compte la pression au niveau de la mer. Sur ce domaine géographique plus large, ils mettent en évidence de petites anomalies de pression supérieures à un hectopascal sur une zone centrée sur la bordure nord-ouest de la péninsule Ibérique, ce qui est en accord avec les données météorologiques locales.

Les chercheurs émettent donc l'hypothèse que certaines régions de l'Europe occidentale présentent une rythmicité dans la pression hivernale hebdomadaire, partiellement liée à des changements dans la circulation atmosphérique. Leurs résultats montrent en outre que ces effets peuvent s'inverser en fonction des saisons et des régions concernées. D'autres parties du globe connaissent des pulsations météorologiques hebdomadaires. Le phénomène a été mis en évidence en 2007 en Allemagne. Début 2008, l'équipe de Thomas Bell (NASA) a publié des données satellitaires montrant qu'en été le sud-est des Etats-Unis essuie plus d'orages en milieu de semaine que le week-end - il y pleut en moyenne 1,8 fois plus le mardi que le samedi. Ces cycles sont corrélés avec les niveaux de pollution.

En 2003, des données recueillies par le satellite ERS-2 de l'Agence spatiale européenne avaient conduit à "des résultats très intéressants" sur les cycles d'émissions de polluants, rappelle Vincent Peuch, chercheur au Centre national de recherche météorologique à Toulouse (Haute-Garonne). Lancé en 1995, le satellite avait recueilli des données sur le dioxyde d'azote pendant sept ans. Leur analyse a montré la présence de cycles hebdomadaires sur différentes zones du globe.

Aux Etats-Unis, en Europe et au Japon, comme à Johannesburg et à Mexico, le minimum d'oxyde d'azote a été constaté le dimanche, avec des baisses pouvant atteindre de 25 % à 50 % par rapport aux journées travaillées. En Chine, aucun cycle hebdomadaire n'a été trouvé, sans doute car ce pays-continent fait fonctionner ses centrales électriques et ses usines toute la semaine. En revanche, les cités du Proche-Orient, de religion musulmane, connaissent une baisse de pollution le vendredi, et Israël le samedi, jour du shabbat.

LM

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Faire pousser des dents à partir de cellules souches
Vendredi, 26/09/2008 - 00:00

Des cellules souches devraient permettre de produire des "dents biologiques", répliques parfaites des dents naturelles, selon des participants à un colloque organisé par l'Institut français pour la recherche odontologique (IFRO). Ces cellules souches issues de la moelle osseuse, susceptibles de nombreuses différenciations cellulaires, pourraient ainsi ranger au magasin des accessoires les prothèses, implants ou auto-transplantations, seuls capables de remplacer à ce jour une dent morte ou disparue, mais qui posent tous des problèmes (inflammation de la gencive, durée de vie, etc).

"Si on veut recréer une dent ex nihilo, il faut retrouver le schéma embryologique, créer la pulpe, la dentine, l'émail, le parodonte, et la forme", explique le Dr Henry Magloire, de l'Institut de génomique fonctionnelle de Lyon (Inserm et CNRS). "Jusqu'à maintenant, on était capable de refaire une dent en utilisant des cellules souches venant de la dent elle-même, ce qui sur le plan de l'application clinique est une grosse contrainte", note-t-il. En outre, on ne peut pas recréer de l'émail à partir de cellules souches dentaires.

En revanche, à partir de cellules souches issues de la moelle osseuse, on peut différencier des cellules qui vont recréer les éléments d'une dent. La moelle osseuse, située au coeur des os, est le berceau où se forment globules rouges, blancs et autres cellules du sang, à partir de cellules souches.

A ce jour, selon des chercheurs de l'Inserm, on sait maintenant, de façon expérimentale, comment faire une dent, en la faisant grandir dans une solution avant de l'implanter, pour l'instant, chez la souris. Mais il reste encore à contrôler un certain nombre de contraintes : la forme de la dent, sa couleur, sa taille, son rejet possible et sa "fonctionnalité", c'est-à-dire sa mise en place correcte dans la mâchoire. Selon le Dr Magloire, les premiers travaux visant à créer une dent, organe particulièrement complexe, remontent seulement à une dizaine d'années, et il pourrait falloir encore quelque 10 ans pour aboutir à la "dent biologique".

Yahoo

Des taux sanguins élevés d'acide urique seraient liés à l'hypertension
Vendredi, 26/09/2008 - 00:00

Des taux sanguins élevés d'acide urique seraient liés à l'hypertension, selon une étude conduite sur des adolescents publiée mardi aux Etats-Unis. "Si on réduit l'acide urique, tout au moins chez certains patients, on peut abaisser la tension artérielle", explique le Dr Daniel Feig, professeur de pédiatrie rénale à la faculté de médecine Baylor à Houston (Texas, sud), principal auteur de ces travaux. "Ceci pourrait être une des explications du mécanisme par lequel certaines personnes développent de l'hypertension et pourrait ouvrir la voie à de nouveaux traitements", ajoute-t-il. L'acide urique est un déchet résultant du métabolisme des aliments.

Il est produit surtout par le foie et les reins. Un excès peut provoquer la goutte, qui résulte de l'accumulation de cristaux de cet acide dans les articulations. Dans cette étude, le Dr Feig et son équipe ont traité des adolescents souffrant d'hypertension artérielle et présentant des taux sanguins élevés d'acide urique, avec de l'allopurinol. Ce médicament réduit le taux d'acide urique et est utilisé dans le traitement de la goutte et des calculs rénaux.

Dans cette recherche, ces chercheurs ont traité la moitié de ce groupe de 30 adolescents avec de l'allopurinol deux fois par jour pendant quatre semaines. L'autre moitié a pris un placebo pendant la même période. Après une pause de deux semaines, les deux groupes ont inversé les traitements. Le premier a alors été soumis à un placebo et le second groupe a pris de l'allopurinol. Non seulement le traitement à réduit les niveaux d'acide urique mais aussi la tension artérielle, indique le Dr Feig dont l'étude paraît dans le Journal of the American Medical Association (JAMA) daté du 27 août.

Le tension artérielle est revenue à la normale chez 20 des 30 adolescents traités avec de l'allopurinol. En comparaison, seulement un pour cent avait une tensions artérielle normale quand le groupe témoin prenait un placebo. "Ce traitement est très loin d'être une thérapie suffisante pour combattre l'hypertension mais les résultats de cette étude représentent une première avancée dans la compréhension des mécanismes de la maladie", explique le Dr Feig dans un communiqué.

Des études sur les rats avaient précédemment montré qu'un haut niveau d'acide urique peut être lié au développement d'hypertension artérielle, précise-t-il. Mais le Dr Feig et son équipe de recherche devaient déterminer si cela était aussi vrai chez les humains.

"Les thérapies existantes contre l'hypertension sont prouvées et sans danger alors que les traitements pour réduire l'acide urique ne sont pas suffisamment sûr pour être utilisés comme première thérapie anti-hypertension pour la plupart des patients", souligne le Dr Feig. Les effets secondaires possibles sont la nausée, la diarrhée et des vomissements ainsi que des problèmes de foie et dans certains cas rares, le syndrome de Steven-Johnson, potentiellement fatal. Alors que cette réaction touche seulement une personne sur 3.000, le risque est jugé trop grand pour prescrire les médicaments anti-acide urique de façon routinière contre l'hypertension, un problème médical affectant de 30 à 35 % des adultes.

JAMA

Découverte d'une origine commune aux muscles et à la bonne graisse
Vendredi, 26/09/2008 - 00:00

La "bonne" graisse qui brûle les calories partage la même origine que nos muscles, selon des recherches qui pourraient déboucher sur de nouveaux traitements de l'obésité. Les travaux de deux équipes américaines sur cette surprenante découverte ont été dans la revue scientifique britannique Nature. Même si l'on souhaite souvent en avoir moins, la graisse est essentielle pour maintenir la balance énergétique de notre corps et contribuer à réguler sa température. Il existe deux types de tissus graisseux dont les fonctions diffèrent: la graisse blanche, la "mauvaise" qui stocke l'énergie et la "bonne", la graisse brune qui contribue à brûler les calories.

Yu-Hua Tseng et ses collègues de l'école de médecine de Harvard (Joslin Diabetes Center, Boston, Massachusetts) ont étudié les facteurs qui interviennent dans le développement du tissu graisseux et identifié l'un d'eux, une protéine dénommé BMP7 qui promeut spécifiquement la formation de graisse brune.Ils montrent qu'en l'absence de ce facteur, le stock de graisse brune chez les embryons de souris demeure bas. En revanche, en induisant artificiellement un excès de cette protéine BMP7, ils ont obtenu plus de graisse brune chez les souris. Pour leur part, Bruce Spiegelman et ses collègues de l'institut du cancer Dana-Farber (Boston) ont montré que les deux types de graisses se développent à partir de cellules distinctes au cours de la formation du jeune embryon.

Ils ont ainsi observé que graisse brune et muscles avaient quelque chose en commun et ont ainsi démontré que la "bonne" graisse pouvait provenir de cellules immatures précurseurs des cellules musculaires. Ils ont également déterminé qu'un facteur déjà connu et agissant au niveau moléculaire, le "PRDM16" règle l'aiguillage vers la formation de muscles ou de graisse brune.

Son excès pousse les précurseurs des cellules musculaires à donner de la "bonne" graisse, mais pas de la mauvaise. Selon l'équipe du Dana-Farber, chez des adultes, il serait possible de stimuler la production, au sein de la "mauvaise" graisse, de cellules de graisse brune ou de leur équivalent. Des agents inducteurs de graisse brune, comme le BMP7 augmentant la dépense énergétique pourraient offrir un espoir aux personnes génétiquement prédisposées à l'obésité et les maladies associées (diabète, problèmes cardiaques...), avance de son côté Mme Tseng.

Nature

Des injections de vitamine C ralentissent le cancer chez des souris
Vendredi, 26/09/2008 - 00:00

Des injections de vitamine C à hautes doses réduisent la taille et la croissance de tumeurs cancéreuses de 50 % en moyenne chez des souris de laboratoire, selon des travaux publiés aux Etats-Unis. Les effets anti-cancéreux de la vitamine C ou acide ascorbique ont été attribués à la formation d'eau oxygénée (peroxyde d'hydrogène) dans le fluide entourant les tumeurs, expliquent les chercheurs des Instituts nationaux américains de la santé (NIH) co-auteurs de cette étude. La vitamine C n'a pas affecté les cellules saines.

Ces souris modèles avaient été respectivement induites de cancers du cerveau, des ovaires et du pancréas d'évolution rapide similaires à ceux touchant les humains. Des mécanismes biologiques naturels contrôlent et régulent précisément les doses de vitamine C absorbées par le corps par voie orale ce qui limite leurs effets anticancéreux observés à doses élevées, expliquent les scientifiques dont les travaux paraissent dans les annales de l'académie nationale américaine des sciences (PNAS) datés du 4 août.

"Quand on consomme quotidiennement des aliments contenant plus de 200 milligrammes de vitamine C comme par exemple deux oranges et une portion de brocoli, des mécanismes biologiques empêchent les vaisseaux sanguins d'en absorber davantage", précise le Dr Mark Levine, le principal auteur de cette étude.

Pour passer outre ces contrôles naturels, les chercheurs du NIH ont injecté de la vitamine C dans les veines ou les cavités abdominales des souris modèles atteintes de cancers. Ils ont pu ainsi acheminer des doses élevées de vitamine C allant jusqu'à l'équivalent de quatre grammes par kilo quotidiennement. "De telles doses élevées devraient avoir les effets de traitements anti-cancer efficaces", espère le Dr Levine. La vitamine C joue un rôle biochimique essentiel pour la santé. Une carence prolongée provoque le scorbut et finit par être fatale.

Cette vitamine paraît aussi avoir des propriétés anti-oxydantes protégeant les cellules contre les effets néfastes des radicaux-libres. Les auteurs de cette recherche ont au contraire testé l'idée selon laquelle des injections de vitamine C à hautes doses pourraient avoir un effet pro-oxydant générant des radicaux libres et la formation de peroxyde d'hydrogène qui pourrait détruire les cellules cancéreuses. Leur expérience conduite sur 43 cancers et 5 lignées de cellules normales chez des souris a montré que les hautes concentrations de vitamine C avaient des effets anticancéreux dans 75 % des cellules cancéreuses tout en laissant intactes les tissus sains. Les auteurs de ces travaux ont également démontré dans leur étude que ces hautes doses de vitamine C pouvaient aussi être injectées à des humains.

Science

Des chercheurs français découvrent un virus infectant un autre virus
Vendredi, 26/09/2008 - 00:00

Cinq ans après avoir isolé "mimivirus", le virus le plus volumineux jamais identifié, une équipe de biologistes français a annoncé avoir découvert une deuxième souche de cette famille et un virus capable de l'infecter et ainsi de se répliquer. Cette double découverte remet en partie en question ce que l'on connaissait des origines des virus et des échanges génétiques entre virus.

L'équipe dirigée par Bernard La Scola et Didier Raoult (CNRS, université de la Méditerranée, Marseille) avait découvert en 2003 le premier virus géant, baptisé "mimivirus", dans une amibe qui avait initialement été isolée en 1992 dans l'eau d'une tour d'un système de climatisation située à Bradford (Royaume-Uni). Supposé être une bactérie, il s'avéra en fait être un virus géant. Pour les chercheurs, "mimivirus" constituait une double surprise. D'abord parce que sa taille - 0,4 micromètre - approchait celle de certaines bactéries et faisait de lui le seul virus visible avec un microscope optique. Ensuite parce que son génome était constitué de plus d'un million de paires de bases d'ADN et d'environ 900 gènes quand la plupart des virus n'ont que quelques milliers ou quelques dizaines de milliers de paires de bases et quelques dizaines de gènes seulement.

Les premières analyses de sa structure laissaient supposer que "mimivirus" était apparu très tôt dans l'évolution et qu'il était le premier représentant d'une nouvelle famille. Plusieurs arguments donnent à penser qu'il est capable - lui ou un virus très voisin - d'infecter le système respiratoire des mammifères. La même équipe explique aujourd'hui avoir identifié une nouvelle souche un peu plus volumineuse - d'où la dénomination de "mamavirus" - à partir d'une autre amibe isolée à Paris, également dans l'eau d'un système de climatisation. Mais ce n'est pas tout. Les chercheurs ont par la même occasion découvert un nouveau virus, de petite taille et de structure isocaédrique. "Pensant initialement qu'il ne s'agissait là que d'un virus satellite du premier, nous l'avons dénommé Spoutnik, explique Bernard La Scola.

Notre surprise a été d'observer que ce nouveau virus a, en réalité, la capacité de détourner à son profit la mécanique moléculaire de "mamavirus" quand ce dernier est en phase de réplication, en infectant directement son organe de multiplication dans l'amibe devenue une sorte d'usine à virus. Nous sommes là face à une situation inédite. Il était admis jusqu'à présent que, pour échanger des gènes et muter, les virus devaient infecter une cellule. C'est la première fois que l'on observe, ici, des échanges directs de matériel génétique entre virus étrangers."

De la même manière que l'on désigne par le terme de bactériophages les virus qui n'infectent que des bactéries, les chercheurs ont choisi de faire de Spoutnik le premier représentant des "virophages". L'analyse de son génome ouvre de nouvelles perspectives. Il constitue une sorte de mosaïque avec une vingtaine de gènes codant pour des protéines existant dans... les trois grands domaines du vivant : les organismes eucaryotes (animaux, plantes, champignons), les bactéries et cette autre catégorie de micro-organismes que sont les archæa.

LM

Déterminer la signature chimique des empreintes digitales
Vendredi, 26/09/2008 - 00:00

Une nouvelle technique va faciliter la tâche de la police en permettant de déterminer la signature chimique des empreintes digitales, selon des travaux de chercheurs américains publiés aux Etats-Unis. Cette technologie peut détecter des traces d'explosif, de drogue ou d'autres matériaux laissés dans les empreintes. Elle permet aussi de distinguer entre les empreintes superposées de plusieurs individus, une tâche difficile avec les méthodes optiques actuelles.

"L'exemple classique d'une empreinte digitale est une impression à l'encre sur papier montrant les formes uniques des lignes de la peau des doigts pour identifier un individu mais ces empreintes laissent aussi une signature moléculaire unique", explique Graham Cooks, un chimiste de l'Université Purdue dans l'Indiana (nord), principal auteur de cette recherche. "Certains des résidus laissés derrière proviennent de composants naturels se trouvant dans la peau et d'autres de surfaces et matériaux avec lesquels la personne a été en contact", poursuit-il.

Dans la mesure où la distribution de ces composants moléculaires trouvés dans chaque empreinte digitale est unique, on peut utiliser cette technologie pour distinguer entre des empreintes superposées", relève Demian Ifa, un chercheur ayant participé à cette étude parue dans la revue Science. "Nous pouvons ainsi séparer les empreintes et obtenir une image parfaitement claire de chacune d'entre elles qui peut être rentrée dans un ordinateur doté d'un logiciel d'identification des empreintes", ajoute-t-il.

Les chercheurs ont examiné des empreintes digitales sur les lieux même ou bien les ont prélevées de différents objets comme des verres avec des bandes de scotch avant de les analyser à l'aide d'une technique de spectrométrie de masse mise au point par Graham Cooks.

Cette technologie dite de "désorption-ionisation" permet de détecter et d'identifier les différentes molécules en mesurant leur masse et de caractériser leur structure chimique. Pour ce faire, un solvant est appliqué à l'aide d'un vaporisateur sur la surface des empreintes. La technique fournit ainsi une image chimique de l'empreinte à une résolution plus élevée que ne le permettent les autres procédés existants.

Science

Constructions et déconstructions permanentes des connexions entre les neurones
Vendredi, 26/09/2008 - 00:00

Les neurones établissent sans cesse de nouveaux contacts entre eux. Ce phénomène constitue, chez un sujet adulte, la matrice du développement neuronal responsable des fonctions d'apprentissage et de mémoire du cerveau.

Cependant, les connexions créées ne sont pas toutes utiles, la plupart sera donc rapidement supprimée. Dans le magazine "Neuron" du 31 juillet 2008, une équipe de chercheurs de l'Institut Max Planck de neurobiologie de Martinsried, près de Munich, publie une étude sur la technique d'évaluation des neurones pour juger de l'utilité d'une connexion avec une autre cellule semblable.

Le système nerveux est constitué de 100 milliards de neurones. Les neurones sont reliés entre eux au moyen de milliers de points de contacts, les dendrites. Lors du développement neuronal, les jeunes neurones doivent créer des contacts avec les bons neurones partenaires, et ce, afin que le cerveau puisse réaliser les tâches complexes qui lui sont demandées. A l'âge adulte, ce processus de connexion et de déconnexion se poursuit, il contrôle les fonctions d'apprentissage et d'oubli du cerveau.

Le cerveau est l'organe dont la consommation d'énergie est la plus forte. La construction et la suppression des contacts entre les neurones sont des processus gourmands en énergie. Entre neurones, la recherche de bons "partenaires" est une étape qui devrait néanmoins coûter encore plus d'énergie à l'organisme puisque chaque cellule devrait former quelques milliers de contacts avec ses voisins de manière à échanger au mieux l'information. Si la connexion établie entre les neurones n'est pas satisfaisante, la dendrite est supprimée, et ce, seulement quelques secondes ou quelques minutes après sa mise en place.

Jusqu'ici les chercheurs pensaient que l'échange d'information ne s'effectuait qu'à partir de points de contacts bien spécifiques, les synapses. Or, la formation d'une synapse complètement fonctionnelle nécessite 2 jours et demande beaucoup d'énergie, une dépense superflue si la connexion s'avère inefficace et qu'il faut supprimer. Le développement neuronal prendrait ainsi 1.000 ans si chaque contact impliquait la création d'une synapse. En conséquence, la formation d'une synapse entre deux neurones n'est pas indispensable au transfert d'information.

En marquant un neurone avec des molécules fluorescentes, les neurobiologistes Christian Lohmann et Tobias Bonhoeffer ont réussi à observer au microscope l'échange d'information entre ce neurone et ses voisins : la communication s'effectue par transmission locale d'ions calcium. Une synapse ne se forme que lorsque le contact entre les deux cellules nerveuses s'établit sur le long terme.

Concrètement, le contact d'une dendrite avec un autre neurone est directement suivi d'un envoi d'ions calcium. Le calcium agit comme un messager, un panneau "stop" pour la dendrite, qui cesse immédiatement sa croissance, il apporte également toutes les informations importantes quant à la qualité du nouveau contact établi. Le contact n'est pérenne que lorsque le niveau de calcium envoyé est supérieur à la concentration en calcium aux environs de la zone de contact. Dans le cas inverse, la connexion se voit supprimée et le neurone cherche d'autres points de contact avec des cellules partenaires.

"L'efficacité de cette technique nous a étonné" commente Tobias Bonhoeffer, en ajoutant : "Le cerveau économise de cette façon du temps et de l'énergie, en récoltant au passage des informations importantes." Les bonnes connexions neuronales qui en résultent permettent le bon déroulement d'une idée par exemple.

BE

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
General Motors dévoile sa voiture hybride rechargeable
Vendredi, 26/09/2008 - 00:00

Le constructeur automobile américain General Motors a dévoilé le 17 septembre à Détroit (Michigan, nord des Etats-Unis), le jour de ses cent ans, la version de série d'un nouveau type de voiture hybride, une citadine appelée Chevrolet Volt. Selon M. Wagoner, la Volt est "précisément le type d'innovation technologique dont notre industrie a besoin pour répondre aux défis énergétiques et environnementaux d'aujourd'hui et de demain". La production devrait commencer fin 2010 aux Etats-Unis, GM négociant des aides gouvernementales pour cette voiture très peu polluante.

La Volt se distingue des modèles hybrides "traditionnels", comme la Prius du groupe japonais Toyota, très populaire aux Etats-Unis. La Volt a en plus un atout majeur, une autonomie en mode électrique pur de 64 km, et voilà qui change tout. Parce qu'en sus de pouvoir se recharger en roulant, les batteries de l'auto sont aussi rechargeables sur le secteur.

C'est-à-dire que pour le client qui ne parcourt que 50 km par jour, qui a un garage, et qui recharge soigneusement son auto chaque soir, en la branchant tout simplement sur une prise de courant normale, la consommation d'essence est de zéro.

Contrairement à un véhicule hybride classique, qui possède deux moteurs, un électrique et un thermique, le second prenant le relais du premier sans intervention du conducteur, la Volt ne possède qu'un seul moteur, électrique. Cette berline de quatre places a une autonomie totale de 960 km.

L'électricité nécessaire à ses déplacements est produite par un générateur fonctionnant au E85 (un mélange de 85% d'éthanol et de 15% d'essence) et consommant seulement 4,7 litres au 100 km. Son premier prototype avait été présenté au salon de Detroit en janvier 2007.

Le propriétaire de la Volt pourra recharger sa batterie sur une prise de courant classique, en moins de trois heures sur du courant à 240 volts, et environ huit heures sur 120 volts. La voiture développe une puissance de 250 chevaux, et peut atteindre les 160 km/h. Selon les estimations du constructeur, le coût est de moins de 2 cents par mile (1,6 km), contre 12 cents pour une voiture roulant à l'essence.

GM

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top