RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 492
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 23 Octobre 2008
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Dix technologies clés pour 2009
Un portefeuille mobile pour les Londoniens
Les veines du doigt, nouveau sésame biométrique
La reconnaissance vocale capte l'émotion humaine
Avenir
Japon : un robot d'assistance musculaire bientôt dans les hôpitaux
Matière
Les hydroliennes : prometteuses !
Le coût de l'énergie et des matières premières relance l'idée d'exploiter les décharges
De petites éoliennes dessinées par Starck
L'éolien a le vent en poupe au Royaume-Uni
Espace
L'Inde a lancé sa première mission vers la Lune
La Nasa lance la sonde IBEX pour explorer les confins du système solaire
Terre
Un mammifère sur quatre menacé d'extinction
L'UE maintient ses objectifs sur l'énergie et le climat
Vivant
Soigner le diabète et l'obésité : une opération « deux en un »
Les sirtuines, des enzymes qui influencent le vieillissement cellulaire
Le virus du sida serait apparu au Congo vers 1900
Un simple neurone peut réactiver des muscles paralysés
Recherche
Voitures à pile à combustible : rendez-vous dans cinq ans
Un mini-véhicule urbain à air comprimé
Edito
Coproduire l'eau et l'électricité grâce aux énergies renouvelables : un défi mondial



Le volume d'eau sur terre est d'environ 1.4 Milliards de km³. Mais il s'agit essentiellement d'eau salée : les mers représentent 97 % de l'eau disponible sur terre (360 millions de km2, soit 71 % de la surface du globe), au total : 1320 millions de km3 d'eau de mer + 24 millions de km3 de glace.

Les ressources en eau douce ne sont que de 35 millions de km³, soit 2.5 % du total. De plus, 68.9 % de cette eau douce, soit 24 millions de km³ sont stockées sous forme de glace et de neiges éternelles, dans les montagnes et aux deux pôles - ce qui les rend difficilement exploitable pour des usages humains. La majeure partie des ressources restantes, soit 8 millions de km³ (30.8 % des ressources en eau douce) se trouve emprisonnée dans les sols (sous forme de nappes phréatiques, de marais, de permafrost...).

Au total le stock d'eau disponible pour les humains, mais aussi pour le reste de l'écosystème, n'est donc que d'environ 200 000 km³, ce qui représente moins de 1 % du volume total d'eau douce sur terre. Et la quantité effectivement utilisable se situe entre 12500km³ et 14000km³ si l'on ne veut pas compromettre le renouvellement des ressources. Le monde arabe, de l'Afrique du Nord au Moyen-Orient, ne dispose que de 0.67 % des ressources en eau douce renouvelable de la planète. La disponibilité moyenne y frise les 1000 m³ par personne à peine.

L'eau est une ressource renouvelable, disponible en permanence grâce à l'énergie solaire. Sous l'effet du soleil, l'eau s'évapore des océans et de la terre et se retrouve dispersée de nouveau tout autour de la Terre. Cette eau s'écoule dans les rivières, pénètre dans la terre et alimente les nappes souterraines. Sur les continents, les précipitations sont annuellement supérieures de 44 000 km3 à l'évaporation. Les continents vont donc renvoyer ce volume d'eau aux océans, à mesure que l'eau des rivières et des nappes souterraines s'écoule. C'est ce qu'on appelle le cycle de l'eau.

La ressource en eau renouvelable et potentiellement disponible est estimée à 12 000 km3 par an. Sur cette quantité, les prélèvements d'eau représentent 35 %, soit environ 4 500 km3, et la part d'eau consommée 20 %, autrement dit 2 500 km3. A l'échelle planétaire la situation de l'eau n'est pas alarmante, mais certains pays souffrent de pénurie d'eau en raison de l'inégale répartition des ressources. Si le ruissellement mondial de l'eau était réparti de manière régulière dans l'espace et dans le temps, les ressources en eau douce seraient largement suffisantes pour approvisionner l'ensemble de la planète. Un rapide calcul montre que l'eau disponible pour la consommation humaine représente 15 000 litres par personne et par jour. Ce chiffre ne reflète cependant pas la réalité, étant donné que les ressources en eau douce sont inégalement réparties.

Les usages de l'eau sont multiples. L'eau est essentielle à la survie de l'homme mais sa consommation domestique (pour la boisson, la cuisine et l'hygiène personnelle) ne représente que 8 à 10 % de la consommation totale sur la planète. L'industrie est responsable d'environ 20 % de la consommation mondiale d'eau douce, et cette consommation industrielle augmente beaucoup depuis les années 1950. L'eau est en effet essentielle pour beaucoup de processus industriels.

Mais c'est l'agriculture qui est la plus gourmande en eau, occasionnant environ 70 % de toute la consommation d'eau douce sur la planète. Cette consommation est essentiellement le fait de l'agriculture irriguée, qui n'occupe qu'environ 17 % des terres cultivées, mais qui assure 40 % de la production agricole mondiale (le reste étant assuré par l'agriculture dite pluviale). Les surfaces irriguées ont environ doublé dans le monde depuis 1960.

Depuis le début du XXème siècle, la consommation d'eau douce a été à peu près multipliée par sept sur la planète. Or d'ici à 2025, les besoins en eau de l'agriculture devraient augmenter encore de 20 %. 4 millions de personnes meurent de maladies liées au manque d'eau, ou à la qualité de l'eau. Plus de 25 pays sont dans une situation de stress hydrique important, et subissent de grave pénuries. 1.5 Milliard de personnes n'ont pas accès à l'eau potable et d'ici 2050 2,3 milliards de personnes -4 terriens sur 10- devraient souffrir de stress hydrique et 1,7 milliard se retrouveront dans un contexte de pénurie hydrique.

La pénurie d'eau touche déjà tous les continents et plus de 40 pour cent de la population de la planète. D'ici 2025, 1,8 milliard de personnes, sur les 8 milliards de terriens (22 %) vivront dans des pays ou des régions victimes de pénuries d'eau absolues, soit environ 450 millions de foyers. Si l'on considère que le niveau de confort domestique correspond à une consommation moyenne d'eau par foyer de 150 m³ par an, cela veut dire que les besoins domestiques de cette population en situation de stress hydrique seront de l'ordre de 68 km³ en 2025.

Face à cette situation, le dessalement de l'eau de mer à grande échelle est devenu une nécessité au niveau mondial. Près de 50 millions de m3 d'eau douce sont produits chaque jour par 12 000 installations, à partir des mers et des océans, soit 0,5 % de l'eau consommée sur la planète. Au rythme actuel, qui enregistre un doublement de la production tous les 10 ans, les spécialistes estiment que cette production grimpera à 60 millions de m3 par jour en 2010. Et pourrait à nouveau doubler d'ici à 2025 pour atteindre 120 de m3 par jour, soit 44 km3 par an (contre 18 km3 par an en 2008), ce qui correspond aux deux tiers des besoins domestiques en eau des 450 millions de foyers qui seront sous le seuil minimum d'accès à l'eau en 2025.

Ce prélèvement de 44 millions de km3 par an d'eau de mer peut sembler important mais il ne représente que 2 % de la totalité de l'eau consommée sur terre (environ 2500 km3 par an). Ramené à la surface totale des océans (360 millions de km2), il ferait baisser le niveau global des océans d'à peine plus d'un 10eme de mm, une valeur très faible comparée à l'élévation moyenne annuelle du niveau des mers provoquée par le réchauffement climatique et la dilatation thermique, qui est de 2 à 3 mm par an, selon les méthodes de mesures.

Si l'on voulait fournir à ces 450 millions de foyers l'eau domestique nécessaire à l'aide d'usines de dessalement au monde utilisant la technologie membranaire d'osmose inverse, il faudrait environ 620 usines, sachant que la plus grande usine de dessalement au monde utilisant la technologie membranaire d'osmose inverse produit 110 millions de m3 par an. Sachant que la consommation d'énergie de cette technologie est de l'ordre de 4 kWh/m³, une telle production d'eau potable représenterait une consommation totale d'énergie de l'ordre de 272 milliards de kWh (272 TWh), soit environ la moitié de la consommation électrique totale prévue en France en 2025.

Cette quantité d'énergie représente la production annuelle de 49 réacteurs nucléaires de 900 MW ou encore la production annuelle de 11 000 éoliennes géantes maritimes ou encore la production annuelle de 210 Km2 de panneaux photovoltaïques (deux fois la surface de Paris). Cette consommation mondiale d'énergie serait tout à fait modeste par rapport à la consommation mondiale d'énergie prévue en 2025 (de l'ordre de 16 GTEP par an) et ne représenterait qu'environ 1 % des 25 000 TWh d'électricité que consommera la planète en 2025.

Sur le plan financier, sachant que le coût actuel de dessalinisation par osmose inverse est de l'ordre de 0,50 ? le m3, il faudrait investir 34 milliards d'euros au niveau mondial pour permettre à l'humanité de ne plus connaître le manque absolu d'eau, soit seulement 0,1 % du produit mondial brut. On voit donc ce défi de l'eau pour tous n'est nullement hors de notre portée à condition que nous en ayons la volonté politique.

Dans cette perspective il faut évoquer le remarquable concept « DESERTEC » qui pourrait permettre aux pays d'Afrique et du Moyen Orient de coproduire énergie et eau douce grâce à l'énergie solaire. Selon le Centre Aéronautique et Spatial Allemand (DLR), des centrales thermiques solaires installées dans le désert du Sahara pourraient générer autant d'électricité qu'il en est consommé respectivement par la région Moyen-Orient et Afrique du Nord (MENA) et par l'Europe (UE-25) aujourd'hui.

A partir d'études satellites réalisées par le Centre Aéronautique et Spatial Allemand (DLR), il a été démontré qu'en occupant moins de 0.3 % de la surface entière désertique de la région Moyen-Orient et de l'Afrique du Nord (MENA) par des centrales thermiques solaires, il serait possible de produire assez d'électricité pour satisfaire aux demandes actuelles en énergie de l'Europe (UE des 25) et de la région MENA. L'électricité d'origine solaire et éolienne issue de Desertec serait acheminée vers l'Europe au moyen de lignes CCHT (Courant Continu à Haute Tension ou HVDC pour High Voltage Direct Current) avec des pertes n'excédant pas 10 à 15 %.

Les centrales thermiques solaires (appelées aussi Concentrating Solar Power - CSP) constituent la meilleure technologie pour assurer un rendement énergétique sûr et important. Elles utilisent des miroirs pour concentrer la lumière du soleil créant ainsi suffisamment de chaleur pour générer de la vapeur et actionner les turbines produisant l'électricité. L'excès de chaleur produit le jour peut être stocké, sous forme de gaz ou d'air comprimé et servir à actionner les turbines pendant la nuit ou bien lors de pics de consommation.

Afin de garantir une production électrique ininterrompue en cas de longues périodes de mauvais temps, on peut coupler aisément les turbines avec des chaudières classiques utilisant le pétrole, le gaz ou la biomasse (cela rend ainsi inutile le maintien en état de coûteuses centrales électriques de substitution). La chaleur résiduelle ayant servi à générer l'électricité peut permettre (par cogénération) de dessaler l'eau de mer et de produire du froid, ceci au profit de la population locale.

D'ici 2050, entre 10 et 25 % des besoins en électricité de l'Europe pourraient être importés des déserts. Une dépendance trop large vis à vis d'un pays ou d'un petit nombre de centrales électriques pourra être évitée grâce à l'installation et la mise en réseau d'une multitude de centrales thermiques solaires (puissance moyenne 200 MW) et de fermes éoliennes dans de nombreux pays. De plus, l'utilisation de plusieurs lignes de transport CCHT à destination de l'Europe et d'installations appartenant à un grand nombre de propriétaires (publics et privés) permettra d'accroître la sécurité de l'approvisionnement de l'Europe.

La construction de nouvelles centrales thermiques solaires a déjà commencé en Espagne et aux Etats-Unis (Andasol 1 et 2, Solar Tres, PS 10, Nevada Solar One). Il y a de plus des projets en cours en Algérie, en Egypte, au Maroc et d'autres sont planifiés en Jordanie et en Libye. Dans les pays de l'Europe du Sud tels que l'Espagne et l'Italie, l'énergie solaire venant d'Afrique du Nord sera moins chère dès 2020 que celle produite par les nouvelles centrales utilisant les combustibles fossiles ou nucléaires.

La construction d'un réseau EU-MENA exigera certes un investissement de 45 milliards d'Euros d'ici à 2050, mais elle permettra des économies annuelles de 10 milliards d'euros sur le coût de l'électricité. L'énergie propre des déserts deviendra alors l'option la moins chère et la connexion EU-MENA apparaîtra comme une nécessité pour les économies européennes.

Vers le milieu du 21ème siècle, les pays du MENA pourraient, grâce au projet DESERTEC, avoir valorisé leurs déserts comme sources d'énergie propre et inépuisable, faisant d'une pierre quatre coups : ils produiraient de manière propre leur énergie et une bonne partie de celle de l'Europe, ils pourraient, grâce à cette énergie propre et abondante, dessaler l'eau de mer et résoudre leur problème d'accès à l'eau potable, ils trouveraient les moyens de développer sur le plan économique et agricole des régions arides ou désertiques et ils contribueraient ainsi à réduire considérablement les émissions de gaz à effet de serre au niveau européen et mondial. Il est donc dans l'intérêt de l'Europe à long terme de nouer un nouveau et ambitieux partenariat énergétique avec l'Afrique et le Moyen Orient et d'aider massivement ces régions à pouvoir exploiter leur immense potentiel énergétique.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Dix technologies clés pour 2009
Vendredi, 24/10/2008 - 00:00

L'institut Gartner établit une liste où la virtualisation, le cloud computing et les serveurs lames arrivent en tête des technologies importantes pour 2009.Le Gartner Group a identifié dix technologies clés pour 2009. Nombre d'entre elles l'étaient déjà en 2008. Les critères du Gartner pour sa sélection sont de trois ordres. La technologie doit avoir un impact majeur sur le fonctionnement des systèmes d'information, impliquer un investissement financier important et, enfin, menacer d'obsolescence ceux qui n'en tiendraient pas compte.

Résultat, 2009 sera l'année :

- De La virtualisation,

- Du cloud computing,

- Des serveurs ("au-delà des lames"),

- Des architectures orientées Web,

- Du mashup et des applications composites,

- Des communications unifiées,

- Du décisionnel (business intelligence)

- et de l'informatique écologique.

Le « cloud computing », qui n'apparaissait pas l'an dernier, fait son apparition au deuxième rang, derrière la virtualisation. Les analystes du Gartner donnent la définition suivante de ce terme très galvaudé ces temps-ci de "Cloud Computing" : la fourniture de ressources en tant que "services", lesquelles sont fournies de façon très souple (évolutives,...) grâce à l'usage de technologies comme celles associées à internet et, enfin, la prise en compte des clients extérieurs.

Par essence, la virtualisation est étroitement liée au cloud coumputing. Cette année, le cabinet souligne l'impact de ce concept au-delà des seuls serveurs. C'est en matière de stockage que la virtualisation pourrait gagner le plus de terrain. La déduplication des données permet de réduire nettement le volume de stockage.

La virtualisation commence aussi à investir les postes clients. C'est là que les gisements d'économie sont les plus importants, mais la complexité des projets freine son adoption. La virtualisation du poste client ne touchera que 40 % des entreprises éligibles en 2010.

R&T

Un portefeuille mobile pour les Londoniens
Vendredi, 24/10/2008 - 00:00

Les voyageurs du métro londonien vont bientôt pouvoir utiliser leurs téléphones portables comme ticket de métro et même payer leurs repas avec. En effet, Transport For London et la société de télécommunication O2 viennent de finaliser un test concluant sur un nouveau service utilisant les communications en champ proche (NFC, Near Field Communication).

La compagnie de télécommunication a intégré la technologie Oyster Card ainsi que de celle de Barclaycard Visa dans un téléphone portable Nokia 6131. Elle a ensuite fourni cet appareil à plus de 500 volontaires londoniens qui l'ont utilisé plus de six mois comme portefeuille mobile. Ce système leur a permis de passer les barrières de contrôle du Tube plus de 50.000 fois, et d'acheter des objets dans différents magasins. Le test d'O2 a permis de montrer que les gens aiment utiliser leur téléphone pour faire davantage de choses que simplement envoyer un message ou téléphoner. En effet, neuf testeurs sur dix étaient contents d'utiliser la technologie NFC du fait de sa simplicité et de son coté innovant. Plus des deux-tiers des utilisateurs sont intéressés par la technologie Barclaycard Visa payWave dans leur mobile. Enfin, plus 87 % des testeurs ont précisé que la facilité d'utilisation de la Oyster dans le téléphone influencera le choix du téléphone mobile lors de son achat. Ce test a été très concluant. O2 essaye donc de mettre en place un consortium afin de lancer ce nouveau service d'ici deux ans.

BE

Les veines du doigt, nouveau sésame biométrique
Vendredi, 24/10/2008 - 00:00

Après les empreintes digitales, l'iris ou les traits du visage, voici un nouveau moyen d'identifier un être humain : les veines de ses doigts. Des scientifiques se sont aperçus dans les années 1990 que le réseau veineux était propre à chaque individu. Une information qui n'a pas échappé aux industriels de la biométrie comme Easydentic Group, spécialisé dans le contrôle d'accès et la visiosurveillance.

Ce groupe né en 2004 a conçu Biovein, un système de contrôle d'accès d'un genre nouveau, désormais commercialisé. Pour identifier un individu, l'appareil va « cartographier » les veines de son index en émettant des rayons infrarouges. L'hémoglobine contenue dans le sang va absorber l'infrarouge, permettant ainsi de reconstituer le réseau veineux en moins d'une seconde. Celui-ci sera alors comparé aux réseaux autorisés, stockés par le système, pour autoriser ou non l'accès.

Le système Biovein a été conçu par la filiale R&D d'Easydentic, Eden, mais la technologie d'imagerie veineuse a été développée par Hitachi. Elle a notamment déjà été utilisée dans le monde médical, pour surveiller l'activité cérébrale des nourrissons. Depuis, Hitachi l'a exploitée pour des applications biométriques au Japon, en équipant des automates bancaires. Sa technologie débarque désormais en France par le biais d'Easydentic, avec lequel il a signé un accord de distribution exclusif pour deux ans.

Selon Easydentic, l'identification veineuse présente de nombreux avantages par rapport aux empreintes digitales. Elle serait tout d'abord plus fiable, car, même en vieillissant, la configuration des veines ne s'altère pas autant que les empreintes. De plus, l'identification peut se faire même avec les doigts sales ou à travers un gant fin, ce qui élargit le champ de la biométrie à des secteurs comme le bâtiment ou la médecine. Plus besoin de coller le doigt sur le capteur, l'analyse se fait sans contact, d'où une meilleure hygiène pour des lieux comme les cantines ou les écoles.

Quant aux plus paranoïaques, ils n'auront plus à craindre qu'on leur coupe un doigt pour utiliser leurs empreintes : le réseau veineux est logiquement illisible sur un doigt coupé...

Mais pour Easydentic, le principal atout de cette technique est qu'elle a reçu un avis favorable de la Cnil et qu'elle résoud même des contraintes légales pesant sur l'identification par empreintes digitales. Car le réseau veineux permet une biométrie dite « sans trace », contrairement aux empreintes, que l'on peut laisser sur n'importe quel objet. Ici, l'image vasculaire ne peut pas être capturée à l'insu de quelqu'un.

OINet

La reconnaissance vocale capte l'émotion humaine
Vendredi, 24/10/2008 - 00:00

L'Université de Twente travaille sur Icis (Interactive Collaborative Information Systems), un système vocal capable de comprendre l'émotion de son interlocuteur humain et de réagir en fonction. Celui-ci sera par exemple intégré à des systèmes de navigation. Ces dispositifs fournissent généralement des informations orales à leur propriétaire. Or ceux-ci, s'ils sont capables d'interagir avec lui, ne prennent pas en compte des données comme l'émotion. Les sentiments sont en effet très délicats à interpréter pour un ordinateur : hausser la voix, par exemple, peut à la fois signifier l'énervement et l'enthousiasme. Le système développé peut, selon les chercheurs, gérer cette incertitude.

Il intègre une technique mathématique permettant de contrôler des systèmes complexes, le POMDP (ou Processus de décision markovien partiellement observable). Ce modèle est issu de la théorie de la décision et de celle des probabilités. Il aide entre autres à déterminer l'état dans lequel un individu se trouve. Intégré à une solution de dialogue homme-machine, il est capable d'intégrer le facteur de l'émotion. Seul problème : il ne fonctionne que pour des dialogues très courts. Pour résoudre un problème de plus grande échelle, il est nécessaire de disposer d'une plus grande capacité de calcul. C'est pourquoi le responsable du projet, Trung Bui, a couplé le système à la technique de DDN, pour Dynamic Decision Network.

Pour tester son dispositif, le chercheur l'a installé sur un système de navigation pour services d'urgence automatisé. Celui-ci indique le chemin le plus rapide pour sortir de la fac en cas de problème. Il l'a programmé pour reconnaître le niveau de stress de la personne qui tente de joindre les secours.

Atelier

^ Haut
Avenir
Nanotechnologies et Robotique
Japon : un robot d'assistance musculaire bientôt dans les hôpitaux
Vendredi, 24/10/2008 - 00:00

La firme japonaise Cyberdyne, créée par un célèbre roboticien nippon, a indiqué que sa combinaison robotique baptisée HAL allait prochainement faire ses premiers pas commerciaux dans des hôpitaux pour aider le personnel de soins à porter les malades. Plaqué le long du corps d'une personne, cet "exo-robot" lui donne des forces surhumaines. "Le moment est venu de mettre ce produit sur le marché", a déclaré son concepteur, Yoshiyuki Sankai, professeur de l'Université de Tsukuba, près de Tokyo, et fondateur de Cyberdyne, lors de la présentation du premier site de production de HAL.

HAL, acronyme de "Hybrid Assistive Limb" (membre de soutien hybride), est notamment destiné aux assistants médicaux et personnels de soins pour leur permettre de soulever facilement des personnes dépendantes. Alimentée par une batterie, la structure extérieure HAL, qui entoure le dos, suit les jambes et les bras, est bardée de capteurs. Ces derniers détectent le signal d'activation des muscles humains émanant du cerveau. L'ensemble se met alors en mouvement, grâce à des micromoteurs, afin de prendre en charge le travail musculaire requis pour porter une masse, se lever, s'asseoir, marcher ou monter des escaliers.

Quelque 500 unités (production d'une année) seront dans un premier temps proposées en location aux hôpitaux et autres institutions médicales. "Cette technologie n'est utile que si elle est mise au service des hommes. Je refuse tout emploi à des fins militaires", a d'emblée précisé le professeur Sankai. Cyberdyne a conclu l'an passé un contrat avec le promoteur immobilier Daiwa House prévoyant une poursuite des développements techniques de HAL et son exploitation par Daiwa House dans ses centres de soins, maisons de repos, résidences, ou salles de sport. L'exo-robot, qui rend moins pénible les tâches des personnels de soins, "va aussi déculpabiliser les individus qui ont besoin d'être portés", a souligné un handicapé. "Nous étudions aussi une possible utilisation sur les chantiers où les travailleurs doivent porter des charges importantes", a confié un responsable de Daiwa House, Takashi Hama.

Yahoo

^ Haut
Matière
Matière et Energie
Les hydroliennes : prometteuses !
Vendredi, 24/10/2008 - 00:00

Après 133 jours d'immersion à l'embouchure de l'Odet (sud Finistère), la Française Sabella DO3 réalisée dans les ateliers du groupe public de construction navale militaire DCNS (ex-DCN) de Brest, n'a subi aucun dommage. Un des concepteurs de ce modèle réduit au tiers, Jacques Suer, a fait le choix de la simplicité pour son hydrolienne qui a très bien fonctionné "à marée montante comme descendante" sans nuire à l'environnement, se félicite le chercheur. Le pari semble gagné pour cette machine entièrement sous-marine à un détail près : l'hydrolienne n'a pas été raccordée au réseau électrique. "Trop compliqué", a regretté l'ingénieur qui s'est résolu pour cet essai à disperser la production électrique (4 kW) dans le flot.

Outre-Manche, les concepteurs ont une longueur d'avance. Le branchement au réseau, pourtant délicat, n'a pas été un problème pour l'entreprise irlandaise OpenHydro lors de ses essais d'une hydrolienne d'une puissance de 25O kW, la première du genre dans le nord de l'Ecosse. En revanche, trouver sur le marché les moyens de levage adapté, en dehors de ceux dédiés aux plateformes pétrolières, a été le principal obstacle. "L'implantation offshore dans l'environnement réel est un défi", reconnaît James Ives PDG de OpenHydro qui a préféré créer de toute pièce le matériel dont elle avait besoin.

OpenHydro qui prévoit la mise en production en 2009 d'une hydrolienne de 20 mètres de diamètre capable de délivrer 1 mW a aussi besoin d'étoffer ses équipes d'ingénieurs hydrauliciens. "Nous recrutons beaucoup!", a ainsi déclaré M. Ives profitant de la conférence pour lancer un appel à candidatures. Dans le tableau des concepteurs d'hydroliennes, Marine Current Turbines fait figure de doyen tant ses premiers essais en mer (1994) sont anciens. Depuis, l'entreprise a mis sur le marché SeaGen, la "première hydrolienne de dimension commerciale", selon Peter Frenkel, le directeur technique qui souligne la difficulté de construction dans des courants forts.

Seagen ressemble à une éolienne terrestre mais équipée de chaque côté de son mat de deux grandes hélices de 16 m de diamètre délivrant quelque 600 kW. Cette société qui envisage de vendre des turbines de 3 jusqu'à 20 m de diamètre sera un concurrent sérieux dans l'équipement de la ferme hydrolienne qu'EDF va implanter à partir de 2011 entre Paimpol et l'île de Bréhat (Côtes d'Armor). Quatre à dix hydroliennes d'une capacité de 4 à 6 MW, soit l'équivalent de la consommation de 5.000 foyers, seront immergées et progressivement raccordées au réseau d'électricité entre fin 2011 et fin 2012 dans un secteur où l'intensité des courants atteint des niveaux parmi les plus élevés d'Europe.

Libé

Le coût de l'énergie et des matières premières relance l'idée d'exploiter les décharges
Vendredi, 24/10/2008 - 00:00

Jusqu'alors, les décharges ne constituaient une ressource que pour des populations déshéritées fouillant, parfois à mains nues, les immondices dans l'espoir d'y dénicher quelque objet à revendre. Mais voilà qu'opérateurs et chercheurs se posent la question : et si les décharges constituaient une source insoupçonnée d'énergie et de matières premières ? Une question qui a été au centre de la première conférence internationale consacrée au landfill mining, organisée à Londres, jeudi 9 octobre.

Le landfill mining ? Le terme anglais, employé tel quel par les spécialistes, peut être traduit par "exploitation des décharges". Le concept est né en 1953, quand les matières organiques contenues dans une décharge de la région de Tel-Aviv en ont été extraites afin d'enrichir les sols d'exploitations de citronniers.

Depuis, il n'a fait que vivoter. William Hogland s'y est intéressé en 1995. "Je pensais alors que le monde était prêt, mais je me suis trompé, dit cet universitaire suédois. Il a d'abord fallu que les problèmes énergétiques s'aggravent et que les prix des matières premières s'envolent, mais cette fois, c'est le moment."

Tous les participants à la conférence de Londres ne sont pas aussi affirmatifs, mais la présence d'une centaine de délégués, venus d'Europe mais aussi d'Iran, du Pakistan, de Malaisie, d'Afrique du Sud et des Etats-Unis, atteste de l'intérêt porté au sujet. Car les décharges, notamment les plus anciennes, contiennent des métaux et des plastiques qui pourraient être recyclés, ainsi que les matières (papiers, bois, plastiques) permettant de confectionner des combustibles de substitution. Un point qui suscite un vif intérêt de l'industrie du ciment, très énergivore et à la recherche de combustibles bon marché.

Le gisement est considérable. Selon les participants à la conférence de Londres, 3,2 milliards de tonnes de matériaux recyclables auront été enfouis en décharge entre 1975 et 2015, rien qu'au Royaume-Uni. Les décharges américaines contiendraient à elles seules 400 millions de tonnes d'acier. "La concentration d'aluminium est plus forte dans certaines décharges américaines que dans la bauxite elle-même", assure Mark Johnson, du fonds de soutien britannique Biffaward.

Pourtant, les avis divergent sur l'intérêt économique du landfill mining. "C'est un exercice coûteux qui n'est pas rentable à l'heure actuelle", estime le représentant d'un gestionnaire néerlandais de décharges. Le risque économique est important : en l'absence de données précises, il est presque toujours impossible de savoir quelles matières contient une décharge. De plus, la réouverture d'un site pose des problèmes sanitaires, environnementaux et de sécurité, notamment en cas de présence de déchets dangereux.

Selon Robert McCaffrey, géologue et coordonnateur de la conférence, le landfill mining ne peut trouver un équilibre économique qu'en multipliant les flux de matières. "Si on ne s'intéresse qu'à une seule substance, on passe à côté, assure-t-il. La séparation des matières est la clé du problème."

L'exploitation des décharges peut présenter d'autres avantages : résoudre un problème d'infiltrations provoqué par la présence ancienne de déchets, libérer de l'espace pour des projets fonciers, créer de nouveaux espaces de stockage dans la décharge... "Chaque décharge est unique", ont répété les participants. "Chacune a ses singularités, qui reflètent des facteurs économiques, sociaux ou culturels locaux", insiste Dirk Lechtenberg, un consultant allemand.

Les représentants de Suez et Veolia, les deux grands opérateurs français du secteur des déchets, sont restés prudents sur l'avenir du landfill mining. "Le message à retenir est celui-ci : continuons à trier et à recycler pour ne pas avoir à aller chercher un jour des ressources que nous aurons laissé partir en décharge", conclut Philippe Belbèze, de Veolia Propreté.

LM

De petites éoliennes dessinées par Starck
Vendredi, 24/10/2008 - 00:00

Le designer français Philippe Starck a entièrement dessiné les petites éoliennes fabriquées à partir du printemps prochain par une entreprise italienne, Pramac, implantée près de Roanne. Les différents modèles (1x1m, 3x3m, puissance de 250 W à 5 kW) proposeront d'économiser jusqu'à 60 % des besoins énergétiques d'un foyer. Elles seront présentées lors de la prochaine biennale internationale du design de Saint-Etienne. Les éoliennes seront fabriquées sur le site industriel de Saint-Nizier-sous-Charlieu, qui emploie 45 personnes.

Un volume de 15000 éoliennes devrait être produit au cours de la première année de fabrication. La commercialisation des petites éoliennes dessinées par Philippe Starck s'adresse aux particuliers, au petit BTP et à des usages locaux. Pour la société italienne Pramac, dont la dimension est internationale, le lancement de cette activité s'inscrit dans le cadre de la création, il y a deux ans, d'une division énergie propre, consacrée à l'énergie solaire d'une part et à l'énergie éolienne d'autre part. Près de Roanne, son activité industrielle porte actuellement sur l'assemblage de groupes électrogènes.

« Notre marché est en phase de démarrage, mais le potentiel de l'éolien est multiple », assure le président de la filiale française de Pramac, Pascal Verrière. Il vient de participer à Lyon à une journée consacrée au développement durable, organisée par la Région Rhône-Alpes. Dans le cadre de sa politique en faveur des énergies renouvelables, Rhône-Alpes soutient l'éolien et a lancé un appel à projets. Il est présenté comme une aide à l'émergence de projets « petit éolien raccordé au réseau », pour les particuliers, les collectivités, les agriculteurs et les entreprises.

L'aide régionale est calculée sous la forme d'une bonification à la production : 0,70 euro/kWh produit annuellement pour une éolienne de 1 kW à 5 kW inclus, 0,50 ?euro/kWh produit annuellement pour une éolienne de plus de 5 kW jusqu'à 10 kW inclus, 0,30 ?euro/kWh pour une éolienne de plus de 10 kW. La subvention est plafonnée à 15000 ? euros. A titre indicatif, une éolienne de 20 kW produisant 40000 kWh par an, toucherait une subvention de 12000 ?euros.

LP

L'éolien a le vent en poupe au Royaume-Uni
Vendredi, 24/10/2008 - 00:00

Lors d'un discours à des chefs d'entreprises en Ecosse le 4 septembre 2008, le Premier ministre britannique Gordon Brown a annoncé la création de l'un des plus grands projets de fermes éoliennes offshore. Il s'agira de l'un des trois plus grands parcs éoliens jamais construits à ce jour au Royaume-Uni. Cela constituera donc une contribution significative aux objectifs du gouvernement britannique en termes d'énergies renouvelables.

Ce parc éolien d'une capacité de 500 Mégawatts est prévu près de Walney Island au large des côtes de Barrow-in-Furness dans le comté de Cumbria et sera composé de 139 turbines. Le développeur du projet, Morecambe Vent Limited, estime que le futur parc éolien pourrait fournir de l'électricité verte à environ 372.000 foyers.

Le ministre de l'Industrie John Hutton avait également validé la demande de construction, par la société Ormonde Energy Limited, d'un parc éolien de 150 Mégawatts composé de plus de 30 turbines et qui sera également situé à proximité de Walney Island. Le ministre avait alors déclaré : "Ces parcs éoliens démontreront notre engagement à accroître considérablement la quantité d'énergie générée à partir de sources renouvelables, ce qui contribuera à réduire les émissions de gaz à effet de serre du Royaume-Uni et à garantir notre approvisionnement en énergie".

BE

^ Haut
Espace
Espace et Cosmologie
L'Inde a lancé sa première mission vers la Lune
Vendredi, 24/10/2008 - 00:00

L'Inde a lancé avec succès mercredi 21 octobre sa première mission inhabitée vers la Lune, un événement historique grâce auquel l'Inde fait son entrée dans la cour des grands de la conquête spatiale, aux côtés des USA, de l'Europe, de la chine et du Japon.La fusée PSLV a parfaitement décollé à 06H22 (00H52 GMT), avec à son bord l'engin spatial Chandrayaan-1 depuis le centre Satish Dhawan de Sriharikota, une péninsule du sud-est de l'Inde à 90 km au nord de Madras.

"C'est un moment historique. Nous avons commencé notre voyage vers la Lune", a exulté le président de l'Organisation indienne de recherche spatiale (ISRO), G. Madhavan Nair, sous les applaudissements des ingénieurs.

"Nos scientifiques rendent une fois encore le pays fier de lui et la Nation les salue", a félicité le Premier ministre Manmohan Singh en visite au Japon.Cette mission inédite vers la Lune devrait durer deux ans.

Vingt minutes après s'être élevée dans le ciel, la fusée PSLV a placé Chandrayaan-1 en orbite transitoire autour de la Terre. Dans deux semaines, le vaisseau Chandrayaan-1, qui transporte des instruments scientifiques indiens, européens et américains, devrait atteindre son orbite lunaire à 385.000 km de la Terre.

Le vaisseau effectuera des expériences et des observations autour de et sur la Lune, comme des études topographiques, la recherche d'eau, de minéraux et de substances chimiques, notamment grâce à l'alunissage d'une sonde peinte aux couleurs de l'Inde.

Le géant asiatique - un acteur régional aux ambitions de superpuissance - veut prouver ainsi qu'il est devenu leader dans l'industrie spatiale face à la concurrence de la Chine et du Japon.

Mais le rival chinois dispose d'une colossale longueur d'avance en ayant réussi en septembre à faire sortir un Homme dans l'espace et en réaffirmant son projet d'un vol habité vers la Lune.

Après les alunissages de vaisseaux habités entre 1969 et 1972 dans le cadre du programme américain Apollo, les grandes puissances d'Asie - Japon, Chine et Inde - se livrent une course à la conquête de la Lune dont ils veulent faire une plate-forme d'exploration de l'espace et de Mars.

Outre l'envoi d'une mission lunaire humaine, la Chine veut construire un laboratoire dans l'espace, concurrent de la Station spatiale internationale (ISS). Le Japon a lancé une sonde vers la Lune fin 2007 et veut y envoyer un astronaute d'ici à 2020.

Quant à l'Inde, elle a prévu 60 vols spatiaux d'ici à 2013, y compris vers la Lune et vers Mars. Chandrayaan-1, d'un budget de 80 millions de dollars, sera répété en 2010 ou 2012, selon l'agence spatiale qui rêve d'envoyer un Indien dans l'espace. Pour préparer ce vol habité, New Delhi était parvenue en 2007 à récupérer sur Terre une capsule lancée dans l'espace.

Ce nouveau poids-lourd économique veut aussi se faire une place dans le petit club des pays lanceurs de satellites commerciaux. Les Etats-Unis, la Russie, la Chine, l'Ukraine et l'Agence spatiale européenne se partagent ce marché de 145 milliards de dollars sur les dix ans à venir, selon le cabinet Euroconsult.

En avril, l'Inde avait réussi l'exploit mondial de placer sur orbite - en même temps et avec un seul lanceur - dix satellites, dont huit étrangers. Le géant d'Asie du Sud facture ses lancements 35% moins cher que d'autres agences spatiales internationales.

Yahoo

La Nasa lance la sonde IBEX pour explorer les confins du système solaire
Vendredi, 24/10/2008 - 00:00

IBEX, (Interstellar Boundary Explorer), a été lancée avec succès le 19 octobre vers 17H45 GMT selon les images diffusées en direct par l'agence spatiale américaine, et le responsable adjoint des lancements de la Nasa, Omar Baez a affirmé que "tout sembl(ait) aller bien". La sonde, d'un poids de 462 kg, a été lancée à bord d'une fusée Pegasus larguée du gros porteur tri-réacteur Lockheed L-1011 volant au dessus du Pacifique sud au dessus des Iles Marshall à 12.000 mètres.

IBEX est dotée d'instruments qui lui permettront de prendre des images et d'établir la première cartographie de la vaste zone de turbulences et de champs magnétiques entremêlés où les particules des vents solaires chauds se heurtent aux particules interstellaires provenant des autres étoiles de notre galaxie, la Voie Lactée.

"Les régions frontalières de l'espace interstellaire, souvent considéré comme étant la limite du système solaire, sont essentielles car elles nous protègent de la plupart des rayons galactiques les plus dangereux", a expliqué récemment David McComas, responsable scientifique de la mission et directeur de la division science spatiale et ingénierie du Southwest Research Institute à San Antonio (Texas, sud).

"Sans cette zone, ces rayons pénétreraient dans l'orbite terrestre, rendant les vols orbitaux humains beaucoup plus dangereux", a-t-il ajouté. Les seules informations dont disposent les scientifiques concernant les confins du système solaire proviennent des sondes Voyager 1 et Voyager 2 lancées en 1977 et toujours en service.

Après avoir survolé successivement les planètes Jupiter et Saturne, puis, dans le cas de Voyager 2, Uranus et Neptune, ces deux vaisseaux poursuivent leur odyssée sans précédent en s'éloignant progressivement du système solaire. En décembre 2004, Voyager 1 franchissait ce que les scientifiques appellent le "Choc terminal". Il s'agit de la zone entourant le système solaire où les vents solaires commencent à se mélanger avec les gaz et les poussières du milieu interstellaire.

La sonde a poursuivi sa route pour atteindre l'héliogaine, région entre le choc terminal et l'héliopause, la limite extrême du système solaire. En 2007 Voyager 2 a atteint à son tour l'héliogaine et ses instruments de mesure ont révélé un peu plus d'informations sur cette zone. Voyager 2 devrait atteindre l'héliopause en 2010.

IBEX, avec deux caméras à très grand champ va produire des images de cette région permettant aux scientifiques de comprendre pour la première fois l'ensemble des interactions entre notre soleil et notre galaxie, explique-t-il. Cette mission étudiera ainsi les rayons cosmiques galactiques, des particules qui sont un obstacle pour l'exploration humaine du système solaire tant leur impact sur la santé des astronautes est dangereux.

NASA

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Un mammifère sur quatre menacé d'extinction
Vendredi, 24/10/2008 - 00:00

Un quart des mammifères de la planète est en danger d'extinction en raison principalement de diverses menaces liées à l'homme, comme la chasse ou la destruction de l'habitat, montre la dernière étude de l'Union internationale de conservation de la nature (UICN). Cette enquête, la plus exhaustive à ce jour, menée par 1.700 chercheurs, souligne que la population de la moitié des 5.487 espèces de mammifères recensées dans le monde est en déclin. "Les mammifères déclinent plus vite que nous le pensions, une espèce sur quatre est menacée d'extinction", résume le directeur de cette étude, Jan Schipper.

L'inventaire a servi à mettre à jour la "liste rouge" des espèces menacées, un état des lieux de la planète créé en 1963 à l'initiative de l'UICN. Les espèces les plus menacées sont les mammifères terrestres d' Asie, où des animaux comme l'orang-outang souffrent de la déforestation. Près de 80 % des primates de la région sont en danger.

Sur les 4.651 espèces de mammifères pour lesquels les scientifiques disposent de données, 1.139 sont menacées d'extinction. Jan Schipper souligne que ce nombre est beaucoup plus élevé que lors de la précédente enquête comparable, en 1996. Les menaces se sont aggravées pour des animaux comme le diable de Tasmanie, un marsupial australien, le phoque de la Caspienne ou le chat pêcheur d'Asie. Depuis 1500, au moins 76 mammifères ont disparu du globe.

Sur le total 2008, 188 espèces sont classées "en danger critique", dernier stade avant l'extinction. La destruction de l'habitat et la chasse - pour toutes sortes de raisons, alimentaires, médicales ou autres - sont de loin les principales menaces, écrivent Schipper et ses collaborateurs dans le journal Science. Parmi les autres dangers, le réchauffement climatique frappe déjà des espèces vivant sur la banquise arctique comme l'ours polaire. Le rapport, diffusé à l'occasion du congrès de l'UICN contient tout de même quelques points positifs. Cinq pour cent des espèces sont aujourd'hui en voie de repopulation, comme le bison d'Europe.

Et 349 espèces ont été découvertes depuis 1992, comme la musaraigne-éléphant de Tanzanie. Jan Schipper estime que certaines espèces pourraient avoir disparu avant même d'avoir été décrites. Le rapport est consacré aux mammifères mais, souligne l'UICN, la situation est pire pour d'autres classes d'animaux ou pour les plantes.Une liste rouge globale mise à jour estime que 16.928 espèces sont menacées sur un total de 44.838, soit une proportion de 38 %.

Yahoo

L'UE maintient ses objectifs sur l'énergie et le climat
Vendredi, 24/10/2008 - 00:00

L'Union européenne a maintenu le 16 octobre ses objectifs en matière de lutte contre le réchauffement climatique. L'objectif de la présidence française de l'UE reste bien de parvenir à un accord sur ce "paquet énergie-climat" en décembre, explique-t-on de source diplomatique française. La Commission a présenté le 23 janvier 2008, quatre projets de directives visant à appliquer des orientations arrêtées en mars 2007 par le Conseil européen pour contribuer à limiter la hausse de la température moyenne mondiale à 2°C maximum en 2050. Dans les prochaines semaines, la présidence française et la Commission européenne chercheront le moyen d'introduire de la souplesse dans l'application des futures directives. La France propose dans un document une série de pistes.

Si les ventes de quotas d'émission de CO2 seront mises à 100 % aux enchères dans le secteur énergétique dès 2013, "des dérogations d'ampleur et de durée limitées pourront être accordées lorsque des situations spécifiques, liées notamment à une intégration insuffisante dans le marché européen de l'électricité, le justifient", lit-on ainsi dans ce document.

De même, pour faciliter la réalisation des objectifs nationaux, les Etats membres seraient autorisés à reporter d'une année sur l'autre une part des réductions annuelles attendues et à échanger entre eux des droits d'émission.

Mais la mise en oeuvre de ces flexibilités devra respecter un "équilibre global". Autrement dit, s'il est moins coûteux pour des Etats d'acheter des droits d'émission en finançant dans d'autres pays de l'UE des mesures de réduction des émissions de gaz à effet de serre, il faudra in fine que l'objectif global de réduction pour l'ensemble de l'Union soit respecté.

La réalisation des objectifs nationaux prévus en matière d'énergies renouvelables devra s'appuyer sur des "trajectoires nationales indicatives ainsi que sur le mécanisme de coopération entre Etats membres", ajoute la France.

Enfin, la présidence française propose que les recettes des enchères, dont l'utilisation relève du choix de chaque Etat, devront pouvoir être mobilisées "pour accompagner les efforts de réduction de gaz à effet de serre et la transition énergétique".

L'UE-15 devrait atteindre son objectif collectif de réduire de 8 % les émissions de gaz à effet de serre sur la période 2008-2012 par rapport à 1990, indique l'Agence basée à Copenhague. Elle atteindra cet objectif en mettant en oeuvre les politiques et les mesures déjà adoptées, en développant des activités favorisant l'absorption de CO2 via le développement de puits de carbone et en achetant des crédits d'émissions issus de projets réalisés dans des pays tiers, précise-t-elle. Elle pourrait même réduire ses émissions de plus de 11 % par rapport à l'année de référence, précise l'étude.

Les données disponibles montrent que les 15 Etats membres de l'UE ayant un objectif commun au titre de Kyoto, ont réduit de 2,7 % leurs émissions entre l'année de référence (1990) et 2006 (dernière année pour laquelle on dispose de données complètes), explique l'Agence. Les politiques et mesures actuellement en place devraient contribuer à réduire ces émissions de 3,6 % en moyenne entre 2006 et 2010 par rapport à leur niveau de 1990, ajoute-t-elle.

Une réduction supplémentaire de 3 % qui porterait la réduction globale à 6,6 % pourrait être obtenue grâce à l'achat de crédits issus de projets de réduction des émissions dans des pays tiers comme le prévoit Kyoto, notamment via les mécanismes de développement propre (MDP). Dix des quinze Etats membres de l'UE ont l'intention d'y recourir. La plantation d'arbres et le reboisement pour stocker du carbone devrait réduire les émissions de 1,4 %, permettant d'atteindre l'objectif collectif de 8 %.

Enfin, la mise en oeuvre intégrale des politiques et mesures supplémentaires à l'étude dans dix Etats membres devrait entraîner une réduction supplémentaire de 3,3 % et arriver à une réduction totale des émissions de plus de 11 %, ce qui permettrait à l'UE-15 de dépasser son objectif.

UE

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Soigner le diabète et l'obésité : une opération « deux en un »
Vendredi, 24/10/2008 - 00:00

Un chercheur de l'Université Lyon 1 a découvert le mécanisme permettant de neutraliser obésité et diabète grâce à un seul et même acte chirurgical. «L'ironie c'est qu'il s'agit de la technique des Américains mais que c'est nous qui leur avons expliqué pourquoi elle marche ! ». Cette technique qu'évoque Gilles Mithieux, chercheur CNRS/Inra/Inserm à la Faculté de médecine de Lyon 1, c'est la chirurgie dite du « Bypass ».

Alternative à l'anneau gastrique, l'opération consiste à réduire la taille de l'estomac des obèses diabétiques (60 % le sont) et à dériver les aliments directement vers la partie basse de leur intestin. « Ils se sentent si bien qu'ils ne reviennent pas voir le médecin. Aux États-Unis, explique ce diététicien, on pratiquait cette opération depuis longtemps sur les obèses morbides mais on ne comprenait pas pourquoi elle guérissait aussi leur diabète : c'est une piste qu'ils ont négligée. » Mais que Gilles Mithieux et Fabrizio Andreelli, chirurgien à l'Hôpital Bichat à Paris ont remontée jusqu'au bout mettant finalement un nom - et le doigt sur la réponse : « néoglucogénèse ».

Soit la faculté inédite qu'a cet intestin remodelé à fabriquer lui-même son glucose entre les repas. Détecté, « ce glucose envoie un signal au cerveau améliorant la sensibilité à l'insuline et diminuant la sensation de faim » résume le Lyonnais. Au final, après l'opération « entre 50 et 90 % de la glycémie est normalisée dès la sortie de l'hôpital, les gens n'ont plus faim et presque plus de diabète » poursuit-il. Ce qui constitue à ses yeux un des risques de la méthode : « Ils se sentent tellement bien qu'ils ne reviennent pas voir leur médecin » et en oublient de lui demander d'arrêter progressivement leur traitement anti-diabète.

Son équipe, loin de se reposer sur ses lauriers, travaille déjà sur une piste qu'il estime « très sérieuse » : trouver la protéine qui induit cette fabrication de glucose dans l'intestin. Et mettre tout simplement fin au diabète. Sans passer par la case opération.

Progrès

Les sirtuines, des enzymes qui influencent le vieillissement cellulaire
Vendredi, 24/10/2008 - 00:00

Des chercheurs de l'Université de la Ruhr-Bochum et de l'Université de Dortmund viennent de déterminer la fonction de deux sirtuines, des enzymes qui affectent le métabolisme cellulaire. En étudiant les sirtuines Sirt3 et Sirt5 qui se trouvent au niveau des mitochondries, les scientifiques ont remarqué qu'un manque de nutriments pouvait allonger la durée de vie d'une cellule. Les chercheurs ont découvert que la sirtuine Sirt5 se situe non seulement à l'intérieur des mitochondries, mais également dans leur espace intermembranaire.

La sirtuine Sirt5 est capable de modifier une protéine appelée cytochrome C , laquelle joue un rôle clé dans la production d'énergie et dans la mort cellulaire programmée ou apoptose, c'est-à-dire la réaction d'une cellule à un stress extrême. "On peut supposer que cette sirtuine peut être un frein à l'apoptose dans le cas de certains cancers, toutefois la fonction précise de la Sirt5 et la transformation du cytochrome C n'ont pas encore pu être totalement déterminées", explique le Dr. Clemens Steegborn de l'Université de la Ruhr-Bochum.

Les chercheurs ont, en revanche, pu obtenir des résultats plus précis concernant la sirtuine Sirt3 : la Sirt3 peut transformer deux enzymes du métabolisme et ainsi les activer. Cette activation permet à la cellule d'utiliser d'autres sources d'énergie si elle vient à manquer d'éléments nutritifs. Pour ce faire, la Sirt3 active des formes spéciales de ces enzymes, qui forment en même temps du NADPH 3]. Le NADPH est nécessaire pour la régénération des systèmes cellulaires anti-stress. Ainsi, une hausse de l'activité de la Sirt3 augmente la durée de vie de la cellule en cas de manque de nutriments.

Divers groupes de chercheurs avaient déjà pu montrer avec des organismes modèles un allongement de la vie de la cellule dû à une plus forte activité de la sirtuine. Néanmoins, chez l'homme, le problème est plus compliqué : sept différentes sirtuines sont présentes dans une cellule, chacune ayant sa propre fonction. Les résultats des travaux des chercheurs de Bochum et Dortmund constituent une première avancée vers une compréhension plus précise des fonctions spécifiques des sirtuines. Cette connaissance est nécessaire afin d'identifier, en autre, quelle sirtuine on se doit d'étudier pour développer de futures applications thérapeutiques.

[BE

Le virus du sida serait apparu au Congo vers 1900
Vendredi, 24/10/2008 - 00:00

Une étude, réalisée par des chercheurs américains, congolais, français et belges, et publiée dans la revue britannique Nature, jette un éclairage nouveau sur l'origine du virus de l'immunodéficience humaine HIV1.

Il y a quelques mois, des biologistes ont trouvé, dans les collections de ce qui était jusqu'en 1966 l'hôpital général de Léopoldville, 27 minuscules blocs de paraffine (d'un centimètre de côté) couleur d'ambre, datant de 1958 à 1960. Ces échantillons qui ont miraculeusement survécu à la dictature, à toutes les guerres et aux pillages, contenaient des tissus humains fixés, parfaitement étiquetés ainsi que les cahiers du laboratoire correspondants, comportant les numéros d'identification, l'âge, le nom, le sexe, le type de tissu et la date de prélèvement.

Michaël Worobey (université de Tucson, Arizona), qui a analysé ces blocs, a découvert, dans un échantillon de biopsie d'un ganglion lymphatique d'une femme adulte datant de 1960, la trace du virus du sida. Ce sont les acides nucléiques, autrement dit des fragments de gènes de l'ADN viral, qui ont ainsi été conservés pendant 48 ans. Les chercheurs ont d'abord amplifié (recopié par PCR) ces morceaux de gènes. Puis ils en ont établi la séquence génétique. Ils ont ensuite comparé ces bouts d'ADN viral de 1960 avec les séquences déjà répertoriées des souches connues de VIH1 depuis le début de l'épidémie en 1981. En effet, le virus du sida humain évolue très rapidement (il n'est pas rare qu'à quelques années d'intervalle un même malade présente de nombreuses mutations de la souche virale l'ayant contaminé).

L'ADN du VIH mute un million de fois plus vite que ne le fait l'ADN d'une espèce animale, estime le Dr Paul Sharp dans un éditorial de Nature, accompagnant cette publication. En quelques décennies, un nombre non négligeable de mutations du virus du sida ont été observées.

Selon les chercheurs, si l'on tient compte de la vitesse de mutation du virus du sida, l'ancêtre à l'origine de la pandémie mondiale, est forcément beaucoup plus ancien. Les séquences génétiques de deux virus de 1959 et 1960 sont en effet «hautement divergentes» (12 % de différences). Il y a un demi-siècle, les souches de virus HIV1 étaient donc déjà si éloignées les unes des autres, que les chercheurs estiment désormais qu'elles avaient forcément un ancêtre commun cinquante ans auparavant, entre 1884 et 1924.

Nature

Un simple neurone peut réactiver des muscles paralysés
Vendredi, 24/10/2008 - 00:00

Une seule petite cellule du cerveau peut restaurer des mouvements volontaires de muscles paralysés, selon des chercheurs américains qui ont réussi cette expérience originale chez des singes. Leurs résultats, publiés en ligne par la revue scientifique britannique Nature, pourraient à terme, au minimum dans quelques années ou plus, avoir des applications cliniques pour les paralysés par blessure de la moelle épinière ou par une attaque cérébrale, selon les chercheurs.

Les chercheurs ont démontré pour la première fois que les singes peuvent apprendre à utiliser, en quelques minutes, un système de connexion artificielle directe entre des cellules du cortex moteur, la zone du cerveau qui contrôle les mouvements volontaires et un membre paralysé temporairement par injection d'anesthésiques.

Le développement de ce système, du domaine de la recherche sur l'"interface cerveau-machine", qui a permis aux primates de se servir d'un seul neurone pour bouger des muscles de leur poignet, pourrait permettre de créer une "neuroprothèse relativement naturelle", selon les chercheurs.

Si un singe peut le faire, alors un homme devrait être capable de le faire et même mieux, a estimé Chet Moritz (université de Washington) au cours d'une conférence téléphonique. "Pratiquement chaque neurone que nous avons testé peut être utilisé pour ce type de stimulation", a-t-il relevé. Le cerveau humain contient quelque 100 milliards de neurones et l'étude montre leur étonnante capacité d'adaptation. Les chercheurs ont en effet découvert que la cellule nerveuse utilisée par les singes pouvait ne pas être une spécialiste de la commande des mouvements. Ce qui augmente considérablement le nombre de cellules susceptibles d'être réquisitionnées, selon eux.

Ils ont d'abord, à l'aide d'électrodes, enregistré l'activité électrique de neurones isolés dans le cortex moteur des singes alors que ces derniers bougeaient leur poignet. Les macaques, une fois l'avant-bras paralysé, devaient réussir, en bougeant un curseur sur l'écran, à jouer à un jeu vidéo très simple auquel ils avaient été auparavant entraînés. L'activité cérébrale qui aurait normalement entraîné un mouvement volontaire persiste, mais les instructions ne parviennent pas aux muscles immobilisés. Les chercheurs ont réussi à contourner l'obstacle.

Nature

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Voitures à pile à combustible : rendez-vous dans cinq ans
Vendredi, 24/10/2008 - 00:00

Les voitures roulant avec une pile à combustible seront produites en petites séries dès l'horizon 2012-2015 et la fabrication de masse sera pour 2018-2020, prévoient les chercheurs comme les constructeurs. "Ces objectifs ne nous paraissent pas utopiques", assure Florent Petit, directeur de FC Lab à Belfort, l'unique centre d'essais français sur la pile à l'hydrogène.

Cette technologie, qui a fait figure de "serpent de mer" depuis 30 ans, approche tout doucement de sa phase concrète, estime ce chercheur que les progrès de la connaissance ont rendu assez optimiste, "même si l'on reste dans l'ordre du pari".

L'obstacle le plus connu est résorbé : l'encombrement de la pile. Alors que les prototypes "remplissaient une fourgonnette entière il y a encore quelques années", on peut aujourd'hui placer sous un capot classique une pile et ses équipements, indique M. Petit.

Sans même parler prix de vente, de nombreuses questions se posent toutefois avant de songer à l'industrialisation, rappelle le chercheur belfortain : la production et le transport de l'hydrogène, l'identification des matériaux les plus efficaces pour la réaction électrochimique et la durée de vie de la pile en fonctionnement réel.

Les deux premiers points relèvent du politique et de l'économique : quelle option retenir parmi les choix théoriques entre la molécule de méthane gourmande en rejets de C02, l'électrolyse ou le nucléaire ? Qui engagera les énormes investissements afin de distribuer l'hydrogène jusqu'à l'utilisateur via des stations ? La recherche se concentre sur les deux derniers thèmes.

L'analyse de la durée de vie constitue la spécialité de FC Lab, laboratoire de 40 personnes, membre du pôle de compétitivité "Véhicule du futur" d'Alsace-Franche-Comté, qui travaille dans un réseau composé du Commissariat à l'énergie atomique, du CNRS, de l'Institut national de recherche sur les transports et leur sécurité (Inrets) et de quatre universités lorraines et franc-comtoises.

A Belfort, les chercheurs testent à taille réelle la résistance de la pile aux vibrations, aux sautes de température, aux variations du courant électrique, etc. Leur verdict : les prototypes les plus avancés atteignent 2.000 heures, sachant que les constructeurs veulent parvenir à une fourchette de 5.000 à 7.000 heures correspondant à 250.000 kilomètres. "Mais on s'en rapproche petit à petit", observe M. Petit.

Constructeur le plus en pointe, le japonais Honda fait circuler depuis cet été en location longue durée en Californie une voiture électrique à pile à combustible comparable à celles testées à Belfort. Ce modèle "FCX Clarity" affiche une autonomie de plus de 500 km. En France, Renault a présenté cette année un prototype pour une Scénic. L'allemand BMW, lui, recourt à une autre technologie pour sa "série 7 Hydrogen" qu'il teste : la pile à combustible est ici utilisée pour alimenter un moteur à essence.

Yahoo

Un mini-véhicule urbain à air comprimé
Vendredi, 24/10/2008 - 00:00

Une PME de la région niçoise a présenté un mini-véhicule urbain non polluant fonctionnant à l'air comprimé qu'elle entend présenter à l'appel d'offres de la ville de Paris pour le futur système de voitures en libre-service. "AIRPod", nom de ce nouveau véhicule écologique, a également fait l'objet d'un protocole d'accord entre son fabricant, l'entreprise MDI, et la ville de Nice qui s'est engagée à acquérir, à titre expérimental, les premiers exemplaires produits après homologation.

Avec sa longueur de deux mètres pour 1,60 mètre de large -inférieure à la taille d'une Smart- et son moteur à air comprimé qui n'émet aucune pollution, "AIRPod" "marque une tournant dans les gammes de véhicules urbains", selon son créateur, Guy Nègre, PDG de MDI, société basée à Carros (Alpes-Maritimes). Un exemplaire coûte environ 6.000 euros.

M. Nègre, ancien salarié de l'industrie aéronautique et de la Formule 1, espère voir sortir à Carros les premières séries de ce véhicule au printemps 2009. Son entreprise emploie une cinquantaine de personnes. Il souhaite intéresser particuliers, entreprises et collectivités, dont la ville de Paris qui va lancer un appel d'offres pour la mise en place d'un systèmes de voitures non polluantes en libre service.

Le moteur à air comprimé constitue le cheval de bataille industriel de cet ingénieur de 66 ans qui travaille depuis plus de dix ans à la mise au point et à la commercialisation de véhicules dotés de cette technologie. MDI a déjà élaboré une gamme de véhicules à l'allure plus traditionnelle utilisant l'air comprimé stocké dans des réserves sous haute pression. Cette gamme a fait l'objet début 2007 d'un partenariat avec le constructeur automobile indien Tata Motors (groupe Tata) qui souhaite aider au développement de ce produit.

Le nouveau véhicule "AirPod" est une déclinaison urbaine de cette série de véhicules : plus petit et moins cher. Il se conduit avec un minimanche de type joystick et possède une autonomie en cycle urbain de 220 kilomètres pour une vitesse de pointe de 70 km/h, selon M. Nègre. "Le rechargement s'effectue en moins de deux minutes et pour un coût de 50 centimes d'euros les 100 kilomètres", explique-t-il.

Ce véhicule à l'aspect ludique, à la carrosserie et aux fenêtres toutes rondes, peut transporter jusqu'à quatre personnes. Les vitres avant et arrière se soulèvent pour laisser pénétrer les passagers dans l'habitacle. Une caméra et une écran de "rétro vision" remplacent les rétroviseurs.

Yahoo

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top