RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 573
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 04 Novembre 2010
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le livre électronique décolle
Un supercalculateur « exaflopique » en 2020
Innover en Europe requiert plus de très haut débit
Avenir
La nanotechnologie rend les appareils électriques plus économes
Nouveau système de propulsion pour micro-objets
Espace
La Lune : trésor d'éléments chimiques
La Nasa veut envoyer un robot humanoïde sur la lune
Terre
AVA-CO2 présente la première installation HTC de taille industrielle au monde
Présentation du Diagnostic de Performance énergétique
Climat : l'Académie confirme l'impact de l'activité humaine
Vivant
Des chercheurs découvrent une protéine détruisant les cellules malades
95 % des variations génétiques de l'homme identifiées
Maladie de Parkinson : une origine génétique?
Une nouvelle cible thérapeutique dans le traitement de l'asthme
Le mécanisme des filets d'ADN élucidé
La marche est bonne pour le cerveau
Vitamine D : la schizophrénie aussi !
Recherche
Voiture électrique : vers la recharge urbaine
600 km sans recharge : le plus long trajet parcouru par un véhicule électrique
Edito
Il faut donner une valeur économique à la nature pour mieux la préserver



Le 29 octobre, un accord international historique, visant à enrayer la disparition alarmante des espèces, a été adopté à Nagoya (Japon) à l'issue de 8 ans de négociations laborieuses par les quelque 190 pays membres de la Convention sur la diversité biologique.

Cet accord très large prévoit notamment un plan stratégique pour 2020 fixant 20 objectifs pour protéger la nature et freiner le rythme alarmant de disparition des espèces, avec en particulier un objectif d'extension des aires protégées à travers le monde, sur terre comme en mer. Il contient également un protocole sur le partage des bénéfices tirés par les industries de la pharmacie et des cosmétiques des ressources génétiques issues des nombreuses espèces (animaux, plantes, micro-organismes) présentes dans les pays du Sud.

L'accord prévoit également d'augmenter les aires protégées de la planète dans les années à venir. Aujourd'hui, elles représentent 13 % de la surface totale des terres. L'objectif pour 2020 est d'atteindre 17 %.

Cet accord constitue un véritable tournant dans la protection mondiale active de la biodiversité. Il est vrai que la situation est alarmante : une espèce d'amphibien sur trois, plus d'un oiseau sur huit, plus d'un mammifère sur cinq sont menacés d'extinction au niveau mondial, selon l'Union internationale pour la conservation de la nature (UICN).

Quelques jours avant cet accord et ce n'est pas un hasard, Pavan Sukhdev, Responsable du département des marchés internationaux à la Deutsche Bank de Bombay et économiste indien avait présenté, à la Conférence internationale sur la biodiversité de Nagoya, au Japon, un rapport très attendu consacré à l'économie des écosystèmes.

Cette étude intitulée « Les économies des écosystèmes et de la biodiversité » est le fruit de trois ans d'enquête par une centaine d'experts. Elle s'inscrit dans la ligne du fameux rapport Stern qui, en octobre 2006, chiffrait, pour la première fois, le coût économique du réchauffement climatique à 5 500 milliards d'euros dans les vingt ans. Le rapport dirigé par Pavan Sukhdev préconise d'évaluer de la même façon les services que les écosystèmes rendent à l'homme et les pertes associées à leur dégradation.

Cette étude qui fera date évalue l'érosion des biotopes terrestres forêts, océans, sols à un coût compris entre 1 350 et 3 100 milliards d'euros chaque année. En comparaison, le FMI estime à 1 150 millions d'euros les pertes bancaires pendant la récente crise financière. En diminuant par deux le rythme de la déforestation d'ici à 2030, les réductions d'émission de CO2 par année diminueraient de 2 600 milliards d'euros les dégâts causés par le réchauffement sans compter les services de captation de CO2 rendus par les forêts.

Pavan Sukhdev a dressé la liste des services inestimables et mésestimés que les écosystèmes naturels nous rendent tous les jours : l'approvisionnement en nourriture, en matières premières indispensables, en eau douce, en ressources médicinales, en bois d'habitation et de chauffage, en air pur ; la régulation du climat à l'échelle locale et mondiale, la régulation des événements naturels violents, de l'érosion et de la fertilité des sols, sans oublier l'apport d'habitats protégeant la diversité des animaux terrestres.

Autre exemple saisissant : les insectes pollinisateurs rendent un service agricole estimé à 153 milliards d'euros par an, soit 9,5 % de la valeur de la production agricole mondiale.

A tous ces précieux dons de la nature, sans lesquels nous ne saurions survivre, il faut ajouter l'aide stratégique qu'elle nous fournit aujourd'hui pour réparer les destructions causées par les activités humaines, devenues comparables à des forces géologiques. "Les solutions au changement climatique se trouvent dans les ressources naturelles, explique Pavan Sukhdev. Elles sont nos alliées."

Au total, ce rapport estime à 23.500 milliards d'euros par an les services rendus par la nature, soit la moitié du PIB mondial ou encore 3 350 euros par terrien !

Le problème vient du fait que l'humanité a trop longtemps cru que les cadeaux de la nature étaient éternels et infinis. Par ailleurs, les innombrables et irremplaçables services rendus par les écosystèmes ont une valeur mais celle-ci n'est ni évaluée, ni comptabilisée dans les documents budgétaires et comptables des états.

Pavan Sukhdev, a d'abord élaboré un projet de "comptabilité environnementale" en Inde, visant à élargir la conception classique du produit intérieur brut (PIB) en lui adjoignant la notion de "durabilité" qui intègre l'évaluation du respect futur des écosystèmes.

Pour l'économiste indien, "l'air, l'eau potable, la captation du carbone par les forêts, la protection contre les inondations grâce aux marécages sont des 'biens communs'. Chacun d'entre nous en profite et la jouissance que nous en avons ne devrait pas gêner les autres. Pourtant, ils sont aujourd'hui menacés. Pourquoi ? "

Cette constatation est confirmée par un autre rapport de l'ONU publié le 21 octobre et qui montre que 30 millions d'hectares de surfaces cultivées, soit l'équivalent de la superficie de l'Italie, sont perdus chaque année du fait de la dégradation de l'environnement, de l'industrialisation et de l'urbanisation (rapport).

En outre, chaque année, des investisseurs expriment leur intérêt dans l'acquisition de plus de 40 millions d'hectares de terres arables. Au total, c'est donc 70 millions d'hectares de terres agricoles (700 000 km2) qui changent d'affectation ou de modes d'exploitation, ce qui entraîne des conséquences humaines et économiques considérables pour plus de 500 millions de paysans qui dépendent de l'accès à la terre et à l'eau pour leur existence."

Enfin, le rapport sur l'état de la biodiversité en Europe publié en octobre 2010 par l'Agence européenne pour l'environnement (AEE) a confirmé le déclin de nombreuses espèces et habitats naturels. Ce rapport montre également que l'UE n'atteindra pas l'objectif de stopper la perte de la biodiversité en 2010.

Les écosystèmes aquatiques sont parmi les plus menacés en Europe. Les zones humides (marais et marécages) ont ainsi diminué de 5 % entre 1990 et 2006. Les écosystèmes marins et côtiers ont également perdu une biodiversité considérable dans les décennies récentes, principalement à cause de l'érosion des zones humides côtières, des dunes et des estuaires, de la pollution et de la surpêche.

La biodiversité des écosystèmes agricoles qui dominent les paysages européens a drastiquement diminué. Les populations d'oiseaux des champs ont par exemple décliné de 50 % depuis 1980. Les zones montagneuses, spécialement riches en habitats et en espèces, sont très vulnérables aux changements des pratiques agricoles et touristiques, au développement des infrastructures et au climat.

On voit donc qu'en dépit des efforts accomplis l'érosion de la biodiversité perdure en Europe, ce qui pourrait entraîner de graves conséquences à terme et notamment réduire l'efficacité des mesures prises pour lutter contre le réchauffement climatique.

Face à cette menace, le rapport de l'AEE préconise quatre leviers d'action majeurs : améliorer la mise en oeuvre des mesures de protection de la biodiversité, mettre en place une politique cohérente de protection de la biodiversité, promouvoir une approche plus intégrée entre secteurs et institutions et favoriser une prise de conscience du public sur le rôle de la biodiversité.

Ce rapport rejoint celui de Pavan Sukhdev et montre que l'attribution d'une valeur économique à la biodiversité et aux écosystèmes peut jouer un rôle majeur. En effet, l'évaluation rigoureuse et la connaissance de la valeur économique des différents services rendus par les écosystèmes sont devenues des conditions nécessaires à la mise en oeuvre de politiques efficaces de prévention et de protection de ces sites et à la détermination des moyens financiers qui doivent y être alloués.

Ces différentes études convergent pour montrer que l'évaluation de la valeur des biens et services rendus par la nature et l'intégration de cette valeur dans les processus de décisions économiques, tant publiques que privées, sont devenues des enjeux politiques majeurs tant au niveau des états qu'au niveau planétaire.

C'est en évaluant à sa juste valeur son irremplaçable capital naturel que l'homme parviendra à mieux le préserver en l'utilisant de manière raisonnable et équitable, pour le plus grand profit de tous. Souhaitons qu'en utilisant pleinement le cadre de l'accord de Nagoya, la communauté internationale va enfin se donner les moyens de relever ce défi qui conditionne la survie de l'humanité.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Le livre électronique décolle
Vendredi, 05/11/2010 - 00:00

La Fnac a annoncé, jeudi 21 octobre, le lancement de son "Fnacbook", une liseuse à encre électronique dotée d'un accès 3G et Wi-Fi au site de l'enseigne. L'appareil sera disponible à partir de la mi-novembre. "Nous avons l'ambition de devenir le leader de ce marché hyper concurrentiel" et récent, a indiqué lors d'une conférence de presse le PDG du groupe, l'une des enseignes que le groupe PPR souhaite vendre.

Le détenteur d'un Fnacbook, fabriqué par Sagem, pourra avoir dans sa poche une "bibliothèque" de 2 000 livres, sur un catalogue en ligne de 80 000 livres et 750 bandes dessinées. Les fichiers pourront également être lus sur des terminaux comme l'iPhone et l'iPad, puis sur les appareils équipés du systèmeAndroid de Google.

Le Fnacbook sera précédé par Oyo, liseuse lancée le 30 octobre par les distributeurs de livres France Loisirs et Chapitre. Ces nouveaux modèles s'ajouteront a une gamme de liseuses déjà bien étoffée en France. Sony propose déjà son Reader, et l'entreprise française Booken un Cybook.

Mais le principal concurrent demeure le Kindle, qui continue de tirer les ventes du distributeur Amazon. Le groupe américain affirme que le Kindle est le produit qu'il vend le plus depuis deux ans. L'attrait pour les e-books semble durable aux Etats-Unis, même si ces appareils devraient se cantonner à un marché de niche, montre un sondage récent. Environ 8 % des lecteurs américains utilisent une liseuse électronique et 12 % déclarent être prêts à en acheter une dans les six mois à venir.

Le marché français péchait jusque-là par une l'offre de contenus en français réduite et de la rareté de "plates-formes unifiées centralisant" les titres, ajoute l'expert. Or ces freins commencent à s'estomper : l'offre s'élargit avec des plates-formes comme Numilog d'Hachette, et se diversifie en français.

Le marché des livres électroniques a "explosé" aux Etats-Unis "à cause du prix qui a été, dans un premier temps en tout cas, très bas", indique le PDG de la Fnac. En France, il s'attend à un décollage "moins rapide" car les livres électroniques ne seront pas vendus à moins 70 % par rapport au papier. "Nous pensons que -30% sera le bon prix", indique-t-il.

LM

Un supercalculateur « exaflopique » en 2020
Vendredi, 05/11/2010 - 00:00

Le CEA et l'Université de Versailles Saint-Quentin en Yvelines, en partenariat avec Intel, se lancent dans la conception d'un calculateur capable de faire un million de milliards d'opérations par seconde. Le laboratoire Exascale Computing Research a pour mission de réfléchir aux contraintes matérielles et logicielles d'une telle machine. Alors que le CEA vient d'inaugurer son Très grand centre de calcul (TGCC), qui accueillera une puissance de calcul dépassant le pétaflop d'ici fin 2011, soit mille milliards d'opérations par seconde, la recherche est déjà lancée pour passer à l'exaflop - mille fois plus.

Le laboratoire Exascale Computing Research (ECR) est commun entre le CEA, le GENCI (Grand Equipement National de Calcul Intensif) et l'Université de Versailles Saint-Quentin en Yvelines (UVSQ). Il s'agit d'imaginer les futures applications d'une telle puissance exaflopique, de mettre au point des méthodes de calcul et d'optimiser le matériel pour garder une consommation électrique raisonnable.

« Les calculateurs actuels consomment 5 à 6 mégawatts. Nous voulons multiplier la puissance de calcul par mille tout en ne multipliant la consommation électrique que par 10 au maximum », explique Steve Pawlowski, directeur du groupe architecture d'Intel, partenaire du projet. « Cela implique de réfléchir à une nouvelle architecture, et à de nouveaux logiciels ».

« Le calculateur pétaflopique du TGCC sera constitué de près de 100 000 coeurs », détaille William Jalby, directeur du laboratoire. « Avec l'exaflop, nous en aurons un milliard : la façon de traiter les calculs n'a plus rien à voir ». Car les informations doivent être traitées en parallèle, c'est à dire simultanément sur tous les coeurs. Cela pose des questions en termes de programmation.

Les logiciels actuels devront être adaptés : « Bruts, ils ne fourniraient qu'un rendement de 2 à 3 % par rapport à la puissance de la machine ». Cela tout en gardant une simplicité d'usage, afin de rester utilisables par tous les chercheurs. « De plus, avec autant de coeurs, la machine sera fonctionnelle au mieux à 90 %, il faudra donc diagnostiquer les défauts en amont pour les gérer », continue William Jalby.

L'équivalent de 25 personnes à plein temps travaillent actuellement sur le projet Exascale Computing Research. L'objectif est de passer à 50. La première machine exaflopique est pronostiquée pour 2020. Mais la montée en puissance sera progressive : les premiers prototypes de processeurs seront confrontés aux utilisateurs, afin de définir quel est le meilleur support matériel pour un tel projet. D'ici 2016, les 500 pétaflops devraient être atteints, estime Steve Pawlowski.

IT

Innover en Europe requiert plus de très haut débit
Vendredi, 05/11/2010 - 00:00

Si le déploiement du réseau de fibre optique se poursuit en Europe, des efforts restent à fournir pour que l'infrastructure soit à la hauteur des enjeux économiques qui y sont liés, affirment dans un rapport les analystes du FTTH Council Europe. "La France demeure à la quinzième place du classement - sur dix sept -, comme l'année dernière. Avec désormais 1,46 % de pénétration pour 370 000 abonnés", explique à L'Atelier Nadia Babaali, l'une des responsables associées à l'étude. "Cela reste faible par rapport à l'ensemble de la population française", précise-t-elle. Et si les Pays-Bas, le Danemark ou la Slovaquie poursuivent le déploiement de la fibre, certains pays comme la Grande-Bretagne, l'Allemagne et l'Espagne sont notablement absents du classement effectué par le FTTH Council Europe. Pourtant, selon les analystes, cette technologie joue un rôle majeur pour l'innovation.

"La FTTH est la seule technologie qui offre du très haut débit non seulement en 'download', mais aussi en 'upload'", développe la responsable. Avant d'ajouter : "les nouveaux services, contenus et applications, aussi bien pour les entreprises que pour les particuliers consomment beaucoup de débit". Et de citer le cloud computing, la vidéoconférence, les sauvegardes de dossiers en ligne ou encore la "video on demand" et les jeux vidéos. "L'impact pour les PME et les TPE qui font le tissu économique de l'Europe, est crucial. L'échange de fichiers, la sauvegarde en ligne, le cloud computing, l'accès à des réseaux de calculs partagés... tout cela ouvre des perspectives aux plus petits comptes, et la fibre facilite l'ensemble de ces échanges", note-t-elle.

Selon les chiffres avancés, le nombre d'abonnés à la fibre jusqu'au domicile - en Europe, Russie incluse, a augmenté de 22 % durant le premier semestre 2010. En valeur absolue, l'Europe atteint un total de 3,2 millions d'abonnés FTTH/B (fibre jusqu'au domicile/fibre jusqu'au bâtiment) et si l'on y ajoute la Russie, ce chiffre s'élève à près de 4,5 millions. Reste que le déploiement du réseau s'avère prometteur : plus de 26 millions de foyers sont en effet "homespassed" aujourd'hui, c'est-à-dire que leur raccordement à la fibre optique est désormais possible.

Atelier

^ Haut
Avenir
Nanotechnologies et Robotique
La nanotechnologie rend les appareils électriques plus économes
Vendredi, 05/11/2010 - 00:00

Avec l'engouement généralisé pour les appareils électroniques, il devient nécessaire d'en réduire la dissipation de l'énergie, affirme une équipe de scientifiques de l'école Polytechnique fédérale de Lausanne et du centre de recherche d'IBM. Les deux institutions misent pour cela sur les nanoélectroniques. Elles se sont rapprochées pour soutenir un projet de recherche européen. Baptisé Steeper, celui-ci vise à développer des circuits électroniques où le passage du mode "on" au mode "off" se fait de façon plus prononcée, plus abrupte que dans les semi-conducteurs classiques.

Pourquoi ? Afin de mettre au point des téléphones portables, des ordinateurs, ou encore des télévisions plus économes - en réduisant notamment le voltage des appareils à moins de 0.5 volt. Pour parvenir à ces économies d'énergies, les chercheurs misent ainsi sur les "tunnel field effect transistors” (TFET). Ces circuits sont basés sur des matières comme le silicium(SI) et intègrent également des nanofils. "Les nanofils sont des structures cylindriques de quelques nanomètres de diamètres, ce qui permet un contrôle électrostatique optimal des conduits du transistor", précisent-ils.

Dans les transistors traditionnels, l'énergie 'fuit' de façon continue, et peut notamment être gâchée lorsque l'appareil est en veille", expliquent les scientifiques. "L'objectif du projet Steeper est de contenir la fuite, avec des matériaux plus adaptés, permettant de fermer la valve de façon plus efficace", développent-ils. Commencé en juin 2010, le projet s'étale sur une période de trois ans. Les chercheurs rappellent que selon l'International Energy Agency (IEA), les appareils électriques comptent pour 15 % de la consommation d'énergie des foyers.

Atelier

Nouveau système de propulsion pour micro-objets
Vendredi, 05/11/2010 - 00:00

Un nouveau mode de propulsion pour micro et nano-objets métalliques a été mis au point par des chercheurs de l'Institut des sciences moléculaires (CNRS/ENSCBP/Universités Bordeaux 1 et 4). Ce procédé s'appuie sur le concept original de l'électrochimie bipolaire : sous l'effet d'un champ électrique, une des extrémités d'un objet métallique croît tandis que l'autre extrémité se dissout. Grâce à cette auto-régénération permanente, des objets se déplacent à des vitesses de l'ordre d'une centaine de micromètres par seconde. Publiés dans le Journal of the American Chemical Society, ces travaux permettent d'envisager des applications dans les domaines allant de la nano-médecine à la micromécanique.

Plusieurs approches sont actuellement explorées pour appliquer à des nano ou des micro-objets des mouvements directionnels contrôlés. Les scientifiques étudient notamment l'utilisation de molécules dites « carburants » qui, suite à leur décomposition, peuvent propulser un objet dissymétrique. Autres pistes de travail : reproduire les systèmes naturels en imitant le déplacement de bactéries ou la rotation de systèmes biologiques bien connus comme l'ATP synthase.

Pour la première fois, deux chercheurs de l'Institut des sciences moléculaires de Bordeaux (CNRS/ENSCBP/Universités Bordeaux 1 et 4) montrent qu'il est possible de générer un tel mouvement via une approche originale appelée « électrochimie bipolaire ». Ces chimistes soumettent à un champ électrique des objets métalliques qui présentent alors une différence de charge aux extrémités : l'une un excès et l'autre un déficit.

Cette polarisation est suffisamment importante pour que des réactions chimiques opposées d'oxydoréduction se produisent à chaque extrémité. Ainsi, d'un côté l'objet va s'oxyder et se détruire. De l'autre côté, en procédant à la réduction d'un sel métallique présent dans la solution, un dépôt de métal va se former, conduisant à la croissance de l'objet. In fine, ce procédé conduit à un auto-renouvellement de l'objet tout en induisant son déplacement. Le mouvement généré de cette façon est dirigé vers l'une des deux électrodes et la vitesse peut être contrôlée par la différence de potentiel appliquée entre les deux électrodes.

L'avantage de cette méthode est qu'aucun combustible classique n'est nécessaire pour provoquer ce mouvement. De plus, on peut envisager d'adapter ce micromoteur pour pousser d'autres objets dans une direction prédéfinie et de les faire complètement disparaître une fois qu'ils ont effectué leur tâche. Ce procédé original ouvre des perspectives dans des domaines d'application variés allant de la micromécanique à la nano-médecine.

CNRS

^ Haut
Espace
Espace et Cosmologie
La Lune : trésor d'éléments chimiques
Vendredi, 05/11/2010 - 00:00

Dans l'un des six articles publiés dans la revue Science, l'équipe d'Anthony Colaprete confirme que le sol lunaire contient beaucoup d'eau. Dans le trou de 20 à 30 mètres de diamètre creusé dans le cratère Cabeus par l'étage de la fusée Atlas, lancé à plus de 9 000 km/h, la concentration moyenne de glace est de 5,6 %. Les instruments de la sonde LCROSS ont détecté pas moins de 155 kg d'eau sous forme de glace et de vapeur dans le panache soulevé par l'impact. Ce qui correspond, effectivement, à un grand nombre de «seaux» !

Et ce n'est pas tout. L'analyse du nuage révèle que le sol de ce cratère lunaire, plongé en permanence dans l'obscurité, est également riche en matériaux utiles ou précieux comme l'argent, l'hydrogène mais également toxiques comme le mercure. Sans oublier le méthane, l'ammoniaque ou le dioxyde de carbone (CO2). «Le cratère Cabeus semble être un trésor d'éléments chimiques», souligne le géologue Peter Schultz de l'Université Brown, dans l'État de Rhode Island, et principal auteur d'une des publications déjà citées. Ces atomes et molécules, piégés dans les cratères polaires, proviendraient selon lui des comètes et des météorites qui bombardent la Lune depuis des milliards d'années.

Afp

La Nasa veut envoyer un robot humanoïde sur la lune
Vendredi, 05/11/2010 - 00:00

La Nasa aurait pu envoyer de nouveaux astronautes sur la Lune, mais l'administration Obama et le Congrès ont trouvé le prix d'une telle opération -150.000 milliards de dollars (107.000 milliards d'euros)- trop élevé. Mais la Nasa affirme pouvoir envoyer un robot humanoïde sur la Lune pour une fraction de ce coût (moins de 200 millions de dollars plus une roquette de 250 millions). Et ça, en seulement 1.000 jours, soit moins de trois ans.

L'équipe qui tente de mettre en place ce projet pense qu'un robot marchant sur la Lune réveillera autant de vocations scientifiques qu'Apollo il y a quarante ans. Mais la Nasa n'est plus autant intéressée par la Lune et les ingénieurs ne sont donc pas sûrs de réussir à y envoyer leur robot.

Le Projet M se prépare donc sans beaucoup de moyens depuis un an, en profitant d'autres projets déjà en cours : un robot humanoïde, développé par la Nasa et General Motors, partant avec la navette Discovery pour la station spatiale internationale, sera le premier robot humanoïde dans l'espace, et est censé aider les astronautes dans leurs tâches quotidiennes.

D'autres projets développent des carburants moins chers ou de meilleurs systèmes d'atterrissage qui pourraient aussi lui servir.

Envoyer un robot sur la Lune serait beaucoup plus simple qu'envoyer un humain (pas besoin de nourriture ou d'eau, ni de trajet retour), mais il pourrait aussi effectuer beaucoup moins de tâches. Le Projet M a d'ailleurs été davantage conçu comme une démonstration technologique que comme une mission scientifique, explique le New York Times.

NYT

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
AVA-CO2 présente la première installation HTC de taille industrielle au monde
Vendredi, 05/11/2010 - 00:00

La mise en exploitation de la plus grande installation au monde de carbonisation hydrothermale (HTC) témoigne du succès d'AVA-CO2, la première entreprise à avoir franchi le pas entre la recherche dans le domaine de la technologie HTC et son application industrielle.

Avec une capacité de 14 400 litres et la possibilité de traiter 8 400 tonnes de biomasse par an, le réacteur présenté démontre de manière convaincante que les experts d'AVA-CO2 ont tenu le pari de construire et exploiter des installations de taille industrielle. Une centaine d'invités du monde de la recherche, de l'industrie et de la politique sont attendus pour la mise en exploitation de l'installation sur le site de la filiale de Karlsruhe d'AVA-CO2.

«Avec son utilisation à l'échelle industrielle, la carbonisation hydrothermale (HTC), qui transforme la biomasse en biocharbon neutre en CO2, ouvre des perspectives totalement nouvelles pour la réduction des gaz à effet de serre et la production d'énergie renouvelable» explique Peter Achermann, président du conseil d'administration.

«Partout où est constamment produite de la biomasse en grande quantité, le procédé HTC peut être mis à profit par un grand nombre d'industries pour de nombreuses applications» poursuit Jan Vyskocil, Co-CEO d'AVA-CO2.

AVA-CO2, dont le siège est à Zoug, en Suisse, est un pionnier de la technologie HTC et a franchi le cap de l'application industrielle. L'installation HTC présentée est composée de trois éléments principaux : une cuve de mixage, un réacteur et un « outlet buffer tank ».

Dans la cuve de mixage de cinq mètres de haut, la biomasse est mélangée et préchauffée à environ 150° C. La réaction chimique a lieu dans le réacteur à environ 220° C et 22 bar de pression. Cette cuve, d'une contenance de plus de 14 mètres cubes, possède une couche isolante supplémentaire qui lui confère sa couleur argentée.

Dans la plus grande cuve que l'on appelle un «outlet buffer tank», sont entreposés l'énergie excédentaire et le produit final. Ce procédé, développé par AVA-CO2, s'intègre parfaitement dans les processus de production continus des clients.

Le procédé HTC, dans certaines conditions de température et de pression, dégage l'eau de la biomasse et transforme le carbone en biocharbon de haute qualité en l'espace de quelques heures. D'abord la biomasse est chauffée sous forme de solution aqueuse dans un réservoir sous pression jusqu'à ce qu'un procédé exothermique entre en action. Dès ce moment l'exploitation de l'installation ne requiert aucune énergie additionnelle.

La carbonisation hydrothermale se distingue entre autres par le fait qu'elle permet même le traitement d'une biomasse végétale contenant de grandes quantités d'eau.

Le processus HTC est très puissant et fait usage de l'ensemble du carbone présent dans la biomasse. Le produit final consiste en un AVA bluecoal de haute qualité et neutre en CO2. La stabilité et la haute densité d'énergie de ce biocharbon permet de le stocker sans problèmes et de le transporter efficacement.

Le processus HTC peut également produire comme alternative l'AVA biochar, un produit semblable à de l'humus utilisé pour l'amendement des sols agricoles et pour le stockage de CO2. Le processus de carbonisation hydrothermale a été exploré en 1913 par Friedrich Bergius. En 1931, il reçut le prix Nobel de chimie.

TF1

Présentation du Diagnostic de Performance énergétique
Vendredi, 05/11/2010 - 00:00

Le secrétaire d'Etat au Logement Benoist Apparu a présenté le 27 octobre le Diagnostic de Performance énergétique. L'affichage obligatoire du Diagnostic de Performance énergétique (DPE) dans les annonces immobilières sera obligatoire, aussi bien pour les particuliers que les professionnels, à partir de janvier 2011.

Pour le ministre de l'Ecologie Jean-Louis Borloo cette mesure "est plus importante que le +bonus-malus écologique+ pour les voitures" en raison de l'importance de l'investissement lors d'un achat immobilier et du montant des dépenses énergétiques des ménages.

Cette obligation d'affichage, instituée par la loi Grenelle 2 de juillet, "s'applique à tous les biens immobiliers au moment des ventes et des locations, lorsqu'ils sont soumis à l'obligation de réaliser un DPE à compter du 1er janvier 2011", indique le projet de décret.

Obligatoire depuis le 1er novembre 2006 pour les ventes de logements et le 1er juillet 2007 pour les locations, le DPE permet de connaître les consommations d'énergie et de favoriser leur maîtrise, en classant les biens en sept catégories de A (50 kiloWattheures/mètre carrés/an, soit 250 euros) à G (450 kWh/m2/an, 2.250 euros).

En cas d'absence d'affichage de la performance énergétique dans l'annonce immobilière, pour les 600.000 transactions immobilières et le million de locations réalisées chaque année, il est prévu la possibilité de l'annulation de l'acte (ou la réduction du prix) et, au plan pénal, 37.500 euros d'amende et même un maximum de deux ans de prison.

Le DPE est un des diagnostics qui doit figurer obligatoirement, lors d'une vente, dans les contrats immobiliers avec les constats amiante, plomb, termites, risques naturels et technologiques, et installations intérieures de gaz et d'électricité, et lors d'une location, avec les constats plomb et risques naturels et technologiques.

A compter du 1er janvier 2011, comme l'a prévu la loi "Grenelle II" du 12 juillet 2010, les annonces dans la presse devront comporter la mention de la lettre A à G du classement du bien à vendre ou à louer au regard de sa consommation d'énergie, avec l'indication "classe énergie".

A la même date, les annonces dans les vitrines des agences et les annonces sur Internet devront quant à elles faire figurer l'entière "étiquette énergétique", telle qu'établie par le diagnostic de performance énergétique (DPE), que les propriétaires vendeurs ou bailleurs devront désormais faire réaliser avant la mise en vente ou en location, alors que jusqu'à présent ils ne le faisaient qu'au stade de la promesse de vente ou pour la signature du bail.

Dans le même temps, le gouvernement prend aussi une série de mesures pour améliorer la précision et la fiabilité des DPE :

?Affinage de l'analyse en doublant le nombre de paramètres pris en compte (ils passeront de 30 à 60),

?Interdiction sauf exception des "valeurs par défaut", en imposant de justifier les écarts entre les consommations théoriques résultant des modèles utilisés et des consommations réelles

?Meilleure garantie des compétences des diagnostiqueurs et de la qualité des diagnostics réalisés

?Meilleur encadrement de la certification et des contrôles post-certification,

?Création de deux niveaux de certification suivant la complexité des bâtiments, etc.

La classe A correspond à une consommation énergétique totale pour le chauffage et l'éclairage inférieure à 50 kWh par m2 et par an (environ 250 euros par an de dépense), alors que la classe G correspond à une consommation supérieure à 450 kWh (environ 2.000 euros par an), la moyenne du parc français se situant entre 200 et 300 kWh par an.

Ce dispositif doit inciter les propriétaires de logements "énergivores" à effectuer des travaux d'économies d'énergie car les biens mal classés subiront une décote par rapport aux biens classés économes.

Ceux-ci devraient être dans l'avenir de plus en plus nombreux, au fur et à mesure que les rénovations énergétiques se multiplieront dans l'ancien, et également par le fait que les nouveaux logements arrivant sur le marché par la construction neuve seront tous classés A : la nouvelle réglementation thermique résultant du "Grenelle", la RT 2012, sera en effet, applicable au secteur tertiaire pour tous les permis de construire qui seront déposés à partir du 28 octobre 2011, et pour les logements pour les permis de construire qui seront déposés à partir du 1er janvier 2013.

Actu environnement

Climat : l'Académie confirme l'impact de l'activité humaine
Vendredi, 05/11/2010 - 00:00

Les conclusions de l'Académie des sciences sont claires, nettes et précises : «Depuis la seconde moitié du XIXe siècle, plusieurs indicateurs indépendants montrent sans ambiguïté un réchauffement climatique, modulé dans le temps.» Et le texte ajoute : cette augmentation de température a pour cause principale la hausse de la concentration de CO2 dans l'atmosphère, elle-même due «incontestablement» à l'activité humaine. «Les fluctuations de l'activité du soleil ces quarante dernières années ne peuvent être un facteur dominant», précise-t-il enfin.

En remettant ces conclusions à la ministre de la Recherche, Valérie Pécresse, l'Académie des sciences va peut-être réussir à donner un coup d'arrêt aux débats particulièrement houleux qui ont opposé, au printemps dernier, plusieurs centaines de chercheurs travaillant sur le climat à quelques climatosceptiques dont Claude Allègre, l'ancien ministre de l'Éducation.

Après des contributions écrites et une journée de débat faisant intervenir plus d'une vingtaine d'experts étrangers qui s'est tenue à huis clos le 20 septembre dernier, quai Conti, à Paris, les académiciens ont donc adopté le rapport piloté par Jean-Loup Puget, délégué de la section des sciences de l'univers, et René Blanchet, président du groupe climat du comité de l'environnement.

Le document quoi qu'il en soit ne s'arrête pas aux seules évidences du réchauffement. Il s'étend également longuement sur plusieurs autres points et sur les incertitudes qui peuvent les accompagner. Il en va ainsi de la nécessité d'avoir recours à des modèles climatiques pour comprendre le système et «aux tests permettant de les valider».

L'Académie entérine la pertinence de projections de l'évolution du climat à trente ou cinquante ans. «Ces projections sont particulièrement utiles pour répondre aux préoccupations sociétales actuelles, aggravées par l'accroissement prévisible des populations.»

Mais elle rappelle également que «l'évaluation des incertitudes est au coeur des débats».

Si les résultats de tous les modèles qui tournent dans le monde sont relativement homogènes sur l'impact du CO2 et des effets de la vapeur d'eau, «les écarts sont importants sur le rôle des nuages», explique Jean-Loup Puget. «L'évolution de la nébulosité reste unanimement reconnue comme la partie la plus incertaine. Les nuages exercent deux effets antagonistes : un effet parasol, renvoyant le flux solaire vers l'espace, et un effet de serre», souligne le rapport.

Des incertitudes importantes demeurent également sur «l'évolution des glaces marines et des calottes polaires, le couplage océan-atmosphère, l'évolution de la biosphère et la dynamique du cycle du carbone». Pour Claude Allègre, «ce texte est un compromis, mais il est satisfaisant, parce que l'incertitude dans la connaissance qu'on a du climat y figure explicitement», assure-t-il. Vincent Courtillot, directeur de l'Institut de géophysique du globe et climatosceptique revendiqué, espère que ce rapport «va pacifier le débat».

Figaro

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des chercheurs découvrent une protéine détruisant les cellules malades
Vendredi, 05/11/2010 - 00:00

Une équipe de scientifiques australiens et britanniques a découvert une protéine tueuse qui détruit les cellules malades. Cette trouvaille pourrait s'avérer précieuse dans la lutte contre le cancer, la malaria et le diabète. 'La protéine, appelée perforine, attaque les cellules anormales et fait un trou dans leur membrane afin de laisser passer des enzymes tueuses', a déclaré le chef du projet James Whisstock, de l'université Monash, à Melbourne, ajoutant que cette découverte répondait 'à un mystère fondamental de l'immunité'.

'La perforine est l'arme de notre corps pour nettoyer', a souligné James Whisstock. 'Elle s'introduit au sein des cellules qui ont été contaminées par des virus ou transformées en cellules cancéreuses, et elle permet aux enzymes de s'introduire dans la cellule pour la nettoyer, a-t-il déclaré. Sans elle, notre système immunitaire ne peut pas nettoyer ces cellules.'

Les scientifiques ont mis en lumière 'une molécule puissante' qui vise les cellules malignes ou infectées, a indiqué le chercheur. Sans la perforine diffusée par des cellules tueuses dédiées à la destruction d'envahisseurs toxiques, le corps ne peut pas combattre les infections. Des études sur les souris ont démontré un lien entre une perforine déficiente et la leucémie ou une puissance accrue des cellules malignes.

Cette découverte a des implications pour les maladies auto-immunes, telles que le diabète juvénile de type 1, et pour les patients transplantés, car cette protéine est également liée à l'élimination de cellules saines et au rejet de tissus organiques, selon James Whisstock. 'Maintenant que nous savons comment cela marche, nous pouvons commencer à affiner son utilisation pour combattre le cancer, la malaria et les diabètes', a-t-il ajouté.

Selon Joe Trapani, qui fait partie de l'équipe de chercheurs, cette étude qui a duré dix ans a permis de découvrir que la structure de la perforine était similaire à celle des toxines bactériennes telles que la Listéria ou le Bacillus anthracis (anthrax), ce qui laisse penser que le corps a appris des tactiques de défense à partir de maladies.

LM

95 % des variations génétiques de l'homme identifiées
Vendredi, 05/11/2010 - 00:00

Des scientifiques du monde entier réunis au sein d'un projet titanesque ont comparé avec un degré de précision inégalé les génomes de 179 individus, un record. Les perspectives offertes à la recherche en médecine sont vertigineuses.

En 2000, le président américain Bill Clinton tenait une conférence de presse pour annoncer la sortie du «premier brouillon du livre de la vie humaine». Il saluait ainsi le premier décryptage brut du génome humain. Au 1er novembre 2010, ce sont 2700 génomes humains qui auront été décryptés. Fin 2011, ce chiffre sera de 30.000.

Le plus ambitieux projet existant est certainement le 1000 genomes qui réunit 75 universités du monde entier. L'objectif de ce consortium : dresser un panorama de la diversité génétique des hommes en comparant entre eux des milliers de génomes. Un travail de titan.

Dans deux publications distinctes parues simultanément dans les deux plus prestigieuses revues scientifiques, Science et Nature, les centaines de chercheurs de ce groupement publient des résultats très attendus sur leurs deux premières années de labeur. Les chercheurs ont joué à un colossal jeu des différences en comparant l'intégralité des 179 génomes séquencés à ce jour par leurs soins (un tiers provient d'Américains, un tiers de Nigérians, le reste de Chinois et de Japonais).

L'ADN est en effet constitué d'une longue séquence de nucléotides représentés par quatre lettres : A, T, C et G. Chaque génome humain totalise 3,2 milliards de ces briques élémentaires. Environ 99,9 % de cette suite ininterrompue de lettres (qui pourrait remplir 10.000 livres de 200 pages) est identique d'un individu à l'autre et fait de nous des hommes. Le reste de ce code nous rend unique. Ce sont ces infimes variations qui expliquent pourquoi une personne a les yeux bleus plutôt que noirs. Ce sont aussi elles qui sont responsables de nombreuses maladies et autres dysfonctionnements physiologiques. Tout leur intérêt pour la médecine vient de là. La thérapie génique vise par exemple à remplacer les gênes défectueux où ces variations apparaissent.

Depuis la naissance de la discipline, les généticiens cherchent à localiser le plus grand nombre possible de ces variations sur l'hélice ADN avec le plus de précision possible. Les chercheurs du 1000 Genomes Project viennent d'en débusquer la bagatelle de 16 millions, soit 95 % de leur nombre total présumé. Ils ont retrouvé toutes celles déjà identifiées auparavant et en ont détecté autant de nouvelles. «Cette étude offre le premier inventaire à grande échelle de la diversité génétique humaine», se félicite Lynn Jorde, professeur et président de la chair de génétique humaine à la faculté de médecine de l'Université d'Utah, un des nombreux co-auteurs de cette communication. La base de données réalisée est en ligne et à la disposition des chercheurs du monde entier. Un réservoir inépuisable qui devrait durablement influencer la recherche médicale.

Maintenant que les techniques sont rodées et la faisabilité avérée, le consortium va poursuivre ses travaux et multiplier les séquençages. Plus de 2000 génomes de 27 populations différentes doivent encore être décryptés les deux prochaines années. Les chercheurs espèrent ainsi lever le voile sur 97 à 99 % de la diversité génétique humaine.

Nature

Maladie de Parkinson : une origine génétique?
Vendredi, 05/11/2010 - 00:00

La maladie de Parkinson est une affection neurodégénérative progressive, la seconde, en fréquence après la maladie d'Alzheimer. Elle est caractérisée cliniquement par la « triade » ralentissement des mouvements-rigidité-tremblement de repos, auxquels s'ajoutent, en général, d'autres troubles cognitifs.

La maladie débute souvent après l'âge de 60 ans. Elle est due à une perte massive et sélective des neurones dopaminergiques de la voie nigro-striatale, le plus souvent associée à des inclusions éosinophiles cytoplasmiques, les corps de Lewy. Les mécanismes de la maladie restent inexpliqués à ce jour et aucun traitement ne permet encore de ralentir ou stopper la progression de la maladie.

L'étude de formes monogéniques qui sont rares, a permis d'identifier à ce jour 6 gènes qui sont impliqués dans des formes autosomiques dominantes (SNCA/PARK1 et PARK4; LRRK2/PARK8) ou des formes autosomiques récessives (Parkine/PARK2; PINK1/PARK6; DJ-1/PARK7; ATP13A2/PARK9) de la maladie de Parkinson. Cependant, l'ensemble des mutations dans ces gènes n'explique qu'une faible proportion des cas de survenue de la maladie, dont la cause reste inconnue dans les autres cas.

L'observation d'une association entre la maladie de Parkinson et la maladie de Gaucher a conduit à suspecter l'existence d'un lien entre ces 2 pathologies, pourtant très différentes dans leurs manifestations. Etant donné la fréquence de syndromes parkinsoniens et la présence de corps de Lewy chez les patients et leurs apparentés atteints de la maladie de Gaucher, plusieurs équipes ont recherché des mutations dans le gène GBA, le gène responsable de la maladie de Gaucher, chez des patients d'origines géographiques très diverses, présentant un syndrome parkinsonien.

Ces études de cas et de témoins ont montré une association significative entre les mutations à l'état hétérozygote (sur une seule copie) du gène GBA, et la maladie de Parkinson, en particulier dans les populations d'origine juive ashkénaze où elles représentent ~20 % chez les patients contre ~5 % chez les témoins.

Suzanne Lesage et Alexis Brice ont mené une étude d'association à grande échelle, en analysant l'ensemble du gène GBA dans une cohorte de 1390 patients atteints de la maladie de Parkinson (785 patients avec une histoire familiale de la maladie et 605 cas isolés) et 391 témoins sains, provenant du réseau d'étude génétique de la maladie de Parkinson. Les mutations sont plus fréquentes chez les patients parkinsoniens (6,7 %) que chez les témoins (1 %) avec un risque de développer la maladie multiplié par 7 chez les porteurs, par rapport aux témoins. La fréquence des mutations du gène GBA est plus élevée dans les formes familiales (8,4 %) que dans les cas isolés (5,3 %).

Les patients porteurs de mutations du gène GBA présentent une maladie de Parkinson très similaire à la maladie habituelle dite «idiopathique». Cependant, les patients porteurs de mutations du gène GBA responsables de formes sévères de maladie de Gaucher ont un âge de début de la maladie plus précoce (40±10 ans) que ceux porteurs de mutations conduisant à des formes moins sévères de maladie de Gaucher (52±12 ans).

Cette première étude à grande échelle montre que les mutations du gène GBA, présentes chez 7 % des patients en France, constituent un facteur de risque important pour la maladie de Parkinson, en particulier dans les formes familiales. Reste maintenant, pour Alexis Brice et ses collaborateurs, à comprendre le mécanisme physiopathologique qui relie la maladie de Gaucher à la maladie de Parkinson.

CNRS

Une nouvelle cible thérapeutique dans le traitement de l'asthme
Vendredi, 05/11/2010 - 00:00

Chez les personnes asthmatiques, certaines cellules du système immunitaire qui assurent en temps normal la défense de l'organisme contre les virus et les bactéries s'accumulent dans les poumons. Leur présence dans cet organe déclenche une inflammation chronique à l'origine des symptômes bien connus de l'asthme. Comment ces cellules s'infiltrent, se logent et survivent dans les poumons ?

Des chercheurs de l'Inserm au sein de l'Unité 924 "Immunologie des maladies infectieuses allergiques et autoimmunes" à l'Université de Nice, ont étudié de près les poumons de souris asthmatiques pour comprendre leur particularité. Ils ont découvert une molécule (CX3CR1) dont le rôle est déterminant dans le développement de l'asthme. Les résultats de ces travaux paraissent en ligne dans la revue Nature Medicine datée du 1er novembre 2010.

L'asthme allergique est une maladie chronique qui touche les voies aériennes supérieures et affecte plus de 300 millions d'individus dans le monde dont 1 million en France. Alors que cette pathologie était quasiment inexistante à la fin du 19ème siècle, la prévalence mais aussi la sévérité de l'asthme se sont fortement accrues au cours des dernières années. Sa recrudescence représente un coût économique important d'autant que son traitement reste purement symptomatique.

Chez les patients asthmatiques, des cellules du système immunitaire appelées lymphocytes T quittent la circulation sanguine, migrent dans les tissus pulmonaires et produisent des substances à l'origine de l'état inflammatoire et des symptômes cliniques. Toutefois, les mécanismes à l'origine de leur recrutement et surtout de leur survie dans les poumons restaient inconnus.

Les chercheurs de l'Inserm ont montré que les lymphocytes T présents dans les poumons expriment à leur surface une protéine particulière appelée CX3CR1. En étudiant des souris mutantes qui n'expriment pas cette molécule, ils ont montré que celle-ci jouait un rôle déterminant dans le développement de l'asthme en prolongeant la survie des lymphocytes T qui infiltrent les poumons.

Ces travaux démontrent non seulement que CX3CR1 joue un rôle dans l'apparition de l'asthme, mais également que cette molécule agit, non pas pour permettre la migration des lymphocytes T dans les poumons, mais pour augmenter leur survie.

Ce résultat pourrait avoir des retombées importantes dans le domaine médical car il suggère que des médicaments capables de bloquer CX3CR1 pourraient entraîner la mort des cellules T qui infiltrent les voies respiratoires et qui sont à l'origine de la maladie. "De même que les autres traitements utilisés par les patients asthmatiques, ces médicaments pourraient être administrés localement sous forme d'aérosols à des patients allergiques." concluent les auteurs de cette étude.

Inserm

Le mécanisme des filets d'ADN élucidé
Vendredi, 05/11/2010 - 00:00

Les granulocytes neutrophiles sont les globules blancs du sang les plus abondants. Chez les mammifères, ils forment une des premières lignes de défense de l'immunité innée contre les bactéries, les champignons ou les parasites qui ont franchi la barrière de la peau ou des muqueuses. Ils englobent les intrus (phagocytose) et les tuent grâce à diverses substances libérées par les nombreux granules qui parsèment leur cytoplasme, et à l'aide de formes réactives de l'oxygène (molécules chimiquement réactives contenant de l'oxygène) ; après quoi ils meurent et sont évacués par des globules blancs « éboueurs », les macrophages.

En 2004, l'équipe de Volker Brinkmann et Arturo Zychlinsky, de l'Institut Max Planck de biologie des infections de Berlin, a découvert que les neutrophiles émettent en outre dans le milieu extracellulaire des filaments composés d'ADN et de protéines lorsqu'ils sont activés. Ces filaments de 15 nanomètres de diamètre forment un filet, ou NET (neutrophil extracellular trap, net = filet en anglais), qui piège et détruit les envahisseurs. Cette équipe décrit aujourd'hui les mécanismes qui permettent la formation d'une telle structure.

Le groupe berlinois avait montré que les filets pièges contiennent, outre de l'ADN et des histones (protéines associées à l'ADN dans le noyau cellulaire sous forme de chromatine), des enzymes, telle l'élastase, qui inhibent les facteurs de virulence des bactéries et sont bactéricides.

Les mêmes chercheurs ont montré par la suite que le filet se forme lorsque la cellule meurt sous l'action de formes réactives de l'oxygène, sa membrane se rompant brusquement. Cette mort, ou NETose - par analogie avec d'autres formes de mort cellulaire, la nécrose et l'apoptose (on ne parle pas encore de « filetose » en français) -, peut donc être comparée à un suicide cellulaire permettant au neutrophile d'être une dernière fois utile grâce à son filet antimicrobien.

Venizelos Papayannopoulos et ses collègues berlinois montrent aujourd'hui que l'élastase joue un rôle moteur dans le « déballage » de l'ADN du noyau. Ils ont créé un système expérimental réunissant in vitro des noyaux de neutrophiles intacts et des extraits de cytoplasmes. À l'aide d'inhibiteurs, ils ont alors testé l'action de différentes molécules identifiées dans les filets. L'élastase apparaît comme l'agent déclencheur du processus.

Libérée, sous l'effet de formes réactives de l'oxygène, par des granules cytoplasmiques dits azurophiliques, l'élastase gagne le noyau où elle suffit à dégrader partiellement les histones qui maintiennent l'ADN sous la forme d'une pelote condensée. Une autre enzyme, la myéloperoxydase, pénètre à son tour dans le noyau et stimule la décondensation, c'est-à-dire le déploiement de la fibre d'ADN.

Les chercheurs ont exposé à des bactéries pathogènes, Klebsiella pneumoniae, des souris normales et des souris dont le gène de l'élastase avait été inactivé. Ils ont observé que les neutrophiles se concentraient alors dans les voies aériennes et les poumons 48 heures après l'infection. Mais seuls ceux des souris normales montraient des filets témoignant d'une activité antibactérienne, ce qui confirme le rôle essentiel de l'élastase in vivo.

Il reste à démontrer plus complètement que les filets d'ADN et de protéines des neutrophiles ont une fonction physiologique in vivo, ce que l'on pourrait faire par imagerie grâce à des marqueurs fluorescents, souligne Jamel El Benna, directeur de Recherche au CNRS au Centre de recherche biomédicale Bichat-Beaujon (INSERM U773, Paris).

PLS

La marche est bonne pour le cerveau
Vendredi, 05/11/2010 - 00:00

Une nouvelle étude révèle que le fait de marcher environ 9,5 kilomètres par semaine peut aider à la bonne santé de votre cerveau sur le long terme. Une recherche publiée dans l'édition du 13 octobre de la version Internet de Neurology suggère que la marche pourrait éviter au cerveau des personnes âgées de rétrécir et de ce fait pourrait préserver la mémoire des personnes vieillissantes.

«La taille du cerveau rétrécit avec l'âge, ce qui peut entraîner des problèmes de mémoire», explique l'auteur de l'étude Kirk Erickson de l'Université de Pittsburgh (États-Unis) dans un communiqué de presse. Et d'ajouter, «nos résultats devraient encourager les essais bien encadrés d'exercice physique chez les personnes âgées comme des approches prometteuses pour éviter la démence et la maladie d'Alzheimer».

Pour l'étude, l'équipe de chercheurs à demandé à 299 seniors sans problèmes de démence d'enregistrer le nombre de kilomètres qu'ils parcouraient chaque semaine. Après neuf ans, les scientifiques ont scanné les cerveaux des participants pour en mesurer la taille. Quatre années plus tard, les participants furent testés pour voir s'ils n'avaient pas développé de signes de démence.

Au bout de neuf ans, les personnes qui parcouraient environ 9,5 kilomètres par semaine avaient plus de matière grise que les personnes qui marchaient moins. Quatre années plus tard, les chercheurs ont découvert que les sujets qui parcouraient le plus de kilomètres à pieds avaient divisé leur risque de développer des problèmes cérébraux par deux.

CP

Vitamine D : la schizophrénie aussi !
Vendredi, 05/11/2010 - 00:00

Certains travaux suggèrent que la vitamine D se trouve vraisemblablement impliquée dans le déterminisme de la schizophrénie : un faible taux (prénatal et néonatal) de cette vitamine semble en effet associé à un risque accru de la maladie. Cette conviction s'appuie notamment sur plusieurs indices épidémiologiques : association entre la fréquence de la schizophrénie et le mois de naissance (les sujets nés en hiver et au printemps sont « faiblement mais significativement » plus sensibles), effet probable de l'ensoleillement sur cette association (car son intensité dépend de la distance à l'équateur) et de la couleur de la peau (les sujets avec une peau sombre comme les migrants africains se montrent plus vulnérables), parallèle entre la saison de naissance et le profil clinique (les sujets nés en été ont un syndrome déficitaire plus marqué)...

Émanant d'une coopération entre des chercheurs danois et australiens, une étude sur 424 patients schizophrènes et 424 sujets-contrôles approfondit donc l'examen de cette association entre le métabolisme précoce de la vitamine D et un risque ultérieur de schizophrénie.

La carence en vitamine D est définie par un taux de 25-hydroxy-vitamine D3 (cholécalciférol) inférieur à 75 nmol/l. Comme ils s'y attendaient, les auteurs confirment cette incidence d'un faible taux de vitamine D sur la probabilité de schizophrénie (multiplication du risque par 2).

Mais un phénomène de sérendipité (réaliser une découverte inattendue au cours d'une recherche dirigée initialement vers un objet différent de cette découverte) vient aussi surprendre les chercheurs, car ils observent aussi, de façon inattendue, l'impact également fâcheux d'un taux élevé de vitamine D sur ce même risque de psychose !

Cette découverte suggère d'une part que le métabolisme de la vitamine D intervient dans le neurodéveloppement normal ou son dysfonctionnement, et que sa surveillance (voire sa correction thérapeutique) constitue une piste prometteuse pour une éventuelle prévention (partielle) dans l'apparition de la schizophrénie.

JIM

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Voiture électrique : vers la recharge urbaine
Vendredi, 05/11/2010 - 00:00

Tout le monde s'accorde sur un constat : la voiture électrique va modifier la mobilité urbaine. Mais comment ? Sur la voirie, faudra-t-il réserver des places de stationnement à l'électrique ? Comment contrôler leur disponibilité ? Comment gérer le paiement ? Parkeon (spécialiste des horodateurs) et Schneider (gestion de l'énergie) se sont associés. A la clé, les premiers éléments sur ce que pourrait être demain la recharge en ville de la voiture électrique.

Leur borne sera soit autonome. Elle gèrera alors 1 ou 2 places de stationnement. Soit couplée à un horodateur Parkeon. Dans ce cas, un seul paiement suffira pour le stationnement et la recharge, directement sur l'horodateur. Pour optimiser les coûts de raccordement au réseau et la visibilité dans la ville, l'idéal serait de raccorder 6 places de stationnement sur un même horodateur.

Reste à gérer les flux de données. Selon Parkeon, le gestionnaire (la municipalité ou un prestataire) aura un état des lieux en temps réel. Il saura quelles bornes sont utilisées et à quelle puissance. Captées au niveau de la borne, les informations seront transmises à l'horodateur. Pour les premières versions, la liaison sera filaire par Ehernet. De l'horodateur, les données seront transmises par un modem GPRS ou 3G jusqu'aux serveurs informatiques de Parkeon, à Besançon. Parkeon hébergera lui-même les données et offrira, par le web, un accès à divers services pour le gestionnaire.

La puissance disponible sera connue à chaque point de raccordement avec le réseau électrique. Elle sera répartie selon le nombre de places et, sur chacune, selon la demande des automobilistes. Ils auront en effet le choix entre des puissances de charge comprises entre 3 et 22 kW.

Au-delà de cette gestion "intelligente" de l'énergie, l'idée est d'offrir une allocation dynamique des places de stationnement. Le principe : un certain nombre de bornes seront installées dans la ville, sans toutes être réservées à l'électrique. D'un jour de la semaine à l'autre, la proportion ouvertes aux motorisations thermiques pourra changer. Durée de stationnement, abonnements pour les résidents... Pour Parkeon, le principe sera de s'adapter aux politiques de chaque municipalité. A condition, d'abord, qu'elles décident d'investir...

IC

600 km sans recharge : le plus long trajet parcouru par un véhicule électrique
Vendredi, 05/11/2010 - 00:00

Dans le cadre d'un projet de démonstration financé par le Ministère fédéral de l'économie et de la technologie (BMWi), un véhicule électrique adapté par l'entreprise DBM Energy a parcouru dans la nuit du 25 au 26 octobre la distance de 600 km sans recharge, établissant ainsi un nouveau record mondial. L'Audi A2 a relié Munich à Berlin en 7 heures environ, sans arrêt, par des températures proches de 0°C.

Le véhicule était équipé d'une nouvelle batterie de forte puissance à base de Lithium-métal-polymère, développée par DBM Energy, et d'un système intelligent de gestion de la batterie. La voiture dispose, tout comme un véhicule conventionnel, de 4 places assises et d'un coffre, et est équipée d'accessoires tels que la climatisation, une radio, etc. Cette technologie de batterie est utilisée depuis un an dans le domaine de la logistique, et a apporté entière satisfaction.

Rainer Brüderle, Ministre fédéral de l'économie et de la technologie, s'est exprimé en ces termes : "Toutes mes félicitations à l'entreprise technologique DBM Energy ! Notre soutien financier à ce projet a porté ses fruits. Le record de distance établi vient démontrer que parcourir 600 km avec un véhicule électrique ne relève pas de l'utopie.

Aucune voiture au monde n'avait à ce jour réalisé une telle performance. La technologie de batterie développée en Allemagne a le potentiel de mener notre pays à une position de leader sur le marché de l'électromobilité. Il s'agit maintenant d'amener cette technologie de batterie à haute efficacité vers une production de série en Allemagne, et de la rendre disponible pour un emploi à grande échelle dans des véhicules électriques."

BE

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top