RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 467
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 06 Mars 2008
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
FTTH Council : la fibre optique au service de l'environnement
Le Japon lance un satellite expérimental d'accès à internet ultra haut débit
Microsoft s'engage sur la voie de l'interopérabilité
Avenir
Quand l'ordinateur reflète la forme humaine
3G : 98 % de la population couverte en 2009 grâce aux fréquences du GSM
Matière
Des bulles nanoscopiques contre la rouille ?
La plus grande centrale solaire du monde va être construite en Arizona
Comment s'inspirer de la nature pour concevoir les cellules solaires du futur ?
La maison "Inov" : une maison du futur montée en 3 heures
9 litres d'hydrogène dans une boîte d'allumettes
Terre
Réchauffement climatique : les glaciers des Alpes ont diminué des deux tiers
Vivant
Internet : l'Encyclopédie de la Vie est en ligne
Cafés et restaurants sans tabac : premiers bénéfices sur la santé
Des chercheurs américains parviennent à séquencer le génome du maïs
La viande rouge augmente le risque de cancer
Prédire le début de la schizophrénie
Stimuler le cerveau, une arme contre le vieillissement et contre certaines maladies
Edito
Les matériaux autoréparateurs vont révolutionner notre vie quotidienne



Une nouvelle matière élastique qui se répare d'elle-même sans être collante et ouvre la voie à la fabrication de produits "autocicatrisants" a été mise en point par des chercheurs français, qui publient leurs résultats dans la revue Nature. Cette matière, synthétisée à partir d'acide gras d'origine végétale, est composée de petites molécules qui s'assemblent en réseaux supramoléculaires lesquels, s'ils sont rompus, se réassemblent d'eux-mêmes pour retrouver leur forme et leur élasticité initiales.

A température ambiante, le matériau se comporte comme un caoutchouc. A température plus élevée (130-150°C) il est capable de s'écouler et il peut être mis ou remis en forme. Les chercheurs ont utilisé des mélanges d'acides gras disponibles en large quantité et variétés, ce qui rend le produit économique. Les produits sont d'origine végétale (pin, tournesol, maïs, colza) essentiellement non toxiques et renouvelables, ce qui les rangent dans la catégorie des matériaux de la chimie verte.

Les chercheurs ont aussi constaté que ce design à partir de petites molécules conférait au matériau la possibilité de se réparer spontanément. Ces caoutchoucs supramoléculaires ne sont pas adhésifs, mais après coupure, les surfaces se recollent si on les remet en contact, sans qu'il soit nécessaire de chauffer ou d'appliquer une forte pression. Une fois réparé, l'échantillon est de nouveau capable de tolérer des déformations considérables (de 100 à 400 %) avant de se rompre de nouveau. Fait remarquable, ce processus peut être répété plusieurs fois, la réparation peut s'effectuer plusieurs heures après l'endommagement.

Le groupe chimique Arkema (ex-pôle chimie de Total) mène avec le laboratoire Matière Molle et Chimie depuis 2000 des recherches conjointes dans le domaine de la chimie des matériaux supramoléculaires et a commencé à développer des applications industrielles en 2004. Dans un communiqué, Arkema envisage, grâce à la chimie supramoléculaire, la fabrication de "toutes sortes d'articles qui après s'être cassés ou fissurés, pourraient être réutilisés grâce à l'auto-cicatrisation".

"On a deux familles de produits prêts à être mis sur le marché" dont le développement est plus avancé que celui des caoutchoucs, a déclaré Manuel Hidalgo, chercheur chez Arkema. La première concerne les bitumes, qui utilisent comme dans le cas des caoutchoucs des molécules d'origine végétale. Pour obtenir des mélanges de polymères qui offrent une meilleure résistance pour la construction de routes que ceux fabriqués à base d'hydrocarbures, "on associe les molécules, par exemple d'huiles végétales, pour leur donner une forme solide à température ambiante", a expliqué M. Hidalgo.

Dans cette famille de produits se trouvent aussi des adhésifs, des vernis et des peintures. La fabrication se fait à des températures plus basses, donc plus économes en énergie. La deuxième famille concerne des plastiques faits de molécules plus grandes, associées comme ceux de la première famille par des liaisons moléculaires non permanentes, offrant une meilleure biodégradabilité et dont l'avantage est d'être plus résistants aux solvants.

Ces deux catégories de produits devraient être mis sur le marché "d'ici un à deux ans", selon M. Hidalgo qui envisage déjà, grâce à la chimie supramoléculaire, la fabrication de toutes sortes d'articles qui après s'être cassés ou fissurés, pourraient être réutilisés grâce à l'autocicatrisation. Les chercheurs envisagent ainsi des joints d'étanchéité, des vêtements ou même des pièces de moteur dont les trous pourraient se refermer eux-mêmes. "Si vous percez un joint d'étanchéité dans un mur, il va se réparer tout seul. Tout ce qui travaille dans la compression, comme les joints de structure, les revêtements suceptibles de se rayer, est concerné", a expliqué Ludwik Leibler, directeur du laboratoire Matière molle et chimie, une unité du CNRS, et de l'ESPCI, une école d'ingénieurs parisienne.

Il est remarquable de constater que ces travaux novateurs sont issus d'un partenariat exemplaire entre recherche privée et publique et s'inscrivent dans une approche résolumment interdisciplinaire. Souhaitons que la France sache garder son avance technologique et industrielle dans ce domaine stratégique qui révolutionnera demain notre vie quotidienne.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
FTTH Council : la fibre optique au service de l'environnement
Vendredi, 07/03/2008 - 00:00

Ecologique la fibre optique ? Selon des recherches menées par Price Waterhouse Coopers (PwC) et le Comité de Développement Durable, et présentées lors du FTTH Council qui s'est tenu à Paris les 27 et 28 février 2008, "l'impact environnemental final du FTTH sera positif dans moins de 15 ans" en Europe.

Pour avancer cette conclusions, les recherches se sont concentrées sur l'étude de l'impact environnemental d'un réseau FTTH (Fiber to the Home) à ses avantages associés. L'usage du très haut débit à domicile et dans les entreprises contribuera à "la réduction du déplacement routier, à la diminution d'infrastructures de transport, et à l'introduction de services sociaux et gouvernementaux innovants".

L'implantation du réseau optique sur ses 15 premières années d'activité en regard de 20 millions de bénéficiaires (pour 2015 selon les projections de l'Idate) réduirait de 330 kg d'émission de gaz à effet de serre par utilisateur. Soit l'équivalent d'une voiture parcourant 2000 Km environ. En d'autres termes, en multipliant les services de téléassistance et le travail à distance, le très haut débit réduirait les déplacements physiques et, donc, les pollutions environnementales qui les accompagnent.

La consommation énergétique liée à son fonctionnement ne représenterait que 6 % de l'impact total environnemental. Tandis que sa construction s'élève à plus de 80 %. Mais les innovations continuelles rendront les processus de déploiement "moins coûteux, plus rapides, et moins perturbateurs". Et Christian Ollivry, président du Comité SUDEFIB du FTTH Council de conclure que "au delà de cette période de 15 ans, qui est assez raisonnable, ces recherches montrent que le FTTH n'apporte que des points positifs à l'Europe". Vive la fibre, donc.

VUNet

Le Japon lance un satellite expérimental d'accès à internet ultra haut débit
Vendredi, 07/03/2008 - 00:00

Le Japon a lancé un satellite expérimental qui testera les possibilités d'accès à internet à ultra haut-débit et sans relais terrestre depuis presque n'importe quel point d'Asie, dans le but final de réduire la "fracture numérique". "Kikuna", qui coûte 342 millions de dollars, est un engin expérimental. Il doit permettre l'accès à internet et l'échange de données à très haut débit sans dépendre d'infrastructures terrestres.

L'expérience doit durer cinq ans. L'ambition ultime est la mise en place d'un dispositif pour effacer les "zones blanches", à savoir les régions démunies en infrastructures et donc non couvertes par un réseau de données rapide, dans la majeure partie de l'Asie-Pacifique, selon la Jaxa. L'envoi et la réception de données s'effectueront via un émetteur/récepteur associé à une antenne parabolique, comme celles utilisées pour capter en direct les bouquets de télévision diffusés par satellite.

En théorie, ce système expérimental permettra de recevoir les données à un débit de 1,2 gigabit par seconde (Gbit/s), ce qui constitue, selon la Jaxa, une première mondiale. Ce "débit théorique crête" correspond à 150 fois une liaison ADSL de débit moyen (8 mégabit/s), ou encore à douze fois la vitesse descendante d'un accès par fibre optique directe jusqu'au foyer (FTTH). Cependant, pour obtenir une telle vitesse, il faut une antenne parabolique de 5 mètres de diamètre, ce qui est difficilement réalisable pour le grand public. Avec un modèle de 45 centimètres (petite taille classique), le débit de réception théorique est de 155 mbit/s, soit une fois et demie celui de la fibre FTTH, solution la plus performante à l'heure actuelle pour les particuliers.

"Kizuna" sera pour sa part équipé de divers types d'antennes, dont un exemplaire dit "à commande de phase" dont les paramètres peuvent être ajustés de façon à faire varier le diagramme de rayonnement. Cette fonctionnalité permet de renforcer les capacités sur une zone donnée en fonction des besoins, ce qui peut par exemple être utile en cas de catastrophe naturelle ayant endommagé les infrastructures au sol.

Le mot "Kizuna", qui signifie "liens" en japonais, a été choisi par le grand public nippon au terme d'un appel à suggestions lancé par la Jaxa. Selon l'Agence, le choix de ce mot symbolise "le grand espoir que ce satellite permettra de créer des liens entre les gens".

Le satellite travaillera dans la bande de fréquence dite "Ka". Cette dernière étant facilement perturbée par les pluies violentes ou les barrières de nuages, les ingénieurs de la Jaxa ont aussi conçu des équipements d'amplification de signaux dont cette expérimentation grandeur nature permettra de valider l'efficacité.

Yahoo

Microsoft s'engage sur la voie de l'interopérabilité
Vendredi, 07/03/2008 - 00:00

L'éditeur de Redmond annonce une série de mesures destinées à rendre ses technologies plus ouvertes. Il va notamment simplifier l'accès aux protocoles de communication de Windows, aux interfaces de programmation de ses produits (API), et va fournir gratuitement plus de documentation technique.

« Notre but est de favoriser une plus grande interopérabilité, de plus grandes possibilités et un plus grand choix pour nos clients et pour les développeurs, en rendant nos produits plus ouverts et en partageant encore plus d'informations à propos de nos technologies », a indiqué Steve Ballmer, P-DG du groupe.

Concrètement, Microsoft va publier sur son site les spécifications techniques des interfaces et des protocoles de communication de ses produits grand public, dont Windows Vista. Ces données pourront être utilisées gratuitement par les tiers. Dans les prochains mois, le groupe va également publier 30 000 pages de documentation concernant notamment Office 2007.

Il précisera également la nature des technologies protégées par des brevets, et s'engage à réclamer des royalties « raisonnables » aux développeurs qui souhaiteraient les utiliser. Microsoft s'engage également à ne pas poursuivre les développeurs open source qui utilisent ses protocoles. Il réclamera simplement un accord de licence si les produits développés font l'objet d'une exploitation commerciale.

ZDNet

^ Haut
Avenir
Nanotechnologies et Robotique
Quand l'ordinateur reflète la forme humaine
Vendredi, 07/03/2008 - 00:00

L'ordinateur se dote d'un visage pour mieux interagir avec l'homme. C'est le concept original de Wizid, un système d'information aux allures de robot. Prochainement présenté au Musée d'art moderne de New York, celui-ci se présente sous la forme d'une unité centrale surmontée d'un "cou" mécanique au bout duquel on trouve un écran plat numérique. L'écran en question - sur lequel a été adaptée une mini-caméra - fait office d'interface à partir de laquelle il est possible d'échanger avec Wizkid, ce sans contact physique avec l'appareil. Ce sont en effet les mouvements du corps et de la main qui permettent d'interagir avec le dispositif.

Cette interface visuelle renvoie l'image de la personne en présence comme le ferait un miroir. L'utilisateur qui se voit ainsi sur l'écran peut dès lors manipuler les objets affichés à l'écran d'un geste de la main. Désignée par le nom de Halo - comprendre "qui entoure l'utilisateur" -, l'interface graphique est composée de widgets et autres éléments interactifs pouvant être sélectionnés sur ce mode naturel. L'originalité du dispositif repose en outre sur sa faculté à réagir en fonction de son environnement. Grâce à une technologie de reconnaissance visuelle, l'appareil identifie le visage des personnes et les suit "du regard" lors de leurs déplacements, un des avantages que confère l'appendice mécanique qui équipe Wizkid. A noter : le dispositif embarque des technologies Bluetooth, Wi-Fi, d'émetteur/récepteur infrarouge ainsi qu'un lecteur RFID.

"Wizkid nous éloigne du clavier pour revenir dans un contexte physique. Nous ne sommes donc pas obligés de nous adapter à la machine. La démarche est sociale et multi-utilisateurs", explique Kaplan, chercheur au Laboratoire CRAFT à Lausanne. L'appareil pousse même le réalisme jusqu'à essayer de deviner les liens unissant deux personnes situées dans son champ visuel. Selon qu'il détecte une relation d'amitié ou autre, Wizkid exprime de la joie, de la surprise ou encore de la confusion via ses "mouvements de tête", indiquent ses créateurs. Autre exemple d'interaction : le dispositif peut porter son attention sur une personne en train de discourir parmi plusieurs autres.

Atelier

3G : 98 % de la population couverte en 2009 grâce aux fréquences du GSM
Vendredi, 07/03/2008 - 00:00

L'Arcep accède enfin aux demandes des opérateurs mobiles concernant la réutilisation de la bande des 900 MHz. Elle les autorise à exploiter la fréquence traditionnelle du GSM pour faciliter leur déploiement de la 3G. SFR et Orange seront donc en mesure de respecter les obligations figurant dans leurs licences 3G, de respectivement 99,3 % et 98 % de population couverte d'ici au 21 août 2009.

Bouygues Telecom, de son côté, déploiera également l'UMTS dans la bande 900 MHz d'ici la fin 2009, « et demandera la modification de son autorisation en temps utile », ajoute le régulateur. La prochaine échéance de couverture prévue - 75 % - dans la licence 3G de l'opérateur interviendra en décembre 2010. Avec l'exploitation de la bande des 900 MHz, les opérateurs assurent une couverture plus large et à moindre coût, grâce à des antennes à plus longue portée.

Aujourd'hui, la 3G exploite la bande de fréquence des 2,1 GHz, dite « haute ». Techniquement, plus la fréquence est haute, plus les antennes ont une portée réduite. Ainsi, une antenne 3G émet seulement dans un rayon de quelques kilomètres. À l'inverse, une antenne GSM traditionnelle peut couvrir 30 km en zone rurale sur la bande basse des 900 MHz. Un réseau 3G exploitant les 900 MHz aura une portée du même ordre, nécessitant donc moins d'antennes. Ensuite, les fréquences basses permettent une meilleure pénétration dans les bâtiments, et les opérateurs peuvent réutiliser les sites aujourd'hui exploités pour le GSM.

Techniquement, il est tout à fait possible d'utiliser l'UMTS sur les bandes GSM ; des prototypes d'équipements réseaux et même de combinés ont déjà été présentés par les fabricants. Pour les analystes, l'exploitation effective est attendue à l'horizon 2010. « Le trafic 2G sera alors suffisamment en baisse pour laisser sa place sur les fréquences à la 3G.

ZDNET

^ Haut
Matière
Matière et Energie
Des bulles nanoscopiques contre la rouille ?
Vendredi, 07/03/2008 - 00:00

Une scientifique de l'Université de Stuttgart, Claudia Dos Santos, est parvenue à insérer de minuscules bulles d'huile et d'antirouille à la surface de métaux. Ceci peut permettre à une surface de se réparer d'elle-même lorsqu'elle présente une rayure ou des traces d'abrasion. Pour cela, Dos Santos a réalisé des galvanisations du métal dans des bains de nickel, de cuivre ou de zinc contenant les bulles. Le point capital dans la réussite de cette opération consiste à répartir de manière homogène, dans une couche de métal allant de 10 à 100 micromètres, les bulles sans qu'elles n'éclatent.

Les bulles ont été produites à Duisbourg, recouvertes d'une mince peau garantissant leur stabilité. Plusieurs applications sont envisageables : non seulement ces bulles peuvent servir d'antirouille, mais elles peuvent aussi permettre de graisser des pièces en mouvement dans des machines, soumises à des frottements. Pour ce projet soutenu à hauteur de 435.000 euros par la fondation Volkswagen, Dos Santos a bénéficié du savoir et d'un matériel de haute performance au sein de l'Institut Fraunhofer de productique et d'automatisation.

BE

La plus grande centrale solaire du monde va être construite en Arizona
Vendredi, 07/03/2008 - 00:00

Le groupe espagnol de BTP Abengoa va construire en Arizona la plus grande centrale solaire du monde, qui entrera en service en 2011 et pourra alimenter l'équivalent de 70.000 foyers en électricité, selon un communiqué. Le contrat a été conclu entre Abengoa Solar, filiale du groupe espagnol, et l'entreprise publique de l'Etat d'Arizona, Arizona Public Service (APS). Il prévoit la livraison d'électricité durant trente ans, ce qui devrait générer un chiffre d'affaires total de 4 milliards de dollars pour Abengoa.

La capacité de la centrale sera de 280 mégawatts (MW), produits grâce au procédé de concentration des rayons solaires sur une chaudière. La centrale sera située à une centaine de kilomètres au sud-ouest de Phoenix, la capitale de cet état désertique et très ensoleillé. Cette centrale va permettre la création de 1500 emplois et s'inscrit dans le cadre de la politique énergétique de l'Arizona qui vise à produire 15 % de son énergie de manière propre d'ici 2025.

APS

Comment s'inspirer de la nature pour concevoir les cellules solaires du futur ?
Vendredi, 07/03/2008 - 00:00

Une équipe de chercheurs de la chaire de Chimie Physique de l'Université Ludwig-Maximilian de Munich (LMU) a montré qu'il était possible d'améliorer considérablement la capacité naturelle d'absorption lumineuse des plantes en introduisant des nanoparticules d'argent dans les pigments responsables de cette absorption. Cette découverte, à laquelle ont également participé des chercheurs de l'Université américaine de Ohio, pourrait s'avérer significative pour le futur développement de cellules photovoltaïques innovantes, qui fonctionneraient sur l'exemple biologique d'exploitation photosynthétique de l'énergie solaire.

La capture de l'énergie lumineuse pour la plante s'effectue grâce à des antennes collectrices ou LHC qui sont des complexes multi-protéiques et pigmentaires capables d'intercepter les photons de différentes longueurs d'onde, c'est-à-dire d'énergies variées. Les mesures expérimentales menées par les scientifiques du LMU ont été effectuées sur un LHC particulier présent chez certaines algues marines (du type Amphidinium carterae) : le complexe péridinine-cholorophylle (PCP).

Déposé sur un support en verre recouvert d'îlots de nanoparticules d'argent, le PCP a été exposé à une lumière laser (dans le domaine des longueurs d'onde bleu-vert) afin d'en déterminer par la suite la capacité absorbante à l'aide d'un spectromètre à fluorescence. L'expérience a révélé une intensité fluorescente du signal mesuré jusqu'à 18 fois supérieure pour le PCP modifié que pour le PCP naturel. Par ailleurs, aucune altération de la structure protéique du PCP n'a été observée.

BE

La maison "Inov" : une maison du futur montée en 3 heures
Vendredi, 07/03/2008 - 00:00

Première entreprise en France à réaliser des maisons modulaires, Bodard Construction voit en ce début d'année 2008 plus de 100 maisons inscrites sur son carnet de commandes... alors que la production commence tout juste, la première maison étant encore en fabrication sur le site de l'usine à La Mothe-Achard en Vendée. Spécialisé à la base dans les bâtiments préfabriqués, le fabricant a voulu adapter le modulaire à la maison individuelle. Pascal Boutet, le PDG de l'entreprise, a relevé ce défi en 3 ans en créant la maison "Inov".

D'abord fabriqués en usine, les modules de 3,5 sur 7 mètres sont livrés par camion, puis montés et assemblés par grue en 3 heures seulement. Comptez ensuite une semaine pour les raccordements comme l'électricité et la plomberie, et la maison est prête à l'emploi ! Cette prouesse de rapidité est aussi valable pour les préparatifs : entre la commande et la remise des clefs, 3 mois seulement suffisent à réaliser une maison.

Outre cet avantage, le pré-assemblage en usine présente aussi un intérêt écologique, avec moins de problèmes de chantier et de pollution. le client peut tout choisir, jusqu'à la version "prête à finir", où il pose lui-même son sol, réalise ses murs, etc. La maison s'adapte à tous les budgets : comptez 108 000 ? TTC pour un modèle de 90 m² sans patio, 145 000 ? avec patio, ou encore 176 000 ? pour le modèle de 110 m².

Conçue dans une démarche HQE® (de Haute Qualité Environnementale), ces maisons de la filière sèche d'une nouvelle génération sont en avance sur les sujets thermiques, acoustiques et écologiques. Elles bénéficient du label "Très Haute Performance Energétique". Elles se distinguent par un ensemble de matériels et techniques d'isolation performants, tels que le complexe plancher, avec une mousse polyuréthane de 60 mm d'épaisseur, ou encore les murs, avec 200 mm d'isolant en laine de verre intégré dans 2 couches de bois. Les maisons se trouvent aussi équipées de panneaux rayonnants électriques pour le chauffage et de panneaux solaires pour la production d'eau chaude sanitaire. Des équipements avec des conséquences directes sur les factures : la consommation d'énergie reviendrait alors à 649 ? par an, abonnement compris.

L'intégration du poêle à bois est également possible, ainsi que l'installation de panneaux photovoltaïques permettant de revendre la production d'électricité. En 2009, Bodard Construction prévoit même de réaliser des maisons "passives", qui se passent d'un système de chauffage conventionnel et de climatisation, notamment grâce aux panneaux photovoltaïques.

int

9 litres d'hydrogène dans une boîte d'allumettes
Vendredi, 07/03/2008 - 00:00

Le professeur Shin-ichi ORIMO du Institute for Material Research de l'université de Tohoku a mis au point en collaboration avec Japan Steel Works un réservoir de la taille d'une boîte d'allumettes pouvant relâcher jusqu'à 9 litres d'hydrogène. L'hydrogène est stocké dans un réservoir en aluminium sous forme de particules d'aluminium hydrogéné, molécule développée par le groupe de recherche. Lorsqu'il est chauffé à 80°C le composé relâche de l'hydrogène sous forme de gaz. Expérimentalement, on a pu extraire 9,3 litres d'hydrogène d'un réservoir mesurant 4 cm x 6 cm et d'une épaisseur de 5,5 mm. Ceci représente une contenance supérieure de 43 % par rapport à l'alliage lanthane-nickel (LaNi5) habituellement utilisé pour le stockage de l'hydrogène.

Le groupe espère améliorer les propriétés du système afin que l'aluminium hydrogéné libère le gaz à 60°C, ce qui permettrait une utilisation directe de la chaleur rejetée par les appareils électroniques et donc une alimentation par piles à combustibles d'instruments portables comme les téléphones ou les ordinateurs. Une fois que l'hydrogène a été libéré, il ne reste plus que de l'aluminium. Ce processus étant irréversible, les réservoirs seraient employés comme des cartouches à utilisation unique. La mise en application de la technologie se fera au plus tôt dans trois ans.

Japan Steel Works espère également utiliser cette technologie pour développer des réservoirs destinés à des véhicules roulant grâce à des piles à combustible. A volume égal, cette méthode permettrait de stocker 3,6 fois plus d'hydrogène que des bonbonnes pressurisées à 35 MPa. La distance parcourue pourra alors atteindre les 650 km pour un réservoir de 90 litres qui ne pèserait que 100 kg, à la place de 220 kg actuellement.

Le principal défi à la diffusion des piles à combustible est le stockage et le transport du combustible. Le méthanol est accessible à faible coût mais son transport est délicat car c'est un corps inflammable. D'autre part, les alliages du type lanthane-nickel permettent de stocker de l'hydrogène d'une manière relativement sûre mais présentent l'inconvénient de peser très lourd. Toutes les alternatives restent donc à envisager.

BE

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Réchauffement climatique : les glaciers des Alpes ont diminué des deux tiers
Vendredi, 07/03/2008 - 00:00

Les glaciers des Alpes européennes ont perdu près des deux tiers de leur volume initial et ce phénomène va en s'accélérant, indique le rapport annuel du Pnue (Programme des Nations Unies pour l'environnement) présenté à Monaco. Les glaciers des Alpes ont perdu environ la moitié de leur volume total entre 1850 et 1975 puis 25 % supplémentaire du volume restant entre 1975 et 2000 et encore 10 à 15 % de ce qu'il en restait entre 2.000 et 2.005. Le rapport annuel du Pnue fait état d'une menace multiforme et grandissante à l'environnement : réduction de la bio-diversité, accélération de la hausse du niveau des mers, acidification des océans, augmentation des ouragans notamment.

Le réchauffement climatique a également eu une incidence sur la fonte du plateau de Qinghai au Tibet, qui contient 5,94 millions d'hectares de glaciers et 5.590 km3 de glace. Les glaciers du plateau tibétain ont diminué de 7 % au cours de la dernière moitié du XXème siècle, entraînant une hausse de 5,5 % des écoulements d'eau dans le nord-ouest de la Chine, précise le rapport. Marion Cheatle, scientifique du Pnue, qui a contribué à la rédaction du rapport, a indiqué à l'AFP que la différence de rythme dans les fontes des glaces entre les Alpes européennes et le Tibet était due à la différence d'altitude entre glaciers tibétains et européens ainsi qu'au volume supérieur des glaciers tibétains.

AOL

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Internet : l'Encyclopédie de la Vie est en ligne
Vendredi, 07/03/2008 - 00:00

Les initiateurs de l'Encyclopédie de la Vie, qui vise à créer un site internet multimédia ouvert à tous et décrivant toutes les espèces connues, présentent les premières 30.000 pages des 1,8 million attendues d'ici 2017. Lancée en mai 2007, cette encyclopédie donnera un libre accès à toutes les connaissances actuelles sur la biodiversité terrestre, permettant aussi de mieux la préserver face aux risques présentés par le réchauffement climatique et la surexploitation humaine.

Il faudra environ 10 ans pour créer l'ensemble des pages numériques qui contiendront toutes les espèces vivantes cataloguées depuis 250 ans par les scientifiques. Mais l'Encyclopédie de la Vie (EOL) sera constamment actualisée pour inclure les nouvelles espèces identifiées ou éteintes. Les 30.000 premières pages contiennent principalement des banques de données sur les poissons, les amphibiens et des plantes provenant de nombreux endroits dans le monde. Ce catalogue qui donnera une vue d'ensemble de la biodiversité englobant le monde animal et végétal ainsi que les champignons, pourra être ultérieurement étendu à l'univers microbien. "L'Encyclopédie sera une sorte de macroscope de la diversité biologique permettant pour la première fois de discerner les tendances de l'évolution à travers les différents organismes", explique Jim Edwards, directeur de ce projet.

En réunissant toutes les informations connues sur les quelque 1,8 million d'espèces répertoriées, l'Encyclopédie donnera aux scientifiques un outil permettant par exemple d'établir une carte des vecteurs responsables des maladies infectieuses humaines comme les moustiques, de révéler les mystères de la longévité et d'accélérer la compréhension de la biodiversité terrestre encore à découvrir, ajoute-t-il.

Edward Osborne Wilson, professeur honoraire de biologie de l'université d'Harvard (Massachusetts, nord-est), le principal promoteur de ce projet, précise que "l'Encyclopédie contiendra tout ce qui est connu en biologie et tout ce qui sera nouveau y sera ajouté au fur et à mesure des découvertes". Grand expert des fourmis, le professeur Wilson explique que l'Encyclopédie devrait aider à mettre au jour les espèces de ces insectes encore inconnues et dont aujourd'hui quelque 14.000 espèces ont été identifiées.

Une fois intégrées dans l'EOL, les comparaisons qui seront alors possibles, devraient rendre possible la découverte d'un nombre équivalent de nouvelles espèces de fourmis dans le monde. "Je pense que toutes les branches de la biologie bénéficieront de ce projet car en rassemblant toutes ces données et en attirant l'attention sur des phénomènes particuliers, on suscitera de nouvelles interrogations", observe Jim Edwards.

"Ce sera un outil de grande valeur non seulement pour les chercheurs, mais aussi pour les enseignants, les étudiants et les décideurs politiques", ajoute-t-il. La création de cette vaste encyclopédie est rendue possible grâce aux récentes avancées technologiques dans les moteurs de recherche et de visualisation de l'information réalisées depuis cinq ans, précisent ses créateurs.

http://www.eol.org

Cafés et restaurants sans tabac : premiers bénéfices sur la santé
Vendredi, 07/03/2008 - 00:00

En moins de deux mois, l'interdiction de fumer dans les cafés et restaurants français a déjà entraîné une baisse notable des infarctus et accidents vasculaires cérébraux, de l'ordre de 15 %, surtout chez les moins de 65 ans, selon une étude remise au ministère de la Santé. L'étude, dont l'AFP s'est procurée une copie, avait été commandée fin 2006 au Professeur Bertrand Dautzenberg, pneumologue à l'hôpital de la Pitié-Salpêtrière à Paris, chargé de mesurer chaque mois les bénéfices de la loi sur la santé à partir des admissions dans les hôpitaux. "J'ai été surpris pas la rapidité des effets sur la santé, ce qui prouve que le tabagisme passif tue vite, et beaucoup", a déclaré à l'AFP le Professeur Dautzenberg.

Selon son évaluation, "l'interdiction de fumer dans le secteur CHRD (cafés-hôtels-restaurants-discothèques) montre une baisse brutale - de l'ordre de 15 % - du taux d'infarctus du myocarde et du taux d'accidents vasculaires cérébraux, accompagnant la baisse de l'exposition dans le secteur CHRD qui restait très forte en décembre 2007".

"Cet important et rapide bénéfice pour la santé des Français est à confirmer dans les deux mois qui viennent et constitue un encouragement à appliquer strictement ce décret dans tous les secteurs", relève-t-il dans son rapport. L'interdiction générale de fumer dans les lieux publics, depuis le 1er février 2007, avait montré une "baisse très significative de l'exposition à la fumée dans les locaux concernés, mais pas d'effets sur la consommation de tabac et quasiment pas d'effets sur la santé".

En revanche, la prohibition des fumées en vigueur depuis le 2 janvier 2008 pour les cafés et restaurants, a entraîné des effets positifs quasi-immédiats. "La fumée crée très rapidement une modification de la coagulation du sang, l'hémostase, or c'est elle, quand elle crée des caillots, qui bouche les vaisseaux", explique le Professeur Dautzenberg.

"Retirer ce danger apporte un bénéfice immédiat, comme l'installation d'un radar entraîne une diminution des accidents de la route", insiste-t-il. "Les effets respiratoires et sur les cancers s'échelonneront dans le temps". Selon les premières données de janvier 2008, les admissions à l'hôpital pour infarctus ont baissé par rapport au même mois de 2006 et 2007, "comme cela avait été montré en Italie et au Royaume-Uni", notament pour les moins de 65 ans.

En France, la baisse devrait se situer entre 11 et 19 % et autour de 15 % "en première approximation" en prenant en compte les 15 premiers jours de février.

Si une météo plus clémente qu'en 2007 peut aussi être à l'origine d'une baisse des infarctus, "cela ne peut expliquer une telle variation", a ajouté le pneumologue.

Le bénéfice est encore plus net pour les salariés du secteur de la restauration : la tendance à la baisse des accidents vasculaires cérébraux est sensiblement la même, mais on constate en outre une "diminution des symptômes respiratoires et oculaires des salariés du secteur" de "13 % à 67 % entre janvier 2007 et janvier 2008 selon les symptômes".

S'agissant des conséquences de la loi sur l'arrêt du tabac, l'étude ne les juge pas encore très significatifs. Par ailleurs, les premières données disponibles sur janvier 2008 montrent également un effet de la loi "très spectaculaire" sur l'exposition aux particules fines (micro-poussières en suspension dans l'air), avec une "amélioration de l'ordre de 80 %".

AFP

Des chercheurs américains parviennent à séquencer le génome du maïs
Vendredi, 07/03/2008 - 00:00

Des chercheurs américains sont parvenus à séquencer la quasi totalité du génome du maïs, une avancée importante qui permettra de produire de meilleures variétés pour répondre aux besoins croissants alimentaires et en biocarburant. Il s'agit de la céréale la plus cultivée dans le monde, devançant légèrement le riz et le blé.

Le maïs devient aussi la deuxième grande céréale nourricière après le riz dont le génome est séquencé. Les Etats-Unis fournissent 44 % de la production mondiale avec plus de 282 millions de tonnes en 2005.

"Ce premier séquençage du maïs est exaltant (...) car les scientifiques vont pouvoir analyser de façon précise et efficace le génome de la plante pour trouver des moyens d'améliorer sa culture et d'accroître ses rendements ainsi que sa résistance à la sécheresse et aux maladies", a expliqué Richard Wilson de l'Université Washington à St Louis (Missouri, centre) qui a conduit ce projet.

La première ébauche comprend environ 95 % du génome du maïs et les chercheurs vont consacrer le restant de l'argent alloué à ce projet à peaufiner et finaliser le séquençage, selon ce scientifique.

"Quelques petites parties du génome sont encore manquantes (...) mais virtuellement toutes les informations sont là. Il y aura sans doute des modifications mineures aux séquences génétiques, nous ne nous attendons pas à des changements majeurs", a précisé Richard Wilson.

Le groupe de recherche a séquencé le génome d'une variété de maïs appelée B73 développée par les services de l'agriculture de l'Etat d'Iowa il y a plusieurs décennies. Ce maïs, qui a un haut rendement, est très cultivé et fait également l'objet de nombreuses recherches en laboratoire. "Le séquençage du génome va aider à décoder les secrets de la biologie du maïs, des informations qui peuvent être utilisées pour trouver les gènes qui rendent par exemple le maïs plus nutritif ou plus productif d'éthanol", a souligné Ralph Quadrano, un biologiste de l'Université Washington à St Louis et doyen de la faculté de biologie.

Le séquençage du maïs a été une tâche particulièrement ardue en raison de la taille de son génome et de la complexité des combinaisons génétiques. Environ 80 % des segments d'ADN sont répétés et le génome de maïs compte de 50.000 à 60.000 gènes, soit environ le double que pour le génome humain.

Yahoo

La viande rouge augmente le risque de cancer
Vendredi, 07/03/2008 - 00:00

On sait à quel point l'alimentation est liée au risque de cancer. Avec les progrès de la recherche, chaque aliment reçoit un jour ou l'autre son coup de projecteur, parfois pour dire qu'il est protecteur, parfois pour se voir condamner par les instances facultaires. Ce mois-ci, c'est la viande rouge qui subit les foudres du National Institute of Health (USA).

Des experts de cet institut ont interrogé un demi-million (!) d'Américains depuis 1995 sur leurs habitudes de consommation de viande et de viande hachée (les célèbres hamburgers dont on taira ici les marques, mais aussi toutes les saucisses, charcuteries et autres préparations) et ont corrélé ces chiffres avec l'apparition de cancers dans cette population. Les autres facteurs de risque, comme le tabagisme, ont bien entendu été pris en considération aussi.

Il ressort de cette méga-étude épidémiologique que les gros mangeurs de viande rouge (hachée ou non) voyaient leur risque de cancer augmenter de 24 % pour le cancer de l'intestin, de 20 à 60 % pour les cancers de l'oesophage, du foie, du poumon et du pancréas. Ils n'ont par contre pas trouvé de relation avec le cancer du sein, de l'estomac ou de la prostate. Les auteurs font remarquer que les personnes qui consomment beaucoup de viande l'accompagnent généralement de beurre, de frites et d'autres nourritures riches en graisses saturées et en calories. L'obésité y est souvent associée. On ne peut donc exclure une cause commune.

Levif

Prédire le début de la schizophrénie
Vendredi, 07/03/2008 - 00:00

Selon une étude longitudinale réalisée dans huit centres de recherches psychiatriques nord-américains, il serait possible de détecter à l'avance les jeunes qui deviendront schizophrènes ou psychotiques avant que l'explosion de la maladie ne se manifeste. Jusqu'à 80 % des schizophrénies seraient détectables si l'on utilise une combinaison de plusieurs facteurs de risque. Tyronne Cannon, de l'Université de Californie à Los Angeles, a suivi une cohorte de 370 patients âgés en moyenne de 16 ans et ayant cherché à se faire soigner pour des difficultés psychologiques.

Parmi les 291 jeunes patients ayant des «syndromes prodromaux» potentiellement évocateurs d'une psychose, 35 % sont devenus schizophrènes dans les deux ans et demi suivant la demande de soutien psychologique. Mais il apparaît que, lorsque cinq facteurs sont combinés, le risque de devenir schizophrène est de 80 %. Ces cinq facteurs sont une histoire familiale de psychoses chez des ascendants directs, une diminution récente de la performance sociale et scolaire, l'apparition de pensées inhabituelles (penser que vous êtes le sujet de toutes les conversations), une suspicion confinant à la paranoïa, l'usage de drogues.

En tout, 82 des 291 patients étudiés sont devenus schizophrènes dans un délai de 275 jours. «Lorsque des adolescents ont des résultats scolaires en chute libre, et que cela survient chez des jeunes ayant une histoire familiale de schizophrénie, et que c'est associé à des changements brusques de leur perception du réel comme des hallucinations visuelles ou auditives, c'est que la psychose est imminente», a expliqué Tyronne Cannon. Si les participants à l'étude croient être suivis, mais que l'on puisse leur montrer que cette crainte est infondée, il ne s'agit que d'un facteur de risque. En revanche, si cette croyance devient une certitude inébranlable, les chercheurs estiment que le sujet a franchi une ligne jaune, un seuil qui conduit à la psychose.

Un tel système est-il universel ? «Les psychiatres américains, qui ont peur de la maladie mentale, ont tendance à classer tous les symptômes pour la tenir à distance», estime le Professeur Jean-Michel Ougourlian (Hôpital américain, Neuilly). Or la schizophrénie du polytechnicien n'est pas celle du loubard, même si elles existent toutes deux. Il ne faut pas non plus oublier que l'utilisation fréquente d'hallucinogènes, donc le cannabis, a provoqué partout une explosion des syndromes paranoïdes chez les usagers.»

En France, 1 % de la population souffre de schizophrénie. Dans notre pays, cela correspond à 650 000 cas avérés. «Un système prédictif de ce type, bien dans la ligne du principe de précaution, transformerait tout le monde en suspect. Faudra-t-il enfermer tous ces suspects ou leur donner des médicaments ?»

Figaro

Stimuler le cerveau, une arme contre le vieillissement et contre certaines maladies
Vendredi, 07/03/2008 - 00:00

Jouer à entretenir sa mémoire, lire, jardiner, bricoler... Notre cerveau a besoin de stimulation permanente pour éviter l'usure naturelle. Et s'il dégénère ou dysfonctionne, sa stimulation par des électrodes implantées en profondeur parvient dans certains cas à restaurer les neurones et à soulager le malade de symptômes neurologiques handicapants.

Différentes et ne devant en aucun cas être confondues, ces deux formes de stimulation suscitent l'intérêt des chercheurs. Elles sont au centre du Neurodon 2008, une campagne annuelle d'appel aux dons privés qui se tiendra du 10 au 16 mars à l'occasion de la semaine du cerveau.

"Des ratons dont un des deux yeux a été fermé deviennent aveugles de cet l'oeil, les régions du cerveau ayant perdu leur capacité fonctionnelle. Chez l'homme, une langue étrangère apprise dans l'enfance s'oublie quand elle n'est pas pratiquée", a ainsi relevé le Docteur Etienne Hirsch, président du conseil scientifique de la Fédération pour la recherche sur le cerveau (FRC). "Le cerveau ne s'use que quand on ne l'utilise pas", a-t-il résumé lors d'une conférence de presse.

Naturellement, au fil des ans, la plasticité cérébrale, c'est-à-dire la capacité du système nerveux central à se réorganiser en fonction des expériences vécues et de son environnement, diminue. Les circuits de neurones sont amoindris et l'apprentissage devient plus difficile.

"Il est important de stimuler son cerveau en permanence par des moyens et des activités variés", souligne Etienne Hirsch, même en cas d'accident vasculaire cérébral, quand les effets du vieillissement sont amplifiés ou dans certaines maladies dégénératives comme la maladie d'Alzheimer. Cet entraînement associé à de la rééducation préserve les circuits de neurones préexistants et la capacité d'en former de nouveaux.

Chirurgicale, la stimulation cérébrale profonde (qui consiste à implanter des électrodes dans certaines structures sous-corticales) a notamment révolutionné le pronostic de la maladie de Parkinson, qui concerne 100.000 personnes en France. Les patients souffrent tous d'une insuffisance en dopamine, la substance chimique qui régule la motricité. Cette déficience entraîne chez eux l'hyperactivité de certains des neurones responsables du contrôle de la bonne exécution des mouvements. D'où l'apparition de symptômes invalidants : tremblement, rigidité musculaire, lenteur des mouvements, paralysies, etc.

Le traitement médicamenteux consiste à donner au malade un soin de substitution (L-dopa) dont les effets secondaires à terme peuvent devenir insupportables. C'est à cette population que s'adresse le traitement par stimulation cérébrale profonde. En pratique, deux électrodes sont implantées dans le cerveau. Elles sont raccordées à deux extensions connectées à un neurostimulateur semblable à un stimulateur cardiaque ou pacemaker qui envoie des impulsions électriques.

Le neurostimulateur est placé sous la peau dans la région pectorale et les électrodes passent sous le cuir chevelu et le long du cou. L'amélioration est de 70 % en moyenne, notamment des fonctions motrices et des complications liées au traitement.

Yahoo

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top