RTFlash

RTFLASH Recherche & Technologie
NUMERO 441
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 26 Juillet 2007
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Second Life, une seconde économie
Avenir
Le plus petit robot humanoïde est japonais
Matière
La plus grande centrale électrique solaire en République tchèque en construction
Une cellule solaire flottante délivre 200 kw
Sidérurgie : les japonais misent sur des hauts fourneaux sans CO2
Les biocarburants arrivent dans les stations-service
Espace
Les robots de Mars sont toujours vivants
Espace : découverte d'une soixantième lune de Saturne
Terre
Montée des eaux : le danger vient des petits glaciers
La Greenbox, une boîte permettant de capturer les émissions de gaz à effet de serre
Dijon veut construire le bâtiment tertiaire à énergie positive le plus performant de France
Vivant
Des fibres pour réduire les risques d'adénocarcinomes de l'oesophage et de l'estomac
Cancer du poumon : l'Avastin reçoit un avis positif de l'UE
Prévention in vitro d'une prédisposition à des cancers
Trois gènes pourraient maîtriser le développement rapide du sida
La thérapie génique expérimentée contre le virus du sida
Le cannabis augmente les risques de schizophrénie
Des anomalies structurales dans le cerveau des schizophrènes
Les régions du cerveau préservées au cours du vieillissement, identiques à celles endommagées lors de la maladie d'Alzheimer
Recherche
Un avion propre à hydrogène en 2010
Edito
Comment l'humanité peut-elle éviter le "Deep Impact"



En juin 1908, une météorite explosa à 8000 mètres d'altitude dans le ciel de Sibérie occidentale. Le souffle de la déflagration coucha au sol tous les arbres sur une superficie de 2000 km² et l'onde de choc fut ressentie jusqu'à 600 Km. Malgré l'intensité de l'explosion, équivalente à celle d'une bombe nucléaire de 10 mégatonnes (environ 500 fois l'énergie de la bombe d'Hiroshima), la catastrophe de la Toungouska fit peu de victimes car elle toucha une zone très faiblement peuplée. Mais si cet objet - probablement un astéroïde d'une cinquantaine de mètres de diamètre - avait explosé au-dessus de Londres ou de Paris, les victimes se seraient comptées par millions.

Heureusement, les cataclysmes engendrés par une collision avec des géocroiseurs sont rares. D'après les calculs, la probabilité qu'un objet de 50 m du type Toungouska percute la Terre se produit tous les 100 à 300 ans. Un objet de 1 km, pour lequel cette probabilité se mesure en centaines de milliers d'années, pourrait rayer de la carte tout un pays. Mais l'improbabilité statistique d'une telle menace n'enlève rien à son caractère dévastateur et depuis une quinzaine d'années, la communauté internationale a décidé de réfléchir sérieusement aux mesures qu'il faudrait mettre en oeuvre si, malheureusement, il était avéré qu'un tel événement doive se produire dans un futur relativement proche. Il est en effet certain qu'une collision d'un astéroïde de grande taille avec la Terre se reproduira un jour, selon les astronomes, comme l'a montré en 1994 l'impact sur Jupiter de 21 fragments de la comète Shoemaker-Levy 9 après sa désintégration.

Les scientifiques pensent pouvoir dévier, en utilisant plusieurs solutions technologiques, la trajectoire d'un astéroïde pour éviter un impact catastrophique sur la Terre mais ils soulignent qu'à présent, c'est aux décideurs politiques du monde entier de prendre leurs responsabilités et de donner à la communauté internationale les moyens de faire face à un tel événement.

A l'occasion de la conférence annuelle de l'Association américaine pour la promotion de la science (AAAS) qui s'est tenue dans ces derniers mois à San Francisco , Edward Lu, un expert de la NASA, a expliqué qu'un petit vaisseau spatial de la taille d'un engin comme Apollo de la conquête de la Lune, pourrait en se plaçant devant ou derrière l'objet, modifier sa trajectoire par la simple force gravitationnelle. "Un petit bateau remorqueur finit par faire bouger un porte-avion s'il le tire suffisamment longtemps", précise-t-il.

« Cette méthode ne serait pas sensible aux propriétés physiques de la surface, ni à la structure interne et à la rotation de l'astéroïde. Le vaisseau aurait seulement besoin de rester en vol stationnaire, dans la direction du remorquage, tandis que l'astéroïde tournerait en dessous de lui. ». Selon Edward Lu, un vaisseau de 20 tonnes placé pendant un an au dessus d'un astéroïde de 200 mètres de diamètre pourrait le dévier de sa course pour au moins 20 ans.

Selon lui, ce remorquage gravitationnel est la seule méthode simple et efficace. Il souligne l'option du missile pour briser l'astéroïde qui pourrait avoir des conséquences désastreuses en créant plusieurs objets impossibles à contrôler. Quant à la possibilité de poser directement un vaisseau sur l'astéroïde, puis d'allumer les moteurs et de fournir une poussée suffisante pour modifier sa trajectoire, Lu fait remarquer que l'impulsion nécessaire pour le rendez-vous et la déviation de l'astéroïde dépasserait largement celles des fusées chimiques traditionnelles.

Bien que très improbable, une telle opération de sauvetage pourrait devenir nécessaire dès 2029 si la trajectoire de l'astéroïde Apophis était modifiée par son passage prévu cette année-là très près de la Terre (environ 32.000 km). Il pourrait alors revenir frapper notre planète en avril 2036. Cet objet de 300 mètres de diamètre peut détruire la moitié d'un pays de la taille de la France, selon ces astronomes.

Avec les deux nouveaux télescopes très puissants prévus, le Pan-STARRS à Hawaï et le Large Earth Telescope au Chili, les scientifiques seront en mesure de découvrir cent fois plus de ces objets baptisés NEO (Near Earth Object/objets proches de la Terre). Mais le plus grand nombre d'astéroïdes suivis conduira également à davantage de menaces potentielles pour notre planète, d'où la nécessité de mettre au point un plan international pour faire face efficacement à une éventuelle menace venue de l'espace et être en mesure de déclencher un processus de déviation de l'astéroïde plusieurs années avant le moment prévu de la collision.

Tel est l'objet du projet de traité international qui sera soumis à l'ONU en 2009 par un groupe d'experts de plusieurs pays a indiqué Russell Schweickart, président de l'Association of Space Explorers engagé dans ces discussions. Conscient du danger potentiel présenté par ces astéroïdes, le Congrès américain avait demandé à la NASA en 1998 d'établir dans les dix ans l'inventaire de 90 % des NEO d'un diamètre excédant un kilomètre. L'agence spatiale américaine, avec la collaboration d'astronomes professionnels et amateurs, a en répertorié 703 sur un total de 1.100 astéroïdes traqués dans notre système solaire. Reconnaissant que des objets beaucoup plus petits pouvaient provoquer d'immenses dévastations locales ou régionales, le Congrès a révisé sa demande fin 2005 et demandé à la NASA de cataloguer d'ici 2020 90 % de tous les NEO d'au moins 140 mètres de diamètre. On estime en effet qu'environ 20 000 de ces objets célestes inconnus de plus de 140 m de diamètre restent à découvrir.

La Terre, depuis ses origines datant de 4,5 milliards d'années, a été frappée à de nombreuses reprises par des astéroïdes et des comètes qui ont épisodiquement provoqué des extinctions massives des espèces comme les dinosaures après l'impact d'un de ces objets dans le Yucatan il y a 65 millions d'années. Rappelons que ce cataclysme, qui a causé le cratère de Chicxulub (180 kilomètres de diamètre), au large au Mexique, a été causé par le chute d'un astéroïde de taille moyenne : 9 à 10 kilomètres de diamètre. Sa vitesse a été estimée entre 30 et 50 kilomètres par seconde. Il a créé une vague qui est remontée sur 2.000 kilomètres à l'intérieur des terres, dans la plaine du Mississippi. Mais des objets bien plus petits peuvent également, selon leur composition et leur vitesse d'impact, causer des dégâts considérables, comme le célèbre Meteor Crater d'Arizona (1 kilomètre de diamètre) qui est le résultat de l'impact d'une météorite d'à peine 15 mètres de diamètre !

Quant à ceux qui pensent que le réseau actuel d'observation et de détection des astéroïdes nous met à l'abri de toute mauvaise surprise, les scientifiques leur rappellent que c'est loin d'être le cas. Le 14 juin 2002, l'astéroïde 2002 MN, d'un diamètre d'environ 80 mètres, est passé à 120 000 km seulement de la Terre soit moins d'un tiers de la distance Terre-Lune. Il n'a été repéré par les astronomes que... trois jours après son passage. Le 18 mars 2004, un petit géocroiseur, l'Aten 2004 FH, d'une trentaine de mètres de diamètre, baptisé 2004FH, est passé à 43.000 km seulement de la surface de la Terre, à 22h08 GMT, à peu près à la verticale de l'océan Atlantique Sud. Enfin, le 1er mars 2004, FU162, d'un diamètre de 6 mètres, découvert quelques heures seulement avant la rencontre, est passé à seulement 6500 kilomètres de la Terre. Aucun astéroïde n'avait été observé aussi près de la Terre sans qu'il n'entre dans l'atmosphère terrestre.

Un jour ou l'autre, l'humanité devra faire face à une telle menace. Il convient, sans faire de catastrophisme, de s'y préparer le plus sérieusement possible et de tout mettre en oeuvre pour qu'un tel événement ne débouche pas sur une catastrophe de grande ampleur pour notre planète.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Second Life, une seconde économie
Vendredi, 27/07/2007 - 00:00

Bienvenue sur Second Life ! Un univers d'îles paradisiaques, de montagnes rose et bleu, de mer turquoise, d'immeubles, de boutiques et de restaurants ultradesign, de casinos... Un monde peuplé principalement de bimbos et de mâles musclés.

Second Life (SL) est un "monde persistant" où la vie ne s'arrête jamais, une simulation en trois dimensions de la vie réelle dans laquelle l'internaute mène une deuxième vie avec son "avatar", son personnage virtuel. Mi-juillet, ils étaient plus de 8,1 millions à résider dans Second Life, entreprise créée en 2003 par Linden Lab, une société californienne, créée par Philip Rosedal, économiste de formation. L'engouement est tel que Second Life recrute désormais plus de 800 000 internautes par mois. Au classement des pays les plus représentés, la France se situe derrière les Etats-Unis.

SL n'est pas un jeu comme les autres : pas besoin de tuer un maximum de monstres en un temps record, pas de Graal à trouver, aucune mission à remplir. La seule contrainte est de vivre une deuxième vie. Tout est possible : se balader, faire du sport, du shopping, l'amour, vendre des services et des biens, se marier, travailler, créer son entreprise.

Chacun est propriétaire de ses créations et peut même gagner de l'argent. Du vrai. Second Life a sa propre monnaie : le "linden dollar". On peut l'échanger contre des dollars sonnants et trébuchants et créditer son compte grâce à sa carte bancaire moyennant des frais de transaction (0,23 euro chacune). Début juillet, 1 dollar valait 270,80 linden dollars (un peu plus de 320 pour 1 euro). Sur le "lindex", une place boursière virtuelle, il s'échange 2 millions de dollars par jour. Cette monnaie transnationale échappe aux banques centrales. Mi-juillet, un total de 330 000 dollars américains a été injecté pour maintenir le cours. Au dernier forum de Davos, Jean-Claude Trichet, le président de la Banque centrale européenne, qui découvrait le phénomène, déclarait en privé : "Si cela prend de l'ampleur, il va falloir regarder, c'est de la création de monnaie !"

Alain Della Negra et Kaori Kinoshita, deux jeunes artistes qui réalisent un documentaire sur le sujet, reconnaissent que "gagner de l'argent est l'une des principales préoccupations des nouveaux résidents". Le sexe est sans aucun doute l'une des premières activités sur SL. Il a permis à certains de faire fortune. Car, lorsque l'on crée son avatar, il n'est ni homme ni femme. Il faut donc lui acheter des attributs et... des positions. "Il y a deux ou trois fournisseurs de positions sexuelles et d'accessoires coquins qui gagnent beaucoup d'argent, explique un résident, plusieurs dizaines de milliers de dollars par mois."

Kevin Alderman, alias Strocker Serpentine, est aujourd'hui à la tête d'un mini-empire virtuel classé X. Cet ancien plombier américain se définit lui-même comme un "Mogul de la pornographie". Son plus beau coup, c'est avec la réplique de la ville d'Amsterdam vendue 50 000 dollars sur eBay qu'il l'a fait. Pour les résidents qui veulent tenter une expérience sexuelle, le site sl-escort.com fournit un catalogue d'"escort girls". "C'est plus un jeu sans conséquences qu'une vraie activité !", s'exclame une jeune Française qui souhaite garder l'anonymat.

"Second Life est un territoire de délocalisation extrême. Dans les pays émergents, y avoir une activité peut permettre d'arrondir ses fins de mois", affirme Gregory Kapustin, le jeune créateur de la Webradio Radiodelameduse.org.

Pour l'instant, ceux qui ont fait fortune sont une poignée. Ils sont graphistes, designers, promoteurs immobiliers. Anshe Chung, une Allemande d'origine chinoise, de son vrai nom Ailin Graef, en fait rêver plus d'un. Sa recette ? Elle a acheté des parcelles de terrain, y a construit des immeubles, les a revendus à un moment où la spéculation allait bon train. A partir d'un apport initial de 9,95 dollars par mois, son chiffre d'affaires annuel dépasserait aujourd'hui les 2,5 millions de dollars. Son studio de création numérique - bien réel celui-là -, Anshe Chung Studios, emploie plusieurs dizaines de personnes.

Un autre moyen de gagner de l'argent est de fabriquer des objets virtuels. Mais cela suppose d'avoir un "bon coup de souris". Dans la vraie vie, Jennifer Grinnell, alias Janis Marlowe, travaillait dans une entreprise de livraison de meubles. Sur Second Life, elle a créé une ligne de vêtements et d'apparences pour les avatars. Elle a fini par quitter son vrai job. Le nouveau lui rapporte quatre fois plus.

En France, ils ne seraient qu'une quinzaine à vraiment gagner de l'argent. Stéphane Zugzwang (son nom de résident), la quarantaine, ancien cadre à la direction informatique d'une grande entreprise, a décidé de sauter le pas. Pionnier de Second Life - il y est entré en 2004 "pour le fun" -, il vient de quitter son emploi. "J'ai commencé par monter un club d'échecs. Puis j'ai vendu des échiquiers que je créais. Au début, je devais gagner 10 dollars par trimestre", raconte-t-il. Il propose peu après des "Virtual reality rooms", des pièces fermées simulant de grands espaces réels grâce à des photographies. L'avatar peut alors construire sa maison à New York, Paris... Stéphane monte ensuite un magasin sur un terrain de Linden Lab. Les résidents y achètent le coffret virtuel de ses "Virtual reality rooms" pour un prix compris entre 500 (1,84 dollar) et 5 000 linden dollars (18,50 dollars). "Aujourd'hui, dit-il, je gagne entre 1 000 et 2 000 dollars par mois." C'est certes encore loin des 6 000 euros net mensuels de son ancien salaire, dont il sait qu'il ne pourra pas les gagner directement sur le site. En revanche, il compte sur l'entreprise qu'il a créée pour aider les sociétés à s'implanter sur Second Life.

Pour s'assurer une présence sur ce site, elles sont prêtes à dépenser de grosses sommes. Le groupe BNP Paribas aurait déboursé plusieurs milliers d'euros pour y installer ses filiales Cortal Consor et Cetelem. IBM a investi pas moins de 10 millions de dollars pour être présent virtuellement. Nike et Adidas y vendent des chaussures, Pontiac et Toyota des voitures. En juin, six entreprises françaises (Areva, Alstom, L'Oréal, Cap Gemini, Unilog et Accenture) y ont organisé un premier forum de l'emploi, en effectuant des entretiens de recrutement pour la vraie vie par avatars interposés. Grâce à ses nouvelles fonctions de consultant, Stéphane table sur un chiffre d'affaires de 100 000 dollars dans les douze prochains mois.

"Pour l'instant, la balance des paiements de Second Life est très avantageuse car il y a beaucoup plus d'entrées de capitaux que de sorties", note le chercheur Serge Soudoplatoff. "Une grande majorité garde ses linden dollars, ceux-là entretiennent le rêve pour tous les autres", confirme Xavier Antoviaque, consultant spécialiste des communautés virtuelles.

LM

^ Haut
Avenir
Nanotechnologies et Robotique
Le plus petit robot humanoïde est japonais
Vendredi, 27/07/2007 - 00:00

Takara Tomy avait annoncé la mise en vente du i-Sobot courant 2007. Il sortira au Japon et aux Etats Unis en octobre et début 2008 en Europe. Prix annoncé : 250$. i-Sobot est le robot humanoide le plus petit du monde : 16,5 cm de haut pour 350gr. Son nom vient d'un jeu de mots nippon dont la lecture, avec prononciation américaine, signifie en japonais « jouons ». Livré entièrement monté et ne nécessitant pas de connexion à un ordinateur pour son installation, il devrait ravir petits et grands, néophytes et initiés.

17 moteurs et 19 capteurs lui permettent d'effectuer des mouvements relativement complexes. Ce petit robot peut marcher, danser sur le rythme d'une musique ambiante ou même au son de vos clapements de main, se baisser, faire des pompes, ramasser un objet avec ses 2 bras. Il peut bouger son pouce et son index mais le reste de sa main est fixe.

Grâce à un gyroscope, le robot réalise qu'il perd l'équilibre ou qu'il est tombé, en heurtant un objet par exemple. Une série de mouvements préprogrammés se déclenche alors automatiquement et il se redresse tout seul. Un système de reconnaissance vocale vous permettra de lui donner une quinzaine d'ordres simples, comme « avance », « danse »... i-Sobot ne comprend et ne parle toutefois que l'anglais et le japonais ! Un haut-parleur est situé dans son torse et sa tête est équipée d'un petit appareil photo numérique wifi.

Une télécommande infrarouge vous permettra de le contrôler à distance. Il sera également possible de programmer des comportements directement via la télécommande grâce à des blocs d'instructions préprogrammés. Avec des performances toutes aussi bonnes que ses « grands » congénères humanoides et un prix tout a fait abordable, le i-sobot devrait conquérir un large public ! Takara Tomy compte d'ailleurs en vendre au moins 350 000 d'ici la fin 2008.

VA

^ Haut
Matière
Matière et Energie
La plus grande centrale électrique solaire en République tchèque en construction
Vendredi, 27/07/2007 - 00:00

Les travaux de construction de la plus importante centrale électrique solaire photovoltaïque en République tchèque ont été entamés mardi dernier, à Jaroslavice, en Moravie du Sud. L'installation de 15 000 panneaux solaires sur une superficie de deux hectares permettra d'ici à la fin du mois d'août la production d'environ un mégawatt (MW), une quantité répondant à la consommation annuelle d'électricité de 300 foyers. La société Energy 21, à l'origine du projet, entend construire avant la fin de l'année deux autres centrales d'une même capacité de production d'énergie toujours en Moravie du Sud.

Si l'information est intéressante dans la mesure où il s'agira des centrales électriques solaires photovoltaïques parmi les plus importantes du pays et même en Europe centrale, il n'en demeure pas moins que la République tchèque possède à l'heure actuelle un important retard en matière de production d'électricité à l'aide des rayonnements lumineux du soleil par rapport aux pays d'Europe occidentale. Ainsi, en 2006, la production de l'ensemble des centrales solaires en République tchèque a atteint à peine un mégawatt, alors qu'en 2005, la capacité totale de production de l'ensemble de l'Union européenne était de 1800 MW, les centrales allemandes représentant à elles seules plus de 85 % de cette capacité.

Pourtant, selon les spécialistes de la question, les conditions requises pour la production d'énergie dans des centrales solaires sont bonnes en République tchèque. La durée de rayonnement du soleil sans nébulosité se situe en effet entre 1400 et 1700 heures par an, des chiffres qui représentent environ 1100 kilowatts de lumière par mètre carré de panneau solaire. D'ici à 2010, le gouvernement entend donc à ce que l'énergie solaire représente jusqu'à 8 % de l'ensemble des sources renouvelables dans la consommation totale d'électricité du pays, alors que cette part n'est que de 4,5 % aujourd'hui.

Pour ce qui est plus concrètement du projet en cours et de la construction de trois centrales en Moravie du Sud d'ici à la fin décembre, Energy 21 entend investir 300 millions de couronnes (un peu plus de 10 millions d'euros). Les investisseurs et l'exploitant sont notamment attirés par le prix garanti de l'électricité produite pour une période de quinze ans à partir de la mise en service de la centrale, un prix qui s'élève à un peu plus de treize couronnes par kilowattheure (environ 0,45 euro). Comme l'explique le président du conseil d'administration d'Energy 21, Tomas Buzrla, l'investissement réalisé par la société devrait donc être rentabilisé dans les dix prochaines années :

RP

Une cellule solaire flottante délivre 200 kw
Vendredi, 27/07/2007 - 00:00

Sharp a créé une batterie solaire capable de fournir une puissance de 200 kw. Cette batterie flotte sur un radeau posé à la surface d'un réservoir rempli d'eau qui réfléchi les rayons du soleil. D'après Nikkei, d'autres systèmes d'énergie solaire flottant existent mais celui-ci peut générer suffisant d'énergie pour approvisionner 50 maisons. La batterie se trouve sur une plate-forme en résine dans un bassin à côté de l'usine d'écran plat de Sharp au Japon. Le système pourrait être vendu pour 220 million de yens, soit 1,31 millions d'euros.

Inquirer

Sidérurgie : les japonais misent sur des hauts fourneaux sans CO2
Vendredi, 27/07/2007 - 00:00

Le Nikkei a révélé que les trois plus grands groupes sidérurgiques japonais (Japan Steel, JFE Steel, Kobe Steel) prévoient de se lancer dans le développement de hauts-fourneaux nouvelle génération utilisant de l'hydrogène et ne dégageant pas de CO2. Ces entreprises sont en discussion avec d'autres groupes internationaux (Arcelor-Mittal, US Steel, Tata Steel) au sein du International Iron and Steel Institute (IISI).

Actuellement, 99% de l'énergie utilisée dans la sidérurgie provient du charbon. Le coke utilisé dans les hauts-fourneaux pour réduire le minerai de fer est issu de la distillation de la houille. Les fours nouvelle génération utiliseraient l'hydrogène comme réducteur à la place du coke. L'hydrogène réagissant avec l'oxygène ne produit que de l'eau, à la différence des produits carbonés qui dégagent du CO2. Les différents partenaires comptent développer un premier petit four expérimental en 2008 pour obtenir avant 2020 un démonstrateur commercial.

Une recherche collaborative internationale existe déjà pour l'enfouissement du CO2 dégagé par les hauts-fourneaux ou pour l'utilisation de charbon de bois permettant une production carbon-neutral. Japan Steel a par ailleurs commencé la recherche et le développement de techniques permettant de récupérer l'hydrogène issu de la fabrication de coke. La plate-forme d'essai installée dans une des usines du groupe produit actuellement 0,2 tonne de H2 par jour.

Le secteur sidérurgique est responsable de 40% des émissions de CO2 des industries japonaises. Les professionnels affirment cependant que tous les efforts de réduction des émissions de gaz à effet de serre ont été effectués et que seul un changement radical des méthodes de production pourra encore baisser cette quantité

BE

Les biocarburants arrivent dans les stations-service
Vendredi, 27/07/2007 - 00:00

Six mois après sa légalisation en France, le superéthanol 85, biocarburant issu de la fermentation de maïs, canne à sucre ou betterave arrive à Toulouse. Carrefour vient d'implanter sa première pompe à la station d'autoroute Montgiscard, située à 8 km sur l'A61 dans le sens des retours de Narbonne. La chaîne d'hypermarchés, 2e distributeur de carburant en France s'engage dans le biocarburant et ouvrira une quarantaine de pompes en 2007. « La demande est régulière mais encore marginale. Les consommateurs ont l'air réceptif et le parc auto monte en puissance. Je pense que tous les constructeurs vont s'y mettre », note Marcel Miranda, manager de la station autoroutière. La pompe est repérable à sa couleur bleue.

Le compteur affiche 0,84 ? le litre. Démonstration avec cette Saab 9-5 BioPower 1,8 litre turbo qui vient s'approvisionner régulièrement. La note est moins salée : 23,33 ? pour 27,77 litres. Repérable à ses autocollants BioPower, ce nouveau modèle de la firme suédoise roule indifféremment au Superéthanol et à l'essence, tout en « prenant de la puissance en mode 85 » annonce le responsable des ventes chez Saab Signatures Labège. Bruno Faveau en a vendu 6 exemplaires (27 500 ? prix promo). « Les voitures au superéthanol intéressent les gens qui roulent beaucoup, les sociétés pour des raisons fiscales, mais aussi toute la clientèle qui consomme bio.

En plus, depuis la semaine dernière la carte grise est gratuite pour les particuliers dans le département ». Mauvais point, Toulouse est très en retard côté distribution. Les stations-service qui disposent d'E85 font figure de pionnières : les deux Intermarchés de Venerque et Saint-Jean et le Géant Casino de Fenouillet. La station Total, boulevard Déodat-de-Séverac est équipée mais attend le feu vert. « C'est le silence, on n'a aucun élément de réponse » lâche le pompiste. Pas de quoi révolutionner le marché, mais aujourd'hui « rouler au maïs » est une réalité. Le carburant vert est sur la lancée.

D'ici la fin de l'année, 800 ouvertures sont prévues sur l'hexagone. Hertz envisagerait d'équiper son parc de location. La concurrence s'amorce chez les constructeurs. Ford a bien mordu le marché avec sa Focus Bioflex (à partir de 18 700 ?), la plus répandue ; Volvo a lancé la S40 et la V50 flexifuel (à partir de 23 400 ?) ; Citroën, où tous les moteurs diesel peuvent déjà rouler avec 30 % de biodiesel, a mis au point une C4, Peugeot une 307, Renault prépare le lancement d'une Mégane et une Clio. Des véhicules à moins de 20 000?

DDM

^ Haut
Espace
Espace et Cosmologie
Les robots de Mars sont toujours vivants
Vendredi, 27/07/2007 - 00:00

Ils se sont posés sur la planète Mars en décembre 2003 pour Opportunity et janvier 2004 pour Spirit, et leur mission - la recherche d'indices révélant la présence d'eau liquide dans un passé plus ou moins lointain - était programmée, pour chacun d'eux, pour un maximum de 90 jours. Et pourtant, trois ans et demi après, ils sont toujours là à explorer la 'planète rouge'. Les deux Rovers martiens continuent d'explorer, d'acquérir des données et de photographier la planète. Ils ont pourtant déjà enduré deux rudes hivers martiens durant lesquels le manque de luminosité les a contraints à une phase d'hibernation profonde.

Compte tenu de leur endurance à toute épreuve, leur mission a déjà été prolongée à quatre reprises. Les deux robots ont ainsi pu récolter davantage d'informations sur l'évolution du paysage martien et son environnement que ne l'auraient espéré les ingénieurs, chercheurs et astronomes de la NASA.

Silicon

Espace : découverte d'une soixantième lune de Saturne
Vendredi, 27/07/2007 - 00:00

Une soixantième lune a été découverte dans l'orbite de Saturne, la deuxième plus grosse planète du système solaire, a annoncé l'Agence spatiale européenne. Découverte à partir d'images prises par la sonde Cassini, elle a été provisoirement nommée "Frank". La nouvelle lune est apparue pour la première fois comme une simple tache sur les images prises par la sonde le 30 mai. Elle fait environ 2 km de diamètre, et est essentiellement constituée de roche et de glace, comme la plupart de ses voisines.

Frank est un nom provisoire, en attendant le baptême officiel par l'Union astronomique internationale, basée à Paris. Quarante-huit lunes de Saturne ont à ce jour été officiellement baptisées d'après les noms des frères et soeurs du dieu de la mythologie. Les autres lunes se sont vues attribuer un nombre, d'après leur année de découverte.

Edicom

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Montée des eaux : le danger vient des petits glaciers
Vendredi, 27/07/2007 - 00:00

La plupart des spécialistes du niveau des mers se sont focalisés sur les grandes étendues de glace du Groenland et de l'Antarctique car elles contiennent l'immense majorité de l'eau gelée mais Mark F. Meier et une équipe internationale se sont penchés sur les glaciers qui ne contiennent que un pour cent du volume de la couverture glaciaire.

Dans un article paru dans l'édition courante de la revue science, ils estiment que les glaciers pouvaient représenter 60 pour cent, ou une hauteur de 10 à 25 centimètres, de la contribution totale de la fonte des glaces à la montée des eaux. Les grandes structures glaciaires n'ont qu'une contribution très relative en comparaison : 28% pour le Groenland et 12% pour l'Antarctique.

Si les glaciers fondaient complètement, le niveau des mers augmenterait de près d'un mètre. Leur part n'est donc pas à négliger d'autant que leur relative petite taille les rend plus vulnérables que les deux calottes de glace aux pôles. Selon les auteurs, la plupart des petits glaciers repérés, par satellite, autour du monde auront disparu avant la fin du siècle.

L'épaisseur moyenne de l'hydrosphère est actuellement d'environ 2,72 km ; ainsi, la proportion de terres émergées résulte principalement du mode de répartition de la croûte terrestre en plaques océaniques et continentales. Cependant, sur de courtes périodes, à l'échelle géologique, des variations du niveau de la mer peuvent être la conséquence de changements climatiques, qui conduisent à la modification de la capacité du grand réservoir d'eau que constituent les calottes glaciaires, les glaciers et les neiges éternelles.

Ce réservoir des glaces terrestres est actuellement évalué à 24 millions de km³ d'eau (soit une épaisseur de 47 m uniformément répartie à la surface du globe) ; à comparer avec les 1340 millions de km³ des océans.

S&A

La Greenbox, une boîte permettant de capturer les émissions de gaz à effet de serre
Vendredi, 27/07/2007 - 00:00

Les plus grandes corporations du monde et les esprits les plus fins ont dépensé des milliards de dollars pour essayer de résoudre le problème des émissions de dioxyde de carbone, mais trois amis des poissons du nord du Pays de Galles pensent l'avoir résolu.

Ces trois britanniques ont développé une boîte qui selon eux peut être fixée sous une voiture à la place du pot d'échappement, et qui permettrait de capturer les gaz à effet de serre responsables du réchauffement climatique, y compris le dioxyde de carbone. La boîte émettrait quant à elle essentiellement de la vapeur d'eau.

Les gaz capturés peuvent être traités pour être transformés en biocarburant, en utilisant des algues génétiquement modifiées. Les gaz capturés serviraient en effet d'alimentation aux algues qui une fois broyées pourraient être utilisées pour faire des biocarburants.

La « Greenbox », la technologie développée par le spécialiste de la chimie organique, Derek Palmer, et les ingénieurs Ian Houston et John Jones pourrait, selon eux, être utilisée pour les voitures, les bus, les camions, et même pour l'industrie lourde et les bâtiments.

« Nous avons réussi à développer une façon de capturer avec succès une majorité des émissions des moteurs les plus sales que nous ayons trouvé » a déclaré Derek Palmer, qui a été un consultant pour des organisations telles que l'Organisation Mondiale de la Santé, ou GlaxoSmithKline.

Les trois compères, qui ont trouvé cette idée de Greenbox par hasard alors qu'ils faisaient des expériences sur le dioxyde de carbone pour aider à augmenter la croissance des algues pour l'élevage de poissons, ont lancé une compagnie appelée Maes Anturio Limited.

Avec le soutien des membres locaux du parlement, ils cherchent maintenant un capital pour aller plus loin dans leur concept de Greenbox et faire des recherches à propos des émissions des avions : ils ne sont en effet pas sur que leur Greenbox puisse supporter les émissions de l'aviation.

Même si la boîte que les trois hommes utilisent actuellement pour faire des démonstration est de la taille d'un tabouret de bar, ils affirment qu'ils pourront construire une Greenbox suffisamment petite pour remplacer le pot d'échappement d'une voiture et qui aurait une durée de vie équivalente à un plein d'essence du véhicule.

L'aspect crucial de la technologie est que le dioxyde de carbone est capturé et retenu dans un état sécurisé, a déclaré Ian Houston. Les autres technologies de capture de dioxyde de carbone sont beaucoup plus encombrantes ou nécessitent beaucoup plus d'énergie.

« Le dioxyde de carbone, retenu dans un état sûr et inerte, peut être transporté et libéré dans un environnement contrôlé avec facilité et un volume minimal d'énergie » a affirmé Ian Houston lors d'une démonstration dans un Centre de test certifié par le Ministère des Transports de

Grande-Bretagne.

Plus de 130 tests ont été réalisés sur la Greenbox pendant deux ans dans plusieurs centres de tests, et tous ont d'après les trois compères, réussi à avoir un taux de capture entre 85 et 95%. Les trois inventeurs sont en contact avec le gouvernement mais aussi avec les fabricants de voitures Toyota Motor et General Motors.

ANE

Dijon veut construire le bâtiment tertiaire à énergie positive le plus performant de France
Vendredi, 27/07/2007 - 00:00

La Ville de Dijon, la société d'ingénierie Elithis, et L'agence d'architecture Arte Charpentier devrait livrer fin 2008 sur la ZAC Clemenceau de Dijon le siège social d'Elithis, société d'ingénierie climatique et électrique de 60 salariés. Objectif commun : faire de cet immeuble de bureaux de dix niveaux 5.000 m2 le bâtiment tertiaire à énergie positive le plus performant de France.

L'énergie est aujourd'hui au coeur de nombreuses problématiques mondiales et locales en termes d'approvisionnement, d'efficacité, de pollution. Les bâtiments ne font pas exception à la règle puisque ce secteur est après le transport le plus gros consommateur d'énergie avec 40% du total. Il est de ce fait et à lui seul, responsable, de plus de 25% des émissions à effets de serre (GES). Pire, en l'absence d'un plan gouvernemental volontariste, l'augmentation de la pollution d'ici 2015, porterait sur plus de 25 millions de tonnes, uniquement due au chauffage.

L'enjeu consiste donc aujourd'hui à maîtriser les besoins et la dépendance en énergie fossile pour réduire les rejets polluants, notamment de CO2 tout en augmentant le confort de l'habitat. En plusieurs années, le discours a évolué puisque de la maison « faiblement consommatrice », on est passé à la « maison passive » et même à la notion de « bâtiment à énergie positive » qui produit plus d'énergie qu'il n'en consomme. Toutes ces notions cohabitent au côté de labels comme la démarche globale de Haute Qualité Environnementale ou le label Effinergie en France et Minergie en Suisse. Ces multiples approches ont le même objectif : aller plus loin que la réglementation en vigueur (RT 2005 en France). Si elles sont donc mises en oeuvre très lentement, les projets se multiplient en France et à l'étranger, souvent portés par une volonté de démontrer la faisabilité technique et économique des concepts.

C'est le cas par exemple à Dijon où la société dijonnaise d'ingénierie climatique et électrique Elithis, la Ville de Dijon et le cabinet d'architectes Arte Charpentier se sont associés pour réaliser fin 2008 un bâtiment tertiaire de 5 000 m2 de bureaux à énergie positive comme nouveau siège social de la société. L'objectif visé : que ce bâtiment, installé en plein coeur de Dijon, devienne le bâtiment à énergie positive le plus performant de France dans le domaine du tertiaire.

Les matériaux ont été choisis de manière à respecter l'environnement. La structure du bâtiment sera de type poteaux-poutres mixte bois / acier pour limiter l'utilisation de béton et son remplissage sera réalisé par des panneaux isolants à base de fibres de bois. Quant aux menuiseries extérieures, elles seront composées d'un double vitrage argon à isolation thermique renforcé avec un faible facteur solaire.

Pour permettre à l'édifice de produire plus d'énergie qu'il n'en consomme, d'autres dispositifs ont été mis en place : la toiture externe sera réalisée en panneaux photovoltaïques intégrés (surface plane) ce qui permettra de couvrir une grande partie des besoins électriques du bâtiment (74.000 KW/an). La limitation des consommations d'énergie s'opérera également au niveau de l'éclairage grâce à un système maîtrisé favorisant l'optimisation de l'apport de lumière naturelle. Ce principe sera renforcé grâce à des circuits d'éclairage contrôlés et différenciés selon la zone de travail et l'utilisation des locaux. De plus, les locaux seront entièrement équipés de luminaires à économies d'énergie : tubes fluorescents et lampes LFC, dont le rendement et la durée de vie sont 10 fois supérieurs aux lampes incandescentes.

De manière à avoir une température idéale toute l'année et à moindre frais, la consommation d'énergie pour le chauffage, la ventilation et le rafraîchissement sera limitée par la conception même de la qualité thermique du bâtiment tant au niveau de l'isolation que des façades. Grâce à un bouclier thermique transparent ménageant une vue dégagée, les espaces de travail bénéficieront d'une protection contre les rayonnements solaires, source de surchauffe et d'inconfort visuel. En outre, jusqu'à la mi-saison, un système de ''free-cooling'' à régulation mécanique permettra de rafraîchir les locaux gratuitement et de façon naturelle. Cet équipement permettra de lutter contre les hausses de température jusqu'à 27°C, sans utiliser le système de refroidissement. En parallèle, la production de chaleur et de froid reposera sur un système thermodynamique particulièrement performant, associé à une source de chaleur fonctionnant avec une chaudière bois à granulés et à un système de refroidissement adiabatique. Dans le même esprit, le renouvellement de l'air sera assuré par une centrale de traitement d'air double flux avec un récupérateur d'énergie de haute efficacité.

Un effort particulier a également été prévu au niveau de la gestion des eaux pluviales. Ainsi, la perméabilisation-rétention du bâtiment a été optimisée grâce à la création d'un bassin de rétention situé dans le parking. En accord avec les autorités sanitaires, la récupération des eaux de pluie en toiture alimentera un réseau indépendant pour l'alimentation sous pression atmosphérique des sanitaires des bureaux. Enfin de manière à mesurer la performance des différents équipements, le bâtiment servant de laboratoire sera équipé, sur un niveau complet, de capteurs et compteurs multiples. Ce système de gestion technique du bâtiment assurera le suivi des différents types de consommations d'énergie (chauffage, rafraîchissement, ventilation, éclairage..), et permettra de réguler les modèles au jour le jour, indiquent les responsables du projet. Par ailleurs, afin de sensibiliser l'ensemble des usagers du bâtiment, une charte environnementale sera signée pour encourager chacun à respecter les recommandations environnementales et les objectifs de consommation.

AE

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des fibres pour réduire les risques d'adénocarcinomes de l'oesophage et de l'estomac
Vendredi, 27/07/2007 - 00:00

L'incidence des cancers de l'oesophage et du cardia s'est accrue depuis les années 1970 dans les pays industrialisés ; les raisons de cette augmentation ne sont pas claires mais le rôle déterminant de l'alimentation dans la survenue de ces tumeurs est évoqué par plusieurs études. Parmi les facteurs diététiques soupçonnés, deux semblent particulièrement attirer l'attention : les apports en graisses, qui ont été, de façon non homogène, associés à la survenue d'adénocarcinomes de l'oesophage et du cardia, et la consommation de viande, associée à une augmentation du risque d'apparition de ces tumeurs, notamment chez les sujets infectés par Helicobacter pylori. Des auteurs américains ont étendu l'évaluation de l'impact de l'alimentation sur le développement de ces adénocarcinomes et estimé l'effet des fibres alimentaires.

Cette évaluation s'est fondée sur les données d'une étude cas-témoins en population générale, menée aux États-Unis, dans le comté de Los Angeles, qui a inclus 206 cas d'adénocarcinomes oesophagiens et 257 cas d'adénocarcinomes du cardia, diagnostiqués entre 1992 et 1997, et 366 cas d'adénocarcinomes gastriques diagnostiqués entre 1992 et 1994, tous cas incidents, histologiquement confirmés, identifiés via les registres de populations du comté dans le cadre d'un programme de surveillance du cancer, et survenus chez des hommes et chez des femmes âgés de 30 à 74 ans. Ces cas ont été appariés pour le sexe, l'ethnie et l'âge à 5 ans près, à 1 308 témoins indemnes de cancer gastrique ou oesophagien.

Des entretiens en tête-à-tête ont permis de préciser les données socio- démographiques, le cursus scolaire et, via un questionnaires de 124 items et catégories d'aliments et de boissons, les aliments et quantités d'aliments consommés, et de construire l'historique alimentaire des sujets de l'étude. D'autres questions ont porté sur le tabagisme, le poids, les antécédents de reflux gatro-oesophagien, ainsi que la prise de suppléments vitaminiques.

Après ajustements sur l'âge, le sexe, l'ethnie, le lieu de naissance le niveau d'éducation, le tabagisme, l'indice de masse corporelle, les antécédents de reflux gatro-oesophagien, et la consommation de suppléments vitaminiques, l'analyse met en évidence un impact significatif des apports en fibres sur le risque de survenue des adénocarcinomes de l'oesophage et du cardia.

En comparaison des sujets dont les apports en fibres alimentaires se situaient dans le quartile le plus faible, les odds ratios étaient, chez les sujets dont la consommation en fibres était la plus forte (quartile le plus élevé), de 0,44 (IC à 95 % : 0,26-0,76) pour l'adénocarcinome de l'oesophage et de 0,58 (IC à 95 % : 0,38-0,88) pour les adénomes du cardia.

Cette association inverse persistait après ajustement supplémentaire sur les apports de graisses, et les associations positives entre les apports en graisses alimentaires et les trois types de tumeurs étudiés s'atténuaient après ajustement sur la consommation de fibres, n'atteignant plus la significativité statistique. L'analyse montre aussi, uniquement après ajustement sur les apports en graisses, une association inverse entre adénocarcinome gastrique et consommation de fibres, et les associations inverses observées entre apports de fibres et développement des trois types de tumeurs ont persisté après ajustement sur l'infection par Helicobacter pylori.

Dans cette étude, la faible consommation en fibres apparaît comme un facteur de risque significatif de survenue des adénocarcinomes de l'oesophage, du cardia et de l'estomac.

JIM

Cancer du poumon : l'Avastin reçoit un avis positif de l'UE
Vendredi, 27/07/2007 - 00:00

L'Avastin, médicament anticancéreux du groupe Roche, a reçu un avis favorable de l'Union européenne pour le traitement du cancer du poumon au stade évolué, a annoncé le groupe pharmaceutique suisse dans un communiqué. "Le Comité des médicaments à usage humain (CHMP)" de l'UE "a émis un avis positif recommandant l'administration d'Avastin en première ligne dans le traitement de la forme la plus courante de cancer du poumon, en association avec une chimiothérapie à base de platine", a annoncé le groupe. Fin mars, ce médicament a reçu l'homologation de l'UE pour le traitement du cancer du sein métastatique et en avril, celle du Japon dans le traitement du cancer colorectal.

Le cancer du poumon est responsable de plus de 3000 décès par jour dans le monde(1), et le cancer du poumon non à petites cellules (NSCLC), qui en est la forme la plus courante, représente plus de 80 pour cent des cas de cancer du poumon. Avastin est le seul traitement de première ligne à avoir témoigné, depuis plus d'une décennie, d'une prolongation de la survie chez des patients atteints de cancer du poumon évolué, affection caractérisée par une espérance de vie moyenne de seulement 8 à 10 mois.

Le Professeur Christian Manegold, Professeur de médecine, université de Heidelberg, Centre médical universitaire, Mannheim, Allemagne, et principal investigateur de l'étude AVAiL, a déclaré : "Cette journée est à marquer d'une pierre blanche pour les professionnels de santé et les patients, car elle permet d'avoir accès à Avastin dans le traitement d'une affection extrêmement difficile à gérer et face à laquelle le médicament a prouvé qu'il pouvait prolonger la vie des malades. Je crois qu'Avastin est tellement novateur qu'il modifiera non seulement le traitement standard du NSCLC, mais aussi nos attentes en termes de résultat thérapeutique."

WJ

Prévention in vitro d'une prédisposition à des cancers
Vendredi, 27/07/2007 - 00:00

Pour la première fois, la technique du diagnostic pré-implantatoire (DPI), après une fécondation in vitro, a été autorisée dans un but de prévention d'une prédisposition à un cancer. Dans son édition datée du 21 juillet, The Times révèle que la Human Fertilisation and Embryology Authority (HFEA) britannique a accédé à la demande d'un couple fertile de recourir au DPI pour sélectionner un embryon exempt d'un gène prédisposant au cancer du sein et de l'ovaire.

Jusqu'à présent, le DPI, en Grande-Bretagne comme en France, n'était mis en oeuvre que pour prévenir les naissances d'enfants dont on savait avec une quasi-certitude qu'ils seraient victimes d'une affection de nature monogénique d'une particulière gravité, comme la mucoviscidose, l'hémophilie ou des pathologies neuro-musculaires.

Le feu vert de la HFEA a été accordé à une équipe dirigée par le docteur Paul Serhal (University College Hospital, London). Pour ce praticien, cette décision fera date dans la mesure où le DPI pourra, désormais, être mis en oeuvre sur la base d'un risque estimé à moins de 100 %. Il se félicite aussi du fait que l'anomalie génétique pourra de la sorte être éradiquée dans les familles exposées au risque d'affections cancéreuses connues pour être génétiquement transmissibles.

Dans le cas des cancers familiaux du sein et de l'ovaire, on estime que les mutations du principal gène impliqué (BRCA1) induisent un risque de survenue d'un cancer du sein allant de 60 % à 80 % et de 40 % pour le cancer ovarien.

LM

Trois gènes pourraient maîtriser le développement rapide du sida
Vendredi, 27/07/2007 - 00:00

Trois gènes paraissent jouer un rôle important dans la réponse, très variable, des individus aux premiers stades de l'infection par le VIH-sida, selon les travaux prometteurs d'une équipe internationale de chercheurs publiés dans Science.

Ces chercheurs espèrent que cette découverte contribuera à la mise au point d'un vaccin qui dopera les effets protecteurs d'un ou de plusieurs de ces gènes en aidant le système immunitaire à combattre une infection. Un de ces trois gènes paraît particulièrement prometteur, soulignent ces scientifiques dont l'étude est publiée dans le numéro daté du 20 juillet.

La capacité du système immunitaire à combattre le virus au début de l'infection est en rapport avec la vitesse à laquelle la maladie évoluera vers le sida. Certains gènes pourraient maîtriser le développement rapide de la maladie. "Ces résultats accroissent notre compréhension des facteurs génétiques qui contrôlent le virus du sida et pointe aussi l'accent vers de nouveaux mécanismes de contrôle", souligne le Docteur David Goldstein de l'Institut des sciences du génome de l'Université Duke en Caroline du Nord, un des auteurs de cette étude. Ces nouvelles analyses ont révélé que des patients avec certaines variations génétiques, appelées polymorphismes, dans des cellules-clés du système immunitaire contrôlent plus efficacement la prolifération du virus du sida.

Science

La thérapie génique expérimentée contre le virus du sida
Vendredi, 27/07/2007 - 00:00

Une thérapie génique, consistant à soigner une maladie par l'introduction de gènes correcteurs, est actuellement testée sur l'homme pour combattre le virus du sida. Les premiers essais humains d'immunisation intracellulaire ont récemment débuté à l'hôpital City of Hope de Californie, a précisé le professeur américain John Rossi à la conférence de la Société internationale du sida (IAS), qui s'est réunie à Sydney. "Nous avons déjà notre premier patient à qui seront injectées ses propres cellules sanguines génétiquement modifiées et nous prendrons en charge quatre autres patients après lui", a-t-il déclaré.

L'idée consiste à modifier la structure génétique des cellules cibles du VIH afin qu'elles produisent des leurres qui bloqueront la réplication du virus."C'est, sur le long terme, une modification permamente de cellules, donc tant qu'elles vivent dans l'organisme du patient, elles résisteront au virus VIH", a déclaré M. Rossi. "C'est une expérience unique et nous sommes très excités d'être les premiers au monde à la faire", a-t-il ajouté.

CP

Le cannabis augmente les risques de schizophrénie
Vendredi, 27/07/2007 - 00:00

Selon une étude de l'institut de psychiatrie de l'université de Zurich, la consommation de cannabis augmente les risques de devenir schizophrène. "Sur le plan de la prévention, le cannabis apparaît comme étant moins inoffensif que ce que l'on croyait", ont indiqué les chercheurs dans un communiqué de l'université.

Le rôle du cannabis en tant que facteur de risque pour les maladies psychiatriques doit être revu, soulignent encore les chercheurs. Les personnes, qui sont déjà sujettes à des maladies psychiques, en raison d'un contexte familial, devraient renoncer au cannabis, selon les chercheurs, qui ont publié les résultats de leur étude sur le site internet de la revue médicale Schizophrenia Research. Les chercheurs ont constaté une forte hausse des cas de schizophrénie chez les hommes jeunes dans les années 90. Les cas constatés chez les 15-19 ans ont été multipliés par trois et ceux chez les 20-24 ans par deux.

UZ

Des anomalies structurales dans le cerveau des schizophrènes
Vendredi, 27/07/2007 - 00:00

La schizophrénie est une affection psychiatrique redoutable très fréquente. Le regard porté sur cette pathologie a beaucoup évolué en raison de l'identification de déficits cognitifs et de la mise en évidence d'anomalies structurales du cerveau de ses patients. Ces résultats ont permis d'abattre les barrières entre le monde des neurosciences et de la psychiatrie, offrant ainsi de nombreuses perspectives. Il a été démontré chez les schizophrènes une diminution du volume des ventricules latéraux et une augmentation de volume du cortex cérébral. Les études in vivo du volume cérébral ont beaucoup progressé depuis que l'IRM volumétrique est disponible. Toutefois, les différentes études effectuées avec ces techniques ont rapporté des résultats discordants. De même, les études neuropathologiques ont montré des anomalies subtiles dans le cortex préfrontal, entorhinal et cingulaire antérieur mais aussi dans des régions sous corticales. Ces résultats discordants peuvent être expliqués par des fluctuations d'échantillonnage mais aussi par des limitations de la technique.

C'est pour ces raisons qu'une équipe hollandaise a entrepris un travail neuropathologique particulièrement rigoureux sur ce sujet avec une technique plus fiable, la stéréologie haute précision. Ils ont effectué une mesure du volume cérébral, du nombre et de la densité de neurones dans 5 régions du cerveau de 13 patients schizophrènes et de 13 sujets contrôles appariés. Ils ont ainsi constaté une diminution de 5 % de la taille des 2 putamens et de 12 à 17 % de celle du noyaux latéral de l'amygdale D et G. Le nombre des neurones était diminué en moyenne de 8 à 16 % dans les noyaux caudés, les putamens et les noyaux latéraux des amygdales. L'implication du striatum dans la schizophrénie est connue de longue date. Les noyaux amygdaliens interviennent dans l'activation des certains circuits cérébraux selon le contexte émotionnel. Pour ces auteurs, ces résultats sont en faveur d'un trouble du développement neural du striatum dorsal et de l'amygdale basolatérale expliquant notamment les perturbations des émotions chez le schizophrène.

JIM

Les régions du cerveau préservées au cours du vieillissement, identiques à celles endommagées lors de la maladie d'Alzheimer
Vendredi, 27/07/2007 - 00:00

L'incidence accrue des pathologies neurodégénératives, tels que la maladie d'Alzheimer, constitue un véritable problème de santé publique dans les paysindustrialisés. Béatrice Desgranges et les chercheurs de l'Equipe Inserm 218 « Neuropsychologie cognitive et neuroanatomie fonctionnelle de la mémoire humaine », dirigée par Francis Eustache à Caen, ont réalisé une étude d'imagerie cérébrale afin de mettre en évidence les modifications cérébrales liées au vieillissement normal.

En identifiant les régions du cerveau les plus atteintes et les régions les mieux préservées, les chercheurs ont montré une nette différence, au niveau du cerveau, entre le vieillissement normal et la maladie d'Alzheimer. En réalité, les zones cérébrales altérées dans la maladie d'Alzheimer correspondent aux zones préservées au cours du vieillissement cérébral normal. Ces résultats apportent des éléments essentiels pour l'amélioration du diagnostic précoce des pathologies neurodégénératives, comme la maladie d'Alzheimer.

Ces résultats contrastent nettement avec ceux mis en évidence dans la maladie d'Alzheimer, notamment par l'équipe de Béatrice Desgranges. Dans cette pathologie, les altérations touchent en priorité l'hippocampe et le cortex cingulaire postérieur, y compris avant le stade prédémentiel, c'est-à-dire avant l'apparition des premiers symptômes. Ainsi, ces travaux montrent que la physiologie du vieillissement normal diffère fondamentalement de la physiopathologie de la maladie d'Alzheimer au niveau des systèmes cérébraux. Plus précisément, ils montrent que les zones cérébrales les mieux préservées au cours du vieillissement cérébral normal correspondent aux zones altérées dans la maladie d'Alzheimer.

Jusqu'à aujourd'hui, il manquait dans la littérature l'établissement d'un profil complet décrivant avec précision le devenir structural et métabolique (et donc fonctionnel) des régions cérébrales au cours du vieillissement normal. Cette étude permet donc de mieux comprendre le rôle de ces structures dans le déclin et la préservation des capacités de mémoire au cours du vieillissement normal. Or, bien connaître le vieillissement normal permet de mieux dissocier une évolution « normale » d'une évolution pathologique, et donc de diagnostiquer de façon très précoce les pathologies neurodégénératives telles que la maladie d'Alzheimer.

Inserm

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Un avion propre à hydrogène en 2010
Vendredi, 27/07/2007 - 00:00

Dans la lutte contre la pollution provoquée par les avions, un type de pollution dont l'impact est destiné à augmenter (en 2022 le nombre de passagers qui a déjà triplé de 1980 à 2000, est destiné à croître encore jusque 8 875 milliards), la recherche change d'objectif. Après s'être concentrée sur l'amélioration des performances et sur le rendement des moteurs, aujourd'hui elle pointe sur les carburants de substitution moins nocifs pour l'environnement.

L'Union Européenne voudrait quant à elle réduire de 50% par kilomètre les émissions de CO2 par passager et de 80% ceux des NOX dans les phases de décollage et d'atterrissage, sans oublier la réduction de la pollution sonore et de l'impact sur l'environnement. Ces thèmes sont au centre du projet ENFICA-FC (Environmentaly Friendly Inter City Aircraft powered by Fuel Cells). Son objectif est d'aboutir en 36 mois au premier vol en Europe d'un avion à pile à combustible. Le Politecnico de Turin coordonne ce projet européen en collaboration avec 10 universités et centres de recherche de différents pays. C'est l'unique projet de ce type au niveau européen.

L'ingénieur Giulio Romeo explique : "Il existe deux phases. D'une part, nous visons à la réalisation d'un avion sans pilote, un UAV de 70 mètres alimenté par énergie solaire et pile à combustible. D'autre part, des études plus théoriques sont développées". Le prototype nommé "Heliplat" aurait beaucoup d'avantages environnementaux, mais aussi de nombreuses applications pratiques. Ses caractéristiques techniques (une autonomie de vol de 3 à 4 mois sans escale, un coût de 800 à 1000 euro l'heure - contre 5 à 6 mille des avions standards) le rendraient idéal pour les tâches de surveillance de l'aire méditerranéenne. Alimenté grâce à des panneaux solaires pendant le jour et par des piles à combustible durant la nuit, cet avion pourrait voler à près de 20 milles mètres d'altitude. Ce système pourrait alimenter, dans 15 ans, des petits avions biplaces pour des vols courts.

"Le plan de travail prévoit tout d'abord la modification d'un avion biplace : le système de propulsion traditionnel sera remplacé par des piles à combustibles. De nombreux tests seront effectués sur ce prototype pour analyser ses avantages techniques et améliorer son rendement".

EP

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top