RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 409
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 07 Décembre 2006
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Alcatel effectue la première démonstration en Europe de télévision mobile
François Loos installe le Forum du très haut débit et propose un plan d'actions ambitieux
Un tracteur sans pilote, guidé par GPS
Vers le papier auto-effaçable !
Matière
Un projet de recherche de pointe permet de re-transformer le CO2 en carburant
Les collectivités autorisées à titre expérimental à utiliser des huiles végétales pures dans leurs véhicules
Energie éolienne : le grand décollage
Espace
L'Europe dit oui au très grand télescope
Une planète géante baignant dans la magnétosphère de son étoile
Terre
Le vide poussé pour éliminer les PCB des déchets
Vivant
BioPark : la Haute-Savoie se dote d'un grand centre de recherche contre le vieillissement
La pharmacogénomique va bouleverser les traitements médicaux
Diagnostic du cancer du sein : une technique pour s'affranchir de la biopsie
Homme
TV mobile attendue en 2013
Les secrets du "mécanisme d'Anticythère" enfin dévoilés
Edito
preserver la biodiversité aujourd'hui pour guérir demain



La pervenche de Madagascar, outre le fait d'être une jolie fleur aux couleurs éclatantes, renferme de nombreux alcaloïdes, dont la vinblastine et la vincristine, aux propriétés anti-cancéreuses (ces deux principes actifs sont utilisés dans le traitement de la leucémie et de la maladie de Hodgkin). Aujourd'hui, si l'on guérit les trois quarts des leucémies aiguës de l'enfant c'est grâce à ces alcaloïdes, isolés respectivement en 1958 et 1965, alors que la pervenche de Madagascar était au bord de l'extinction.

Des chercheurs américains de l'Université Wake Forest (Utah) ont découvert que des toxines issues du venin de cône, un mollusque marin, pourraient permettre la mise au point de nouveaux antalgiques capables de soulager les douleurs rebelles d'origine neurologique. Testées chez des souris souffrant de névralgie, ces toxines ont donné d'excellents résultats. La toxine de cône peut arrêter la douleur neurologique en bloquant les récepteurs cellulaires, ouvrant ainsi un vaste champ de recherche pour la mise au point d'une nouvelle classe de médicaments antalgiques. (Voir article du PNAS).

En Australie, des chercheurs de l'université d'Adelaïde ont identifié chez la grenouille verte une substance particulièrement efficace pour prévenir les piqûres de moustique. (Voir article du Médical News).

Cette substance pourrait déboucher sur de nouvelles armes préventives contre le paludisme qui affecte encore des centaines de millions de personnes dans le monde. Une autre grenouille australienne, du genre Litoria, produit dans ses sécrétions plus de 30 agents antibactériens !

Une autre grenouille africaine, Xenopus laevis (grenouille à griffes) est à l'origine, en 1987, d'une nouvelle famille de peptides, les magainines.

Ces peptides possèdent la capacité remarquable de faire éclater la membrane d'une multitude de bactéries, y compris celles résistant aux antibiotiques traditionnels. Ces magainines offrent de multiples perspectives thérapeutiques non seulement dans le domaine antibactérien mais aussi comme antifongique et anticancéreux.

On voit donc que la nature contient encore d'extraordinaires potentialités ignorées ou sous exploitées qui permettront demain de mettre au point de nouvelles familles de médicaments dans les domaines les plus variés. Mais la nature peut également nous servir de modèle et de source d'inspiration pour mettre au point des innovations technologiques majeures. C'est ainsi que lors de la conception de la tour Eiffel, Maurice Koechlin, un assistant d'Eiffel, l'architecte de la tour, a été inspiré par la forme et la structure du fémur, qui est l'os le plus solide du corps humain.

Dans les années cinquante, l'ingénieur suisse Georges de Mestral s'est directement inspiré du mécanisme d'accrochage à l'aide de minuscules crochets recourbés des fruits secs d'une plante des montagnes, la bardane, pour mettre au point sa célèbre bande Velcro.

Tous les amateurs de Science-Fiction qui ont lu "Dune" de Frank Herbert, dans les années 70, se souviennent des "distilles" utilisées par les Fremen sur Dune, une planète désertique, pour capter la moindre gouttelette d'eau. Mais la réalité dépasse souvent la fiction et deux chercheurs britanniques, Andrew Parker, zoologue de l'université d'Oxford, et Chris Laurence ont découvert en 2001 l'extraordinaire mécanisme grâce auquel le scarabée de Namibie parvient, dans un environnement désertique et très sec, à capter la moindre trace d'humidité dans l'air. A partir de ces recherches, les scientifiques avaient imaginé qu'il serait possible de collecter de l'eau en utilisant des toiles dont la surface reproduirait la structure mixte du scarabée. (Voir article)

S'appuyant sur cette découverte britannique, deux chercheurs américains, Robert Cohen et Michael Rubner, du Massachusetts Institute of Technology (MIT), ont réussi à recréer artificiellement ce processus naturel à partir d'un support en verre et en plastique. (Voir article du MIT)

Le scarabée de Namibie, pour survivre, est devenu une merveille d'adaptation à son environnement : il utilise sa carapace rugueuse, constituée alternativement de minuscules creux hydrophobes et de bosses hydrophiles. Il ne reste plus qu'à ce surprenant insecte à s'orienter dans la direction du vent de brume. La vapeur d'eau contenue dans l'air s'accumule sur les pics hydrophiles sous forme de minuscules gouttelettes de 15 microns de diamètre. Ces dernières sont collectées par les canaux hydrophobes inclinés, et finissent par couler vers l'orifice buccal de l'insecte.

S'inspirant de cet extraordinaire mécanisme, Cohen et Rubner ont trempé à plusieurs reprises des substrats de verre ou de plastique dans des solutions de polymères. En accumulant ainsi les couches, ils sont parvenus à contrôler la porosité de la surface. Ils ont ensuite ajouté des nanoparticules de silice pour augmenter la rugosité qui piège les gouttelettes d'eau. En dernier lieu, ils ont déposé une couche d'une substance similaire au Téflon pour rendre le matériau très hydrophobe.

Ils ont ainsi pu reconstituer la structure hybride de la carapace du scarabée, caractérisée par une alternance de zones hydrophobes et hydrophiles. Le matériau obtenu permet de piéger dans la couche poreuse la moindre gouttelette d'humidité dans l'air puis de transporter cette eau sur la partie lisse. "Je pense que nous tenons l'usine chimique du futur, déclare M. Cohen qui précise " Il existe de nombreuses applications que nous n'avons pas imaginées."

Enfin, des chercheurs de l'Université de Sydney en Australie ont synthétisé des molécules de type chlorophylle qui sont capables de convertir la lumière en électricité avec un bien meilleur rendement -40 %- que les cellules photovoltaiques actuelles (15 %), c'est-à-dire de reproduire la première phase de la photosynthèse. Les chercheurs vont à présent réaliser des prototypes de cellules incorporant ces molécules synthétiques avant de se lancer dans la production commerciale de panneaux solaires en collaboration avec l'Université d'Osaka au Japon.

Ces quelques exemples nous montrent à quel point la préservation de l'environnement et de la biodiversité est une priorité absolue pour l'espèce humaine car demain, les innovations de rupture en médecine, en électronique, en nanotechnologies ou en énergie s'inspireront, pour la plupart d'entre elles, des mécanismes et des structures extraordinairement sophistiquées et efficaces que la nature a su produire après des millions d'années d'évolution et d'adaptation au milieu.

C'est pourquoi nous devons à présent bien comprendre que le coût de préservation de notre environnement et de la diversité du vivant sera toujours moins élevé que les conséquences désastreuses provoquées par la destruction accélérée, chaque année, de milliers d'espèces animales et végétales. Il est donc temps que l'environnement cesse d'être une variable d'ajustement du développement économique et en devienne la finalité ultime.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Alcatel effectue la première démonstration en Europe de télévision mobile
Vendredi, 08/12/2006 - 00:00

Alcatel a annoncé la démonstration réussie de la première diffusion en mode broadcast dans la bande S de chaînes de télévision sur des téléphones mobiles en Europe. Cette démonstration a eu lieu dans les locaux d'Alcatel au Royaume-Uni. Elle utilise le nouveau standard DVB-SH (Satellite services for Handhelds, services satellitaires pour mobiles) en cours de rédaction par le Projet DVB. Pour réaliser cette démonstration, Alcatel a été assisté par les diffuseurs britanniques Sky, ITV et BBC.

Les représentants des opérateurs mobiles européens, des chaînes de télévision, des analystes industriels et des régulateurs qui assistaient à cette démonstration ont pu apprécier la qualité des images diffusées sur les terminaux SAGEM myMobileTV. Ces terminaux utilisent la bande S, une bande de fréquences télécom entre 2,17 GHz et 2,20 GHz. Ce spectre de 30 MHz est actuellement disponible à travers toute l'Europe ainsi que dans d'autres régions importantes du monde.

Le DVB-SH est une nouvelle technologie dédiée à la bande S. Le DVB-SH est un standard frère du DVB-H. Avec cette technologie, les signaux de télévision mobile peuvent être diffusés en mode broadcast depuis des satellites comme depuis des répéteurs terrestres directement sur des terminaux mobiles. Les terminaux DVB-SH sont conçus de telle façon qu'ils deviennent compatibles avec le DVB-H de façon à ce que les deux standards puissent être reçus sur le même terminal mobile.

Par ailleurs, Alcatel a démontré deux caractéristiques techniques majeures rendues possibles par l'utilisation du standard DVB-SH. La diversité d'antenne en réception, une caractéristique qui utilise deux antennes à l'intérieur d'un même terminal mobile, permet d'améliorer la qualité du signal dans des conditions difficiles. Par ailleurs, une amélioration de l'entrelacement temporel a permis de surmonter une dégradation de qualité en condition de mobilité. L'amélioration significative de la qualité a été démontrée grâce à ces deux caractéristiques du DVB-SH.

À l'occasion de cette démonstration, le Professeur Ulrich Reimers, Président du module technique du Projet DVB a déclaré : " Je suis enchanté d'avoir eu l'opportunité d'assister à une démonstration en direct de télévision mobile en bande S avant même que le nouveau standard de télévision mobile ait été finalisé. Dans le cadre du Projet DVB, nous avons décidé de donné un nouveau nom à ce standard - DVB-SH - le broadcast vidéo numérique du satellite vers les portables. Le DVB-SH représente un complément idéal des autres standards, tel que le DVB-H, qui typiquement utilise des fréquences UHF mais est capable d'utiliser la bande L. Ainsi, le DVB-SH pourrait avoir un impact significatif sur l'industrie de la télévision mobile dans son ensemble. "

Alcatel

François Loos installe le Forum du très haut débit et propose un plan d'actions ambitieux
Vendredi, 08/12/2006 - 00:00

François Loos, ministre délégué à l'Industrie, a réuni le 27 novembre à Bercy l'ensemble des acteurs concernés par le développement du très haut débit en France, en installant le Forum du très haut débit, composé des opérateurs, des équipementiers, des collectivités locales, de l'ARCEP et des différentes administrations. Ce Forum sera un lieu d'échanges de bonnes pratiques, une force de proposition aux pouvoirs publics et un observatoire des déploiements des réseaux très haut débit.

François Loos a également présenté à cette occasion un plan d'actions du très haut débit, comprenant 15 mesures précises, qui visent à établir un cadre favorable à l'investissement des opérateurs dans les réseaux à très haut débit et soutenir le développement de nouveaux services. L'action des pouvoirs publics visera principalement à :

- réduire les coûts de déploiement des réseaux très haut débit ;

- soutenir l'action des collectivités territoriales ;

- renforcer la R&D et le développement des usages ;

- créer un lieu d'échange de bonnes pratiques sur le développement du très haut débit.

Le Ministre a précisé : « Mon objectif est que d'ici 2012, 4 millions de foyers soient en France connectés au très haut débit. C'est ambitieux, mais à notre portée, c'est une chance pour notre compétitivité, la croissance et l'emploi ».

Plan d'action du très haut débit

Les 15 mesures de ce plan d'actions visent principalement à établir un cadre favorable à l'investissement des opérateurs dans les réseaux à très haut débit et à soutenir le développement des nouveaux services à très haut débit qui constitue un atout pour notre compétitivité, la croissance et l'emploi.

Mesure 1 : Rendre possibles des offres de location des fourreaux

Mesure 2 : Faciliter l'accès au génie civil existant (gaz, électricité, télécom, réseaux eaux pluviales et eaux usées ...)

Mesure 3 : Permettre une approche locale (différenciant les zones) lors de l'analyse des marchés relatifs au très haut débit

Mesure 4 : Pré-câbler les logements neufs dans le cadre du label « logement multimédia »

Mesure 5 : Faciliter l'accès aux gaines dans les immeubles existants

Mesure 6 : Mutualiser le câblage interne des immeubles entre opérateurs

Mesure 7 : Pré-câbler les bureaux neufs

Mesure 8 : Promouvoir le Très haut débit pour les entreprises dans le cadre du label « Zones d'activité très haut débit »

Mesure 9 : Faire pratiquer des montants de redevances avantageux pour les fourreaux vides et dégressifs selon leur taux de partage

Mesure 10 : Evaluer l'intérêt de réutiliser les câblages aériens électriques ou téléphoniques préexistants

Mesure 11 : Compléter les informations fournies par les opérateurs aux gestionnaires de domaines publics

Mesure 12 : Faciliter la pose de fourreaux ou de fibres par les opérateurs lors des actions de voirie réalisés par les collectivités et encourager la réalisation de travaux de génie civil « allégés »

Mesure 13 : Recourir aux fonds structurels européens pour le financement des infrastructures très haut débit

Mesure 14 : Renforcer la R&D et le développement de services innovants sur le très haut débit dans le cadre des projets de pôles de compétitivité

Mesure 15 : Faire du Forum du très haut débit, un lieu d'échanges de bonnes pratiques, une force de proposition aux pouvoirs publics et un observatoire des déploiements des réseaux très haut débit

MI

Un tracteur sans pilote, guidé par GPS
Vendredi, 08/12/2006 - 00:00

Quatre exploitations agricoles basées dans l'Oise se sont regroupées pour expérimenter un tracteur sans pilote. Le système de guidage GPS équipant le tracteur se compose de trois antennes. Deux d'entre elles sont installées sur le toit de la cabine, assurant un premier suivi, tout en apportant les corrections nécessaires en fonction de la courbe de niveau. Basée au sol ou sur un bâtiment dans un rayon de 10 kilomètres, la troisième antenne effectue une triangulation, corrigeant les effets de rotation de la terre, dans l'optique de garantir une précision de plus ou moins 2 centimètres au passage du tracteur.

Des capteurs installés au niveau des roues permettent au boîtier du GPS de suivre au plus près leur position. En fonction des données satellite, l'ordinateur reconstitue le tracé à suivre, tout en conservant une maîtrise parfaite de l'état du tracteur. Il agit en outre sur la direction du véhicule par le biais d'un dispositif hydraulique installé à l'arrière. L'investissement du projet représente 50 000 euros pour les quatre exploitations agricoles impliquées dans le projet. Le retour sur investissement est estimé à 4 ans, pour 900 hectares de terre au total à cultiver chaque année.

JDNet

Vers le papier auto-effaçable !
Vendredi, 08/12/2006 - 00:00

Les ingénieurs de Xerox viennent de dévoiler une technologie permettant de réutiliser un grand nombre de fois des papiers pourtant déjà imprimés. Le procédé est simple : en 24 heures, le texte s'estompe sous l'effet de la lumière ambiante jusqu'à disparaître totalement de la feuille. Aussi, cette dernière peut être remplacée dans l'imprimante pour une utilisation ultérieure. Entre 25 et 50 réimpressions sont d'ores et déjà possibles, mais Xerox envisage d'accroître nettement ce résultat qui « mènera à terme à une réduction significative de l'usage du papier ».

Pour le spécialiste de l'impression, il s'agit de répondre à un phénomène qui épouse l'évolution de l'informatique et d'Internet. « Malgré notre utilisation des ordinateurs pour partager et traiter de l'information, il y a toujours une forte dépendance sur l'imprimé pour lire et assimiler l'écrit », explique Paul Smith, responsable des nouveaux matériels dans un des centres de développement de Xerox. On imprime des courriels et des pages Internet pour une lecture immédiate, plus confortable qu'à l'écran. On relie des documents juste le temps d'une réunion. Sur les 1200 pages imprimées en moyenne par mois au bureau par une personne, 44,5 % ne sont utilisées que pendant une journée. Et 21 % finissent dans la foulée à la corbeille, d'après les résultats d'une étude commandée par Xerox.

Xerox cherche à présent à affiner la résolution et à abaisser son prix pour qu'il ne représente plus que deux à trois fois celui des feuilles traditionnelles. Mais, sur ce marché très prometteur du papier autoeffaçable, Xerox est en concurrence avec Toshiba.

Le japonais a en effet dévoilé la semaine dernière une imprimante capable de retraiter 500 fois la même feuille. La B-SX8R n'utilise pas des feuilles ordinaires, mais un papier plastifié entièrement recyclable, comme celui utilisé sur les bouteilles de soda ou d'eau minérale. Une fois imprimée, la feuille peut être réintroduite dans l'appareil, effacée, puis réimprimée de nouveau. A l'instar des premières générations de fax, le procédé développé par Toshiba repose sur une réaction thermique : le pigment du papier noircit au-delà de 180 degrés, mais devient blanc quand la température est comprise entre 130 et 160 degrés. La chaleur produite à l'intérieur de l'imprimante permet ainsi d'imprimer ou d'effacer une page.

D'après Toshiba, ce mode d'impression réduit considérablement les émissions de dioxyde de carbone induites par la fabrication du papier. Là où la production traditionnelle de 1.000 feuilles génère quelque 6,5 kilos de CO2, le fabricant japonais n'émet qu'un seul kilo de CO2.

Pour l'heure, la B-SX8R n'est commercialisée qu'au Japon, au prix de 7.500 euros. Le coût de la feuille "réimprimable" 500 fois s'élève à un peu plus de 7 euros, mais son acheteur réalise toutefois l'économie d'autres consommables, comme les cartouches d'encre et les ramettes de papier. Toshiba compte proposer ce produit en Europe et en Amérique du Nord à l'horizon 2008.

IW

PCpro

^ Haut
Matière
Matière et Energie
Un projet de recherche de pointe permet de re-transformer le CO2 en carburant
Vendredi, 08/12/2006 - 00:00

Un projet de recherche européen d'avant-garde a permis de développer une méthode de transformation du dioxyde de carbone en combustible utile. Cette méthode, une fois affinée, pourrait aider le rêve à devenir réalité, à savoir capter le CO2 présent dans l'atmosphère pour le convertir en combustible utile. Selon, Gabriel Centi, directeur du projet, "la conversion du CO2 en combustible n'est pas du domaine du rêve, mais une possibilité effective qui nécessite la poursuite de la recherche.

La production viable de chaînes d'hydrocarbures issues du CO2 pourrait commencer dans une décennie". L'un des problèmes posés par le CO2 est son extrême stabilité : une fois formées, les liaisons chimiques du CO2 sont extrêmement difficiles à rompre. La nouvelle technique utilise des catalyseurs spéciaux pour faciliter la dissociation des molécules. C'est à juste titre que l'on peut parler de recherche de pointe, car même par catalyse, l'énergie nécessaire pour briser ces liaisons chimiques est énorme. Pour y parvenir, les chercheurs ont développé une méthode en deux étapes. Tout d'abord, des molécules d'eau sont décomposées par une source d'énergie solaire, à l'aide d'un catalyseur en titane, libérant ainsi des ions hydrogène, des électrons libres et de l'oxygène.

Ensuite, ces électrons libres sont utilisés pour réduire le CO2 et lier les atomes de carbone entre eux à l'aide d'un catalyseur platine-palladium disposé à l'intérieur de nanotubes de carbone. A l'étonnement des chercheurs, la méthode permet de produire des chaînes d'hydrocarbures composées de 8 ou 9 carbones avec un taux d'efficacité de 1 % à température ambiante, c'est-à-dire qu'elle est déjà deux à trois fois plus efficace que tous les autres procèdés industriels similaires de conversion du CO2. L'efficacité du procèdé pourrait encore être amélioré en utilisant l'énergie thermique générée par de grosses installations solaires thermiques.

BE

Les collectivités autorisées à titre expérimental à utiliser des huiles végétales pures dans leurs véhicules
Vendredi, 08/12/2006 - 00:00

Dominique Bussereau, ministre de l'Agriculture et de la Pêche, et François Loos, ministre délégué à l'Industrie, ont annoncé qu'à compter du 1er janvier 2007 les collectivités locales intéressées seraient autorisées, à titre expérimental, à utiliser des huiles végétales pures dans leurs véhicules (hors transport de passagers) dès lors qu'elles signeraient des protocoles avec l'Etat. Ces protocoles préciseront notamment les obligations de suivi des véhicules et de contrôles réguliers qui seront demandées aux utilisateurs.

Un amendement sera déposé au projet de loi de finances rectificative pour 2006 pour définir la fiscalité applicable aux huiles végétales pures dans le cadre de ces protocoles expérimentaux : elles bénéficieront du même niveau de fiscalité que celui s'appliquant au biodiesel. Les ministres ont fait cette annonce après la réunion des «acteurs du monde agricole et du secteur pétrolier, les constructeurs et équipementiers automobiles et les professionnels du machinisme agricole» afin de faire un bilan des actions accomplies depuis un an et de prendre de nouveaux engagements pour soutenir le développement des biocarburants en France.

MI

Energie éolienne : le grand décollage
Vendredi, 08/12/2006 - 00:00

Le vent qui fait tourner leurs hélices est une ressource inépuisable. Mais les pièces pour fabriquer les éoliennes sont limitées et les professionnels redoutent de ne pouvoir accompagner l'engouement mondial pour cette énergie propre. "Nous faisons tout ce que nous pouvons mais il est impossible d'accroître nos capacités de production du jour au lendemain", résume Peter Wenzel Kruze, porte-parole du numéro 1 mondial de l'éolienne, le danois Vestas. "Il y a un fossé entre la demande et la capacité industrielle et cela prendra des années avant de le combler. Il ne faut pas s'attendre à des miracles...", dit-il.

De plus en plus visibles dans les paysages européens, essentiellement sur terre mais aussi sur mer, les éoliennes ont bénéficié ces toutes dernières années de l'élan pour les énergies vertes et de la volonté de trouver une alternative au pétrole durablement cher. L'énergie électrique, produite par la force du vent, couvre aujourd'hui environ 3 % des besoins en Europe (20 % au Danemark, 8 % en Allemagen, 7 % en Espagne). Mais l'objectif est d'atteindre 22 % en 2030, selon l'association européenne de l'énergie éolienne (EWEA).

Entre 1995 et 2005, la production d'énergie éolienne a augmenté en moyenne de 32 % par an en Europe tandis que les installations se sont accrues d'environ 22 %. Même tendance aux USA où l'année dernière, la capacité de production électrique à partir du vent a augmenté de 36 % grâce aux subventions fédérales. Et à l'instar de la France, nombre de pays annoncent des programmes de fermes éoliennes ou offshore, une manne pour les industriels qui multiplient de juteux contrats mais aussi un casse-tête pour les honorer dans un délai raisonnable. Le problème "concerne presque tous les fabricants", "depuis quelques mois", explique une porte-parole du groupe d'énergie allemand REpower.

Si cela n'a pas de répercussion immédiate sur les résultats du groupe, elle concède que les capacités d'installation pourraient être moindres à l'avenir si les délais de livraison persistaient. L'EWEA, qui représente 80 % des professionnels du secteur, reconnaît de son côté que les délais de livraison des éoliennes, et des turbines en particulier, ne cessent de s'allonger. Mais elle dédramatise la situation. "Je ne peux pas dire que la forte croissance soit un problème. C'est un phénomène tout à fait normal dans l'industrie. Cela prend du temps, à la fois pour les fabricants et leurs sous-traitants, d'ajuster leur production", estime Christian Kjaer, président du lobby européen. Robert Gleitz, responsable de la division énergie éolienne chez General Electric, explique que pour l'instant, les difficultés d'approvisionnement ne concernent pas les composants majeurs comme les pales, les socles ou les nacelles.

Mais il souligne que pour les turbines, la livraison d'une commande ne peut être effective avant 2008 voire 2009. "L'industrie s'adapte et les industriels sont en train de réorganiser toute la chaîne avec leurs sous-traitants", explique Isabelle Valentiny, directrice de la communication de l'association européenne.

Les entreprises s'efforcent en particulier de convaincre leurs sous-traitants d'investir massivement et leur proposent pour les aider de nouer des contrats à très long terme. "Nous essayons de leur passer le message suivant : nous croyons en l'avenir de l'énergie éolienne, vous pouvez donc investir", souligne le porte-parole de Vestas. L'EWEA ajoute que le coût de l'éolien n'a cessé de baisser depuis les années 80. "La technologie produit 180 fois plus d'électricité que son équivalent dans les années 80. Elle est devenue mature et peut être désormais compétitive par rapport à d'autres énergies", explique Isabelle Valentiny, directrice de la communication. Elle souligne enfin qu'en 2010, grâce à l'énergie éolienne, la planète s'épargnerait la pollution de 523 millions de tonnes de dioxyde de carbonne (CO2).

AFP

^ Haut
Espace
Espace et Cosmologie
L'Europe dit oui au très grand télescope
Vendredi, 08/12/2006 - 00:00

Les astronomes européens se sont enfin mis d'accord sur les caractéristiques de ce qui sera dans une douzaine d'années le plus gros télescope du monde, avec son miroir de 42 mètres de diamètre, même si le projet sera moins ambitieux qu'espéré au départ.

"Nous avons obtenu ici à Marseille le consensus de la communauté scientifique" sur les spécifications du futur ELT (Extremely Large Telescope) européen, a annoncé Catherine Cesarsky, directrice générale de l'organisation astronomique européenne ESO, qui pilote le projet.

Ce feu vert des astronomes, après quatre jours de discussions, va permettre à Mme Cesarsky de soumettre le projet à son conseil d'administration, la semaine prochaine, afin d'engager les études détaillées.

Le futur instrument, dont le coût sera de l'ordre du milliard d'euros, sera doté d'un miroir 1.000 fois plus grand que la modeste lunette de 4 centimètres de diamètre qui permit à l'astronome italien Galilée de découvrir les quatre principales lunes de Jupiter. Il sera aussi plus de quatre fois plus gros que les instruments actuels les plus puissants, les deux télescopes américains Keck de 10 mètres de diamètre installés à Hawaï. Les études préalables à la construction de l'ELT devraient encore durer de trois à quatre ans, pour une entrée en service vers 2018.

Actuellement, les meilleurs télescopes terrestres en exercice appartiennent à la génération des ''très grands'', comme le VLT au Chili ou le Keck à Hawaii, avec des miroirs de 8 à 10 mètres de diamètre. Mais grâce au développement de l'optique adaptative et de l'optique active, qui permet de corriger les perturbations créées par l'atmosphère, les télescopes terrestres peuvent rivaliser avec leurs collègues spatiaux, comme le télescope spatial Hubble.

En dépit de son coût (1 md EUR), qui comporte encore un risque de dérive de 21 %, le projet européen ne représente qu'une fraction des 5 milliards d'euros nécessaires à la mise en orbite du successeur d'Hubble, le James Webb Space Telescope, dont le miroir sera bien plus réduit, avec ses 6,5 mètres.

Les Américains sont aussi engagés dans la course au gigantisme au sol, avec deux projets concurrents, l'un de 30 mètres (avec le Canada), l'autre de 21,5 mètres (avec l'Australie). La Chine et le Japon n'ont pas à ce jour de projets et finiront par s'associer aux projets européen ou américains, pronostique-t-on à l'ESO. Reste à déterminer le lieu d'implantation. L'ESO a mené une prospection à partir de données satellitaires qui n'a fait que confirmer que les meilleurs sites mondiaux étaient déjà bien connus. Elle n'a pas retenu Hawaï, où sont implantés les grands instruments américains, et l'Antarctique, pour des raisons de logistique.

E-ELT

Une planète géante baignant dans la magnétosphère de son étoile
Vendredi, 08/12/2006 - 00:00

Le catalogue des planètes extrasolaires ne cesse de s'enrichir régulièrement, comptant plus de 200 objets aujourd'hui, et la détection de nouvelles exoplanètes est presque devenue une routine. Mais quelles sont les caractéristiques des étoiles hôtes, comment expliquer la formation de ces systèmes planétaires, ou encore à quoi est due la migration de ces planètes géantes, que l'on nomme les « jupiters chauds », vers des orbites très serrées ? Les astrophysiciens soupçonnent le champ magnétique de jouer un rôle important dans ces questions. Pourtant, si des effets indirects d'un champ magnétique ont déjà été détectés sur des étoiles hôtes de planètes géantes extrasolaires, aucune mesure directe n'avait jamais été réalisée jusqu'à présent. C'est désormais chose faite !

Cette première vient d'être réalisée par une équipe internationale d'astrophysiciens à l'aide du spectropolarimètre ESPaDOnS qui équipe le télescope Canada-France-Hawaii. Ils ont en effet mesuré le champ magnétique de tau Bootis, une étoile âgée d'un milliard d'années, d'une fois et demie la masse du Soleil et située à environ 50 années-lumière de notre planète. Cette étoile froide peu active, autour de laquelle gravite une planète géante de 4.4 masses joviennes sur une orbite serrée de 0.049 UA (i.e. 5 % de la distance Soleil-Terre), possède un champ magnétique de quelques Gauss, soit à peine plus que celui du Soleil, mais de structure plus complexe.

Par ailleurs, les astrophysiciens ont également mesuré le degré de rotation différentielle de l'étoile car ils savent quel rôle crucial peut jouer ce paramètre dans la formation du champ magnétique. Dans le cas présent, la matière située à l'équateur tourne à une vitesse 18 % plus importante que celle présente aux pôles, et fait un tour de plus tous les 15 jours environ. Et en comparant la rotation différentielle de l'étoile avec la révolution de la planète géante extrasolaire, les astrophysiciens ont pu constater que la planète était synchronisée avec une latitude moyenne de l'étoile. Cette observation laisse augurer des interactions extrêmement complexes entre la structure magnétique de l'étoile et son compagnon, peut-être semblables à l'interaction de la magnétosphère de Jupiter avec son satellite Io.

Science.gouv

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le vide poussé pour éliminer les PCB des déchets
Vendredi, 08/12/2006 - 00:00

Aprochim, une PME de la Mayenne, a obtenu le premier prix des «Trophées des technologies économes et propres 2006» organisés par l'Agence de l'environnement et de la maîtrise de l'énergie (Ademe) avec une méthode qui limite les impacts environnementaux et améliore les conditions de travail.

Aujourd'hui, cette méthode est utilisée pour traiter des transformateurs d'EDF ou de la SNCF. Demain, son panel d'applications pourrait s'élargir. Cette technologie, comme celle qu'elle remplace en partie chez Aprochim, vise à éliminer les polychlorobiphényls (PCB) tels que le pyralène. Ces composés sont peu biodégradables et sous l'effet de la chaleur, ils peuvent libérer des composés à forte toxicité comme les furanes et les dioxines.

La méthode employée classiquement pour éliminer les PCB des déchets utilise un solvant, le perchloroéthylène (PCE). Il est classé cancérogène de catégorie 3 et nécessite le port d'équipements de protection par les travailleurs. Aprochim, société spécialisée dans la décontamination d'équipements électriques, emploie depuis un an une nouvelle méthode dont le principe existe déjà dans l'industrie agroalimentaire et l'aéronautique. Il s'agit d'appliquer un vide poussé aux déchets pour aspirer et condenser les PCB. Le contact des travailleurs avec le perchloroéthylène est ainsi évité.

De plus, la décontamination serait plus efficace que si du perchloroéthylène est utilisé, la consommation énergétique étant elle quasi équivalente. «Avec la technique du vide poussé, les rejets atmosphériques nuisibles à la couche d'ozone sont insignifiants», ajoute Alain Henri Keravec, directeur d'Aprochim. Selon lui, les teneurs en composés organiques volatils (Cov) rejetées sont de l'ordre de 1,5 milligramme par mètre cube (mg/m3) seulement, sachant que la limite imposée est de 20 mg/m3. De plus, le dispositif de filtration pour traiter les rejets est moins lourd et moins onéreux.

JDE

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
BioPark : la Haute-Savoie se dote d'un grand centre de recherche contre le vieillissement
Vendredi, 08/12/2006 - 00:00

La localité transfrontalière d'Archamps se prépare à accueillir fin 2007 le BioPark, une grande plate-forme technologique qui sera dotée de 1.800 mètres carrés de laboratoires de recherche biomédicale axés sur la thématique du vieillissement. Ces études scientifiques, devraient mener « à l'élaboration de nouveaux médicaments, mais aussi à la création de nouveaux emplois » indique un communiqué du Groupe d'intérêt scientifique (GIS) à l'origine de ce projet.

Déjà, lors de l'annonce du site d'Archamps il y a 15 ans, le docteur Charles Mérieux mentionnait la vocation de la région frontalière à être une place idéale pour les biotechnologies entre Lyon, centre de virologie industrielle, et Genève, siège de l'OMS. Et de préciser « il existe une tradition d'humanisme scientifique à Lyon et à Genève ». Alors que la vieillissement des populations est devenu un enjeu de santé majeur dans ce 21ème, mais également un enjeu sociétal et économique important, la thématique du BioPark est clairement ciblée : c'est celle du vieillissement, de la longévité et du bien-être.

Rappelons que chaque année, la durée de vie modale augmente de trois mois et les démographes s'attendent à ce que, d'ici 2050, l'espérance de vie à la naissance atteigne 100 ans dans certaines sociétés. Si la plupart des gens vieillissent en bonne santé, les médecins constatent une augmentation concomitante des cas de personnes très fragiles et de ce fait dépendantes, ainsi que de la prévalence de maladies neurodégénératives telles que celles d'Alzheimer ou de Parkinson ou encore de la sclérose en plaques.

Appuyé dès le départ par le professeur Etienne-Emile Baulieu, alors président de l'Académie des Sciences, le projet BioPARK a souhaité fédérer autour de cette thématique les principaux acteurs régionaux de la recherche scientifique. C'est ainsi que s'est constitué en juillet 2006 un Groupement d'Intérêt Scientifique (GIS) transfrontalier dénommé « Institut de Recherche sur le Vieillissement, la Longévité & le Bien-être ». Ce GIS réunit côté français l'INSERM et le CNRS et côté suisse l'Université et les Hôpitaux Universitaires de Genève.

Les projets de recherche retenus par Biopark :

- un projet dans le domaine de l'immunologie visant à mieux comprendre le processus de fragilisation au grand âge

- un projet dans le domaine de l'imagerie nucléaire visant à mettre au point des radiotraceurs capables de détecter précocement des lésions cérébrales

- un projet dans le domaine de la médecine régénératrice

- un projet sur la régénération hormonale dans le système nerveux

SA

La pharmacogénomique va bouleverser les traitements médicaux
Vendredi, 08/12/2006 - 00:00

Trouver le moyen d'administrer le bon médicament à la bonne personne au bon moment, voilà ce que pourrait être la médecine de demain. Une étude en pharmacogénomique est en cours à l'Institut de cardiologie de Montréal (ICM) et si les résultats sont positifs, cette nouvelle façon de prescrire les médicaments pourrait bien être appliquée dans les hôpitaux d'ici trois ans. La pharmacogénomique étudie l'interaction entre l'hérédité génétique d'un individu et la réponse de son corps aux médicaments. Le projet d'étude de l'ICM consiste actuellement à évaluer 5000 patients qui souffrent d'effets secondaires liés à la prise de médicaments contre le cholestérol. « Le but, c'est d'arriver à identifier la base génétique d'un patient avec une simple prise de sang et de voir quel médicament réagit le mieux avec son profil. On assiste donc à la disparition de la méthode essais et erreurs qui est pratiquée encore aujourd'hui pour finalement offrir une médecine personnalisée », souligne Nathalie Laplante, coordonnatrice du projet de recherche.

D'après cette recherche, 10 % de la population souffrirait de douleurs causées par la prise de médicament contre le cholestérol. « Aux États-Unis, les effets secondaires sont la 6e cause de mortalité et la 5e cause d'hospitalisation. Avec la douleur, certains patients vont même jusqu'à arrêter de prendre leurs médicaments, et ça, ça peut être grave », ajoute Jean-Claude Tardif, directeur du centre de recherche à l'ICM.

« L'annonce de la première ébauche de la séquence du génome humain a permis de faire un pas de géant dans le domaine de la pharmacogénomique. Bien qu'on commence les études dans ce secteur, la pharmacogénomique est déjà bien installée pour le traitement du cancer. Il ne reste qu'à l'intégrer au traitement des maladies cardiovasculaires », explique M. Tardif.

Tout n'est pas encore réalité, mais si les chercheurs arrivent à un résultat positif à la suite de leurs recherches, cela pourrait avoir énormément de répercussions sur la vie des gens et sur la médecine en général. « Les gens sont moins habitués à la médecine en lien avec la génétique, mais l'ouverture d'esprit est là et c'est ce qui est important », souligne M. Tardif.

JDR

Diagnostic du cancer du sein : une technique pour s'affranchir de la biopsie
Vendredi, 08/12/2006 - 00:00

Une nouvelle méthode à ultrason mise au point par Richard Barr, professeur de radiologie du "Northeastern Ohio Universities College of Medecine" à Youngtown, pourrait améliorer le diagnostic du cancer du sein. Elle devrait permettre de différencier une tumeur bénigne d'une tumeur maligne sans avoir recours à une biopsie. Cette technique repose sur le comportement des tissus suite à une compression. En effet, le test met à profit les contrastes de dureté et de rigidité entre les excroissances tissulaires malignes et bénignes pour déterminer la gravite de la tumeur. 80 femmes ont participé à l'étude et des tests préliminaires ont été réalisés sur 123 tumeurs. 18 lésions cancéreuses et 105 grosseurs ont été diagnostiquées. Les biopsies effectuées par la suite ont validé ces résultats, seule une tumeur diagnostiquée comme maligne s'est avérée bénigne. Le pourcentage de sensibilité est de 100 % (tous les cancers ont été détectés) et la spécificité de 99 %. Ces travaux présentés lors de la réunion annuelle de la "Radiology Society of North America" à Chicago pourraient améliorer la confiance des patientes dans la fiabilité du diagnostic et réduire le nombre de biopsies (environ 50 % selon Barr). En plus de la douleur engendrée, le coût d'une biopsie est compris entre 500 et 1000$ et 75 à 80 % de celles-ci s'avèrent inutiles.

BE

^ Haut
Homme
Anthropologie et Sciences de l'Homme
TV mobile attendue en 2013
Vendredi, 08/12/2006 - 00:00

Le marché de la télévision mobile devrait représenter six millions d'utilisateurs et plus de 500 millions d'euros hors revenus publicitaires en France en 2013 et doubler en 2017, estime le cabinet OC&C Strategy Consultants dans une étude. Mais les auteurs de l'étude soulignent que la viabilité du développement de la télévision mobile dépend de la coopération des différents acteurs du secteur : opérateurs télécoms, sociétés de télévision et gestionnaires de réseaux.

Le cabinet estime indispensable de proposer un large choix de chaînes payantes et d'assurer une couverture étendue du territoire. Le projet de loi du 30 juin 2006 sur la télévision du futur, qui encadre notamment le développement de la télévision mobile, adopté le 22 novembre par le Sénat, a été transmis à l'assemblée nationale. La télévision mobile pourrait ainsi faire ses premiers pas à temps pour la Coupe du Monde de rugby en septembre 2007.

Dominique Baudis, président du Conseil supérieur de l'audiovisuel, a prédit début novembre à la télévision mobile "le même succès que le transistor". Le service de télévision mobile utiliserait la norme DVB-H (Digital Video Broadcast-Handheld), déclinaison de la télévision numérique terrestre (TNT), permettant de desservir un nombre illimité d'utilisateurs sans risquer d'encombrement des réseaux.

"Il faudra des émetteurs plus nombreux et plus puissants", a souligné Jean-Michel Cagin, associé chez OC&C, lors d'une conférence de presse présentant l'étude. Il a chiffré l'investissement initial pour le réseau à 300 millions d'euros.

En complément du DVB-H, qui utilise des émetteurs installés sur les territoires, des solutions combinant émetteurs terrestres et satellites sont à l'étude pour couvrir plus rapidement l'ensemble de la France. Alcatel a ainsi effectué la première démonstration en Europe de diffusion de chaînes de télévision sur des téléphones mobiles en utilisant le nouveau standard DVB-SH (S pour satellite).

Les constructeurs de téléphones portables se mettent eux aussi en ordre de marche pour la télévision mobile. Le finlandais Nokia, leader mondial du secteur, a annoncé début novembre qu'il comptait démarrer dans les prochaines semaines en Asie la commercialisation d'un nouveau modèle, le N92, qui permet de visionner des programmes de télévision. Plus de 50 millions de téléphones DVB-H devraient être vendus dans le monde pour l'ensemble du secteur d'ici 2010, selon le cabinet d'études Informa.

Le cabinet OC&C estime que les utilisateurs seraient prêts à payer cinq à sept euros par mois pour un service de télévision mobile. Les auteurs de l'étude soulignent la nécessité de parvenir à un accord sur le partage des revenus estimés entre distributeurs et ayant-droits. "La part des opérateurs de diffusion devrait être de l'ordre de 200 millions d'euros par an pour une douzaine de chaînes, compte tenu de l'investissement à réaliser et des coûts d'exploitation du parc d'antennes", explique l'étude. "Le solde, à savoir 300 millions d'euros en 2013 et 800 millions d'euros en 2017 reste à répartir entre les chaînes de télévision et les opérateurs mobiles". L'avènement possible de la télévision mobile illustre la convergence croissante entre les secteurs des médias et des télécoms.

Reuters

Les secrets du "mécanisme d'Anticythère" enfin dévoilés
Vendredi, 08/12/2006 - 00:00

Des chercheurs affirment avoir identifié les restes du plus vieil appareil connu de calcul mécanique, âgé de 2.000 ans. Le "mécanisme d'Anticythère", découvert dans la mer au sud de la Grèce, permettait d'indiquer avec précision des événements célestes. L'objet, baptisé d'après l'île près de laquelle il a été retrouvé en 1900, étonne les scientifiques par sa complexité. Cet assemblage corrodé d'engrenages et de roues ressemble aux entrailles d'une ancienne horloge très mal entretenue.

Mais les premiers appareils mécaniques ne sont apparus que plus de 1.000 ans plus tard en Europe occidentale. "C'était une calculatrice de poche à l'époque", explique John Seiradakis, un membre de l'équipe internationale de chercheurs qui a analysé les fragments en bronze, révélant des mécanismes cachés et une sorte de mode d'empoi écrit.

Les scientifiques ont utilisé une technologie par rayons-X et imagerie spécialement mise au point pour l'occasion. Ils ont été surpris par la "qualité technologique" du mécanisme, souligne Mike Edmunds, professeur d'astronomie à l'université de Cardiff et chef du projet. "Si les Grecs de l'Antiquité pouvaient faire ça, que pouvaient-ils faire d'autre?", s'interroge-t-il. Les conclusions des chercheurs ont été présentées lors d'une conférence de deux jours à Athènes et publiées dans la revue "Nature". Les 82 fragments qui subsistent sont datés entre -140 et -100. Ils contiennent une trentaine de roues d'engrenage et "sont couverts d'inscriptions astronomiques, mathématiques et mécaniques", souligne M. Edmunds. "C'était un calendrier de la lune et du soleil : il prédisait la possibilité d'éclipses, montrait la position du soleil et de la lune dans le zodiaque, la phase de la lune, et peut-être aussi la position de (...) Vénus et Mercure."

Le mécanisme d'Anticythère pouvait prédire une éclipse à une date et une heure précise. "Sa conception est merveilleuse et nous permet de nous rendre compte à quel point la civilisation de la Grèce antique avait un haut degré de technologie. Beaucoup plus peut-être qu'on le pensait", souligne M. Edmunds.

On ne sait pas précisément à quelles fins était employé l'objet. Xénophon Moussas, membre de l'équipe, spécule qu'il était utilisé pour la navigation ou la cartographie. Les premiers appareils comparables connus en Occident, des horloges mécaniques, ont été mis au point au Moyen-Age.

Le mécanisme d'Anticythère a probablement été construit sur l'île de Rhodes, qui a une longue tradition d'astronomie et de mécanique appliquée. Il a été découvert dans l'épave d'un navire romain, qui serait parti de Rhodes chargé d'un butin pillé en Grèce, alors sous le joug de Rome. Le bateau a coulé au premier siècle avant J-C. L'épave avait été découverte en 1900 par des pêcheurs d'éponges à 50 mètres de profondeur au large de la petite île d'Anticythère.

AP

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top