RTFlash

RTFLASH Recherche & Technologie
NUMERO 395
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 27 Juillet 2006
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Très haut débit par fibre optique : Orange lance son expérimentation
Basculement vers le tout numérique : c'est pour 2011
Les RFID au service des patients
Microsoft dévoile ses 12 commandements
Google lance un service d'informations routières en temps réel sur mobile
Un label «Confiance en ligne» pour renforcer la sécurité sur le Net
Avenir
Japon : le marché des nanotechnologies va exploser d'ici 2015
Matière
La production mondiale d'électricité éolienne multipliée par 10 en 10 ans
Vers l'électronique flexible
Fusion contrôlée : une étape décisive est franchie
Une pile à combustible japonaise trois fois moins volumineuse
Terre
Les glaciers alpins vont-ils disparaître en 2100 ?
Vivant
Le vaccin contre la grippe aviaire efficace à 80 % lors de tests cliniques
Cancer du sein : mieux vaut être mince!
Une nouvelle étape dans la compréhension de l'autisme
Douleur chronique : vers une nouvelle classe de médicaments
Recherche
Les transports publics berlinois misent sur l'hydrogène
La voiture hybride de nouvelle génération arrive
La voiture à hydrogène testée par des services publics
Edito
La presse de demain sera collaborative, personnalisée et virtuelle



La presse a connu depuis 20 ans une révolution technologique sans précédent et vit la plus grande mutation de sa longue histoire. L'explosion de la presse en ligne et des blogs mais également l'émergence d'une presse collaborative et d'un nouveau journalisme "civique" ont été au coeur du 59e Congrès mondial des journaux qui s'est déroulé à Moscou.

Le rédacteur en chef d'un nouveau type, devra non seulement parfaitement maîtriser les nouvelles technologies, mais avec l'avènement du journalisme citoyen, devra également "intégrer le défi de publier des articles soumis par ses lecteurs", estime le spécialiste Mark Glaser (PBS.org), dans le rapport "Tendances dans les salles de rédaction 2006", présenté par le WEF (World Editors Forum, Forum mondial des rédacteurs en chef).

Deux étapes décisives ont marqué cette mutation historique de la presse : en 2004, blogs, vidéos, photos d'amateurs ont témoigné du tsunami en Asie pour le monde entier.

Mais c'est surtout avec les attentats terroristes de Madrid, en 2003 et de Londres en 2005 que le journalisme citoyen s'est imposé, avec les photos prises grâce aux téléphones portables qui ont fait le tour du monde, analyse Dan Gilmor, célèbre auteur du livre "We the Media" et pionnier des blogs. En 2006, le New Orleans Times-Picanuye a utilisé massivement blogs et forums de discussions avec la population pendant et après l'ouragan Katrina.

"Finalement, c'est un nouvel état d'esprit qui est requis à l'âge numérique" poursuit M. Glaser. "L'ancienne mentalité des rédacteurs en chef parlant avec condescendance aux lecteurs n'est plus possible. On doit traiter les lecteurs sur un pied d'égalité".

Ce lien avec les lecteurs est illustré par le quotidien Bluffton today (Caroline du Sud), qui expérimente le "journalisme citoyen", avec un niveau de contenu "hyperlocal", a expliqué lors du congrès Steve Yelvington, vice-président du contenu et de la stratégie du groupe Morris. Le site web travaille en étroite coordination avec les lecteurs. La population envoie commentaires, photos et même recettes de cuisine. "Nous, journalistes, étions les gardiens de la vérité" dit M. Yelvington. "Maintenant, nous devons être là pour animer, donner la parole. Nous pouvons guider, en aucun cas contrôler".

Autre exemple, le quotidien espagnol El Correo (groupe Vocento, 124.000 exemplaires, 600.000 lecteurs), leader dans la région basque, offre deux pages quotidiennes à ses lecteurs qui par plusieurs canaux, de la simple lettre au site internet, peuvent envoyer textes, photos personnelles, questions en vue d'une interview, commentaires etc...

En Grande Bretagne, le vénérable Times vient de lancer un service de télévision sur internet. Le projet Le service, baptisé Times TV, sera dans un premier temps, alimenté par le contenu fourni par des médias tiers, comme Reuters. Mais, signe des temps, le quotidien, qui a retenu la leçon des attentats de Londres, envisage également de diffuser les vidéo réalisées par ses propres lecteurs, "si celles-ci présentent un intérêt du point de vue de l'actualité». Le journal annonce que 59,9 millions de pages ont été imprimées sur son site internet Times Online en mai. L'objectif affiché du Times est de tripler le nombre de pages imprimées les prochaines années.

Au Japon, en partenariat avec Hitachi, le quotidien japonais Nikkei s'apprête déjà à lancer, d'ici la fin 2006, une édition sur papier électronique qui présentera sous forme « téléchargée » la une du quotidien. Il suffira d'appuyer sur un bouton pour passer à une autre page. D'une durée de vie de 3 mois, ce quotidien électronique pourra même s'enrouler sur lui-même comme un vrai journal.

Le quotidien économique "Les Echos" actualisé en temps réel, sera testé sur des e-books à l'automne 2006 et des supports en feuilles plastiques numériques A4 et A5 en 2007. Le lancement grand public est prévu en 2008" ; les utilisateurs disposeront de tous les articles du journal du jour, accompagnés de leurs illustrations et infographies, de toute l'information en continu fournie par la rédaction Web des Echos, d'un journal économique audio en podcast, des articles du Financial Times et des compléments éditoriaux. «A terme, l'utilisateur pourra disposer d'une version totalement personnalisable», explique le groupe.

Par ailleurs, une quinzaine de magazines, sur la trentaine du groupe Cyber Press Publishing (CPP), devraient être disponibles sur le Net en septembre. Le groupe a, en effet, un projet de kiosque à journaux numérique. Tous les titres seraient consultables à partir du même site, appelé MonKiosque.fr. Il ne s'agit pas d'une version Web des journaux, mais bien de pages numérisées que l'on fait défiler d'un clic de souris. Dans ces conditions, cette consultation sera bien sûr payante, mais les tarifs et les formules d'achat sont encore à l'étude.

Il faut aussi évoquer le remarquable succès d'Agoravox, première plate-forme multimédia mise à la disposition de tous les citoyens en France qui souhaitent diffuser des informations inédites ou s'exprimer sur les grands sujets de société. Alors que les media traditionnels font descendre l'information du haut vers le bas, AgoraVox la fait circuler de manière transversale grâce à une équipe de «rédacteurs-citoyens » dont la grande diversité constitue la richesse.

A la lumière de ces nouveaux modes d'expression et de ces nouveaux médias on voit bien que la presse de demain sera donc profondément différente de celle d'aujourd'hui non seulement sur le forme et les supports, avec l'avènement proche du papier électronique mais également sur le fond car sa finalité et son impact social et informationnel vont à la fois s'étendre et se transformer. Le lecteur d'un quotidien en 2015 voudra à la fois prendre connaissance d'une information très spécialisée l'intéressant, même si cette information vient du bout du monde, et être informé de la vie culturelle de son quartier ou de son village et même pouvoir lire dans son journal des message à caractère personnel provenant de sa famille ou de ses amis.

Mais ce lecteur voudra également pouvoir réagie "à chaud" sur un article en devenant lui même coproducteur d'informations et de commentaires. Le journal interactif, personnalisé et multimédia de 2015 permettra cette extraordinaire souplesse rédactionnelle et informative et deviendra un fabuleux outil d'information mais aussi un outil puissant de convivialité et de création de nouveaux liens sociaux, et de nouveaux espaces de solidarité et d'expression démocratique.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Très haut débit par fibre optique : Orange lance son expérimentation
Vendredi, 28/07/2006 - 00:00

France Télécom a raccordé en Très Haut Débit (FTTH : Fiber To The Home), dans le cadre d'un pilote, une centaine de clients. Ils sont situés dans les 3°, 4°, 6, 7°, 13° et 16° arrondissements parisiens et 5 villes des Hauts de Seine (Asnières sur Seine, Boulogne Billancourt, Issy-Les-Moulineaux, Rueil Malmaison, Villeneuve-La-Garenne).

France Télécom a déployé cent kilomètres de fibre optique depuis ses équipements jusqu'aux appartements et pavillons des clients. France Télécom a choisi une technologie innovante avec du GPON (Giga Passive Optical Network). Le GPON permet d'atteindre des débits jusqu'à 2,5 Gigabits/s en descendant et 1,2 Gigabits/s en remontant.

Le pilote Très Haut Débit coûte 70 euros par mois (dont 2 mois gratuits). Il inclut Internet Très Haut Débit, la télévision numérique, le téléphone illimité. Il comprend également l'installation des équipements à domicile et la mise en service.

Ce pilote correspond à une évolution des usages multimédia vers plus de simultanéité, d'instantanéité, une qualité haute définition de l'image et du son. France Télécom proposera aux clients de tester de nouveaux usages. Parmi eux, la consultation de programmes TV interactifs, la visioconférence, de nouveaux modes de partage de contenus, de nouvelles expériences de jeux.

FT

Basculement vers le tout numérique : c'est pour 2011
Vendredi, 28/07/2006 - 00:00

Le projet de loi prévoyant le basculement vers le tout numérique le 30 novembre 2011 a été présenté le 25 juillet en Conseil des ministres et sera discuté au Parlement à la rentrée. Aujourd'hui, 16 mois après le lancement de la télévision numérique terrestre (TNT) fin mars 2005, prés de trois millions de foyers se sont déjà équipés et 58 % de la population y ont accès. En septembre prochain, ce taux doit passer à 65 %. Afin de faire en sorte que tous les Français aient accès à la TNT, le projet de loi prévoit que les chaînes privées qui investiront pour étendre leur couverture numérique bénéficieront d'une prolongation de la durée de leur autorisation, dans une limite de cinq années.

L'article 12 stipule par ailleurs que les trois groupes audiovisuels privés analogiques -TF1, M6 et Canal+ - se verront attribuer une chaîne numérique supplémentaire au moment de l'arrêt de la diffusion analogique. Objectif: les inciter à basculer rapidement vers le numérique. Mais cette disposition, on s'en doute, mécontente vivement les nouveaux entrants de la TNT, AB Groupe, Bolloré, NextRadioTV (BFM) et NRJ Group, éditeurs des chaînes NT1, Direct 8, BFMTV et NRJ 12, qui y voient un cadeau à des groupes déjà en position dominante sur le marché audiovisuel et rappellent que les trois grands groupes privés ont tout fait pour ralentir le développement de la TNT.

Ce basculement de l'analogique au numérique en 2001 doit libérer de précieuses fréquences - ce que l'on appelle le "dividende numérique" - convoitées par toutes les chaînes pour la TNT, la haute définition et la télé mobile. Mais l'attribution des chaînes « bonus » d'ici à 2012 ne sera pas automatique, car soumis à l'approbation du Conseil supérieur de l'audiovisuel auquel Renaud Donnedieu de Vabres a fixé un critère culturel : une participation suffisante à la création audiovisuelle et cinématographique française. Dans un tel cadre, TF1 pourra demander la diffusion de sa mini-généraliste TV Breizh mais pas de la chaîne d'information LCI. In fine. Le ministre affirme sa volonté de mettre en oeuvre une "stratégie de l'offre, des contenus", face au "risque" de voir l'univers des télécoms prendre une place prépondérante dans les médias.

Face à la menace de concentration des médias, le gouvernement invoque le dispositif anti-concentration qui limite à sept le nombre de chaînes que peut posséder un opérateur, et à 49 % la participation au capital d'une chaîne faisant plus de 2,5 % d'audience. il rappelle également que le CSA pourra "rejeter un projet présenté si celui-ci risque de porter atteinte au pluralisme". Le conseil supérieur de l'audiovisuel a, lui, jugé qu' "un équilibre doit être trouvé afin que les mesures tendant à favoriser le développement de la TNT n'aboutissent pas à renforcer la position des acteurs les plus puissants". Dans cette équation numérique délicate, le Gouvernement aura beaucoup de mal à concilier son objectif du passage rapide au tout numérique sans sacrifier les nouveaux acteurs de la télévision numérique.

Premier Ministre

Les RFID au service des patients
Vendredi, 28/07/2006 - 00:00

Les puces d'identification par radiofréquence (RFID) sont actuellement expérimentées dans les hôpitaux américains du New Jersey sur 280 patients volontaires qui ont accepté l'implantation d'une de ces puces par radiofréquence dans le bras. Ces puces permettent aux urgentistes de connaître rapidement le dossier médial du malade, lorsque celui-ci ne peut plus communiquer son identité ou parcours. Par contrecoup, elles diminuent le risque d'erreurs médicales et donc épargneront de coûteux procès pour les assurances.

A l'Ecole de Médecine de l'Université de Stanford, ces puces RFID sont utilisées pour éviter de tragiques erreurs dans le bloc opératoire. Concrètement, une puce RFID est intégrée dans chaque compresse et instrument médical. Une fois l'opération achevée, il suffit de passer un lecteur RFID au-dessus de la zone concernée pour s'assurer qu'aucune compresse ou instrument n'a été oublié dans le patient, un tel oubli pouvant entraîner des conséquences dramatiques.

8 patients ont servi de cobaye pour ces analyses. Toutes les compresses furent détectées en moins de trois secondes sans faux positif ou faux négatif dans les résultats. Quant au coût des puces, il devrait être compensé par l'économie de temps réallisé : il faut en effet savoir que chaque année près de 40 millions de compresses sont utilisées aux États-Unis. Les infirmières passent près de 15 à 30 minutes pour compter tout le matériel avant, durant et après chaque opération, sans pour autant réduire à zéro le facteur risque. Selon une étude menée dans le Massachusetts, l'oubli d'objets étrangers concerne près d'une opération sur 10 000. Selon une autre étude, les deux tiers sont des compresses. Ces objets ont été en tout, la cause de 57 morts aux États Unis en 2000.

Eurekalert

Microsoft dévoile ses 12 commandements
Vendredi, 28/07/2006 - 00:00

Microsoft a dévoilé le 19 juillet les douze règles qui régiront le développement de ses systèmes d'exploitation afin de ne pas brider la concurrence. Le géant de Redmond a enfin publié sa nouvelle bible, une série de Règles de bonne conduite afin d'écarter la menace des procès anti-trust qui pèse sur lui. Réunies au sein du programme "Voluntary" (volontaire), ces règles s'appliqueront à Windows Vista, le prochain système d'exploitation de Microsoft, et visent à garantir la transparence et l'interopérabilité de l'OS avec les produits concurrents. Ces nouvelles mesures se déclinent en trois volets :

-* Laisser la possibilité aux fabricants de PC et aux consommateurs d'utiliser des programmes qui ne soient pas édités par Microsoft

-* Fournir des données techniques aux développeurs de logiciels indépendants pour leur permettre de mettre au point des produits compatibles avec Windows

-* Editer des logiciels susceptibles de fonctionner sur diverses plate-formes.

Si ce nouveau cadre est respecté, les fabricants de PC pourront par exemple installer par défaut Google et Firefox, tout en écartant MSN et Internet Explorer. En outre, les nouveaux services Windows Live ne seront pas directement intégrés dans Windows Vista et les consommateurs auront la possibilité de les désinstaller.

Bien entendu ce n'est pas par hasard que Microsoft redécouvre les vertus d'une saine et loyale concurrence. Il s'agit pour le géant informatique de préparer le lancement dans les meilleures conditions de son futur système d'exploitation Windows Vista. Par ailleurs, Nelly Kroes, commissaire européenne à la Concurrence, a clairement fait savoir à Microsoft qu'il ne pourrait pas commercialiser Vista en Europe si de nouveaux programmes étaient préinstallés et vendus automatiquement avec le nouveau système d'exploitation. Enfin, Microsoft semble également avoir compris la leçon plutôt rude que vient de lui donner l'Union européenne en lui infligeant une amende de 280 millions d'euros pour n'avoir pas respecté certaines des mesures qu'il s'impose aujourd'hui.

Ce soudain accès de vertu de Microsoft suscite cependant des analyses et commentaires qui vont de l'ironie au scepticisme. Il est vrai que Microsoft était déjà censé respecter les règles qu'il redécouvre aujourd'hui. Huit de ces règles sur douze lui avaient été imposées en 2001 par un tribunal fédéral américain, à l'issue d'une longue procédure aux Etats-Unis. Les quatre nouvelles règles concernent Windows Live, l'ouverture de brevets aux développeurs de produits concurrents, le soutien aux standards de l'industrie et à la neutralité de l'Internet.

Reste à présent à voir comment ces "12 commandements" seront effectivement appliqués en 2007, date à laquelle expire l'accord antitrust conclu en 2001 entre Microsoft et le ministère de la Justice américaine.

Article @RTFlash

WP

Google lance un service d'informations routières en temps réel sur mobile
Vendredi, 28/07/2006 - 00:00

Google annonce le lancement dans plus de trente grandes villes américaines d'un service de cartes de circulation routière en temps réel accessible par téléphone portable. Google Maps for Mobile permettra de choisir une destination sur son téléphone portable et de demander à "consulter le trafic", a précisé son chef de produit Gummi Hafsteinsson. Google Maps calcule dès lors l'itinéraire pour se rendre au lieu demandé.

Les informations concernant la circulation sont envoyées au téléphone portable avec des indications de couleur: rouge pour embouteillé, jaune ou orange pour ralentissements et vert pour trafic fluide. Le service est accessible sur les navigateurs mobiles à l'adresse Google.

Google a annoncé qu'il fournirait des données exhaustives sur la circulation dans plus de 30 villes américaines. En effet, si vous habitez dans l'une des trente plus grandes villes des États-Unis, vous pourrez non seulement via votre mobile vous situer facilement, vous pourrez chercher un endroit précisément, mais mieux encore, vous pourrez dorénavant connaître le trafic routier, ceci en temps réel. Le géant basé à Mountain View en Californie compte annoncer l'apparition de l'option "show trafic" aujourd'hui-même.

Le fonctionnement de cette option est très simple. Trois couleurs bien différentes préciseront l'état de la route : vert, orange (ou jaune) et rouge, pour un état de la route que vous pouvez deviner aisément. Disponible complètement dans 30 grandes villes des USA pour commencer et partiellement dans d'autres villes (sans autres détails à ce sujet pour le moment), ce service fera certainement des émules, notamment du côté de Yahoo, qui propose déjà une vérification du trafic routier mais uniquement sur la toile.

Coogle

Un label «Confiance en ligne» pour renforcer la sécurité sur le Net
Vendredi, 28/07/2006 - 00:00

Le label « confiance en ligne », présenté le 11 juillet lors du 5e Comité interministériel pour la société de l'information, vise à renforcer la sécurité sur internet, notamment pour mieux protéger les mineurs et lutter contre les escroqueries. Il sera apposé sur les contenus et services internet dès début 2007. Il permettra aux internautes de repérer les sites et services sur internet qui se sont engagés à assurer leur sécurité. Le gouvernement a décidé de confier à une commission collégiale la gestion de ce label. Cette commission sera composée d'une quinzaine de membres représentant à parité l'État, les professionnels et les usagers. Elle aura vocation à attribuer ce label et à contrôler le respect des engagements correspondants. Pour son fonctionnement, cette commission qui sera mise en place à l'automne bénéficiera du soutien du Forum des droits sur l'internet.

Le label « confiance en ligne » reposera sur un cahier des charges précis que devront respecter les prestataires de service internet (fournisseurs d'accès à internet, opérateurs de téléphonie mobile, etc.) dans cinq domaines : la protection des mineurs, la sécurité des équipements informatiques des clients, la lutte contre les messages non sollicités (SPAM), la lutte contre les escroqueries, la coopération entre les prestataires et les autorités judiciaires et policières. Ce cahier des charges résulte des réflexions menées par le Forum des droits sur l'internet depuis plus d'un an, à la demande du ministre de l'Intérieur et du ministre en charge de la Famille. Il s'inscrit dans une démarche de responsabilité et de partenariat avec l'ensemble des acteurs concernés, et répond à l'attente des usagers et plus particulièrement des familles.

Premier Ministre

Confiance en ligne

^ Haut
Avenir
Nanotechnologies et Robotique
Japon : le marché des nanotechnologies va exploser d'ici 2015
Vendredi, 28/07/2006 - 00:00

Le marché japonais des nanotechnologies va exploser pour atteindre en 2015 près de vingt-cinq fois le niveau enregistré en 2004, prédit l'Institut de recherche Nomura (NRI) dans un rapport. En 2004, ces technologies du très petit, qui trouvent des applications dans un large éventail de produits et secteurs, représentaient un marché évalué par Nomura à 942 milliards de yens (6,43 milliards d'euros au cours actuel). En 2010, il devrait s'élever à 5.650 milliards de yens (38,4 milliards d'euros) et grimper ensuite à 23.061 milliards de yens (157 milliards d'euros) en 2015, indique l'institut dans son rapport à paraître le 1er août.

"La très forte croissance des nanotech repose sur trois piliers : d'une part l'augmentation des usages actuels des nanotech déjà développées, d'autre part le remplacement dans des produits existant de matériaux et systèmes par des nouveaux basés sur les nanotech, et enfin la création de marchés totalement nouveaux par le développement même des nanotech", précise NRI. Les plus fortes progressions auront lieu dans le secteur de la production (robots, machines de précision) qui passera de 6,8 milliards de yens en 2004 à 2.167 milliards en 2015, dans les produits médicaux et dentaires (de 9 milliards à 3.439 milliards), ou dans l'électronique (composants, mémoires, cellules) qui représentera 7.390 milliards en 2015 contre 128 milliards en 2004.

Le marché des "nanotech" dans le secteur de l'énergie (composants de piles à combustible ou batteries au lithium, cellules photovoltaïques) devrait également connaître un développement exponentiel pour s'établir à 4.666 milliards en 2015 contre 276 milliards en 2004.

Les évaluations tiennent en outre compte des gains de productivité et autres réductions de coûts inhérentes à l'emploi des nanotechnologies, a ajouté NRI.

NRI

^ Haut
Matière
Matière et Energie
La production mondiale d'électricité éolienne multipliée par 10 en 10 ans
Vendredi, 28/07/2006 - 00:00

Selon un rapport annuel de l'IEA Wind (Agence internationale de l'énergie - énergie éolienne), la confiance accrue dans l'énergie éolienne s'accompagne d'une augmentation de la contribution de cette source d'énergie à la production énergétique mondiale.

L'IEA Wind compte, outre la Commission européenne, 20 pays membres - dont 12 Etats membres de l'UE. Entre 1995 et 2005, la production totale d'électricité à partir de l'énergie éolienne dans les pays de l'IEA Wind a progressé de moins de 10 terrawatts/heure (TWh) à près de 100 TWh. La contribution de l'énergie éolienne à l'approvisionnement national en électricité a également augmenté de moins de 0,2 pour cent à 1,2 pour cent sur la même période.

Huit pays produisent aujourd'hui plus d'1 pour cent de leur électricité à partir de l'énergie éolienne (Australie, Danemark, Allemagne, Grèce, Irlande, Pays-Bas, Portugal et Espagne). Le Danemark est de loin le pays qui exploite le plus l'éolien, au point de satisfaire par cette source d'énergie pas moins de 18,5 pour cent de la demande d'électricité.

"L'énergie éolienne a atteint sa maturité technologique et peut désormais être exploitée dans de nombreux contextes différents ; elle est aujourd'hui sur un pied d'égalité avec les autres sources d'énergie utilisées dans les installations modernes de production d'électricité équipées pour les besoins et contraintes du 21e siècle," peut-on lire dans un message des présidents de l'IEA Wind.

La capacité globale installée dans les pays de l'IEA Wind a augmenté de plus de 20 pour cent en 2005, chiffre largement dépassé dans certains pays. La Corée arrive en tête, avec une augmentation de sa capacité de 233 pour cent, suivie par le Portugal (100 pour cent) et l'Australie (86 pour cent), la Norvège (69 pour cent) et l'Irlande (58 pour cent).

Depuis peu, divers pays font également état d'avantages environnementaux et économiques quantifiables liés à l'énergie éolienne. L'Australie estime que la production d'électricité éolienne a un impact environnemental équivalent au retrait de la circulation de 651.720 voitures. En Allemagne, l'éolien a permis de réduire les émissions de CO2 de 24,6 millions de tonnes ; en Espagne, l'électricité éolienne a permis d'économiser 300 millions d'euros en 2005 grâce à une baisse de 15 millions de tonnes des émissions de CO2.

En Europe, c'est l'Allemagne qui affiche les plus importantes capacités éoliennes (18.428 MW) et le plus grand nombre d'éoliennes (17.592). Le Danemark possède la plus grande capacité éolienne offshore, avec 423 MW. L'Espagne produit la plus grande quantité d'électricité éolienne (20,236 GWh).

Les pays de l'IEA Wind pointent une série de problèmes qui retardent le déploiement de l'énergie éolienne. Plusieurs pays, dont la Grèce et l'Espagne, font état d'un manque de capacité de réseau sur les bons sites d'implantation d'éoliennes. Les incertitudes quant aux effets de l'éolien sur la distribution de réseau ont également ralenti le développement de l'éolien dans certains pays.

Dans d'autres, le processus de planification et d'approbation constitue, lui aussi, une pierre d'achoppement. En 2005, l'Espagne a attribué le tassement de son taux de croissance de l'énergie éolienne à des retards administratifs au niveau des procédures d'autorisation, de la disponibilité des points de connexion au réseau et des modifications des plans stratégiques des autorités locales.

Cinq priorités de recherche identifiées en 2003 seront maintenues pour 2006 :

-* accroître la valeur et réduire les incertitudes ;

-* réduire les coûts ;

-* permettre une utilisation à grande échelle (intégration système) ;

-* minimiser les impacts environnementaux ;

-* intégrer l'éolien dans les futurs systèmes d'approvisionnement énergétique (stockage, hydrogène, autres énergies renouvelables).

Parmi les pays dotés d'un budget public pour la recherche, le développement et la démonstration (RD&D), c'est au Royaume-Uni que l'enveloppe financière a le plus progressé, passant de 2,43 euros en 2004 à 29,04 euros en 2005. Cette augmentation représente un effort concerté en vue de réduire les coûts de l'éolien offshore. L'Allemagne et la Norvège ont plus que doublé leurs budgets de la recherche, tandis que la Corée et le Mexique augmentaient également leur financement de la RD&D.

Rappelons qu'en France le gisement d'énergie éolienne récupérable est estimée à 70 TWh/an sur des sites terrestres et à 477 TWh/an sur des sites en mer, soit un total de près de 547 TWh/an, supérieur à notre consommation totale annuelle d'électricité ( 516 TWh en 2005).

Cordis

Vers l'électronique flexible
Vendredi, 28/07/2006 - 00:00

Des chercheurs de l'Université du Wisconsin ont mis au point une nouvelle technologie utilisant les propriétés cristallines du silicium et du germanium qui permet l'empilement et le dépôt en couches ultra minces de semi-conducteurs. Ces couches minces (seulement cent nanomètres d'épaisseur) peuvent être transférées sur du verre, du plastique ou d'autres matériaux flexibles, ouvrant ainsi un immense éventail de possibilités pour l'électronique flexible.

En outre, ce film semi-conducteur est réversible ce qui double le nombre de composants qui peuvent être implantés. Il est possible d'empiler ces couches afin de créer des circuits électroniques tridimensionnels. Dans des applications non informatique, l'électronique flexible commence déjà à avoir impact significatif. Les piles solaires, les cartes bancaires, les étiquettes radio (RFID), les applications médicales, et les écrans plats à matrice active pourraient bénéficier rapidement de cette nouvelle technologie. On pourrait par exemple imaginer, grâce à cette technique, des écrans flexibles de haute qualité et de faible consommation intégrés directement dans nos vêtements. Autre application envisagée: des micro appareils photo possédant une résolution et une sensibilité dix fois plus grandes que les meilleurs appareils actuels.

SD

Fusion contrôlée : une étape décisive est franchie
Vendredi, 28/07/2006 - 00:00

L'Agence japonaise de l'énergie atomique (JAEA) a annoncé avoir franchi une étape technique cruciale pour le projet de réacteur expérimental à fusion nucléaire contrôlée international ITER. La JAEA est parvenue à maintenir une décharge de plasma durant 1.000 secondes, alors qu'ITER se fixe pour objectif de la maintenir durant 400 secondes seulement, a-t-elle indiqué dans un communiqué.

C'est à l'état de plasma, le quatrième état de la matière (après le liquide, le solide et le gaz), que se produisent les réactions de fusion nucléaire. Pour créer un plasma, il faut décomposer les atomes en leurs constituants fondamentaux : des électrons et des noyaux chargés positivement. A cette fin, il est nécessaire d'atteindre une température de 100 millions de degrés à l'aide d'un système de chauffage par micro-ondes, ce qui donne naissance aux réactions de fusion entre un noyau de deutérium et un noyau de tritium. En créant une décharge de plasma de 1.000 secondes, le laboratoire japonais a donc largement dépassé l'objectif d'ITER de 400 secondes, et "une nouvelle étape a été franchie vers la réussite de l'expérimentation" que constituera réacteur international, s'est félicité la JAEA.

La fusion nucléaire contrôlée qui sera mise en oeuvre dans ITER consiste à tenter de reproduire les conditions de production d'énergie qui existent dans le soleil. La construction du réacteur à Cadarache (sud de la France) prendra dix ans. Le projet, qui s'étend jusqu'en 2035, a pour but de valider la possibilité de produire de l'énergie en grande quantité à partir de la fusion nucléaire. Le Japon s'était porté candidat pour obtenir ce site, mais les pays participants (Union Européenne, Russie, Chine, Japon, Corée du Sud, Etats-Unis, Inde) ont finalement choisi mi-2005 le site français après de longs mois de tractations.

Orange

Une pile à combustible japonaise trois fois moins volumineuse
Vendredi, 28/07/2006 - 00:00

Seiko Instruments a développé une pile à combustible PEFC (Polymer Electrolyte Fuel Cell) de type passif fonctionnant au borohydrure de sodium (NaBH4) et délivrant une puissance de 3 Watts, dont le volume a été divisé par 3 par rapport aux PEFC conventionnelles. Cette nouvelle pile à combustible est composée d'un générateur d'hydrogène, d'une cellule génératrice d'électricité et de circuits de contrôle. Le gain de volume est essentiellement dû à une amélioration de l'efficacité spatiale : réarrangement de la structure du générateur d'hydrogène, création d'un nouveau régulateur moins volumineux et mise au point d'une structure qui permet un approvisionnement constant en hydrogène. Ce produit devrait être commercialisé avant la fin de l'année 2007. Il servira de source d'énergie externe (à connecter à l'appareil une fois sa propre batterie déchargée) pour de nombreux appareils : téléphones et ordinateurs portables ou encore appareils photos numériques.

Be Japon

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les glaciers alpins vont-ils disparaître en 2100 ?
Vendredi, 28/07/2006 - 00:00

Michael Zemp de l'Université de Zurich et ses collègues ont constaté qu'entre 1850 et 1970, les glaciers alpestres avaient perdu 35 % de leur superficie totale ; en 2000, pratiquement 50 % de cette surface avait disparu. Leurs évaluations indiquent également que le volume glaciaire actuel ne représente plus qu'un tiers de celui occupé en 1850. En utilisant des modèles basés sur le rythme de régression des glaciers, sur les températures et les niveaux de précipitations prévus au cours du siècle à venir, les chercheurs estiment qu'un réchauffement de trois degrés de l'air estival réduirait la couverture actuelle des glaciers alpins de 80 %. De plus, si les températures devaient s'élever de 5°C, les Alpes se retrouveraient totalement dépourvues de glaces éternelles extérieures en 2100.

Selon le panel intergouvernemental sur le changement climatique (IPCC), une augmentation de la température de un à cinq degrés Celsius d'ici la fin du siècle est un scénario plausible. Les chercheurs suisses indiquent que pour chacun l'augmentation de température d'un degré Celsius, les précipitations devraient augmenter de 25 % pour compenser la perte glaciaire. « Notre étude montre que la majorité de glaciers alpestres pourraient disparaître au cours les prochaines décennies », souligne Michael Zemp, auteur de l'étude. Avec une augmentation de la température d'été de plus de trois degrés Celsius, seuls les plus grands glaciers, tels que le grand glacier d'Aletsch en Suisse, et ceux sur les crêtes de montagne les plus élevées pourraient voir le 22ème siècle.

BS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le vaccin contre la grippe aviaire efficace à 80 % lors de tests cliniques
Vendredi, 28/07/2006 - 00:00

L'un des vaccins contre le virus H5N1de la grippe aviaire que met au point actuellement GlaxoSmithKline s'est avéré efficace à faible dose pour 80 % des patients lors d'un test clinique effectué en Belgique, a annoncé le groupe pharmaceutique britannique. Quatre patients sur cinq parmi les 400 âgés de 18 à 60 ans ayant pris le produit à faible dose (3,8 microgrammes) ont montré une forte réaction immunitaire positive, a précisé Glaxo. "Des résultats efficaces à ce faible niveau de dosage n'ont été rapportés pour aucun autre prototype de vaccin en développement à ce jour, y compris ceux contenant d'autres adjuvants comme l'alun", a souligné le groupe, dont le produit contient un autre adjuvant.

GlaxoSmithKline compte déposer une demande d'autorisation de son vaccin auprès des autorités sanitaires "dans les prochains mois". Le groupe teste un autre vaccin en Allemagne contenant un adjuvant d'alun classique, pour lequel il a déjà soumis un pré-dossier d'agrément auprès de l'Agence européenne des médicaments (EMEA). Il pourrait ainsi obtenir rapidement une autorisation de production si les tests s'avéraient concluants. Plus de 30 prototypes de vaccin sont en cours de développement, selon un bilan dressé en mai par la Fédération internationale de l'industrie du médicament. Un prototype développé par le laboratoire français Sanofi-Pasteur s'est avéré protecteur, mais seulement à dose massive. Or, le manque de capacité de production des vaccins anti-grippe implique de trouver des procédés efficaces à faible dose.

BBC

Cancer du sein : mieux vaut être mince!
Vendredi, 28/07/2006 - 00:00

La prise de poids qui accompagne souvent la ménopause augmenterait le risque de cancer du sein. Notamment chez les femmes qui n'ont pas suivi de traitement hormonal substitutif (THS). A l'inverse, une perte de poids même légère diminuerait ce risque. Le Pr Heather Eliassen, du Brigham and Women's Hospital de Boston, a travaillé à partir de la Nurses'Health Study, qui avait concerné près de 100 000 infirmières américaines de 30 à 55 ans.

Selon ses analyses, une femme qui prend 10 kilos au cours de sa ménopause voit son risque de cancer du sein augmenter de 18 % par rapport à une autre femme, dont le poids resterait bien contrôlé. Et un gain de plus de 25 kilos depuis l'âge de 18 ans accroît le risque de... 45 % ! Bonne nouvelle toutefois, pour celles qui perdent du poids. Un amincissement de 10 kilos, toujours dans les années de la ménopause, réduit le risque de 57 % par rapport à une femme qui a maintenu son poids depuis l'âge de 18 ans. Comme quoi un régime alimentaire, ce n'est pas bon que pour l'image...

JAMA

Une nouvelle étape dans la compréhension de l'autisme
Vendredi, 28/07/2006 - 00:00

Une étude américaine vient de montrer que les personnes souffrant d'autisme possèdent moins de neurones dans une zone du cerveau dont dépend l'expression des émotions et le comportement social. Pour arriver à cette conclusion les chercheurs ont examiné dix-neuf cerveaux appartenant à des personnes décédées entre les âges de 10 et 44 ans, dont neufs souffraient d'autisme, ont été passés en revue par les chercheurs de l'université américaine de Californie. Grâce à une technique nommée « analyse stéréologique », ces chercheurs ont pu dénombrer les neurones des cerveaux dans une zone appelée « Amygdale », pour sa forme d'amande. Les autistes possèdent un nombre significativement inférieur de neurones dans cette région du cerveau, un résultat qui vient confirmer le lien pressenti entre cette zone et l'autisme.

L'amygdale est une partie du cerveau qui intervient notamment dans le processus de mémorisation des émotions et dans le développement des comportements sociaux. Elle intervient par exemple dans l'apprentissage de la peur. Elle sert également à décrypter les émotions de nos voisins. Une étude précédente a montré que l'amygdale s'active lorsqu'il s'agit de deviner les émotions d'autrui en regardant les expressions de son visage. Chez les sujets autistes, l'activation de cette zone n'a pas lieu dans cette situation.

Cette étude de l'Université de Californie confirme le lien entrer amygdale et autisme. Reste cependant à savoir si le dysfonctionnement de l'amygdale est la cause ou la conséquence de l'autisme. Pour élucider ce mystère, il faudra avoir recours à des techniques de pointe permettant de compter les neurones de personnes en vie, afin d'observer l'évolution de leur quantité chez des jeunes sujets autistes.

JN

Douleur chronique : vers une nouvelle classe de médicaments
Vendredi, 28/07/2006 - 00:00

Les mécanismes qui font que la douleur se chronicise sont complexes et ne sont pas tous élucidés. Ils impliquent des lésions nerveuses et des dysfonctionnements lors de la transmission du message nerveux. En France, plus de 10 % des actifs ont une incapacité de travail causée par une douleur chronique.

Jusqu'à présent les spécialistes de la douleur travaillaient essentiellement sur les neurones du canal médullaire (dans la colonne vertébrale) qui constituent la deuxième étape de la transmission du message douloureux vers le cerveau. Mais il est très difficile d'inhiber l'activité de ces cellules nerveuses car les médicaments doivent traverser la barrière méningée pour les atteindre.

Des chercheurs du centre médical de l'Université de Columbia (CUMC), New York Etats-Unis se sont eux penchés sur les neurones périphériques, première étape dans la conduction des stimuli douloureux. Ils ont découvert comment une protéine, la protéine kinase G (PKG), jouait le rôle d'un interrupteur dans la douleur. Activée, PKG est à l'origine de processus conduisant au message douloureux. La souffrance persiste tant que PKG reste activée et ce même si la cause initiale a disparu.

A l'inverse, si l'on inhibe PKG la douleur disparaît. Les médecins du CUMC testent actuellement plusieurs molécules capables de désactiver PKG. Ils ont déposé un brevet pour mettre au point une nouvelle classe de médicaments.

NO

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Les transports publics berlinois misent sur l'hydrogène
Vendredi, 28/07/2006 - 00:00

La compagnie des transports berlinois (BVG) va s'équiper de 250 bus à hydrogène a partir de 2007 et détiendra ainsi la plus grande flotte de bus a hydrogène en Europe. Le constructeur automobile MAN a déjà livré 2 bus à la BVG qui ont été testés lors de la Coupe du Monde de football. Ils ont transporté plusieurs milliers de passagers entre l'aéroport de Tegel et le stade olympique, parcourant plus de 8500 kilomètres. "Nous avons prouvé que les véhicules fonctionnant à l'hydrogène sont parfaitement fiables, même dans des conditions d'utilisation extrême" déclare M. Thierry Pflimlin, directeur de Total Deutschland. Avec l'augmentation croissante du prix du diesel, la BVG prévoit que le carburant hydrogène deviendra une alternative rentable a partir de la fin de la décennie. Aujourd'hui, le prix d'un bus à hydrogène s'élève a 360.000 euro, soit 80.000 euros de plus qu'un bus équipé d'un moteur diesel.

Cette différence de prix est prise en charge par l'Union Européenne. La BVG prévoit que d'ici trois ans, cette différence de prix ne devrait pas s'élever à plus de 20.000 euros. Outre cette initiative de la BVG, plusieurs projets concourent à faire de Berlin une "véritable métropole de l'hydrogène". Ainsi, TOTAL y a établi son centre de recherche sur les technologies de l'hydrogène. De plus, une station publique d'approvisionnement y a été mise en fonction dans le cadre du projet Clean Energy Project. Ce projet regroupe 9 entreprises (constructeurs automobiles, transports publics, groupes énergétiques) et a pour objectif de tester la viabilité de l'hydrogène en tant que source d'énergie.

BE Allemagne

La voiture hybride de nouvelle génération arrive
Vendredi, 28/07/2006 - 00:00

Une voiture familiale consommant 1,5 litre aux 100 km : ce rêve d'automobiliste par temps de choc pétrolier va se concrétiser grâce à une entreprise de Californie (ouest) qui modifie des véhicules "hybrides" pour les rendre capables de se recharger sur le secteur.

L'idée d'Edrive Systems est d'améliorer encore la technologie développée notamment par Toyota avec la Prius, une voiture consommant 4,5 litres au 100 km grâce à des batteries rechargées par son moteur à essence, qui font fonctionner un moteur électrique lors de courts trajets.

Les ingénieurs d'Edrive, société installée près de Los Angeles, ont installé dans la Prius, une voiture cinq places, des batteries sept fois plus puissantes que les originales et qui ont pour particularité de pouvoir se recharger en une nuit sur une banale prise de courant. Lors des 100 premiers kilomètres, cette "Prius branchée" consomme 1,5 litre aux 100 km, ce qui laisse espérer, dans des conditions idéales, une autonomie de... 3.000 km par réservoir. "Nous sommes en train d'affiner notre technologie et dans le même temps, la liste des personnes intéressées s'allonge, pour atteindre les milliers de noms", affirme Greg Hanssen, ingénieur en chef de l'entreprise, qui va d'abord tenter de conquérir la Californie du sud.

Toyota domine le marché américain des "hybrides" et a vendu 107.897 Prius en 2005 aux Etats-Unis, dont le tiers en Californie. La Prius modifiée est-elle la solution miracle à la dépendance des Etats-Unis au pétrole ? Le professeur Jim Williams, spécialiste de l'énergie à l'Université de Berkeley, remarque que si tous les véhicules américains étaient remplacés du jour au lendemain par ce genre de voitures, la consommation de pétrole du pays baisserait de 80%.

L'émergence de ce système intervient alors que "Who killed the electric car ?", un documentaire racontant le "meurtre" de la voiture électrique américaine par les groupes d'influence industriels et pétroliers est sorti le mois dernier, contribuant à alimenter le débat.

"Le système Edrive est l'alliance idéale de la voiture électrique propre et de la technologie hybride avec une autonomie illimitée", assure M. Hanssen, qui espère mettre ces batteries sur le marché d'ici à la fin de l'année. L'avant-garde a un prix : 12.000 dollars pour une batterie au lithium, qui viennent s'ajouter à l'achat d'une Prius, environ 27.000 dollars neuve. Mais M. Hanssen prévoit une baisse rapide des coûts.

L'initiative d'Edrive, alors que le prix du carburant à la pompe a plus que triplé aux Etats-Unis depuis 2001, a apparemment eu des répercussions chez Toyota, qui a annoncé que sa prochaine génération d'"hybrides" serait dotée d'une plus grande autonomie en mode électrique. "Nous sommes en phase de recherche et développement, et nous avons réussi à faire des progrès importants dans ce projet", déclare la porte-parole de l'entreprise japonaise, Cindy Knight : "mais tant que nous n'aurons pas pleine confiance dans notre produit, nous n'annoncerons pas de date de sortie".

Tout en saluant l'esprit d'innovation des ingénieurs d'Edrive, Toyota insiste sur le fait que la modification de la Prius annule la garantie du constructeur. M. Hanssen rétorque que son système ne modifie rien sous le capot et qu'il sera difficile de prouver qu'une panne a été provoquée par ses batteries.

EDS

La voiture à hydrogène testée par des services publics
Vendredi, 28/07/2006 - 00:00

Le moteur à hydrogène est actuellement testé aux États-Unis avec des prototypes utilisés par des services publics tels que la poste américaine. Le bénéfice à en attendre est évident dans la perspective d'un pétrole rare et cher mais le développement de la technologie se heurte encore à des obstacles. Lorsque Bob Sisk a commencé à livrer le courrier dans les années 60, on lui a fourni une Jeep de l'armée pour faire sa tournée dans la banlieue de Washington. Aujourd'hui en fin de carrière, le postier transporte lettres et colis dans un véhicule silencieux dont le tuyau d'échappement émet des gouttes d'eau.

M. Sisk fait partie des rares Américains à conduire à titre expérimental un véhicule à hydrogène dans le cadre de programmes pilotes mis en place dans tous les États-Unis. Alors que le prix de l'essence flambe, ces expérimentations sur le terrain aident les chercheurs à faire progresser cette technologie, qui pourrait révolutionner l'automobile.

Quasiment tous les constructeurs s'y mettent et la Maison Blanche soutient le développement de ces véhicules non polluants, dont les premiers exemplaires pourraient débarquer sur le marché à l'horizon 2020, voire plus tôt.

Mais la technologie en est encore à ses balbutiements et il reste encore de nombreux obstacles à leur commercialisation, comme leur coût élevé et leur autonomie limitée. Dans ce contexte, les programmes d'essai fournissent de précieuses informations aux constructeurs.

Bob Sisk utilise trois fois par semaine sa camionnette Hydrogen3, construite par General Motors. «Cela se conduit comme une voiture ordinaire», souligne-t-il. Le véhicule a une autonomie de 275 à 400 kilomètres et affiche une vitesse de pointe de 160 km/h, mais elle a moins de reprise au démarrage que les modèles à essence, souligne-t-il.

À Albany, dans l'État de New York, le commissaire adjoint John Spano dispose de deux Honda FCX à hydrogène dans le cadre d'un programme local en faveur des véhicules propres. Il souligne leurs bonnes performances, même si par le passé leur autonomie a chuté à 120 kilomètres par temps froid et qu'ils ont également refusé une fois de démarrer alors que la température était descendue à -12 degrés. «C'est silencieux et rapide. Nous n'avons eu absolument aucune récrimination à leur encontre», précise M. Spano.

Les démarrages à froid et l'adaptation aux climats désertiques sont quelques-uns des défis auxquels ces véhicules sont confrontés, sans parler d'un autre handicap : leur prix. Il faut compter un million de dollar (800 000 euros) par modèle. Une production de masse n'est donc pas envisageable pour le moment.

La Californie a lancé un ambitieux projet pour répondre à un autre problème : le manque de stations-service pour les véhicules à hydrogène. L'État en compte 16 actuellement et une dizaine d'autres sont en cours de développement, selon l'Association nationale de l'hydrogène. Aux États-Unis et au Canada, 37 sont en service au total et 22 autres devraient voir le jour d'ici un an et demi. «Nous pensons que cette technologie augmentera simultanément notre indépendance et notre sécurité énergétiques et permettra à l'automobile de ne plus être une source d'émissions (polluantes)», résume Byron McCormick, un responsable de General Motors.

Canoe

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top