RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 425
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 05 Avril 2007
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Comment réduire la fracture numérique d'ici 2010 ?
Le classement TIC 2007 du World Economic Forum consacre l'excellence des pays nordiques et la mauvaise position de la France
Télécoms : l'Europe veut séparer services et infrastructures
Avenir
Des robots bientôt affectueux ?
Matière
Energie éolienne : de l'électricité même sans vent !
Portugal : La plus grande installation d'énergie solaire au monde est en service
Des chercheurs manipulent un liquide avec de la lumière
Terre
Le Sommet mondial sur le climat confirme les prévisions alarmistes du GIEC en matière de réchauffement climatique
Vivant
Transfusion sanguine : vers des donneurs universels !
Maladies cardio-vasculaires : médicaments et stents à égalité !
Mucoviscidose : une nouvelle approche thérapeutique
Amnésie sélective : comment effacer un souvenir traumatique
Recherche
Record absolu de vitesse sur rail pour le TGV à 575 km/heure !
Inauguration de la première autoroute ferroviaire
Edito
L'Allemagne mise sur l'énergie solaire



On connaît la position dominante de l'Allemagne en matière d'énergie éolienne mais on sait moins que notre voisin est également devenu un géant mondial en matière d'énergie solaire. L'Allemagne, qui n'est pourtant pas réputée pour son climat très ensoleillé, compte sur ses toits une surface installée de capteurs solaires thermiques de quelque 7 millions de m² représentant une puissance thermique de 4 700 mégawatts. 4 % de l'ensemble des foyers allemands font d'ores et déjà appel au solaire en tant que source de chaleur durable et écologique. Pas moins de 270 millions de litres de fioul sont ainsi économisés chaque année. En 2006, l'Allemagne a produit plus de 1500 MW d'électricité photovoltaïque, soit les 3/4 de l'électricité solaire européenne et le tiers de l'énergie solaire photovoltaïque mondiale !

L'Allemagne dispose à présent d'un savoir-faire technologique et industriel qui en fait, comme c'est déjà le cas pour l'éolien, le leader européen en matière d'énergie solaire, avec toutes les retombées très positives que cela entraîne en terme de création d'emplois qualifiés. Lorsqu'on analyse de près le leadership allemand en matière d'énergie solaire on s'aperçoit que ce n'est pas tant la hausse du prix du pétrole qui explique le décollage du solaire Outre Rhin que la loi sur les énergies renouvelables promulguée en 2000 par le gouvernement allemand. Cette loi, la Erneuerbare-Energien-Gesetz (EEG), fixe la hauteur de l'achat d'électricité provenant des nouvelles énergies ainsi que le montant de la rémunération par les grands distributeurs d'énergie. La rémunération versée aux producteurs d'énergie renouvelable varie en fonction de la source d'énergie (éolienne, solaire, biomasse, etc...) mais la somme, une fois fixée, reste toujours la même.

Pour illustrer l'impact que la loi sur les énergies renouvelables a pu avoir, le journaliste Jürgen Röttger cite l'exemple de l'entreprise Conenergy. Avant la promulgation de la loi en 2000, Conenergy, créée en 1998, n'était l'entreprise que d'un seul homme. Elle compte aujourd'hui plus de 450 salariés et son chiffre d'affaires a atteint 285 millions d'euros en 2004. "Ces entreprises engendrent déjà des bénéfices mais elles sont encore dépendantes de la loi. Les professionnels estiment que la branche deviendra véritablement indépendante d'ici huit à dix ans," observe le journaliste. "Cette loi a permis et permet encore aux entreprises dans les énergies renouvelables de faire des investissements sur le long terme car elle leur garantit une rémunération fixe, et par là même une sécurité financière. C'est vrai pour le secteur des énergies renouvelables, en particulier pour l'énergie solaire qui demande une technologie de pointe et donc des investissements conséquents," ajoute-t-il. Ce secteur solaire n'est pas seulement une bonne affaire pour les investisseurs, il permet également de créer des emplois nouveaux et qualifiés. C'est ainsi que le secteur solaire allemand compte déjà 50000 salariés pour atteindre quatre milliards d'euros de chiffre d'affaires.

Mais l'Allemagne ne se repose pas sur ses lauriers et prépare déjà, tant dans la filière photovoltaïque que dans la filière thermique, les technologies de l'avenir. Des chercheurs de l'Université Friedrich-Schiller de Jena viennent ainsi d'entamer un projet de recherche visant à développer des cellules photovoltaïques de 3e génération, transparentes, souples et 100 fois plus minces que les cellules actuelles, ce qui permettrait d'en recouvrir les murs et façades des immeubles et maisons (Voir article de notre lettre 424 dans notre rubrique "Energie").

Parallèlement à ces recherches de pointe dans le domaine des cellules photovoltaïques, l'Allemagne s'est engagée, de manière complémentaire, dans un projet encore plus étonnant qui illustre bien sa vision à long terme de la problématique énergétique : faire du Sahara une future réserve d'électricité solaire. Dans 15 ans, l'Allemagne pourrait importer du courant électrique produit dans le désert d'Afrique du Nord à partir d'énergie solaire thermique. "Techniquement, cela ne constitue pas de problème", estime Hans Muller-Steinhagen, directeur de l'institut de thermodynamique technique du centre aérospatial allemande DLR.

"En premier lieu, il faut construire en Afrique des centrales solaires thermiques", souligne Hans Muller-Steinhagen. Ces installations concentrent les rayons du soleil sur un grand miroir parabolique afin de produire de la vapeur d'une température de 400 degrés Celsius et sous une pression de 50 à 100 bars. Une turbine traditionnelle convertit ensuite cette chaleur en électricité. Un autre avantage de cette technologie : la chaleur se stocke beaucoup plus aisément que l'électricité.

Même si comparée aux combustibles fossiles, cette électricité du désert est aujourd'hui trop chère à produire, l'expert pense "qu'il ne nous restera pas d'autre choix si nous voulons réaliser nos objectifs climatiques et tenir compte du caractère fini des ressources fossiles".

A partir de 2020, l'électricité solaire pourrait même devenir l'option énergétique la plus abordable. D'ici 2050, les importations en provenance d'Afrique du Nord pourraient couvrir environ 15 % de la demande nationale allemande en électricité. "Théoriquement, un millième de la superficie des déserts suffirait à couvrir la demande mondiale en électricité", indique le professeur. La seule Algérie par exemple dispose d'un Potentiel exploitable thermo-solaire de plus de 170 TWh/an, soit environ le tiers de la production française totale d'électricité.

De nouvelles infrastructures haute tension seront nécessaires pour relier l'Europe aux zones ensoleillées d'Afrique longues de 4000 km. Si la technologie actuelle propose des lignes à courant continu de 600 kV, la prochaine génération passera à 800 kV et sera caractérisée par une réduction des pertes et des coûts.

Pendant ce temps, en France, la production solaire, qu'elle soit photovoltaïque ou thermique, reste marginale et insignifiante (moins de 0,5 % de la production totale d'énergie). Pourtant notre pays, contrairement à certaines idées reçues, dispose d'un excellent potentiel solaire. Plus de 20 départements du Sud de la France bénéficient de plus de 2 000 heures d'ensoleillement par an et même en Ile-de-France, le rayonnement solaire moyen annuel est de 1 150 kWh/ m2, soit seulement 20 % de moins que dans le sud de la France. En se basant sur des estimations prudentes, les experts considèrent que le solaire thermique peut couvrir la moitié des besoins de la France en eau chaude, tout en assurant un complément de chauffage. Le solaire photovoltaïque, pour sa part, pourrait assurer un tiers de notre consommation électrique nationale. Il est donc regrettable que la France, qui a la chance de disposer d'un excellent gisement solaire, ne parvienne pas à utiliser cette énergie gratuite et non polluante avec le même niveau d'efficacité que notre voisin allemand.

Pourtant, le coût du kWh solaire ne cesse de baisser grâce aux progrès technologiques. Aujourd'hui estimé à 40 cts, ce coût devrait tomber à 30 cts en 2010, 15 cts en 2020 et 10 cts en 2030. En outre, les récentes mesures fiscales décidées par le gouvernement - un crédit d'impôt de 50 % sur les nouveaux équipements et une hausse du tarif de rachat par EDF de l'électricité photovoltaïque, que les particuliers peuvent revendre jusqu'à 47 centimes le kWh et les communes 55 centimes - devraient contribuer au décollage de l'énergie solaire en France.

Mais si nous voulons vraiment que l'énergie solaire cesse d'être marginale en France et représente, d'ici 2020, une part significative de notre consommation totale d'énergie, nous devons agir avec volontarisme dans plusieurs directions. Il nous faut d'abord accroître notre effort de recherche dans le domaine de l'énergie solaire (photovoltaïque et thermique). Nous devons également libérer les initiatives tant publiques (collectivités locales) que privées (entreprises et particuliers) en adoptant un cadre fiscal et réglementaire beaucoup plus incitatif et moins contraignant qui favorise les investissements solaires et permette une durée d'amortissement plus courte. Nous devons ensuite définir des objectifs de production d'énergie solaire plus ambitieux au niveau de l'Etat, compte tenu du potentiel solaire exceptionnel dont notre pays dispose.

Il nous faut enfin apprendre à imaginer et à mettre en oeuvre de nouvelles synergies entre énergies renouvelables et notamment privilégier des projets intégrés qui combinent énergie solaire, énergie éolienne et production d'hydrogène. L'enjeu est non seulement écologique, il est aussi économique, social et technologique, comme l'ont bien compris nos voisins allemands mais aussi espagnols ou portugais. Alors que le sommet mondial sur le climat, qui vient de se tenir à Bruxelles, a confirmé les prévisions alarmistes quant aux conséquences désastreuses du réchauffement climatique, il est grand temps que notre pays, qui a tous les atouts pour relever ce défi, se place à la pointe de cette mutation énergétique vitale pour notre avenir.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Comment réduire la fracture numérique d'ici 2010 ?
Vendredi, 06/04/2007 - 00:00

La France, avec 57 % des foyers équipés en micro-ordinateurs et 40 % connectés à Internet, accuse un sérieux retard par rapport à ses voisins européens. Face à ce constat, un groupe de réflexion fondé par des enseignants-chercheurs et des industriels, Renaissance Numérique, veut replacer la question de l'accès pour tous aux TIC au coeur des débats pour la campagne présidentielle. Renaissance Numérique, qui regroupe une trentaine de hauts dirigeants de groupes Internet présents en France (Google, Yahoo, PriceMinister, Hi-Média...) et plusieurs universitaires, vient donc d'interpeller les candidats à l'élection présidentielle sur cette "fracture numérique".

Renaissance Numérique propose 15 mesures avec l'objectif de doubler le nombre de foyers connectés entre aujourd'hui et 2010, pour qu'il atteigne 80 %. 2010 sera l'année où 80 % des français seront équipés d'un micro-ordinateur et auront accès au Net. C'est l'objectif que se fixe Renaissance Numérique dans le "livre blanc" qu'il vient de publier.

Une fracture numérique multiple se forme progressivement, selon l'association. Une fracture entre les français équipés d'un micro-ordinateur et les non-équipés, une fracture entre l'internet très haut-débit des villes et l'Internet des campagnes offrant moins de possibilités, une fracture entre deux générations qui manient inégalement les concepts de cet Internet 2.0 (Wiki, Blogs, Vlogs ...). Renaissance Numérique souhaite à travers ses réflexions, participer à la réduction de la fracture numérique.

« En 1996, moins de 0,5 % des foyers seulement étaient connectés à Internet. Surfer sur le Web supposait, à l'époque, de longues minutes d'attente. Les pages s'affichaient ligne après ligne... Internet était réservé aux technophiles initiés. Aujourd'hui, la France compte plus de 27 millions d'internautes, soit plus d'un français sur deux. En 10 ans, le succès d'Internet a été fulgurant grâce notamment à l'essor du haut-débit depuis 2003. Au regard de l'histoire des technologies, la performance d'Internet est unique. La sidérurgie et l'industrie ferroviaire ont mis des dizaines d'années avant de se développer, tout comme les industries automobiles et aéronautiques ».

« De même le développement de la télévision (à partir des années 50) a été beaucoup plus long : seulement 2 millions d'abonnés en dix ans contre 10 millions pour Internet en une décennie. Internet s'est donc développé cinq fois plus vite ! Bien plus qu'une série de faits, le phénomène Internet a révolutionné notre vie quotidienne, notre société, notre jeunesse. L'avenir de l'homme semble désormais inimaginable sans le Web. »

La première mesure proposée par Renaissance numérique est la "donation directe" des PC usagés par les entreprises à leurs salariés. Selon Renaissance Numérique, les entreprises renouvellent leur parc informatique tous les deux à trois ans, mais préfèrent la plupart du temps se débarrasser de leurs anciens modèles plutôt que de les donner à leurs employés. La mesure consisterait donc ici à faciliter cette opération pour éviter que les entreprises rechignent à faire une donation, plus compliquée à mettre en place d'un point de vue comptable.

La deuxième mesure se veut à la fois pragmatique et écologique. Il s'agirait de promouvoir des PC "recyclés" à 99 euros. Selon le groupe d'experts, la moitié des PC jetés pourraient être réutilisés après reconditionnement. Favoriser ce genre d'initiative permettrait donc d'éviter un gaspillage non négligeable.

S'appuyant sur l'effet bénéfique supposé de la possession d'un micro-ordinateur à domicile sur la productivité au travail, Renaissance Numérique estime que les entreprises auraient tout à y gagner si l'Etat favorisait cette acquisition. Pour cela, l'association évoque le modèle suédois où l'achat d'un micro-ordinateur peut faire l'objet d'une réduction d'impôts.

Le groupe veut même aller plus loin que l'opération "Un portable pour un euro par jour" menée auprès des étudiants, en demandant que le gouvernement subventionne un micro-ordinateur aux 100.000 les plus démunis d'entre eux. Une infime partie certes, mais celle qui souffre peut-être le plus cruellement de ce manque.

Le Livre Blanc souligne l'insuffisance des TIC dans l'enseignement : à l'école, "le constat est accablant, estime Thibaut Meunier, directeur général de 1000Mercis.com. Il y a, en moyenne, 38 ordinateurs par établissement dont la moyenne d'âge est de 7 ans". Outre le fait d'appeler à un meilleur équipement, Renaissance Numérique demande que la pratique d'Internet soit incluse dans le corpus élémentaire afin qu'elle puisse être maîtrisée dès le primaire, et que le corps enseignant soit lui-même formé.

Il est pourtant illusoire de croire que la technologie pourrait mettre tout le monde sur un pied d'égalité. En effet, la maîtrise du réseau n'est pas acquise d'emblée et est souvent détenue par ceux qui, en dehors du lieu de travail, y ont déjà accès. Renaissance Numérique, qui a conscience de cet obstacle, propose pour y pallier les trois mesures suivantes :

- Systématiser le passeport Internet via la formation professionnelle, l'ANPE, et au sein des associations.

- Favoriser l'acquisition et l'appropriation des nouvelles technologies chez les très petites entreprises (TPE).

- Permettre l'échange de RTT contre des formations aux nouvelles technologies.

Mais rien ne sert de favoriser l'obtention du matériel et l'apprentissage de son utilisation si l'on ne combat pas ses écueils. C'est dans cette optique que Renaissance Numérique appelle à une plus grande accessibilité d'Internet aux personnes handicapées (notamment les malvoyants), et vise même au-delà en encourageant les sites à une plus grande lisibilité qui pourrait profiter à un plus grand nombre.

Il est aussi question de vaincre les freins psychologiques en mettant en place des campagnes de sensibilisation des non-utilisateurs (notamment les retraités) et de favoriser les partenariats public/privé pour porter Internet dans les zones jugées non rentables par l'offre privée. Toujours pour favoriser une meilleure égalité d'accès, Renaissance Numérique enjoint aussi le gouvernement à multiplier les bornes Internet dans les lieux publics, et soutenir les projets visant à apporter Internet au sein des populations défavorisées.

Livre blanc

Le classement TIC 2007 du World Economic Forum consacre l'excellence des pays nordiques et la mauvaise position de la France
Vendredi, 06/04/2007 - 00:00

Le Forum Economique mondial (WEF) vient de révéler pour 2007, son classement mondial des différents pays en matière de Technologies de l'Information et de la Communication (TIC).

Pour cette édition 2007, le Danemark prend la place de numéro un du classement, après avoir été troisième l'année dernière. Une place qu'il obtient grâce à "une vision claire de la part du gouvernement sur les TIC, et une attention toute particulière apportée au taux de pénétration des TIC et à leurs usages, notamment en matière d'équipement Internet et en PC de même que par l'utilisation des TIC par le gouvernement et l'environnement e-business très dynamique", explique le rapport.

« L'excellence du Danemark, qui s'est confirmée d'année en année dans le classement, est le résultat de plusieurs facteurs : un fort investissement dans la technologie de la part du gouvernement, une augmentation massive de la bande passante mais aussi et surtout d'excellents choix politiques en matière de régulation », résume le professeur Soumitra Dutta, responsable des relations externes de l'INSEAD et coauteur du rapport. « Les gouvernements des pays d'Europe du Nord, en particulier au Danemark, ont mis très tôt l'accent sur l'innovation et l'éducation, avec pour résultat un excellent système éducatif ; ils ont également su inciter les entreprises à investir dans les TIC », confirme Irene Mia, économiste au World Economic Forum et coauteur du rapport.

On note également la bonne performance de plusieurs pays d'Europe du Nord et de l'Est. Ainsi, en un an, la Suède a gagné 6 places, ce qui lui permet de monter sur la deuxième marche du podium devant Singapour. La Finlande, les Pays-Bas, l'Islande et la Norvège se classent parmi les 10 premiers, tandis que l'Estonie, réalisant une évolution jugée « impressionnante » se hisse à la 20e position.

« La progression des pays nordiques s'explique par un cercle vertueux, avec plusieurs facteurs qui se renforcent mutuellement : les gouvernements gèrent leurs finances publiques de façon précautionneuse et responsable, ce qui leur permet d'investir dans l'éducation et les infrastructures ; ils parviennent également à fortement accroître le niveau de compétences des travailleurs, qui sont ainsi, en retour, dotés des moyens d'innover ; et comme le niveau d'éducation est élevé, les gens se sentent à l'aise avec les nouvelles technologies et les citoyens lambda les adoptent facilement », conclut Augusto Lopez-Claros, économiste et directeur du programme Compétitivité Globale du World Economic Forum.

Le premier pays d'Europe de l'Ouest du classement s'avère être la Suisse, qui occupe la 5e place, suivi par les Pays-Bas (6e). La France se situe à la 23e place du classement et perd une place par rapport à l'an dernier ; elle est nettement devancée par la Grande Bretagne (10e) et l'Allemagne (16e) mais aussi par la Corée du sud, l'Irlande et l'Estonie.

L'Asie confirme son dynamisme en la matière, avec cinq de ses représentants dans le Top 20. Sans surprise, le classement illustre les disparités économiques. Le pays d'Amérique du Sud le mieux classé, le Chili, n'est que 31e, malgré une bonne progression de plusieurs états de la région. Enfin, aucun pays de l'Afrique Sub-Saharienne ne figure dans le Top 60.

L'autre surprise de ce classement concerne la troisième place de Singapour, qui bénéficie d'une excellente réglementation pour l'économie des TIC selon le rapport, et d'un vaste soutien gouvernemental. L'utilisation des TIC y est forte, aussi bien auprès du secteur public que privé. Le pays est le leader de la zone Asie, devant Hong-Kong (12e), Taiwan (13e), le Japon (14e) et la Corée du Sud (19e).

Les Etats-Unis, eux, perdent leur position de numéro un, et se placent à la 7e place du classement. Cette chute s'explique par une détérioration du climat politique et réglementaire vis-à-vis des technologies de l'information, même si le pays reste premier sur le critère de l'innovation et l'un des meilleurs au niveau du système éducatif.

Quant aux puissances économiques émergentes que sont l'Inde et la Chine, elles restent encore en retrait (avec la 44e et la 59e place du classement), mais progressent toutefois année après année.

WEF-

Télécoms : l'Europe veut séparer services et infrastructures
Vendredi, 06/04/2007 - 00:00

La commissaire en charge des télécommunications, Viviane Reding, a présenté, jeudi 29 mars, à Bruxelles, le 12 e rapport sur l'état du secteur des télécoms. Principale tendance : la baisse des tarifs. Le prix d'un appel national de 3 minutes sur le réseau téléphonique fixe est ainsi passé de 41,8 centimes environ en 2000 à 25 centimes actuellement et ceux des services mobiles nationaux ont diminué de 13,9 % au cours de l'année dernière.

La Commission européenne se félicite également des effets liés à la possibilité offerte aux utilisateurs de téléphone portable de changer d'opérateur tout en conservant son numéro. Plus de 31 millions d'Européens ont profité de ce service que tous les opérateurs de l'UE sont désormais tenus de proposer. Les Espagnols sont les champions du changement : ils ont été 9,2 millions.

Avec 478,4 millions de téléphones mobiles en usage, le secteur arrive à maturité avec un taux de pénétration de 103 % de la population, contre 95 % en 2005. En d'autres termes, nombre d'Européens disposent de deux GSM. Le Luxembourg détient le record avec un taux de pénétration de 171 %. En revanche, les recettes de la téléphonie fixe sont en baisse de 5 % et la part de marché des opérateurs historiques se réduit : elle était de 65,8 % dans l'UE à 25 pays en 2006.

Enfin, dans le domaine des télécommunications à large bande, la croissance a été d'environ 8 % en 2006, soit 20 millions d'abonnements supplémentaires à ces services dont le taux de pénétration est désormais de 15,7 %. Les Pays-Bas et le Danemark, pays les plus ouverts, sont proches d'un taux de pénétration de 30 %. Les recettes du secteur des télécommunications ont atteint en 2006 près de 290 milliards d'euros dans l'Union européenne, soit une hausse de 4,6 % par rapport à 2005. Les consommateurs ont eux bénéficié de baisses de prix importantes.

La commissaire à la société de l'information, Viviane Reding, a estimé que l'ouverture à la concurrence des télécoms en 1993 a clairement permis de faire baisser les prix. Mais à ses yeux, des efforts sont encore nécessaires. La Commission européenne a tenté récemment d'obtenir dans l'énergie la séparation entre producteurs et distributeurs. Son effort se porte cette fois dans les télécommunications.

"Même si on peut se satisfaire d'une croissance du secteur de 2,3 % (en 2006 par rapport à l'année précédente) et d'un surcroît d'investissement de 5 %, on ne peut s'en contenter" a-t-elle expliqué. Afin de s'adapter à l'évolution rapide des technologies, la commissaire prévoit de proposer cet été une réforme des règles actuelles, datant de 2002. Elle sera ensuite soumise aux Etats membres et au Parlement européen, pour une entrée en vigueur espérée en 2010.

En guise de "remède" aux dysfonctionnements qui subsistent, la commissaire envisage de proposer une séparation fonctionnelle entre activités de réseaux et de services. Selon elle, cela constituerait "un moyen pour laisser entrer plus facilement les nouveaux entrants sur le marché". La commissaire a reconnu s'être inspirée de l'expérience britannique, où "ce partage des rôles" a été bénéfique pour le consommateur selon elle.

Viviane Reding n'envisage pas de se substituer aux organismes nationaux, mais seulement de les rendre plus efficaces. Pour cela, elle souhaite s'inspirer du système américain en mettant en place un organisme européen de type FCC (Federal Communications Commission) qui sera chargé de veiller à la cohérence des mesures de régulation au niveau des pays.

UE

^ Haut
Avenir
Nanotechnologies et Robotique
Des robots bientôt affectueux ?
Vendredi, 06/04/2007 - 00:00

Les robots vont-ils devenir émotifs et être capables de sentiments ? Peut-être, si l'on en croit le nouveau projet financé par l'UE (que nous avions déjà évoqué dans notre lettre 421 du 9 mars 2007), qui consiste à concevoir des robots dotés d'une conscience émotionnelle, capables d'interagir avec les humains dans leur cadre de vie quotidien et de se développer d'un point de vue émotionnel, répondant ainsi aux besoins de leur propriétaire.

Les robots ont le potentiel de nous offrir de nombreux services importants, comprenant la compagnie, les soins, le divertissement, le suivi des patients et le soutien à la thérapie. Cependant, afin de s'intégrer totalement dans la vie quotidienne des personnes, les robots doivent pouvoir s'adapter à leur environnement. « Plutôt que de tout apprendre aux robots destinés à vivre avec des humains, nous devrions leur apprendre à grandir aux côtés de leurs utilisateurs humains afin qu'ils se développent en harmonie avec eux », explique la coordinatrice du projet, Lola Canamero, de la faculté d'informatique de l'Université de Hertfordshire : « Par exemple, si un humain fond en larmes, le robot apprendra progressivement s'il est préférable d'essayer de le réconforter ou de le laisser seul. »

Les robots développés, dans le cadre du projet, seront dotés de caméras et de capteurs conçus pour détecter des paramètres, tels que la chaleur, le toucher et la distance, afin de relever des indices non verbaux offrant des informations sur l'état émotionnel de la personne. Par exemple, l'accent sera mis sur la façon dont se déplacent les personnes. « Notre façon de marcher peut en dire beaucoup sur notre état émotionnel », déclare le Docteur Canamero à CORDIS Nouvelles.

Le ton de la voix constitue un autre indicateur de l'état émotionnel ainsi que les expressions du visage, bien qu'il soit extrêmement difficile d'apprendre aux robots à les reconnaître. « La lumière doit être stable et des marques doivent être faites autour de la bouche et des yeux de la personne », explique le Docteur Canamero. Les robots ne ressentiront pas les émotions de la même façon que nous, cependant ils seront dotés de mécanismes leur permettant d'exprimer des émotions correspondant au comportement de leur propriétaire.

Le comportement des robots se développera sur la base des réponses des personnes avec lesquelles ils passent le plus de temps. De plus, ils seront capables de distinguer les individus, par exemple les différents membres d'un même foyer, et d'apprendre à réagir avec pertinence en fonction de leurs différentes personnalités. Cependant, alors que les robots devront apprendre à interagir avec les humains, ces derniers devront également s'habituer à avoir un robot autour d'eux et apprendre à communiquer avec lui et comprendre ses limitations.

Les propres expériences du Docteur Canamero ont montré que les personnes adaptent automatiquement leur comportement au robot. Par exemple, elles apprennent rapidement à adapter leurs pas afin que les robots puissent les suivre et les aident à surmonter les obstacles. Mais quand sera-t-il vraiment temps pour un humain d'accueillir un robot dans sa vie ? Selon le Docteur Canamero, c'est une question en grande partie culturelle.

« Dans certains pays, les robots font déjà partie de la vie quotidienne », dit-elle. « Au Japon, les robots font même partie de la vie quotidienne des personnes âgées. » Les robots sont utilisés à des fins thérapeutiques dans les centres de soins pour personnes âgées au Japon, et la relation des résidents avec les robots diffère des relations qu'ils pourraient avoir avec un animal.

Une partie importante du projet repose sur la compréhension de ces différences culturelles concernant l'acceptation des robots. Ainsi, les partenaires de l'initiative FEELIX GROWING travailleront en étroite collaboration avec les scientifiques de l'Institut technologique du Massachusetts (Massachusetts Institute of Technology) aux États-Unis et le Laboratoire de recherche en communication (Communications Research Laboratory) au Japon.

LGE

^ Haut
Matière
Matière et Energie
Energie éolienne : de l'électricité même sans vent !
Vendredi, 06/04/2007 - 00:00

Comment fournir du courant à partir d'éoliennes, même quand il n'y a pas de vent ? En stockant l'énergie pour la redistribuer selon les besoins. Une entreprise aux Etats-Unis travaille sur le concept en utilisant de l'air comprimé. Dans leur schéma classique de fonctionnement, les éoliennes transforment l'énergie du vent à l'aide d'un générateur qui envoie l'électricité vers le réseau d'alimentation général.

La société General Compression a eu l'idée de placer, dans la partie supérieure de chaque éolienne, un compresseur d'air. Actionné par les pâles de l'éolienne, il envoie de l'air comprimé vers une zone de stockage souterraine, une cavité naturelle, un gisement de gaz épuisé ou de simples canalisations. L'air ainsi stocké n'est libéré qu'en cas de besoin vers un générateur, sans que les éoliennes soient forcément en action.

Comme d'autres sociétés dans le monde, General Compression tente d'exploiter et de commercialiser un principe mis au point plusieurs années auparavant. En raison de coûts de développement trop importants, la technique n'a pas été retenue. Jusqu'à ce qu'aujourd'hui, le prix élevé de l'énergie, couplé aux problèmes du réchauffement climatique, remette le concept au goût du jour.

« Le problème avec le vent, c'est l'intermittence », explique Michael Marcus, le PDG de General Compression. « Il ne peut être vendu à un prix élevé aux distributeurs d'électricité, car il n'est pas prévisible. En revanche, vous pouvez en tirer un meilleur prix si c'est disponible sur demande. » À titre d'exemple, si le vent vient à souffler à 23 heures, l'exploitant d'une ferme éolienne pourra stocker l'énergie produite dans la nuit pour la redistribuer sur le marché le lendemain, au moment où la demande est plus importante.

Deux sites de stockage d'air comprimé à partir de l'énergie du vent existent actuellement dans le monde. L'un en Allemagne, l'autre en Alabama, aux États-Unis. Un autre site dans l'état de l'Iowa est en cours de développement. Il devrait entrer en fonction en 2011. « Le plus difficile a été de trouver une structure géologique disponible », raconte le responsable du projet, Kent Holst. « Plusieurs étaient déjà utilisées pour stocker des réserves de gaz naturel. »

De fait, trouver des sites de stockage adaptés sera l'une des difficultés que General Compression va devoir surmonter. De nombreuses zones, telles que des mines désaffectées, pourraient en effet être réquisitionnées pour d'autres besoins. Des pipelines, actuellement utilisés pour le transport du gaz, pourraient constituer une alternative intéressante. Leur capacité de stockage serait de l'ordre de 6 à 12 heures de production d'énergie éolienne selon leur taille et leur diamètre.

Après avoir développé un prototype, et trouvé des appuis financiers, General Compression souhaite maintenant produire une version à grande échelle pour une mise en service à la fin de l'année.

GC

Portugal : La plus grande installation d'énergie solaire au monde est en service
Vendredi, 06/04/2007 - 00:00

Implantée sur un terrain de 60 hectares à Serpa, à 200 km au sud-est de Lisbonne, la plus grande centrale solaire au monde (d'une puissance de 11 MW) vient d'être inaugurée le 28 mars. Les sociétés américaines GE Energy Financial Services, PowerLight Corporation et l'entreprise portugaise d'énergie renouvelable Catavento sont à l'origine de ce projet d'un coût de 61 millions d'euros qui surpasse une centrale de 12 mégawatts située en Allemagne dont la capacité de production est moins importante. Le choix du lieu n'est pas anecdotique, cette région du sud du Portugal est en effet l'une des régions les plus ensoleillées d'Europe avec 3.300 heures de soleil par an.

La nouvelle centrale, qui avait commencé à fonctionner partiellement dès janvier dernier, compte 52 000 modules photovoltaïques ; elle devrait produire suffisamment d'électricité pour répondre aux besoins de 8.000 foyers et empêcher l'émission de 30.000 tonnes de gaz à effet de serre par an par rapport aux combustibles fossiles. De plus, le système photovoltaïque qu'elle utilise emploie une technologie à base de cellules solaires au silicium pour convertir directement la lumière du soleil en électricité. Selon de nombreux observateurs, l'installation sera capable de produire 20 gigawatts/heure d'électricité dans une première phase. Le système PowerTracker, utilisé dans cette installation, permet de suivre la course journalière du soleil dans le ciel afin de générer plus d'électricité que les systèmes à montage fixe conventionnels.

Le Portugal importe 90 % de l'énergie dont il a besoin, présente le taux de rentabilité énergétique le plus faible de l'UE, et se trouve donc dans une situation de dépendance extrême face aux pays tiers. En outre, ses émissions en dioxyde de carbone ont augmenté de 34 % depuis 1990.

Aussi, vu le fort potentiel du pays en matière d'ENR, le Portugal développe et étudie plusieurs projets dans ce domaine. Les engagements réalisés par le Gouvernement portugais prévoient qu'en 2010, 45 % de la consommation énergétique devra être assurée par des énergies renouvelables, l'hydraulique et l'éolien.

Parmi toutes les alternatives qui se présentent au Portugal en termes de production énergétique, l'énergie solaire est la plus privilégiée : le pays bénéficie en effet d'une exposition solaire annuelle qui varie de 2200 à 3000 heures du nord au sud, et d'excellentes conditions pour la conversion photovoltaïque (entre 1000 et 1500 kWh/an d'électricité produite pour chaque kW photovoltaïque installé).

AE

Des chercheurs manipulent un liquide avec de la lumière
Vendredi, 06/04/2007 - 00:00

Des chercheurs américains et français ont réussi à manipuler une petite quantité de liquide en utilisant la seule force de la lumière, selon une étude publiée le 30 mars. Jusqu'à présent, des physiciens arrivaient à ne manipuler que des particules de matière avec un rayon laser mais les chercheurs de l'université de Chicago et de Bordeaux ont réussi à orienter comme ils le souhaitaient un long jet continu de liquide (un mélange d'eau et d'huile) de la taille d'un cheveu humain grâce à l'utilisation d'un laser, rapporte le Physical Review Letters (PRL).

Cette découverte pourrait s'avérer révolutionnaire pour ses applications dans le domaine biomédical ou des biotechnologies. Les physiciens savent que la chaleur induite par un laser peut produire un effet sur un liquide mais la chaleur n'était pas un facteur déterminant dans l'expérimentation en question, a précisé PRL. Le liquide utilisé pour l'expérience absorbait très peu de lumière et les chercheurs ont conclu que c'était la force de la lumière elle-même qui est à l'origine du mouvement de ce liquide. En fait, a expliqué le professeur Wendy Zhang de l'université de Chicago, la lumière a exercé une pression infime sur le liquide permettant le mouvement.

PRL

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le Sommet mondial sur le climat confirme les prévisions alarmistes du GIEC en matière de réchauffement climatique
Vendredi, 06/04/2007 - 00:00

Les spécialistes mondiaux du climat se sont réunis à Bruxelles pour faire le point sur les dernières recherches en matière évaluation des conséquences du réchauffement probable de la planète, de 2 à 4° au moins d'ici la fin du siècle. Les conclusions du Groupe intergouvernemental d'experts sur l'évolution du climat (Giec), après une semaine de travaux à huis clos, sont pour le moins alarmantes et confirment les conclusions provisoires rendues à Paris, il y a deux mois, par les experts du premier des trois groupes de travail du Giec.

Le Giec avait alors présenté une fourchette moyenne d'élévation des températures au XXIe siècle de 1,8 à 4 degrés. La hausse des températures, provoquée par l'augmentation de la concentration dans l'atmosphère de gaz à effet de serre (GES), issue principalement de la combustion des énergies fossiles, entraînera notamment une élévation du niveau des océans.

Ces effets du réchauffement, déjà perceptibles dans de nombreuses régions, seront accentués dès que le thermomètre mondial dépassera les deux degrés supplémentaires de moyenne mondiale, avec des hausses beaucoup plus marquées aux pôles, sur les continents et dans les latitudes basses, insistent les experts. Leur rapport devrait aussi souligner de grandes disparités selon les continents, les régions nord pouvant retirer certains bénéfices d'un réchauffement jusqu'à +2°C de moyenne globale, alors que l'Afrique, les régions arctiques et les grands deltas en Asie devraient cumuler les impacts les plus négatifs comme des pénuries d'eau et de nourriture accrues et des inondations catastrophiques.

En février à Paris, le Giec, créé en 1988 par l'Onu, avait conclu sur les aspects scientifiques du changement climatique, qu'il juge désormais "sans équivoque", déjà en marche et inévitable, notant que son ampleur, jusqu'à 6,4°C en 2100 dans la pire des hypothèses, sera fonction des quantités de gaz à effet de serre qui continueront d'être envoyées dans l'atmosphère par les activités humaines. Chaque chapitre du rapport final, élaboré depuis cinq ans par plus d'un millier d'experts, fait l'objet d'un "résumé à l'intention des décideurs" négocié à huis clos et adopté par consensus par quelque 400 délégués, comme cela a été le cas à Bruxelles.

Les négociations pour étendre au-delà de 2012 le protocole de Kyoto sur les réductions de gaz à effet de serre (GES) sont au point mort. Les plus gros émetteurs de GES - les Etats-Unis, la Chine et l'Inde - ne sont actuellement pas obligés par le protocole de réduire leurs émissions. En mars, les Vingt-Sept ont convenu de réduire d'au moins 20 % leurs émissions de GES d'ici 2020 par rapport à leurs niveaux de 1990, mettant au défi les pays industrialisés et en voie de développement d'aller au-delà avec une baisse de 30 % à laquelle l'UE souscrirait par la suite.

Mais jusqu'ici, aucun pays n'a répondu à cet appel, un échec que le commissaire européen a attribué pour une bonne part au peu d'enthousiasme des Américains à limiter leurs propres émissions. L'Australie, qui, comme les Etats-Unis, a signé le protocole de Kyoto sans le ratifier par la suite, a également provoqué la colère de Stavros Dimas, Commissaire européen chargé de l'environnement. "Si l'on veut vraiment donner un élan aux négociations internationales, il faut ratifier Kyoto", a lancé le commissaire européen.

A Paris il y a deux mois, les experts du premier groupe de travail du Giec avaient rendu un rapport alarmant sur les bases scientifiques du changement climatique, qui établissait avec un degré de certitude jamais atteint auparavant que les activités humaines sont responsables du changement climatique.

Le rapport du deuxième groupe de travail du Giec a présenté pour la première fois depuis 2001 la liste des impacts à attendre de ce dérèglement des températures. "Nous parlons ici de conséquences potentiellement catastrophiques", a estimé Achim Steiner, directeur exécutif du Programme des nations unies pour l'environnement (Pnue). La hausse des températures, provoquée par l'augmentation de la concentration dans l'atmosphère des GES, issue principalement de la combustion des énergies fossiles, entraînera notamment une élévation du niveau des océans qui bouleversera la vie des habitants de la plupart des deltas du monde. "Même 50 cm d'élévation de ce niveau aura un impact catastrophique au Bangladesh et dans certaines îles", a-t-il souligné.

Une des conséquences les plus graves du réchauffement climatique sera la fonte des glaciers de l'Himalaya. "Si le réchauffement se maintient à son rythme actuel, les glaciers de l'Himalaya pourraient reculer à une vitesse très élevée, et passer de 500.000 km2, comme c'est le cas actuellement, à 100.000 km2 en 2030". Les perturbations se feront les plus cruellement sentir dans les pays pauvres d'Afrique et d'Asie, où des millions de personnes souffriront de la pénurie d'eau et du recul des terres arables.

Le rapport signale toutefois que certains pays pourraient profiter un temps de l'élévation des températures. En effet, le potentiel agricole de la planète augmentera dans un premier temps, avant de s'effondrer. Les experts expliquent que les cultures seront plus propices dans certains pays comme ceux de la Scandinavie, le Canada, la Russie ou la Nouvelle-Zélande.

Mais les pays riches auront à subir autrement les conséquences du réchauffement de la planète. Le bassin méditerranéen pourrait devenir aride. Aux Etats-Unis, l'élévation du niveau des océans et la multiplication des tempêtes devrait "gravement perturber les transports dans le golfe du Mexique, sur les côtes atlantiques et dans le Nord", selon le rapport.

Le troisième groupe de travail du Giec rendra en mai à Bangkok un rapport sur les mesures à prendre pour lutter contre le réchauffement global. Ces trois contributions constitueront ensemble le quatrième rapport d'évaluation du Giec.Les Nations unies espèrent que ce rapport d'évaluation -le dernier date de 2001- augmentera la pression sur les gouvernements en vue d'une mobilisation contre le réchauffement planétaire.

IPCC

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Transfusion sanguine : vers des donneurs universels !
Vendredi, 06/04/2007 - 00:00

Transformer les groupes sanguins A et B en donneurs universels pourrait être possible d'ici quelques années : deux familles d'enzymes capables de modifier leurs antigènes ont été identifiées par une société américaine et un laboratoire français du CNRS. Le système de classement ABO a été découvert en 1900 par le biologiste autrichien Karl Landsteiner, prix Nobel de médecine en 1930. Le groupe O est appelé "donneur universel" car il est transfusable à tous les groupes sanguins (A, B, AB et O). En revanche, la transfusion de sang de groupe A chez un patient B, ou l'inverse, peut être mortelle. Des erreurs d'étiquetage ou humaines provoquent des décès chaque année, rappelle le CNRS.

La société de biotechnologie ZymeQuest a identifié deux familles d'enzymes qui permettraient d'éliminer les molécules (galactose ou N-acetylgalactosamine) présentes à la surface des globules rouges. Ces molécules caractérisent les antigènes des groupes A et B, alors que le groupe O ne possède pas d'antigènes du système ABO. Les chercheurs de la compagnie américaine ont ensuite travaillé avec le laboratoire Architecture et fonction des macromolécules biologiques (Cnrs-Université Aix-Marseille 1 et 2). Les résultats sont publiés dans le numéro d'avril de la revue "Nature Biotechnology".

Provenant de bactéries, ces enzymes ont acquis des mécanismes catalytiques qui les distinguent de celles que l'on connaissait jusqu'alors et dont l'efficacité et le coût de production étaient inappropriés pour effectuer une conversion des groupes sanguins. Avec ces enzymes, les chercheurs ont mis au point une solution qu'ils ont injectée dans les poches de sang, chacune d'elles étant traitée individuellement pour des questions de traçabilité, explique Gerlind Sulzenbacher, ingénieur de recherche au laboratoire. L'enzyme agit pendant une heure, puis elle est enlevée. La poche de sang est alors dépourvue d'antigènes.

La société ZymeQuest "a développé des instruments qui peuvent faire ça à haut débit, pour que ce soit rentable", poursuit-elle. "Ils peuvent traiter des dizaines de poches au même moment, en parallèle". Les brevets ont été déposés pour les deux groupes sanguins A et B. Le processus en est au stade des tests cliniques pour le B. Avant qu'il ne soit éventuellement approuvé, il faudra attendre entre trois et cinq ans, selon Gerlind Sulzenbacher qui ajoute "Cette découverte ne peut qu'être "bénéfique" car tous les stocks doivent être renouvelés continuellement, on est très souvent en manque. Si on peut transformer tous les stocks instantanément en donneur universel, ça pourrait régler ce problème, tout en évitant les accidents de transfusion".

CNRS

MIT

Maladies cardio-vasculaires : médicaments et stents à égalité !
Vendredi, 06/04/2007 - 00:00

Les personnes souffrant de maladies du coeur qui sont traitées au moyen d'un régime combinant médicaments et changements de mode de vie obtiennent d'aussi bons résultats que les patients ayant subi une procédure médicale appelée angioplastie pour débloquer leurs artères rétrécies, indique une importante étude internationale.

Ces surprenants résultats, révélés dans le cadre d'une conférence sur la cardiologie à La Nouvelle-Orléans, vont vraisemblablement alimenter le débat entre cardiologues qui prônent des approches à long terme dans le traitement des maladies cardiaques sous-jacentes, et ceux qui sont en faveur de l'insertion de petits tubes métalliques («stents» en anglais) dans les artères coronaires pour les maintenir ouvertes.

Mais avec le temps, cela va probablement reléguer l'angioplastie (qui permet d'écarter les parois de l'artère rétrécie en y plaçant un cathéter dont l'extrémité est équipée d'un ballon gonflable) au rang des procédures utilisées seulement si les médicaments et les conseils thérapeutiques destinés à encourager les changement de mode de vie - perte de poids, exercice accru, arrêt du tabac - ne donnent pas les résultats désirés.

C'est une importante étude qui va changer la façon dont nous pratiquons la cardiologie, a affirmé une cardiologue de Toronto et porte-parole de la Fondation des maladies du coeur, le docteur Beth Abramson. Celle-ci n'a pas participé à l'étude.

L'angioplastie est une procédure relativement sûre, mais elle comporte quand même certains risques, soulignait un autre cardiologue. Selon le docteur Koon Teo, qui pratique à Hamilton, si les patients n'ont pas à subir d'angioplastie, tant mieux pour eux. L'étude a été effectuée dans 50 villes du Canada et des États-Unis et a reçu un financement du gouvernement américain, des Instituts de recherche en santé du Canada et de différentes sociétés pharmaceutiques. Ses résultats seront publiés prochainement dans le New England Journal of Medicine.

CP

Mucoviscidose : une nouvelle approche thérapeutique
Vendredi, 06/04/2007 - 00:00

Des équipes de chercheurs du CNRS et de l'Inserm ont découvert que des patients atteints d'un type très précis de mucoviscidose pouvaient tirer un "bénéfice thérapeutique significatif" d'un traitement par un antibiotique couramment utilisé, la gentamicine, selon une nouvelle étude. Publiée dans la revue "BMC Medicine", cette étude ouvre de nouvelles perspectives thérapeutiques non seulement pour la mucoviscidose mais aussi pour d'autres maladies dites à "codons stop", comme certaines myopathies, estiment ses auteurs.

Les chercheurs du Centre national de la recherche scientifique et de l'Institut national de la santé et de la recherche médicale "ont mis en évidence que certains malades atteints de mucoviscidose et présentant un type très particulier de mutation du gène CFTR pouvaient bénéficier d'un traitement par la gentamicine, un antibiotique couramment utilisé", selon un communiqué commun publié par le CNRS et l'INSERM.

La mucoviscidose est engendrée par la présence de mutations dans le gène CFTR (Cystic Fibrosis Transmembrane Conductance Regulator). Plus de 1.500 mutations de ce gène sont aujourd'hui connues. Et, environ 10 % correspondent à l'apparition d'un "codon stop", à savoir d'une maladie génétique entraînant la synthèse de protéines tronquées et inactives.

Partant de ces données, les équipes d'Aleksander Edelman, directeur de recherche CNRS, et d'Isabelle Semert-Gaudelus, tous deux chercheurs à l'INSERM (Hôpital Necker-Enfants malades, Paris), en collaboration avec celle de Jean-Pierre Rousset (CNRS, Université Paris XI), se sont associées afin d'étudier les résultats d'un traitement à la gentamicine sur un panel de neuf patients atteints de mucoviscidose et portant certaines mutations spécifiques. Ces patients ont été traités par perfusion intraveineuse de gentamicine pendant 15 jours, l'étude se déroulant simultanément dans les centres hospitaliers de Necker (Paris), Saint-Denis et Saint-Pierre de la Réunion.

"Un bénéfice thérapeutique significatif, en particulier au niveau respiratoire, a été observé chez six des neuf patients traités", souligne le communiqué. En revanche, aucun des patients porteurs d'une mutation d'un type différent n'a présenté d'amélioration clinique, ont constaté les chercheurs. La gentamicine présente l'avantage d'être déjà utilisée régulièrement à l'hôpital. Toutefois, les auteurs de l'étude reconnaissent qu'elle n'est certainement pas la molécule idéale car elle entraîne, chez certains patients, des effets secondaires graves, tels que des néphropathies et des surdités.

D'autres molécules, au mode d'action comparable et comportant moins d'effets secondaires, sont donc en cours d'étude, telles que le PTC124 et l'amikacine, un antibiotique de la même famille que la gentamicine. Reste à déterminer si ces molécules possèdent le même potentiel thérapeutique que la gentamicine.

GL

Amnésie sélective : comment effacer un souvenir traumatique
Vendredi, 06/04/2007 - 00:00

Le rappel d'un souvenir stocké en mémoire à long terme déclenche une phase de re-traitement : le souvenir est alors sensible aux perturbations pharmacologiques, avant d'être à nouveau stocké en mémoire à long terme. Un traitement pharmacologique est-il capable d'effacer le souvenir initial et uniquement celui-ci ?

Les chercheurs ont entraîné des rats à avoir peur de deux sons différents, en leur faisant écouter ces sons juste avant de leur envoyer un choc électrique sur les pattes. Le lendemain, ils ont administré à la moitié des rats une drogue connue pour entraîner une amnésie des souvenirs rappelés en mémoire, et ils leur ont rejoué un seul des deux sons. Le jour suivant, lorsqu'ils ont joué les deux sons aux rats, ceux qui n'avaient pas reçu la drogue avaient toujours peur des deux sons, alors que ceux qui l'avaient reçue n'avaient plus peur du son qu'ils avaient entendu sous l'emprise de la drogue. Le rappel en mémoire du souvenir du choc électrique associé au son joué pendant que les rats étaient sous l'influence de la drogue a donc permis l'effacement de ce souvenir par la drogue, tout en laissant celui associé à l'autre son intact.

Les chercheurs ont également enregistré l'activité neuronale des rats dans l'amygdale des rats, une aire du cerveau associée à la mémoire émotionnelle. L'activité neuronale augmente lors du rappel du souvenir traumatique, mais diminue chez les rats drogués. Ce résultat montre que la perturbation pharmacologique du souvenir rappelé consiste bien à effacer sélectivement ce souvenir et uniquement celui-là. Il s'agit de la première démonstration qu'un souvenir est modifiable, voire effaçable au niveau cellulaire, de façon permanente et indépendamment d'autres souvenirs qui lui ont été associés.

CNRS

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Record absolu de vitesse sur rail pour le TGV à 575 km/heure !
Vendredi, 06/04/2007 - 00:00

Le TGV a atteint, mardi 3 avril, la vitesse record de 574,8 km/heure dans la Marne sur la ligne à Grande Vitesse Est européenne. Cette performance vient détrôner le précédent record de vitesse de 515,3 km/h détenu par ... le TGV. Le TGV établit ainsi un nouveau record du monde de vitesse sur rail.

Allant de Strasbourg vers Paris, le TGV V150 a dépassé l'objectif initial qui était fixé à 540 km/h, objectif d'Alstom, de la SNCF et de Réseau Ferré de France. Lors des essais menés depuis le début de l'année, le V150 avait atteint une vitesse maximum de 568 km/h qui n'avait pas été homologuée, car aucun huissier ne se trouvait à bord de cette rame TGV pour officialiser le chrono.

Mais pourquoi un nouveau record de vitesse pour le TGV ? La France dispose aujourd'hui de 1800 kilomètres de lignes ferroviaires à grande vitesse, propriété de Réseau Ferré de France, et d'un parc de plus de 400 rames TGV, construites par Alstom, permettant à la SNCF d'exploiter quotidiennement plus de 650 circulations de la marque TGV, sur l'ensemble du territoire national. Très peu d'entreprises dans le monde possèdent cette maîtrise de la Très Grande Vitesse Ferroviaire. Un savoir-faire qui repose sur le développement constant de nouvelles technologies, mais aussi sur plus de 26 ans d'expérience.

Ainsi, en lançant le programme de l'Excellence française de la Très Grande Vitesse Ferroviaire en 2006, Réseau Ferré de France, Alstom et la SNCF « ont choisi de mettre leur expertise en commun pour étudier les pistes d'amélioration des performances du système ferroviaire français et se positionner durablement comme leaders mondiaux de la Très Grande Vitesse Ferroviaire. »

SNCF

Inauguration de la première autoroute ferroviaire
Vendredi, 06/04/2007 - 00:00

Dominique Perben, ministre des Transports, a inauguré avec Lucien LUX, ministre des Transports et de l'Environnement du Grand Duché du Luxembourg, l'autoroute ferroviaire Perpignan Luxembourg. Cette autoroute ferroviaire, longue de plus de 1000 km, sera la plus longue d'Europe. Elle permettra de relancer le fret ferroviaire et peut-être de désengorger de grands axes autoroutiers comme l'Autoroute A7, pris d'assaut par les poids lourds. La ligne sera exploitée par Lorry-Rail, société commune à la Caisse des dépôts et consignations qui en détient 42,6 %, au groupe Vinci (19,9 %), à la SNCF, aux Chemins de fer luxembourgeois, à Modalohr (12,5 % chacun) et à l'organisation professionnelle TLF (Transport et Logistique de France), détentrice d'une action. "Le tarif moyen de 0,90 EUR par kilomètre et par remorque pour un client régulier sera inférieur au coût du trajet par la route qui atteint 1,05 EUR. Le train sera plus rapide (15 heures de trajet contre 17 à 22 h pour la route) et fonctionnera 7 jours sur 7".

Dominique Perben avait lancé cette réalisation, pour sa partie française, le 12 décembre 2005 à Paris, en présence des partenaires du projet : Caisse des Dépôts et Consignations, ASF, SNCF, CFL, Modalohr, et RFF. L'État français a investi 30 M? pour la mise au gabarit de l'itinéraire et la réalisation de la plate-forme du Boulou (66). Selon le ministère, « cette autoroute ferroviaire permettra d'acheminer 30.000 camions chaque année, avec une économie de CO2 de 80 % par rapport au trajet routier. »

Tageblatt

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top