RTFlash

RTFLASH Recherche & Technologie
NUMERO 398
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 21 Septembre 2006
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Les Français privilégient de plus en plus les services de l'administration en ligne
Vers la généralisation du livret scolaire électronique et des espaces numériques de travail
Avenir
Quelques réflexions sur des décisions qui vont changer l'avenir
George : le robot sociable !
Matière
Des chercheurs allemands mettent au point le premier transistor atomique
Des petites bioraffineries locales multi-usages
Terre
Forte réduction des glaces de l'Arctique en hiver
Vivant
La médecine régénératrice ouvre de fascinantes perspectives
Anévrisme de l'aorte : un espoir dans le traitement
Marseille : inauguration d'un appareil de radiochirurgie unique au monde
Un médicament prometteur contre le diabète
Un test sanguin prénatal pour la mucoviscidose
Le premier génome complet d'un arbre est décodé
L'organisation du cerveau du nourrisson pourrait-elle expliquer l'acquisition rapide de la langue maternelle ?
Homme
Les journaux japonais adoptent les podcasts pour élargir leur audience
Recherche
Stockholm adopte un péage urbain pour limiter les émissions polluantes
Nissan teste un système informatique pour la sécurité routière
Un jet supersonique de nouvelle génération d'ici 2013
Quatre-vingt-trois technologies-clés pour 2015
Edito
L'énergie éolienne pourrait combler le déficit énergétique global de la planète



Dans notre lettre 387 du 2 juin 2006, j'avais écrit un éditorial intitulé "Energie éolienne, la France doit se réveiller", qui avait suscité de nombreuses réactions et avait contribué à alimenter le débat sur ce défi majeur que représente la nouvelle donne énergétique caractérisée par un épuisement accéléré des énergies fossiles, une augmentation inéluctable du prix de ces énergies et la nécessité de prendre à bras le corps le problème majeur du réchauffement climatique planétaire.

Il y a quelques jours, la publication du dernier rapport du GWEC (conseil mondial de l'énergie éolienne) est venu éclairer d'une lumière nouvelle ce débat sur l'avenir de notre paysage énergétique et confirmer mes craintes mais aussi les extraordinaires potentialités que recèle l'énergie éolienne qui est aujourd'hui parvenue à un degré d'efficience technologique et de rentabilité économique qui rend possible son exploitation généralisée et la sortie de sa situation artisanale pour la hisser à un niveau de production industrielle d'énergie.

Ce rapport très instructif du GWEC nous montre que les experts ont largement surestimé les réserves mondiales de pétrole et de gaz et qu'un écart considérable entre l'offre et la demande pourrait apparaître d'ici les dix prochaines années. Selon les auteurs du rapport, intitulé «Plugging the Gap - A survey of world fuel ressources and their impact on the development of wind energy» (L'écart se creuse - enquête sur les ressources mondiales en combustibles et leur impact sur le développement de l'énergie éolienne), les prévisions sur l'offre émanant d'organismes tels que l'agence internationale de l'énergie (AIE) sont souvent trop optimistes, donnant ainsi une impression d'abondance et même de réserves croissantes de pétrole, de gaz et de charbon.

«Les données publiques concernant les réserves de pétrole et de gaz sont étonnamment contradictoires, écrivent les auteurs du rapport. En outre, elles ne semblent pas fiables pour des raisons juridiques, commerciales, historiques et parfois politiques. Pour obtenir une perspective plus claire des réserves disponibles, le GWEC a examiné les rapports de forage de chaque puits de pétrole, qui sont conservés dans des bases de données pouvant être utilisées par l'industrie. Nombre de ces données ne sont pas accessibles au public, mais on peut trouver des détails concernant des régions importantes et des totaux mondiaux dans des documents publiés.

Les chercheurs ont fait des constatations inquiétantes ; leurs chiffres suggèrent que la production mondiale de pétrole connaîtra un pic dans dix ans environ, puis qu'elle diminuera progressivement, alors que la demande de pétrole continuera à croître. Ils prévoient que d'ici 2030, il y aura un déficit entre l'offre et la demande équivalent à cinq fois la production actuelle de l'Arabie saoudite.

«Le déficit en pétrole est le plus urgent et le plus difficile à combler, parce qu'à ce jour aucune alternative aux combustibles liquides n'a été développée à grande échelle et qu'il ne reste guère de temps pour ce faire, observe les auteurs du rapport. Finalement, le déficit en pétrole sera comblé en combinant la réduction de la demande et l'efficacité des véhicules, les carburants liquides dérivés du charbon, les biocarburants et le gaz naturel.»

En ce qui concerne le gaz, les auteurs du rapport prédisent que la production connaîtra un pic en 2030. Toutefois, la demande augmente tellement vite que d'ici là la demande dépassera largement l'offre. Le déficit énergétique qui en résultera sera comblé en combinant l'efficacité énergétique, la production d'énergie à partir de sources renouvelables, le charbon et l'énergie nucléaire et la production de chaleur à partir de sources renouvelables.

Les réserves de charbon sont plus importantes et les auteurs du rapport estiment qu'elles ne seront pas épuisées avant la fin du XXIe siècle. Toutefois, l'impact environnemental de la production d'énergie à partir du charbon est élevé et réduire cet impact est onéreux. Globalement, les auteurs du rapport estiment qu'il y aura un déficit évident entre l'offre et la demande de pétrole et de gaz peu après 2010. Ils pensent également que l'énergie éolienne peut fournir une part importante de la solution à ce problème.

Le GWEC estime qu'une capacité éolienne de plus de 1 000 GW (gigawatts) pourrait être installée d'ici 2020, si des changements politiques significatifs sont mis en oeuvre, a ajouté Arthouros Zervos, président du GWEC. Selon le GWEC, "Ce potentiel est techniquement réalisable, mais il exigera le développement permanent de politiques visant à favoriser une intégration plus substantielle de l'énergie éolienne à la combinaison des diverses sources d'énergie."

L'objectif du GWEC peut sembler ambitieux mais il s'inscrit en fait dans le prolongement d'une tendance très forte du développement de l'énergie éolienne depuis 10 ans : 32.000 MW installées dans le monde sur cette période, soit deux fois plus que le nucléaire ! Aujourd'hui, l'énergie éolienne représente plus de 55.000 MW de puissance installée, 85.000 installations, un taux de croissance annuel de près de 25 % et plus de 150.000 salariés dans le monde.

A présent, sous l'impulsion de collectivités locales dynamiques et clairvoyantes, les projets éoliens terrestres se multiplient un peu partout sur notre territoire, dans l'Aveyron, en Lozère, dans la Haute Loire, dans le Nord. Mais notre pays ne compte encore en 2006 que 1000 MW de puissance électrique d'origine éolienne, ce qui représente une production d'électricité de 1 TWh en 2005. C'est à peine 0,2 % de notre consommation électrique et c'est 20 fois moins qu'en Espagne ou en Allemagne.

La France a la chance de disposer du deuxième potentiel éolien d'Europe après la Grande-Bretagne avec près de 70 térawatts (TW ou milliards de kilowatts) sur terre, et surtout, d'environ 90 TW en mer, soit, au total, 160 TW. Ces éoliennes situées en pleine mer auront en effet un avantage décisif sur les éoliennes terrestres : elles bénéficieront d'un vent beaucoup plus rapide et plus régulier qui permettra à ces aérogénérateurs d'atteindre un rendement moyen annuel de 40 à 50 %, contre moins de 30 % pour leurs homologues terrestres.

Quelque 4.100 MW de puissance éolienne vont être installés dans les mers danoises d'ici l'an 2030. L'énergie éolienne couvrirait alors environ 50 % de la consommation d'électricité danoise (d'un total de 31 TWh/an). L'Allemagne et la Grande-Bretagne, pour leur part, ont également d'ambitieux projets de parcs éoliens « offshore », 3000 MW pour l'Allemagne et 6000 MW pour la Grande Bretagne. En Allemagne, Les travaux de construction de Baltic I devraient débuter fin 2007. Le parc, dont le coût est évalué à une centaine de millions d'euros, comptera 21 éoliennes, d'une puissance cumulée de 54 mégawatts pouvant ainsi produire l'électricité nécessaire à quelque 57.000 foyers.

Notre pays a la chance extraordinaire de posséder à la fois un excellent potentiel de vent, de grandes surfaces terrestres disponibles et de larges façades maritimes propices au développement de parcs éoliens offshore. Il nous faut maintenant, en nous appuyant sur ces nouvelles réalités technologiques, économiques et écologiques, mobiliser toutes les énergies et mettre en oeuvre un ambitieux plan décennal de développement de l'énergie éolienne qui soit enfin à la hauteur des défis que notre pays doit relever en matière d'indépendance, d'efficacité énergétique et de respect de l'environnement. Je souhaite pour ma part que cette question majeure du développement de l'éolien et des énergies renouvelables soit au coeur des programmes et des partis et des candidats qui s'affronteront à l'occasion des prochaines échéances électorales de 2007.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Les Français privilégient de plus en plus les services de l'administration en ligne
Vendredi, 22/09/2006 - 00:00

Jean-François Copé, ministre délégué au Budget et à la Réforme de l'État, porte parole du gouvernement, se félicite dans un communiqué «de l'usage croissant par les Français des services en ligne, placés au coeur des actions de modernisation de l'administration engagée par le gouvernement.» Réalisé pour la cinquième année consécutive, une étude Capgemini Consulting/TNS Sofres conduite au mois de juillet 2006 montre que de 40 % des Français ont déjà utilisé les services publics en ligne en 2006. Les sites des services sociaux et celui du MINEFI ont enregistré les progressions les plus conséquentes (respectivement, +3 % et + 4 % de fréquentation).

Les freins associés à l'utilisation des sites du service public diminuent peu à peu dans l'esprit des utilisateurs (saturation des sites, accès complexe, manque de confiance, etc.). L'utilisation régulière de ces sites progresse pour les catégories jusque-là moins concernées : ouvriers (+6 %), chômeurs (+ 5%). Le paiement des impôts en ligne enregistre la progression la plus emblématique de ce succès : 30 % des Français utilisent ce service contre 15 % il y a deux ans. Ces chiffres confirment les bons résultats publiés par la Commission européenne en juin 2006 qui classaient la France parmi le «Top 5» des pays européens les plus avancés en matière d'administration électronique.

D'ici la fin 2006, 600 formalités administratives pourront être réalisées en ligne. A l'horizon 2008, ce sont toutes les démarches administratives qui pourront l'être. Un compte administratif personnalisé pour tous les Français, le portail «mon.service-public.fr» sera disponible à l'été 2007. Il offrira à terme un accès unifié à l'ensemble des services en ligne. Les usagers disposeront d'un espace de données personnelles permettant de stocker les documents administratifs au format électronique, de manière à accomplir les démarches en ligne plus facilement.

Une première expérimentation du portail a été conduite par la direction générale de la modernisation de l'Etat entre mai et juillet 2006 auprès d'un panel de 500 utilisateurs invités à tester ses futures fonctionnalités : 89 % des expérimentateurs jugent le portail «mon.service-public.fr» utile et 97 % le conseilleraient à un ami.

Enfin, toutes les demandes d'actes d'état-civil seront mises en ligne d'ici la fin 2006. Ce service, www.acte-naissance.fr, qui permet d'obtenir très simplement une copie ou un extrait d'acte de naissance tout en facilitant le traitement des demandes pour les services d'état civil des communes, rencontre déjà un grand succès. Entre juin et septembre 2006, les demandes d'acte de naissance effectuées par l'intermédiaire du site auraient doublé, passant de 2.500 à 5.000 demandes par jour. Ce service couvrirait ainsi la moitié des demandes d'actes de naissance. D'ici la fin de l'année, il devrait être élargi aux demandes d'actes de mariage et d'actes de décès.

MI

Vers la généralisation du livret scolaire électronique et des espaces numériques de travail
Vendredi, 22/09/2006 - 00:00

Le ministre de l'Education nationale, Gilles de Robien, a annoncé à Poitiers les trois volets de sa politique de diffusion des technologies de l'information au domaine éducatif. Le premier volet concerne la généralisation du livret scolaire électronique. Dans les collèges et lycées, le ministre a souhaité commencer "par un livret scolaire des compétences en langues vivantes appelé portfolio". Grâce à "la validation progressive, par le professeur, des compétences linguistiques", ce portfolio permettra "à l'élève et aux parents de mesurer progressivement les étapes franchies par l'élève, et non plus par paliers trimestriels, comme c'est le cas avec le bulletin classique", a-t-il détaillé. "Tous les collégiens devront en être dotés pour l'année 2007", puis en 2008 ce sera le tour de "tous les élèves, de l'école primaire au collège", a assuré M. de Robien, qui compte ensuite "généraliser le livret scolaire numérique à toutes les disciplines".

Deuxième mesure annoncée : chaque professeur débutant se verra remettre une clef USB (stockage de données), "comprenant l'essentiel des ressources pédagogiques disponibles". Pour les élèves, le Brevet informatique et internet, dit "B2i", deviendra obligatoire aux épreuves du brevet en 2008. "L'an dernier, au moins 67.000 écoliers et 92.000 collégiens l'ont obtenu. Nous devons aller plus loin encore", a-t-il lancé. Un "rapport d'étape" lui sera en outre remis en février 2007 sur l'expérience d'accompagnement scolaire via Internet menée dans huit zones d'éducation prioritaire, notamment par la Somme et le Val d'Oise, Lyon et la Moselle.

Enfin, troisième mesure annoncée par le Ministre : le développement des espaces numériques de travail ou E.N.T. L'ENT est une sorte de « bureau virtuel » à entrées multiples, qui doit servir aux parents, aux enseignants, aux collectivités et à l'élève. Il met en rapport, en un lieu virtuel unique, tous les acteurs de l'éducation de l'enfant. Il met d'abord en rapport l'enfant et l'enseignant. Dans certaines écoles, les élèves accèdent déjà à des cours, aux exercices, à leur cahier de textes. Cela leur permet de poursuivre leur activité depuis tout lieu connecté à Internet.

Cet espace numérique met aussi en rapport les parents avec l'école. Il leur permet par exemple de consulter les notes de l'élève, les tâches inscrites dans le cahier de texte. L'E.N.T. s'inscrit donc tout naturellement dans l'ensemble des mesures prises pour impliquer davantage les parents dans le parcours scolaire de leurs enfants. Enfin, l'E.N.T. met en rapport les parents avec les collectivités locales, en y portant par exemple des renseignements relatifs à la cantine scolaire, aux transports publics, aux activités sportives, etc. Aujourd'hui 300.000 élèves du secondaire utilisent couramment les E.N.T. Le gouvernement a décidé d'accélérer, en coopération avec les collectivités locales, la généralisation de ces ENT, notamment pour en équiper les écoles primaires, où les espaces numériques sont encore insuffisamment développés.

Ministère de l'éducation

^ Haut
Avenir
Nanotechnologies et Robotique
Quelques réflexions sur des décisions qui vont changer l'avenir
Vendredi, 22/09/2006 - 00:00

Nous vous en parlions la semaine dernière, l'opérateur Free a créé l'événement en annonçant qu'il allait s'engager dans le déploiement de son propre réseau en fibre optique jusqu'au domicile de l'abonné et qu'il comptait également proposer un "service universel gratuit". L'objectif est de proposer au 1er semestre 2007 une déclinaison très haut débit de son offre ADSL. L'offre de Free restera "Triple Play" et intègrera toujours la téléphonie et un bouquet numérique de programmes de télévision.

L'opérateur, qui n'a pas vocation à la philanthropie, va bien entendu commencer le déploiement de son réseau optique dans les zones où la densité de détenteurs de Freebox est la plus importante. Le réseau fibre de Free raccordera d'abord des domiciles situés à Paris, avant d'être progressivement déployé en banlieue parisienne et à certains quartiers de villes de province. L'objectif de Free est de toucher 10 millions de Français, soit 4 millions de foyers raccordables à l'horizon 2012.

En annonçant ce plan de réseau optique jusqu'à l'abonné, Free prend un risque financier réel (la bourse a d'ailleurs immédiatement sanctionné l'annonce de Free en faisant sensiblement baisser la valeur de son titre). Il faut en effet rappeler que l'investissement consacré pour le développement de cette architecture FTTH (Fiber to the Home) n'a rien de symbolique puisqu'il est estimé à un milliard d'euros. Il est vrai que chaque internaute connecté à la fibre optique représente une facture de 1.500 euros. Dans cette facture, 350 euros représentent les derniers mètres et la fourniture de la Freebox.

De manière logique, pour rentabiliser cette coûteuse infrastructure, l'opérateur prévoit également de revendre des capacités réseau à d'autres acteurs du marché. « Dès que ce réseau sera opérationnel, Free engagera des discussions avec tous les opérateurs qui le désirent pour leur proposer, à des tarifs « convenables », une offre de location de fibres optiques jusqu'à l'abonné. » En pratiquant cette stratégie ouverte, Free souhaite également prévenir les risques que nombre d'immeubles se retrouve câblés plusieurs fois, par différents opérateurs.

Mais après avoir dévoilé son plan de réseau optique jusqu'à l'habitant, Free a fait une autre annonce, encore plus étonnante : l'opérateur, par le biais de sa Fondation Free, entend rendre gratuit l'accès à Internet : c'est ce que free appelle le "service universel gratuit". Concrètement, dans chaque immeuble raccordé en fibre optique par Free, les foyers pourront, s'ils le désirent - et uniquement contre une caution pour le prêt du terminal Freebox optique - bénéficier d'une ligne téléphonique (sans abonnement), d'un accès à Internet bas débit et du bouquet TNT de base en qualité numérique.

Free insiste sur la gratuité de cette offre, voulant "rendre gratuit au plus grand nombre l'accès à la société de l'information". Outre le fait que cette offre va abolir le monopole de l'abonnement téléphonique, elle risque de susciter un réel attrait auprès des syndics et propriétaires d'immeubles, qui se verront proposer gracieusement pour leurs occupants un accès triple play (téléphonie, télévision, Internet) contre l'autorisation de raccordement en fibre par Free de ces bâtiments.

Si Free est le premier, en Europe, à annoncer le lancement de son offre commerciale, d'autres pays ont une longueur d'avance sur la France et ont déjà déployé massivement des réseaux optique haut débit jusqu'à l'habitant. C'est le cas du Japon, où un quart des abonnés à l'Internet haut débit ont accès à la fibre optique jusqu'au foyer et où l'on prévoit que les abonnés au FTTH (Fibre optique jusqu'au domicile) seront plus nombreux que les abonnés à l'ADSL (haut débit sur cuivre utilisant le réseau téléphonique) dès 2008 ! En Corée, grâce à une politique volontariste de l'Etat depuis 10 ans, 11 millions d'immeubles sur 15 sont raccordés par fibre optique. En Suède, plus de 280 000 suédois avaient accès au Net par le FTTH en 2005, soit plus d'une connexion haut débit sur 3. L'Italie dispose actuellement de plus de 180 000 lignes FTTH, dont 80 % desservent des résidentiels (à 60 ? par mois).

En Italie, la plupart des villes italiennes sont câblées à 40 % en FTTH et Milan l'est totalement. FastWeb propose un accès FTTH à Milan, Rome, Gênes, Turin, Naples et Bologne. Le service FastWeb de e.Biscom interconnecte plus de 300 000 foyers et 50 000 entreprises par le biais d'une connexion directe en fibre optique. A l'horizon 2010, l'opérateur envisage d'interconnecter toutes les villes italiennes de plus de 45 000 habitants, couvrant ainsi plus de 1 million de foyers.

En France, la plupart des opérateurs sont en train d'expérimenter le très haut débit par fibre optique jusqu'à l'habitant. France Télécom a annoncé en début d'année le déploiement graduel d'un réseau de fibre optique jusqu'à la maison - 100 mbps de débit - mais « pas avant 2008 », pour un investissement « pas massif, mais progressif ». Actuellement, les tests se poursuivent sur 1.000 logements. Ce projet de France Télécom a débuté dans quelques arrondissements parisiens et villes de banlieue, mais pour 70 euros par mois. Neuf Cegetel a récemment indiqué avoir lui aussi lancé des expérimentations de très haut débit optique. Et quelques autres petits opérateurs, comme Erenis et Citefibre, proposent déjà des offres commerciales locales.

Mais on voit bien qu'avec cette nouvelle annonce de Free, les choses se sont brusquement accélérées : le plan de réseau optique "raisonnable" de France Télécom apparaît à présent comme bien timide et n'étant plus à la hauteur des nouveaux enjeux en matière d'accès pour tous à ce "service numérique universel gratuit" que veut, de manière très habile, promouvoir Free.

Les ambitieux projets de Free en matière de très haut débit optique pourraient bien avoir l'effet d'un véritable catalyseur et accélérer sensiblement la mutation, inévitable mais toujours reportée, du cuivre vers la fibre optique, seule technologie offrant une réserve de bande suffisante pour pouvoir amener dans les foyers, pour les décennies à venir, la myriade de nouveaux services numériques à forte valeur ajoutée qui pourra séduire les consommateurs. La réaction des fournisseurs d'accès Internet ne s'est d'ailleurs pas fait attendre puisqu'au lendemain de l'annonce de Free, le fournisseur Erenis annonçait sur Paris une offre FTTH "Triple Play à 30 ? par mois comprenant l'Internet à 60 Mbits (en voie descendante), le téléphone illimité vers 100 pays, et plus de 80 chaînes TV.

Si l'on observe l'évolution de l'économie numérique au niveau mondial, on voit bien que la généralisation rapide de la fibre optique jusqu à l'habitant est à présent devenue un enjeu majeur pour que chaque foyer puisse avoir accès, dans des conditions optimales de rapidité et de confort, aux nouveaux services numériques gros consommateurs de bande passante, reposant sur la virtualisation massive et la 3D, dont nos concitoyens vont vouloir disposer en permanence chez eux, non seulement dans le domaine des loisirs mais de plus en plus dans les domaines encore embryonnaires, du télétravail, de la télémédecine et de la téléprésence. Souhaitons que la France, comme cela a été trop souvent le cas pour d'autres révolutions technologiques majeures, sache rapidement relever ce défi de l'accès pour tous au très haut débit optique et au service numérique universel.

René Trégouët

George : le robot sociable !
Vendredi, 22/09/2006 - 00:00

Il s'appelle George et sait disserter des heures de la pluie et du beau temps sans se fatiguer, dans 40 langues et à 2000 personnes en même temps. George est un « chatbot » (robot bavard), qui a reçu dernièrement en Grande-Bretagne le prix Loebner », une distinction scientifique honorant les machines capables de nouer les dialogues les plus réalistes avec des humains.

Doté depuis peu d'une image physique, d'une voix et d'un logiciel de reconnaissance de la parole, George, créé il y a sept ans, est censé désormais pouvoir discuter en « face à face ». Pour alimenter le dialogue, il puise dans les 10 millions de conversations qu'il a traitées jusqu'à présent et qui l'enrichissent continuellement.

George apparaît sur le site jabberwacky.com sous la forme d'un homme chauve, mince, chaussé de lunettes et habillé d'un pull à col roulé. Il sait sourire à propos, ricaner, bouder, taper du poing sur une table tout aussi virtuelle que lui. Il sait aussi faire du charme, et peut se montrer romantique. Il est parfois aussi grossier, et de façon inattendue.

«La machine "emprunte" l'intelligence et les mots de ses interlocuteurs, et apprend peu à peu à placer la réponse la plus adaptée au contexte de la conversation», explique l'expert en intelligence artificielle Rollo Carpenter, le concepteur de George.

George n'a qu'un but : se faire des amis sur internet. Il est bavard et persévérant. Il peut relancer à l'infini une conversation languissante, et pour cause : plus il parlera, et plus ses propos deviendront pertinents. «Le pourcentage de réponses correctes augmente en permanence, à mesure que la base de données s'agrandit», explique Rollo Carpenter. «Plus ça va, plus il est capable de faire la différence entre plusieurs choix de réponse».

Le roi des «chatbots» préfigure, selon ses concepteurs, une génération d'avatars parlants aux débouchés commerciaux prometteurs. Icogno, la société de Rollo Carpenter, met actuellement au point avec une société de marketing des avatars qui, bientôt, pourront suggérer leurs achats aux clients des supermarchés, après avoir sondé leurs goûts au détour d'un rayon.

Autre application envisagée à moyen terme : les centres d'appel, dans lesquels un seul avatar pourrait répondre au téléphone à des milliers de clients en même temps dans un centre d'appel.

Enfin, à terme, des avatars à l'apparence de personnages historiques pourraient être proposés aux élèves en cours d'histoire.

Jabberwacky

^ Haut
Matière
Matière et Energie
Des chercheurs allemands mettent au point le premier transistor atomique
Vendredi, 22/09/2006 - 00:00

Le groupe de travail du professeur Dr. Thomas Schimmel, travaillant pour le centre de recherche DFG sur les nanostructures fonctionnelles (CFN) de l'université et pour le centre de recherche de Karlsruhe, a trouvé une nouvelle approche et développé le premier transistor atomique au monde. Un transistor est un composant électronique actif fondamental en électronique utilisé principalement comme interrupteur commande et pour l'amplification, mais aussi pour stabiliser une tension, moduler un signal ainsi que de nombreuses autres utilisations.

Actuellement, le terme "transistor" désigne un dispositif semi-conducteur à trois électrodes actives qui permet le contrôle grâce à une électrode d'entrée d'un courant ou d'une tension sur l'une des électrodes de sortie. Ainsi les scientifiques de Karlsruhe sont en mesure d'ouvrir et de fermer un circuit à l'aide d'un seul et unique atome d'argent.

L'élément fonctionne comme un commutateur, par lequel un circuit électrique peut être ouvert et fermé. Les deux électrodes métalliques, séparées par un minuscule espace, sont recouvertes d'atomes d'argent, jusqu'à ce qu'un atome d'argent particulier relie les deux pôles. Cet atome est contrôlable par une troisième électrode. Ainsi avec cet atome, le circuit est fermé et le courant peut circuler et sans, le circuit est ouvert.

Comme dans un transistor conventionnel, le courant entre les deux électrodes peut donc être établi ou coupé grâce à une tension de contrôle. "Le transistor atomique est ainsi réalisé. "Les perspectives d'utilisation de cette technologie dans les domaines de la communication et de l'informatique sont immenses d'après le Dr. Th. Schimmel. Puisque l'atome qui établit la connexion est l'unique partie mobile du transistor atomique, ce dernier pourrait en principe travailler à tres hautes fréquences en comparaison des technologies traditionnelles.

De plus, les transistors atomiques peuvent déjà être enclenchés avec une tension de seulement quelques millivolts ce qui réduirait la consommation d'énergie en comparaison aux transistors semi-conducteurs traditionnels. Il faut toutefois réussir à spécifier l'interface entre l'électronique atomique et l'électronique conventionnelle.

BE Allemagne

Des petites bioraffineries locales multi-usages
Vendredi, 22/09/2006 - 00:00

Un consortium d'universités britanniques, soutenu par la jeune pousse Intensified Technologies Incorporated (ITI) issue de l'Université de Newcastle, effectue des recherches sur des petites raffineries qui pourraient convertir de la biomasse cultivée localement en combustible, électricité, chaleur et produits chimiques à l'échelle locale.

La méthode pour parvenir à ces nombreuses conversions est de renforcer et d'intégrer différents procédés concentrés les uns après les autres à petite échelle (Process Intensification and Miniaturisation, PIM). Les trois procédés considérés sont : une première conversion de la biomasse en produit chimique à haute valeur, suivie d'une conversion des résidus de la biomasse en bioéthanol par fermentation, puis gazéification des restes du procédé précédent en gaz de synthèse, qui doit être purifié et dont la composition doit être contrôlée.

L'équipe de chercheurs utilise des matériaux micro ou nanoporeux, polymères, métaux et céramiques. Ces matériaux poreux peuvent aujourd'hui être créés en quelques secondes à l'aide de micro-ondes contre plusieurs jours dans le passé. Le rôle de ces matériaux poreux est de développer la culture et l'efficacité des bactéries : en fonction de la taille des pores, le stress physiologique de la bactérie peut être contrôlé modifiant ainsi son comportement. Sa productivité peut être multipliée par 20 ou 30.

Un type de bactérie ainsi développé sur polymère poreux, permettra d'accélérer la croissance de la biomasse, la rendant cultivable sur des surfaces marginales ou sèches. La quantité de biomasse sera alors augmentée, offrant un apport plus constant, prévisible pour les petites raffineries. D'autres sources de biomasse peuvent être utilisées comme les déchets municipaux solides, les boues issues des stations d'épuration et les résidus de l'agriculture. Ces autres matières premières seraient directement converties en bioéthanol et en syngaz.

Des métaux avec des pores continus d'une taille de 100 à moins de 10 micromètres de diamètre devraient être utilisés en tant que catalyseurs dans la bioraffinerie pour la production de produits chimiques. Des céramiques poreuses sont actuellement en développement pour renforcer les procédés dans la raffinerie.

Le syngaz obtenu à la fin du procédé peut être séparé en ses constituants : dihydrogène, monoxyde de carbone, méthane et dioxyde de carbone pour former d'autres molécules plus grandes telles l'ammoniaque, l'éthanol et le méthanol. La conversion du syngaz en produits chimiques nécessite des réactions catalytiques et un "nettoyage" du syngaz, plus facile à haute température.

Par ailleurs, le syngaz peut directement être utilisé comme combustible pour un moteur à combustion ou pour une pile à combustible pour produire de l'électricité. Ces opérations nécessitent aussi de hautes températures pour fonctionner plus efficacement. Les chercheurs étudient donc les propriétés de catalyseurs métalliques qui fonctionnent jusqu'à 1.600 °C.

BE GG

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Forte réduction des glaces de l'Arctique en hiver
Vendredi, 22/09/2006 - 00:00

Le volume maximal de glace dans l'Arctique en hiver a diminué de 6 % au cours de chacune des deux dernières années. C'est ce qu'indique le climatologue Joey Comiso de la Nasa dont l'étude précise que le recul des glaces n'était que de 1,5 % par décennie depuis les premières observations satellitaires en 1978. Ce phénomène "résulte probablement du réchauffement atmosphérique dû aux gaz à effet de serre", a estimé le chercheur. Il a aussi noté que ce Phénomène "remarquable" est observé alors que durant l'été les glaciers de l'arctique continuent à reculer de 10 % en moyenne tous les dix ans depuis 1979. "Dans le passé, la réduction des glaces arctiques en hiver étaient nettement moins importante par décennie que durant l'été", a souligné ce chercheur.

Mais a-t-il expliqué, les programmes informatiques simulant les effets des gaz à effet de serre sur le réchauffement du climat, avaient montré que le volume des glaces arctiques diminuait plus rapidement en hiver qu'en été. Jusqu'à il y a deux ans, les mesures effectuées par les satellites continuaient à indiquer une situation normale dans l'Arctique avec une diminution plus importante des glaces en été, a souligné Joey Comiso.

Selon lui, "si un tel rythme de réduction des glaces arctiques se poursuivait, ce serait un indicateur du réchauffement climatique dû à un accroissement des gaz à effet de serre atmosphérique". Un tel phénomène "confirmerait au moins notre compréhension actuelle de la physique du système climatique de l'Arctique que nous avons incorporé dans nos modèles informatiques", a expliqué ce chercheur. Des études faites précédemment avaient déjà montré une tendance au réchauffement de l'Arctique en hiver avec un allongement d'environ deux semaines par an de la période de fonte des glaces.

Joey Comiso a aussi estimé que la poursuite de la réduction des glaces de l'Arctique en hiver pourrait être désastreuse pour la faune marine en détruisant le phytoplancton, la source alimentaire de base dans l'océan. Par ailleurs, une étude publiée dans la revue britannique Nature conclut "qu'au cours du dernier siècle, c'est l'action de l'homme, et non le soleil, qui est responsable du réchauffement climatique. Selon cette étude du NCAR, les variations de luminosité du Soleil n'ont pas dépassé 0,07 % depuis 1978, ce qui est bien trop faible pour expliquer l'ampleur du réchauffement planétaire.

NASA

NCAR

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
La médecine régénératrice ouvre de fascinantes perspectives
Vendredi, 22/09/2006 - 00:00

L'Académie des sciences vient d'organiser un colloque international sur les thérapies cellulaires régénératrices. On sait depuis 1998 qu'il existe des cellules souches situées dans le cerveau et capables de produire de nouveaux neurones et c'est cette fin du vieux dogme d'un cerveau « fini », incapable de produire de nouveau neurones, qui a permis l'essor de la médecine régénératrice.

En 2003, l'équipe de Pierre-Marie Lledo a démontré l'existence d'une « réserve » naturelle de neurones, située dans la partie profonde du cerveau, autour des ventricules latéraux. Un an plus tard, cette équipe avait montré que ces neurones immatures migraient vers la partie antérieure du cerveau au niveau de l'épithélium du bulbe olfactif, grâce à une molécule, la ténascine, sécrétée par le bulbe olfactif, qui les attire. Ce mécanisme permet à ces précurseurs de se transformer en neurones adultes capables d'établir de nouvelles connexions.

S'appuyant sur ces découvertes, les chercheurs essayent d'utiliser la capacité naturelle de ces neurones immatures à migrer pour les faire se diriger dans des régions cérébrales lésées, par exemple, au niveau d'une moelle épinière sectionnée. L'équipe de Geoffrey Raisman, de l'institut de neurologie à l'University College de Londres, après avoir réalisé des expérimentations chez l'animal, a commencé les essais chez l'homme début 2006.

Chez une quinzaine de patients qui avaient perdu la motricité d'une extrémité d'un membre à la suite d'une lésion partielle de la moelle épinière, les neurochirurgiens ont injecté au niveau de la cicatrice médullaire, des précurseurs de neurones issus de cet épithélium olfactif. Certains patients ont récupéré un début de motricité : ils ont pu mobiliser un doigt de pied ou le pouce.

Les chercheurs ont constaté que, contre toute attente, ces précurseurs neuronaux n'ont pas intégré le réseau mais ont en revanche créé un environnement favorable à la survie et à la récupération de certains des neurones existants. Ce résultat surprenant ouvre de grandes perspectives thérapeutiques mais de nombreuses années de recherche sont encore nécessaires pour apprendre à maîtriser l'utilisation de ces cellules souches pluripotentes.

Académie des sciences

UCL

Anévrisme de l'aorte : un espoir dans le traitement
Vendredi, 22/09/2006 - 00:00

Un espoir dans le traitement des anévrismes de l'aorte : des médecins ont réussi à réparer la plus grosse artère de l'organisme à l'aide d'agrafes en forme de tire-bouchon. Si cette réparation encore expérimentale tient, elle pourrait servir de modèle. Ce qui est en jeu, c'est un gonflement de la paroi de l'aorte, l'artère qui va du coeur à l'aine et qui possède des collatérales acheminant le sang dans le corps.

Ces endroits fragiles sont assez fréquents, notamment au passage de l'aorte dans l'abdomen, et tout particulièrement chez les personnes âgées. Chaque année, environ 200.000 anévrismes de l'aorte abdominale (AAA) sont diagnostiqués, mais des dizaines de milliers de personnes en sont porteurs sans le savoir. La pression sanguine peut faire éclater ces anévrismes et l'AAA tue des milliers d'individus chaque année.

Pendant des années, les médecins ne faisaient que recoudre la zone fragile après avoir introduit un tube dans l'artère, une opération très difficile qui nécessitait deux mois de convalescence. Mais depuis 1999, les médecins réparent de plus en plus d'AAA par des techniques moins invasives : ils introduisent une rustine par une petite incision jusqu'au point fragile, et la collent sur place. Ces rustines ressemblent à une manche qui protégerait le gonflement de la paroi, avec deux fois moins d'effets secondaires et de temps de convalescence que la chirurgie traditionnelle.

Des milliers de personnes ont bénéficié de ces rustines avec de bons résultats. Mais elles ne sont pas parfaites. En effet, elles ne conviennent pas à toutes les aortes, ce qui sous-entend que tout le monde ne peut pas être candidat. De plus, les médecins ne savent pas combien de temps elles peuvent tenir, comparées à la chirurgie. Des études sont en cours à ce sujet.

En 2001, l'agence américaine du médicament, la FDA, a commencé à tirer la sonnette d'alarme à propos des décès dus aux fuites de ces rustines ou à leurs changements de place. En 2003, un modèle défectueux a même dû être retiré du marché. Et bien que les risques soient minimes, les personnes ayant bénéficié de toutes les marques doivent subir un contrôle régulier pour s'assurer qu'elles ne se relâchent pas.

En pratique, les chercheurs les réservent plutôt aux personnes âgées ou à celles qui sont condamnées à court terme par une pathologie. Mais ce n'est pas parce que les jeunes patients peuvent supporter une chirurgie lourde qu'ils doivent être opérés, souligne le Dr David Deaton de l'hôpital de l'Université Georgetown. D'où la recherche de rustines de nouvelle génération et l'arrivée de ces petites agrafeuses.

AP

Marseille : inauguration d'un appareil de radiochirurgie unique au monde
Vendredi, 22/09/2006 - 00:00

L'hôpital marseillais de la Timone a inauguré le 15 septembre le premier exemplaire au monde du "Gamma Knife Perfexion", un appareil de radiochirurgie révolutionnaire qui permet d'opérer le cerveau sans ouvrir la boîte crânienne, a annoncé l'Assistance Publique des Hôpitaux de Marseille (AP-HM). Une nouvelle unité de radiochirurgie a été spécialement créée par l'AP-HM pour permettre l'accueil de cette machine, faisant du centre de la Timone le seul en Europe à posséder deux unités "Gamma Knife", la première ayant été inaugurée en 1992. Selon l'AP-HM, un seul autre Gamma Knife existe à l'heure actuelle en France, au CHU de Lille. Les hôpitaux marseillais ont investi au total 2,7 millions d'euros pour l'installation du nouvel appareil, précise le service de communication.

Le concept de "radiochirurgie stéréotaxique" utilise de très fins faisceaux de rayons ionisants pour détruire ou modifier des zones situées à l'intérieur du crâne ou du cerveau. Il a été inventé en 1951 par le Suédois Lars Leksell. Le premier prototype de "Gamma Knife", utilisant du cobalt 60 radioactif, a été conçu par le chercheur suédois en 1967 pour traiter des tumeurs cérébrales. Depuis lors, le concept a été développé et permet aujourd'hui de traiter de multiples lésions de petite taille, "profondément situées dans l'espace intra-crânien, souvent difficiles à atteindre sans entraîner de dommages pour le patient avec la chirurgie conventionnelle", explique l'AP-HM.

Outre les tumeurs, ce type d'appareils est également indiqué pour soigner de petites malformations artério-veineuses, des méningiomes ou certains types d'épilepsie sévère ou de névralgies faciales. Le Gamma Knife est notamment préconisé pour le traitement du neurinome de l'acoustique, une tumeur bénigne qui se développe au fond du conduit auditif, non cancéreuse mais qui peut entraîner une compression des zones vitales du cerveau.

La chirurgie classique conduit la plupart du temps à la perte de l'audition et dans un pourcentage de cas non négligeable à une paralysie du visage très invalidante. "Avec la radiochirurgie, le patient est hospitalisé uniquement quelques heures, il peut reprendre immédiatement son emploi" et la technique limite les risques de perte de l'audition, souligne l'AP-HM, qui opère la majorité des cas en France.

FHF

Un médicament prometteur contre le diabète
Vendredi, 22/09/2006 - 00:00

Un médicament utilisé dans le traitement du diabète peut aussi contribuer à prévenir l'apparition de la maladie chez les gens à haut risque de développer le diabète le plus commun, selon une étude internationale publiée par la revue médicale britannique The Lancet. L'étude "Dream" a porté sur 5.269 adultes de 21 pays (Europe, Amériques, Australie,Inde) à haut risque de développer la forme de la plus répandue de la maladie dans le monde, le diabète de type 2, c'est-à-dire présentant un pré diabète (tolérance au glucose et glycémie à jeun anormales).

Ils ont reçu une dose quotidienne de 8 mg de rosiglitazone ou un placebo pendant trois ans ainsi que des recommandations pour une meilleure hygiène de vie (alimentation, activité physique).

Au terme de l'étude, 658 personnes sous placebo ont développé un diabète, contre seulement 280 dans le groupe ayant reçu le rosiglitazone. Le rosiglitazone est un antidiabétique oral de la classe des thiazolidinediones (ou glitazones) commercialisé sous le nom d'Avandia par les laboratoires GSK (GlaxoSmithKline).

Environ 5 % de la population adulte mondiale souffre de diabète de type 2 et ce nombre ne cesse d'augmenter avec la progression de l'épidémie d'obésité reflétant les changements de mode de vie (alimentation déséquilibrée, sédentarité avec manque d'exercice). Les auteurs estiment que l'excès de problème cardiaque non mortel dans le groupe traité représente un prix acceptable pour prévenir le diabète lui même à l'origine de problèmes cardio-vasculaires (infarctus...), d'insuffisance rénale, de cécité, de lésions des pieds pouvant entraîner des amputations et de décès.

Les interventions pour modifier le mode de vie, en ciblant l'exercice physique et la nutrition, permettent de réduire de plus 50 % l'incidence du diabète, mais sont difficiles à maintenir. La réduction de survenue de diabète avec le médicament apparaît de même ampleur que celle obtenue par les approches préventives sur le style de vie et plus importante que celles rapportées avec deux autres médicaments, la métformine et l'acarbose. Selon l'étude, "le rosiglitazone associé à des recommandations d'hygiène de vie réduit d'environ des deux tiers le risque de diabète, offrant une nouvelle approche préventive".

L'examen de "la balance bénéfice/risque suggère que pour chaque millier de personnes traité avec le rosiglitazone pendant trois ans, 144 cas de diabète seront prévenus, au prix d'un excès de quatre ou cinq cas d'insuffisance cardiaque", estiment les auteurs. Le diabète tue une personne toutes les dix secondes dans le monde et causera la mort de 3,5 millions de personnes en 2007, selon la Fédération internationale du diabète (FID).

Lancet

Un test sanguin prénatal pour la mucoviscidose
Vendredi, 22/09/2006 - 00:00

La mucoviscidose est une maladie génétique qui touche un bébé sur 4.000 à la naissance. Pour les couples qui appartiennent à des familles à risque, où il y a déjà des enfants atteints de mucoviscidose, les médecins proposent de pratiquer une amniocentèse ou une biopsie d'une fraction du placenta pour détecter la mutation génétique liée à la maladie. Pour éviter ces prélèvements qui comportent un risque, même faible, des chercheurs de l'Inserm ont mis au point un nouveau test sanguin. L'équipe de Patrizia Paterlini-Bréchot a réussi à dépister la mucoviscidose à partir de cellules foetales isolées dans le sang de la femme enceinte. Cette méthode a été testée sur 12 couples suivis à l'hôpital Necker (Paris) par les Prs Arnold Munnich et Yves Dumez. Le test sanguin a donné les mêmes résultats que les biopsies des cellules du placenta.

Une seconde étude clinique auprès de 16 couples à risque est en cours à Necker pour valider le procédé. Si les résultats, qui seront connus dans 18 mois, sont concluants, le test pourra être proposé à la place de l'amniocentèse ou du prélèvement placentaire. Au-delà, ce sont toutes les femmes enceintes qui pourraient faire ce test de dépistage

Inserm

Le premier génome complet d'un arbre est décodé
Vendredi, 22/09/2006 - 00:00

Un consortium international publie la première séquence complète du génome d'un arbre, le peuplier (Populus), et l'analyse de ses caractéristiques principales. Cette essence, déjà connue pour sa grande valeur économique et son intérêt environnemental, dévoile aujourd'hui sa structure génomique et les fonctions précises des gènes répertoriés. Les unités de recherche de l'INRA, de l'Université de Gand et de l'Université Henri Poincaré de Nancy qui ont participé à ces travaux contribuent à la compréhension du fonctionnement des arbres et des écosystèmes forestiers et participent ainsi au développement de la filière « bois-énergie ». Ces résultats sont publiés dans le journal "Science" du 15 septembre 2006.

Une centaine de scientifiques du monde entier participent à ce premier séquençage complet du génome d'un arbre. Plus de 40 000 gènes exprimés ont été inventoriés, faisant du peuplier un arbre-modèle pour des dizaines de laboratoires.

Ces travaux sont coordonnés par le "US Department of Energy" et impliquent la fondation "Genome Canada" et le "Umeå Plant Science Center" Suédois et une dizaine d'autres équipes. Trois unités de recherche de l'INRA y participent : une unité INRA/Université Henri Poincaré de Nancy, une unité INRA associée à l'université de Gand en Belgique et une unité d'Orléans. L'analyse experte des familles de gènes du peuplier a mis en évidence une spécialisation de plusieurs fonctions physiologiques qui distinguent cet arbre des plantes herbacées telles que Arabidopsis dont le génome a été séquencé en 2000.

Les protéines impliquées dans les réactions de défense face aux multiples ravageurs et parasites auxquels ces plantes pérennes sont exposées durant leur longue vie sont extrêmement abondantes, ce qui contribue à améliorer la résistance des arbres. De même, les familles de gènes impliquées dans les processus d'échange et de transport sont fortement amplifiées, en relation probable avec la distribution des nutriments dans ces organismes de grande taille.

Une centaine de gènes impliqués dans la synthèse de composants essentiels du bois que sont la cellulose et la lignine ont été identifiés. Cette connaissance permettra de mieux comprendre la formation du bois en vue de son éventuelle utilisation comme substitut aux énergies fossiles.

Eurekalert

L'organisation du cerveau du nourrisson pourrait-elle expliquer l'acquisition rapide de la langue maternelle ?
Vendredi, 22/09/2006 - 00:00

Pourquoi seuls les humains sont-ils capables de maîtriser un langage sophistiqué ? Comment se fait-il que les nourrissons dominent si rapidement leur langue maternelle, quand on songe aux difficultés de l'adulte pour apprendre une deuxième langue ? Les réponses à ces questions se trouvent peut-être dans l'organisation particulière du cerveau humain et dans la collaboration étroite entre les régions qui ont des fonctionnalités différentes mais complémentaires.

Telles sont les hypothèses émises par des équipes de l'Inserm, du CEA, de l'AP-HP et du CNRS. Leurs travaux complètent les conclusions apportées en 2002 par ces mêmes chercheurs qui démontraient alors que les nourrissons activaient les mêmes aires cérébrales que l'adulte lorsqu'ils écoutaient de la parole.

Leurs résultats montrent aujourd'hui que l'organisation adulte, qui implique une coopération étroite entre les aires de compréhension (la région temporale dont l'aire de Wernicke) et celles de production verbale (l'aire de Broca dans la région frontale inférieure gauche), est déjà présente chez le nourrisson alors qu'il ne parle pas encore. Ces nouvelles données paraissent cette semaine dans l'édition en ligne des PNAS (Proceedings of the National Academy of Science).

L'étude a été conduite par Ghislaine Dehaene et son équipe (unité Inserm 562 « Neuroimagerie cognitive ») au CEA, au sein du service hospitalier Joliot Curie. Elle a consisté à visualiser l'organisation des régions cérébrales activées par l'écoute de courtes phrases (de seulement 2 s) grâce à l'imagerie par résonance magnétique fonctionnelle (IRMf)1. Ce travail a été mené chez 10 nourrissons âgés de 3 mois (4 filles et 6 garçons) à l'hôpital Necker Enfants-malades (AP-HP).

L'IRMf a permis aux chercheurs de constater que ces phrases provoquent l'activation en cascade de régions temporales et frontales. Les régions les plus proches du cortex auditif, s'activent dès le début de la phrase alors que d'autres, plus distantes comme l'aire de Broca, répondent plus lentement. Cette progression de la réponse pourrait correspondre à une intégration du signal sonore dans des unités de plus en plus longues, permettant ainsi au nourrisson d'accéder à la structure emboîtée des phrases.

L'équipe a également observé que la réponse dans l'aire de Broca augmentait lorsque la phrase était répétée. Or, on sait que chez l'adulte cette région est cruciale pour la mémoire verbale à court-terme (quand on retient un numéro de téléphone par exemple). Ce processus de mémorisation semble reposer sur une répétition silencieuse des éléments à mémoriser.

Chez le nouveau-né l'activation de cette aire de Broca est surprenante. Elle permet d'assurer des fonctions qui sont encore très immatures (production verbale) ou bien inexistantes (intégration grammaticale) à 3 mois. Ces travaux conduits par l'équipe dirigée par Ghislaine Dehaene montrent que le nourrisson de 3 mois, bien qu'incapable de répéter des phrases entières, possède déjà le circuit neuronal qui lui permet de repérer certains éléments répétés de la phrase.

Par ailleurs, des travaux récents ont montré que dans l'équivalent de cette région chez les singes macaques existaient des neurones particuliers, appelés neurones "miroirs", qui sont activés non seulement lors de la réalisation d'une action, mais aussi dès que le macaque voit ou entend un congénère effectuer cette même action. Cette région pourrait donc être cruciale pour unifier les différentes représentations motrices (je parle), visuelles (je vois parler) et auditives (j'entends parler) de la parole et permettre au nourrisson de tirer le meilleur parti de son environnement sonore et visuel.

Inserm

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Les journaux japonais adoptent les podcasts pour élargir leur audience
Vendredi, 22/09/2006 - 00:00

Casque de baladeur numérique sur les oreilles, les yeux scotchés à l'écran de leur téléphone portable, les Japonais qui s'entassent chaque jour dans les transports en commun délaissent de plus en plus les journaux au profit de la musique ou d'émissions de radio téléchargeables. Face à cette déferlante du multimédia mobile, la puissante presse écrite japonaise s'efforce de s'adapter aux nouveaux comportements du lectorat. Elle s'est donc lancée dans les podcasts (baladodiffusions audio ou vidéo), très populaires vecteurs d'informations déjà exploités par les radios et les TV.

Deux des plus gros quotidiens nationaux, le Yomiuri et le Nikkei, ont lancé des programmes audio, "Yomiuri Podcast News" et "Kiku Nikkei" (écouter le Nikkei), qui se servent de la baladodiffusion comme nouvel appât. Le Yomiuri, premier quotidien du Japon (plus de dix millions d'exemplaires par jour, sept jours sur sept, avec deux éditions quotidiennes en semaine), offre un programme audio d'une vingtaine de minutes du lundi au vendredi. Disponible à six heures du matin, cette émission destinée aux foules de banlieusards qui prennent train ou métro donne un résumé des articles de la première édition du jour. L'éditorial y est également repris.

L'après-midi, le Yomiuri propose un bref "podcast vidéo", réplique en images pour baladeur vidéo des articles de l'édition du soir. Ce programme, de moins d'une dizaine de minutes et qui cible en priorité les femmes, est présenté par une journaliste en plateau dont les commentaires de l'actualité sont parfois accompagnés de banc-titres (pages du journal, photos) ou de séquences vidéo.

De son côté, le Nihon Keizai Shimbun (Nikkei), la "bible" des milieux d'affaires, offre également chaque matin à partir de 09H30 un "podcast vidéo", qui passe en revue en moins de dix minutes les plus importantes nouvelles. En studio, la journaliste est flanquée d'un rédacteur en chef de la maison, qui apporte l'éclairage nécessaire. Le Nikkei, important groupe de presse multimédia, diffuse en outre chaque matin un autre programme, audio cette fois, à transférer sur un baladeur. Cette émission quotidienne d'une demi-heure, animée par deux journalistes, passe en revue les principaux titres du quotidien. Sa version hebdomadaire, le Nikkei Business Weekly, accompagne sa publication de podcasts audio et vidéo, dont un co-animé par le rédacteur en chef du journal.

La plupart de ces programmes sont en partie financés par la publicité dont les spots servent de génériques ou de transition entre deux séquences. D'autres journaux s'y mettent. Le quotidien Mainichi diffuse par exemple des podcasts audio hebdomadaires basés sur l'actualité, en anglais, à l'attention des salariés japonais qui souhaitent améliorer leur compréhension de l'anglais.

Crisscross

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Stockholm adopte un péage urbain pour limiter les émissions polluantes
Vendredi, 22/09/2006 - 00:00

Les habitants de Stockholm ont décidé de limiter la circulation automobile dans la capitale suédoise et la pollution qui en découle, en adoptant un péage urbain, emboîtant le pas à Londres, Rome ou encore Singapour. Approuvé le 16 juin 2004 par le Parlement suédois (Riksdag), le principe de ce péage urbain vient d'être également approuvé à 53 % lors du référendum organisé par la ville de Stockholm le 17 septembre. A présent, rien ne s'oppose plus à la mise en service de ce péage urbain, prévu pour avril 2007.

Avant d'être soumis à l'approbation des Stockholmois, le projet avait été mis au banc d'essai du 3 janvier au 31 juillet. Une expérience concluante en dépit du vif mécontentement et des contestations qu'il avait suscités à ses débuts. La circulation automobile avait en effet chuté de 20 à 25 % aux portes de la capitale alors que l'objectif initial était de réduire la circulation automobile de 10 à 15 % intra-muros. Et depuis la fin de l'essai, la circulation s'est de nouveau intensifiée. En août 2006, le nombre de voitures circulant à Stockholm a été supérieur à celui d'août 2005, selon la municipalité.

Cette "taxe d'embouteillage", dont doivent s'acquitter les automobilistes entrant et sortant de Stockholm, est perçue par l'Etat pour le compte de la capitale suédoise. Pendant la durée de l'essai, les automobilistes, à l'exception des chauffeurs de taxis, de bus, de voitures électriques et hybrides ainsi que les conducteurs de voitures immatriculées à l'étranger, s'acquittaient d'un droit de passage, du lundi au vendredi entre 06H30 et 18H29. Les automobilistes déboursaient entre 10 et 20 couronnes (entre 1 et 2,10 euros) à chaque entrée ou sortie de la ville, selon l'heure de la journée. La taxe quotidienne maximale avait toutefois été fixée à 60 couronnes. L'expérimentation s'était déroulée sans barrière de péage : des caméras filmaient les plaques d'immatriculation et un boîtier électronique installé près du rétroviseur permettait de débiter automatiquement le compte bancaire de l'automobiliste.

Les transports en commun, qui étaient déjà empruntés par 70 % de la population se rendant au travail avant l'expérience, avaient par ailleurs absorbé le surcroît de passagers. Le péage urbain vient compléter un dispositif de protection de l'environnement. La ville a en effet déjà adopté les bus fonctionnant à l'éthanol, un biocarburant.

D'autres métropoles réfléchissent à un projet similaire. Le maire de Milan, Letizia Moratti, souhaiterait instaurer à partir de 2007 un péage pour les voitures des non-résidents de la ville. Mais elle se heurte pour l'instant à l'hostilité des présidents de la province de Milan et de la région Lombardie. San Francisco, coincée sur une presqu'île, étudie de son côté la faisabilité d'un péage urbain aux heures de pointe, comparable à celui de Londres. Cette étude ne devrait toutefois pas aboutir avant 2008.

Orange

Nissan teste un système informatique pour la sécurité routière
Vendredi, 22/09/2006 - 00:00

Nissan annonce qu'il va tester pendant les prochaines années un nouveau système informatique embarqué pour améliorer la sécurité et la fluidité du trafic au Japon. Ce système permet d'échanger des signaux entre des véhicules et les infrastructures du bord de la route, comme les feux tricolores et les poteaux électriques, pour mesurer la vitesse des véhicules, la distance et l'accélération, d'envoyer un signal si la voiture n'est pas en état de marche ou s'il y a un risque de collision avec un autre véhicule dans des conditions de visibilité réduite.

Le deuxième constructeur japonais suivra 2.000 automobilistes dans la préfecture de Kanagawa, au sud-ouest de Tokyo, pendant le test qui s'étendra d'octobre à fin mars 2008. Ses concurrents Toyota et Honda travaillent actuellement sur des technologies similaires et devraient bientôt commencer leurs tests dans d'autres régions du Japon. Ces recherches s'inscrivent dans le cadre du projet du gouvernement japonais de mettre en place d'ici 2010 un système informatique national dans les transports pour réduire le nombre d'accidents de la route.

Le système sur lequel travaille Nissan, avec des appareils développés par Matsushita Electric Industrial, préviendra aussi les conducteurs par un message vocal et visuel s'ils sont en excès de vitesse. Parallèlement, le partenaire japonais de Renault va tester un système qui récupère des données depuis les téléphones portables d'utilisateurs de son service de navigation CarWings et de l'opérateur mobile NTT DoCoMo pour informer sur l'état du trafic, conseiller des itinéraires et indiquer le plus rapide. Nissan explique que cette technologie permettra de réduire les embouteillages, responsables, selon le gouvernement japonais, d'une perte de 12.000 milliards de yens (80,5 milliards d'euros) par an.

TO

Un jet supersonique de nouvelle génération d'ici 2013
Vendredi, 22/09/2006 - 00:00

L'agence spatiale japonaise prévoit de construire un prototype de jet supersonique moins bruyant et consommant moins d'essence que le défunt Concorde d'ici six ans, a-t-on appris de source officielle. À la traîne derrière les États-Unis, la France et la Russie dans le domaine de l'aérospatial, le Japon tente de dynamiser sa compétitivité en imaginant l'avion commercial de la prochaine génération qui permettrait de rallier Tokyo à Los Angeles en trois heures environ.

L'objectif serait de rendre ce jet opérationnel pour 2020, selon l'agence d'exploration aérospatiale japonaise JAXA (Japan Aerospace Exploration Agency). Après avoir consacré une dizaine d'années à des tests, JAXA se lance donc dans ce projet dont le coût est estimé à 20 milliards de yens, soit 190 millions de dollars. Malgré les résultats mitigés des essais effectués en vol, le Japon a cependant réussi à tester un moteur pouvant théoriquement atteindre Mach 5,5 (plus de cinq fois la vitesse du son).

Reste à surmonter notamment deux difficultés qui nuisaient au Concorde : le bruit et la consommation trop importante de carburant. Le porte-parole de JAXA, Satoki Kurokawa, a déclaré que le but premier du prototype est de réduire le bruit du moteur de 50 %. Viennent ensuite les objectifs de réduction de consommation de carburant ainsi que de maîtrise de l'appareil pendant le vol et lors de l'atterrissage.

Canoe

Quatre-vingt-trois technologies-clés pour 2015
Vendredi, 22/09/2006 - 00:00

Quelles sont les "technologies-clés" qui permettraient d'assurer un avantage compétitif à la France dans le monde à l'horizon 2010-2015 ? C'est à cette question capitale que tente de répondre la troisième édition de l'étude prospective « Technologies clés 2010 » que vient de présenter François Loos, le ministre délégué à l'Industrie.

Cette étude identifie au total 83 technologies, dans huit grands secteurs : technologies de l'information, technologies du vivant, nouveaux procédés de production, matériaux et chimie, bâtiment, énergie, transports et bien sûr environnement. Nombre de ces technologies sont connues mais "ont insuffisamment progressé ces dernières années", comme les pompes à chaleur, les moteurs à pistons ou les "turbomachines", qui ont pourtant un fort potentiel d'évolution, relèvent les auteurs.

On remarque que les TIC représentent 17 de ces 83 technologies, ce qui en fait désormais le secteur le plus porteur. Il est vrai qu'elles contribuent pour 40 % à la croissance de la productivité en Europe. Une technologie est considérée clé quand « elle permet d'agir structurellement sur la compétitivité et l'attractivité des activités en France ». Par conséquent, les choix ont été effectués avec des critères purement techniques, mais aussi d'autres plus économiques ou stratégiques.

Il apparaît d'autre part qu'un nombre croissant de pays, y compris "émergents", maîtrisent des "briques" technologiques comme les composants électroniques ou les écrans plats et sont même parfois des leaders mondiaux dans ces secteurs. "Dans un tel contexte, les pays occidentaux, et la France en particulier, ne peuvent rester compétitifs qu'à la condition de mettre en avant leur maîtrise des systèmes complexes."

Les technologies clés identifiées comme les plus importantes pour 2010 s'inscrivent dans un contexte marqué par un grand nombre de défis. Ces technologies sont des réponses à ces enjeux qui structureront le monde de demain. Les défis retenus dans cette étude sont au nombre de 8 :

- les problèmes de sécurité liés au contexte géopolitique ;

- le changement climatique ;

- la ressource en eau ;

- les défis énergétiques (production et maîtrise de la consommation) ;

- la disponibilité des matières premières ;

- le vieillissement démographique ;

- l'emploi et la compétitivité économique.

Le rapport insiste pour la première fois sur ces systèmes complexes, qui peuvent inclure des technologies développées ailleurs qu'en France. Il cite ainsi le développement du réacteur nucléaire de troisième génération EPR, d'un TGV silencieux à 350 km/h, d'un avion plus économe et silencieux, de véhicules automatisés, d'un système routier "intelligent", d'un réseau de données très haut débit mobile à bas coût, d'une "usine à logiciels" (production de "composants logiciels" réutilisables dans divers programmes informatiques), de technologies d'authentification pour lutter contre les contrefaçons, etc.

Dans le secteur énergie et environnement, il suggère de développer les systèmes photovoltaïques et éoliens à stockage d'électricité intégré, les carburants de synthèse ou une centrale à charbon avec capture et stockage du gaz carbonique.

Pour les technologies du vivant, à côté des thérapies cellulaires et géniques, il propose le développement de nouvelles générations de vaccins par génie génétique pour lutter contre le sida, la malaria, la tuberculose et même les cancers.

Les systèmes de gestion des "microénergies" utilisés dans les téléphones mobiles, ordinateurs portables, lecteurs MP3, appareils photos, etc. représentant également des marchés considérables, de même que les nouveaux instruments de stockage des données informatiques et les systèmes d'activation par fréquence radio (RFID) comme certains badges d'accès.

Le marché mondial de la "mémoire volatile" de type DRam, utilisée dans les ordinateurs, est estimé à plus de 30 milliards de dollars. Celui de la RFID pourrait atteindre quatre milliards de dollars en 2008. Celui de la sécurité des systèmes d'information (50 milliards de dollars) croît de 15 % par an.

Quant à la recherche et développement dans le domaine des logiciels pour les systèmes embarqués, elle devrait exploser dans les prochaines années et atteindre 132 milliards d'euros dans le monde en 2015, dans les secteurs de l'aéronautique, de l'automobile, des automatismes industriels, des équipements de santé, des télécommunications et de l'électronique grand public.

Le rapport insiste sur le développement des "nano-objets" (particules, fibres ou tubes), secteur émergent dont le domaine d'application va de l'industrie pharmaceutique aux travaux publics, et sur la biotechnologie appliquée à la production de produits chimiques et d'énergie.

Pour le bâtiment, il cite les matériaux composites à base de matériaux recyclés et de biomasse pour la construction et l'intégration des énergies renouvelables.

Le rapport ne retient pas, en revanche, des technologies "sensibles" parce que directement liées à la défense nationale, comme les piles à combustible pour sous-marins, les missiles ou certains matériaux résistant à de très hautes températures. Autre limite de cette étude : elle ne retient pas des technologies pour lesquelles l'horizon 2010 paraît trop court, comme le nucléaire de quatrième génération, les nanorobots médicaux injectables où les ordinateurs "quantiques". A quand une étude sur les "Technologies clés 2020"?

MI

MI:

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top