RTFlash

RTFLASH Recherche & Technologie
NUMERO 152
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 22 Juin 2001
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Première voiture avec internet en série
Le paiement par email sur Internet concurrence de plus en plus la carte de paiement
L'eVilla de Sony, un terminal Internet audacieux
Le câble fête ses cinquante ans à Chicago sur fond de bataille pour l'internet haut débit
Avenir
Un atome à la fois
Matière
L'hydrogène, nouveau vecteur énergétique pour le 21e siècle?
Une batterie polymère, la fin des lithium-ion ?
Espace
Le supercargo de l'espace sera européen
Terre
Piéger le dioxyde de carbone pour réduire l'effet de serre
Vivant
Les effets protecteurs du jus de raisin rouge
Première greffe du larynx réussie chez l'homme
La lutéine pour prévenir l'athérosclérose ?
Nouvelespoir de transplantation pour les diabétiques
Une microboite à virus
Le nouveau riz pour l'Afrique, une "prouesse scientifique"
L'agriculture relève le gant !
Recherche
Toyota dévoile un moteur hybride 'light'
Edito
A quoi ressemblera notre ordinateur en 2010 ?



Paradoxalement, alors que l'informatique mondiale traverse une crise sans précédent (le marché américain des ordinateurs personnels va se contracter en 2001 et, pour la première fois de l'histoire de cette industrie, les ventes de PC devraient baisser de 6,3 % en 2001 et celles des composants de 14 % sur l'ensemble de 2001), le domaine de l'électronique vient de connaître quatre innovations technologiques majeures qui ouvrent à l'informatique de nouveaux horizons et vont accélérer la mutation de notre civilisation vers l'âge informationnel et cognitif. Vingt nanomètres ou 20 milliardièmes de mètre ou encore 80 atomes de large. C'est la taille des transistors que les ingénieurs du centre de recherche d'Intel à Hillsboro (Oregon) ont réussi à atteindre. Rappelons que les transistors sont l'élément de base du processeur et sont aujourd'hui essentiellement produits en 0,18 voire 0,13 micron (ou 180 et 130 nanomètres). Soit entre six et neuf fois plus "volumineux" que les nouveaux transistors mis au point par Intel. Après avoir annoncé en mars une gravure en 0,07 micron, Intel n'en finit pas de battre des records de miniaturisation des transistors, repoussant toujours plus loin la célèbre loi de Moore qui consiste à doubler le nombre de micro-interrupteurs d'un processeur tous les 18 mois environ. Cette annonce est d'autant plus impressionnante que la taille des transistors est inférieure à celle de la longueur d'onde de l'ultraviolet utilisé dans le procédé de gravure par lithographie. Les ingénieurs ont donc réussi à contourner ce problème avec un procédé d'élaboration évidemment confidentiel et intitulé phase shifting. Avec une telle découverte, Intel prévoit de produire vers 2007 des processeurs équipés d'un milliard de transistors (contre 42 millions pour le Pentium 4 actuel) et cadencés à 20 GHz (contre 1,7 GHz pour le plus rapide des P4). Le plus étonnant est qu'un tel processeur nécessiterait moins d'un volt, soit moins d'énergie que les puces actuelles, phénomène directement lié à la réduction de la taille des transistors. Alors que Gordon Moore lui-même ne pensait pas pouvoir franchir 0,25 micron, Intel dépasse une fois de plus les limites théoriques. Mais comment peut-on augmenter la puissance de calcul des processeurs tout en diminuant leur consommation électrique et sans réduire la taille des transistors ? En "étirant" le silicium. C'est ce que vient de découvrir IBM avec une nouvelle technologie de fabrication intitulée strained silicon (littéralement "silicium tendu"). On sait que, dans le silicium, les atomes ont une tendance naturelle à s'aligner entre eux avec pour conséquence de créer des résistances. En déposant une fine couche de "silicium étiré" sur le substrat de silicium, les atomes s'alignent de manière plus espacée, ce qui "fluidifie" leur mouvement. Ce principe accélère de 70 % la circulation des atomes selon IBM, qui espère ainsi obtenir des processeurs 35 % plus rapides que les modèles actuels. Outre l'optimisation des performances, le strained silicon présente un double avantage. Les procédés de fabrication ne changent pas. Seul un nombre réduit d'adaptations des lignes de montage est nécessaire. Les premiers processeurs produits avec cette dernière technologie sont attendus sur le marché pour 2003. Ces améliorations technologiques peuvent se combiner entre elles, ce qui devrait améliorer de manière considérable les performances des processeurs d'ici la fin de cette décennie. Un bref retour en arrière permet de mieux se rendre compte de l'extraordinaire évolution technologique intervenue en électronique depuis l'apparition du premier microprocesseur, il y a 30 ans. Le premier microprocesseur d'Intel, sorti en 1971, intégrait 2200 transistors et fonctionnait à 104 KHz. 30 ans plus tard, les dernières versions du Pentium 4 intègrent 42 millions de transistors et dépasseront la barre des 2 GHz avant la fin de cette année. En 30 ans le nombre de transistors sur une seule puce et la vitesse de cette puce auront donc été multipliés par 20000. C'est ainsi que la puissance de calcul d'un PC à 1000 euros est aujourd'hui supérieure à celle dont disposait la NASA en 1969 pour envoyer l'homme sur la Lune ! Il est important de souligner que cette course à la puissance va se poursuivre à un rythme encore plus rapide, en valeur absolue, puisqu'il ne faudra que 5 ans, de 2002 à 2007, pour passer de 2 à 20 GHz alors que 6 ans auront été nécessaires pour passer de 200 MHz à 2 GHz. Mais parallèlement à ces innovations permettant d'améliorer sans cesse la puissance et la rapidité des microprocesseurs, il faut aussi souligner les progrès connexes intervenus en matière de stockage des données informatiques. Un des effets du Web est d'accélérer de manière forte la convergence de l'informatique, des télécoms et du multimédia dans un immense continuum numérique universel dont la taille double tous les 9 mois. Désormais, nos machines nous servent de moins en moins à traiter et stocker du texte "brut" et de plus en plus à travailler et à enregistrer du son et des images et, demain, la connexion permanente et à haut débit sur le Net ne fera qu'accentuer cette tendance. Hier encore, nos ordinateurs n'étaient finalement que de super-machines à écrire. Aujourd'hui, ils sont devenus des magnétophones et des magnétoscopes et demain ils seront des vidéophones et généreront des images 3D en temps réel. Cette évolution rapide des usages fait exploser les besoins en matière de stockage et personne ne voudrait aujourd'hui d'un disque dur de moins de 20 Go alors qu'il y a seulement 5 ans beaucoup considéraient que 2 Go étaient largement suffisants. Avec les normes de compression actuelles, 1 Go permet de stocker 40000 pages sous Word, 1000 photos, 2 heures de musique qualité CD ou 25 minutes de vidéo en qualité DVD. On voit donc que la capacité actuelle de nos disques de 20 Go s'avère finalement très limitée en terme de stockage audio-visuel : au mieux 3 films et 6 ou 7 heures de musique. Heureusement, dans ce domaine du stockage, deux innovations technologiques devraient permettre d'ici la fin de la décennie de ranger dans son portable non seulement toute sa bibliothèque, mais aussi sa discothèque et sa vidéothèque complètes. IBM vient en effet d'annoncer la mise au point d'une nouvelle technologie de stockage sur disque dur permettant d'emmagasiner d'importants fichiers audio et vidéo sur des ordinateurs de poche. Ce système repose sur un nouveau revêtement magnétique baptisé "pixie dust" (poussière de fée"), qui selon IBM, permettrait de quadrupler la capacité de stockage des disques durs. Ce revêtement est composé d'une couche de ruthénium - un métal rare proche du platine - d'une épaisseur de trois atomes, entourée de deux couches magnétiques. Il devrait permettre d'atteindre une densité de 100 Gigabits par carré d'un pouce de côté d'ici 2003, contre environ 25 Gigabits aujourd'hui. IBM prévoit en 2003, grâce à cette innovation, des disques durs pour ordinateurs de poche, pouvant stocker 200 gigaoctets de données, ou l'équivalent de 42 DVD ou plus de 300 CD. Pour les ordinateurs de bureau, cette technologie permettra d'atteindre rapidement le cap des 400 Go. IBM souligne que depuis 10 ans la capacité de stockage des disques durs a doublé, en moyenne, tous les 18 mois et depuis 1997 cette capacité double tous les ans. Cette tendance va encore s'accélérer puisque la capacité maximale des disques durs va être multipliée par 10 au cours des 3 prochaines années (de 40 à 400 Go). Mais une autre technologie que l'enregistrement magnétique pourrait permettre d'aller encore plus loin d'ici 5 ans : Le stockage holographique. Pour créer un hologramme, il faut deux faisceaux laser et une surface transparente dont les caractéristiques optiques sont modifiées lorsqu'elle est soumise à la lumière. Un des faisceaux laser, dit de "référence" illumine avec une intensité constante la zone où l'on souhaite créer l'hologramme. L'intensité du second faisceau, dit "objet", est modulée en fonction de l'information que l'on souhaite "graver" dans la matière. Les deux faisceaux ne traversant pas le substrat réactif selon le même angle, leur rencontre crée des interférences. Ce sont ces interférences qui vont laisser des traces dans la matière. Ultérieurement, il suffira d'éclairer cette trace avec le seul laser de référence pour faire jaillir le faisceau objet de l'autre côté du film photoréactif. IBM et surtout Lucent Technologies, spécialisés dans les équipements pour les télécoms et l'informatique, passent progressivement de la recherche au développement industriel. Assez simple en théorie, ce procédé est délicat à mettre au point mais d'ici 5 ans on devrait pouvoir multiplier par 5 la densité de l'information. Celle-ci pourrait atteindre 5,8 Go/cm2 (contre, 1,3 Go/cm2 actuellement). Il deviendra alors possible avec la mémoire holographique d'enregistrer le contenu d'un DVD-Rom (4,7 Go) ou de huit CD-Rom (8 x 650 Mo) sur un support de 1 cm2. Grâce à cette technologie, nos ordinateurs seront équipés de disques durs de 1 téraoctet (1 To = 1 000 Go) contenant l'équivalent de deux cents films ou encore de 2000 heures de musique en qualité Hi Fi ! Si l'on considère l'ensemble de ces innovations, on peut, prudemment, se faire une idée de ce que pourrait être l'ordinateur personnel des années 2010. On peut imaginer un boîtier de la taille d'un gros livre de poche (comme le mini Box PC actuel) qui intégrera un processeur à 20 GHz, 1 Go de RAM, un disque dur amovible de 400 Go, un lecteur de DVD haute densité à 100 Go et un modem haut débit. Ce boîtier pèsera moins d'un kilo et on pourra l'emmener partout avec soi. En fonction de ses besoins, il suffira de se connecter par liaison sans fil à ce boîtier de base à l'aide de lunettes-écran équipées de plusieurs couches de cristaux liquides et pouvant présenter simultanément des images différentes sur deux plans décalés, donnant ainsi une impression de profondeur de champ et permettant la visualisation d'images en trois dimensions. Le son sera transmis directement dans l'oreille par prothèses auditives invisibles et la commande vocale sera transmise à l'aide d'un mini-micro-cravate. Grâce à sa puissance phénoménale, cette machine pourra non seulement comprendre nos demandes, même dans un environnement bruyant, mais pourra également nous répondre vocalement et gérer simultanément une multitude d'applications, communications, bureautique, vidéo etc... Bien entendu, cette machine pourra également gérer, par connexion sans fil, tous les périphériques imaginables, imprimantes, webcam, scanner de poche pouvant reconnaître l'écriture manuscrite, appareils photo numériques, écrans plats domestiques etc... Pour ceux qui trouveront cet ordinateur encore trop lourd et encombrant, il sera évidemment possible d'emmener des ordinateurs de poche plus compacts et plus légers, de la taille d'un calepin, qui disposeront tout de même d'une puissance et d'une mémoire supérieures aux machines que nous utilisons actuellement à la maison ou au bureau. Au niveau planétaire, si l'on tient compte des progrès prévisibles en électronique et de l'augmentation du nombre d'utilisateurs, la puissance mondiale de calcul devrait être multipliée au moins par 30 au cours des 10 prochaines années et la capacité de stockage par 60. Dans 10 ans, nous disposerons chacun d'une puissance de calcul et de stockage supérieure à celle de toute la planète en 1950 ! Une telle évolution quantitative provoquera un saut qualitatif par l'émergence d'une capacité de réflexion planétaire autonome qui pourrait bien, à terme, devenir consciente d'elle-même ! L'Humanité pourrait alors nouer un fascinant dialogue avec cette entité artificielle et entrer ainsi dans une nouvelle ère cognitive et spirituelle.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Première voiture avec internet en série
Samedi, 23/06/2001 - 00:00

Volkswagen commercialise la première voiture avec un accès internet en série : la Golf "eGeneration". Dans ce nouveau modèle, un ordinateur de poche a écran tactile (PDA HP Jomada 548) est fixe sur le tableau de bord et un téléphone mobile (Nokia 6210) avec kit main-libre est intégré dans l'accoudoir entre le conducteur et le passager. Le conducteur peut ainsi consulter dans sa voiture n'importe ou et à tout moment les conditions de circulation, les informations boursières, le solde de son compte en banque ou ses emails.

BE Allemagne : http://www.adit.fr

Le paiement par email sur Internet concurrence de plus en plus la carte de paiement
Samedi, 23/06/2001 - 00:00

Considéré avec une certaine réserve à ses débuts, le système permettant aux internautes de payer leurs achats sur le web par simple courrier électronique est en train de s'imposer comme une formule d'avenir sur l'Internet marchand aux Etats-Unis. Principal fournisseur technologique de cette solution, Paypal revendique plus de 8 millions d'utilisateurs réguliers et son service est utilisé entre autres par les clients américains du site de ventes aux enchères eBay. Récemment, la start-up de Palo Alto, dans la Silicon Valley, a obtenu un nouveau tour de table financier, d'un montant de 90 millions de dollars, pour poursuivre son expansion, notamment à l'international. Et permettre ainsi aux internautes résidant en dehors des Etats-Unis d'effectuer des achats sur le Net. Pour autant, avec le succès de la formule, la concurrence se renforce. Celle-ci vient pour l'instant d'une grande banque américaine, la Citibank, qui a mis au point un service équivalent (C2it), qui a déjà été accepté par America On Line et MSN, le portail de services Internet de Microsoft. Fort de ces appuis - les deux fournisseurs d'accès regroupent plus de 35 millions d'internautes payants - la Citibank s'est lancée dans une concurrence frontale avec Paypal. Elle vient de baisser le coût de son service pour les particuliers, afin de se hisser au niveau de Paypal qui a rendu gratuit son service pour le vendeur (l'acheteur doit, lui, payer un pourcentage sur le montant de la transaction). Mais le paysage devrait encore changer prochainement puisque Checkfree, qui propose des services bancaires et financiers sur le web, pourrait permettre aux grandes entreprises marchandes qui utilisent ses services de laisser leurs propres clients utiliser le paiement par e-mail pour payer en ligne. En réalité, le succès définitif de cette formule reste entre les mains des émetteurs de cartes de paiement et des cyber-marchands eux-mêmes. Tant qu'ils n'auront pas mis en place les conditions d'une meilleure sécurisation des transactions électroniques, les internautes continueront d'hésiter à transmettre trop souvent - et pour des petites sommes - les coordonnées de leur carte bancaire. A contrario, les systèmes de Paypal ou de la Citibank permettent d'éviter cet inconvénient, les informations sensibles étant maintenues dans des bases de données protégées. Mais une seule mesure permettrait d'assurer définitivement la suprématie du paiement par email sur le Net : rendre les différents systèmes existants compatibles entre eux. Si l'on en juge par la façon dont évolue la situation dans un autre domaine, celui de la messagerie instantanée, où Microsoft et AOL sont en concurrence directe là aussi, il y a peu d'espoir. Chacun espère gagner par KO et rafler tous les utilisateurs de son rival.

Les Echos : http://hightech.lesechos.fr/

L'eVilla de Sony, un terminal Internet audacieux
Samedi, 23/06/2001 - 00:00

Internet c'est bien, mais un PC coûte cher et s'avère parfois compliqué à utiliser. La solution ? Les Internet appliances, comprenez "terminaux d'accès Internet" tels l'eVilla que Sony lance cette semaine aux Etats-Unis. Uniquement dédiés au Réseau des réseaux, simples d'emploi et peu chers, les Internet appliances constituent une alternative pour ceux qui ne sont pas des mordus d'informatique. Pourtant, le marché de ces PC simplifiés peine à se développer. On a vu les constructeurs proposer des solutions sans fil comme la tablette Internet d'Intel ou l'Audrey de 3Com, mais l'eVilla de Sony est un terminal totalement indépendant qui se rapproche plus du Connected home touch pad de Gateway ou encore de la Dot.Station d'Intel. Malgré des points communs, l'eVilla de Sony ne ressemble à aucun autre. Tout d'abord par son aspect extérieur avec un écran retourné : le Trinitron 15 pouces est en effet orienté en mode portrait et non pas en mode paysage. Original ! Inédit aussi, le système d'exploitation développé par Be, la société du Français Jean-Louis Gassée qui édite le système d'exploitation BeOS. Ici, il s'agit de BeIA (pour Internet appliance), un pari pour une entreprise en petite forme (voir édition du 4 avril 2001). On notera aussi la présence de la version 4.0 d'Opera comme navigateur. Côté processeur, on trouve un nom qu'on n'a pas l'habitude de rencontrer : le Geode de National Semiconductor. Sur l'eVilla, c'est un modèle développé pour les terminaux Internet, le GX1, qui est cadencé à 266 MHz et accompagné d'un circuit qui se charge de l'audio et de la vidéo, le CS5530A. Logée dans l'écran à la manière d'un iMac, l'unité centrale est dotée de 64 Mo de Ram. En revanche, pas de disque dur mais l'eVilla possède un port pour Memory Sticks et supporte le branchement d'un lecteur Zip 100 ou 250 Mo de Iomega sur l'un des deux ports USB, l'autre étant réservé à une imprimante Epson ou Hewlett-Packard. On l'a compris, inutile d'espérer bidouiller son terminal, l'idée ici est de faire dans la simplicité d'utilisation pour un terminal uniquement dédié à Internet. L'accès au Web passe obligatoirement par le fournisseur d'accès Internet EarthLink auquel il faut verser 22 dollars par mois (environ 170 francs) pour un accès illimité en modem V90. Au final, Sony propose pour 500 dollars (environ 3 800 francs) un terminal Internet peu commun dont on est curieux de connaître la carrière, même si sa commercialisation en Europe ne semble pas à l'ordre du jour.

Vunet : http://www.vnunet.fr/actu/article.htm?numero=7823

Le câble fête ses cinquante ans à Chicago sur fond de bataille pour l'internet haut débit
Samedi, 23/06/2001 - 00:00

En ouvrant lundi 9 juin 2001, à Chicago, la cinquantième convention de la National Cable et Telecommunications Association (NCTA) qui, il y a un an, était encore la National Cable Television Association, Robert Sachs, président de cette organisation américaine des câblo-opérateurs, s'est réjoui que le câble américain fasse désormais part égale d'audience avec les grands networks et compte environ 35 % des téléspectateurs chacun en période de prime-time. Il s'est surtout enthousiasmé que son industrie soit "à l'avant-garde du déploiement des réseaux large bande" et que son chiffre d'affaires 2000 ait été de 48 milliards de $. Au moment où la bataille entre le câble et le satellite semble s'équilibrer sur le front du numérique, il a tenu à faire remarquer que l'offre du câble s'est enrichie de nombreux nouveaux services : chaînes thématiques, développements interactifs, internet à grande vitesse et téléphone. Autant d'évolutions qui justifient le changement de nom de l'association qu'il préside. Pour mieux insister sur les objectifs des câblo-opérateurs, le mot d'ordre de la convention de la NCTA 2001 est ainsi "Le câble fait advenir le large bande !". Tout donne en effet à le penser. 12 millions de foyers câblés sont numérisés. 60 millions de foyers peuvent être connectés à internet par le câble et 5 millions le sont. Il suffit d'ailleurs de visiter l'exposition pour se rendre compte que les stands proposant des solutions d'accès à internet par le câble prolifèrent, que tous les opérateurs ou presque s'y sont ouverts et que même les chaînes thématiques développent leurs offres. Pour autant, lorsqu'on y regarde d'un peu prês, les choses ne sont pas si roses. Le satellite a commencé à développer sa propre offre et les opérateurs de télécommunications ouvrent des services DSL de façon particulièrement volontariste et concurrentielle, ce qui a de quoi inquièter un métier dont l'image n'a pas toujours été bonne auprès des consommateurs, notamment pour ce qui concerne les tarifs et la qualité. A tel point que le New-York Times de vendredi dernier "s'étonnait" que les câblo-opérateurs américains refusent de vendre des espaces publicitaires aux compagnies téléphoniques afin de les empêcher de promouvoir les lignes DSL, concurrentes directes de leurs propres services d'accès. La lutte promet d'être rude. Elle l'est déjà. Mais personne ne s'en étonne vraiment. Depuis quelques années, la plupart des analystes pensaient que la confrontation entre les opérateurs de télécommunications et les câblo-opérateurs se déoulerait à cet endroit et à cette époque, à cause des réseaux DSL.

Antennes :

http://www.antennes-mag.com/flash_info/info.php?cID=2418&rID=2

^ Haut
Avenir
Nanotechnologies et Robotique
Un atome à la fois
Samedi, 23/06/2001 - 00:00

Les ordinateurs quantiques sont un peu moins théoriques depuis que des physiciens ont réussi à capturer des atomes un à un et à les catapulter à leur guise. Les ordinateurs quantiques, plus rapides, effectueraient simultanément de nombreuses opérations. Mais avant de construire une de ces bêtes de calcul, les chercheurs devront manipuler individuellement les atomes... comme l'ont fait Stefan Kuhr et son équipe. Leurs travaux, qui paraîtront sous peu dans Science, montrent qu'on peut emprisonner un atome avec deux lasers puis, en éteignant ces derniers, le faire sauter à n'importe quel moment. Les physiciens de l'université de Bonn ont « coincés » des atomes de césium refroidis dans les interférences constructives produites par deux lasers. Ces interférences sont identiques à celles que créent deux cailloux lancés dans un lac : chaque pierre forme des vaguelettes qui se renforcent mutuellement lorsque leurs pics et leurs creux coïncident. Dans le cas des lasers placés face à face, ces « vagues » sont suffisamment énergétiques pour capturer l'atome. Ces lasers, en outre, peuvent aussi déplacer l'atome : il suffit de changer leur longueur d'onde, c'est-à-dire modifier la proximité des creux et des pics. L'atome suit alors le « courant » et peut avancer de jusqu'à un centimètre. Enfin, si les lasers sont brusquement éteints alors que le césium se promène, il est catapulté de son siège à une vitesse de quelques mètres à la seconde. Les chercheurs, qui gardaient l'oeil sur leur atome en « l'allumant » avec un troisième laser, ont encore du mal à prévoir où il ira voler. Mais ce premier pas pourrait mener à un contenant avec un nombre précis d'atomes. Et pour certains, cela est exactement la définition d'un ordinateur quantique.

Cybersciences : http://www.cybersciences.com/Cyber/3.0/N2365.asp

^ Haut
Matière
Matière et Energie
L'hydrogène, nouveau vecteur énergétique pour le 21e siècle?
Samedi, 23/06/2001 - 00:00

''Je crois que l'eau sera un jour utilisée comme combustible'', avait dit Jules Verne dans son livre ''L'Ile mystérieuse'' en 1874. Eh bien il n'avait peut-être pas tort... L'hydrogène pourrait un jour permettre de satisfaire la forte hausse de la demande mondiale d'énergie prévue dans les 20 prochaines années tout en réduisant les émissions de gaz à effet de serre, soutient-on au Commissariat à l'énergie atomique (CEA). ''La recherche et le développement d'applications pour l'hydrogène sont devenus une priorité pour le CEA car la croissance de la demande en énergie est de 2,5% par an et le potentiel énergétique de l'hydrogène n'est plus à démontrer'', a déclaré Anne Falanga, directrice des nouvelles technologies de l'Energie du CEA, dans une récente conférence de presse. Dans son contrat pluriannuel Etat-CEA 2001-2004, le CEA s'est engagé à soutenir l'essor des ''nouvelles technologies pour l'énergie'' et y consacre dès cette année 171 millions de FF, une augmentation de 44% par rapport à 2000. Environ 200 ingénieurs et techniciens du CEA sont impliqués dans le programme et leur nombre ira en augmentant jusqu'en 2004. ''Notre travail consiste à lever les verrous scientifiques et technologiques qui empêchent l'hydrogène d'être utilisée à grande échelle. Ces verrous sont les coûts -l'hydrogène demeure plus cher que l'essence-, la performance, la sécurité, la distribution, la fiabilité et la disponibilité'', précise Pierre Serre-Combe, chef du laboratoire Hydrogène et piles à combustible du CEA. Les applications sont classées en trois grandes familles: le portable (téléphone mobile et ordinateur), le stationnaire (production collective ou individuelle d'électricité, favorisée par les nouvelles lois sur la déréglementation du secteur électrique) et le transport (où l'hydrogène permettra de réduire les gaz à effet de serre). "Le besoin en énergie du secteur des transports, qui représente le quart de l'énergie consommée, est comblé à 95% par le pétrole. L'hydrogène répond à toutes les conditions d'une énergie propre, transportable et stockable et est l'élément le plus abondant de notre planète, essentiellement présent sous forme d'eau'', souligne Anne Falanga. L'hydrogène n'est pas une énergie en soi, mais un vecteur d'énergie, produit généralement par l'électrolyse de l'eau à partir de sources d'énergie électrique elles-mêmes non-productrices de gaz à effet de serre. A l'aide d'une membrane échangeuse de protons, une pile à combustible permet une combustion électrochimique et contrôlée d'hydrogène et d'oxygène, avec production simultanée d'électricité, d'eau et de chaleur. L'eau et la chaleur sont évacuées alors que l'électricité fait tourner le moteur. ''Même si une voiture, disons à 90.000FF, était commercialisée à grande échelle, il n'y aurait pas encore assez d'hydrogène disponible et le réseau de distribution ne serait pas prêt'', concède Pierre Serre-Combe. ''Nous étudions avec l'EDF la possibilité d'utiliser son réseau. Même si l'hydrogène est extrêmement volatile, des études américaines soutiennent que 90% des réseaux de gaz naturel seraient utilisables''.

AP : http://fr.news.yahoo.com/010617/5/1d8np.html

Une batterie polymère, la fin des lithium-ion ?
Samedi, 23/06/2001 - 00:00

NEC devrait très bientôt fournir des prototypes d'une nouvelle batterie rechargeable qui peut être rapidement rechargée a l'aide de courants beaucoup plus élevés que ceux nécessaires aux batteries conventionnelles telles que les Lithium-Ion. La nouvelle batterie de NEC a une dure de vie élevée ce qui laisse entendre qu'il ne serait plus nécessaire, sauf cas exceptionnel, de la remplacer après une première installation. NEC proposera cette technologie pour de nombreuses applications, depuis les équipements électroniques de petite taille jusqu'aux véhicules électriques en passant par les sources de sauvegarde. Cette batterie intègre une anode en polyindole et une cathode de polyphenyle quinoxaline plongée dans un solution aqueuse d'acide sulfurique principalement. Le tout est déposé sur des films de PET (PolyEthylene Terephtalate). Le polyindole comme le polyphenyle quinoxaline sont tous deux des polymères conducteurs. La cathode est élaborée en déposant le polyphenyle sur un substrat de carbone, ce qui permet d'augmenter sa conductivité. Les nouvelles batteries assurent une tension de sortie constante et autorisent la génération de forts courants avec une capacité équivalente a celle des batteries conventionnelles. Ces batteries peuvent assurer des cycles de 10000 charges/décharges avec un temps de recharge d'une dizaine de minutes ce qui est nettement plus court que celui des batteries conventionnelles. De plus, la charge effectuée en fort courant ne nécessite donc aucun circuit électrique particulier pour réguler le courant de charge. Les autres caractéristiques de cette batterie révolutionnaire n'ont pas été divulguées.

BE Japon du 18-06-2001 : http://http://www.adit.fr

^ Haut
Espace
Espace et Cosmologie
Le supercargo de l'espace sera européen
Samedi, 23/06/2001 - 00:00

L'industrie aéronautique française, réunie pour sa grand-messe au Bourget (du 16 au 24 juin), dévoilera les grandes lignes de l'ATV (Automated Transfer Vehicle, véhicule de transfert automatisé) - sorte de supercargo ravitailleur de la Station spatiale internationale (ISS). Si la France a payé une part non négligeable (35%) de ce coûteux programme européen (670 millions d'euros), elle en possède aussi la maîtrise d'oeuvre par l'intermédiaire d'EADS Launch Vehicles. Trois fois plus costaud que son concurrent direct, l'antique vaisseau russe Progress, l'ATV apportera aux astronautes 5,5 tonnes de fret divers (nourriture, objets personnels, appareils scientifiques, etc.), ainsi que des réserves d'eau potable et d'air. Le nouvel oiseau ne devrait cependant pas s'élancer vers le firmament - porté par une fusée Ariane V - avant le mois d'août 2004. A partir de cette date, et jusqu'en 2013, un lancement sera effectué, en moyenne, chaque année. Selon un plan de vol déjà arrêté, l'ATV, une fois placé en orbite, mettra trois jours pour s'approcher de l'ISS, puis s'y arrimer. Mais sa mission ne s'arrêtera pas au déchargement. Sagement blotti contre le segment russe Svezda, il pourra rester en veille automatique jusqu'à six mois et servir de support propulsif à la station, afin de corriger son orbite, de compenser ses pertes d'altitude ou de lui permettre d'éviter des débris. Ce gros bidon (10 mètres de longueur, 4,5 mètres de diamètre) aura une fin de carrière plutôt ingrate: les astronautes y placeront leurs déchets avant de le précipiter dans l'atmosphère pour l'y désintégrer. «L'Europe finance environ 5% de la construction de l'ISS; elle participera autant aux dépenses de fonctionnement, précise Jean-Yves Heloret, chef de programme ATV chez EADS Launch Vehicles. Nous aurions pu nous contenter de subventionner certains programmes internationaux, mais nous avons préféré profiter de cette manne pour acquérir de nouvelles technologies.» Car, au-delà de la simple chaloupe de ravitaillement (à l'aller) ou de la vulgaire poubelle cosmique (au retour), l'ATV représente pour l'Europe un enjeu majeur: la maîtrise de ses «rendez-vous» spatiaux. Jusqu'à présent, en effet, seuls les Américains et les Russes savent accrocher en orbite un engin spatial à un autre. Avec leur nouveau vaisseau, les Européens ambitionnent un arrimage entièrement automatique. Dans ce dessein, toute une panoplie de senseurs, calculateurs, mesures par GPS, un télémètre laser ou encore un vidéomètre ont été spécialement élaborés. Et, en cas d'imprévu, un système indépendant d'évitement pourra être enclenché. L'Europe s'engage ainsi en terrain inédit et n'aura pas droit à l'erreur : le premier vol, en août 2004, servira de démonstrateur. Mais, s'il se déroule sans encombre, toutes ces technologies lui conféreront un nouveau savoir-faire. Déjà, il pourrait servir à l'élaboration d'un véhicule de secours pour l'ISS (abandonné par les Etats-Unis). L'Agence spatiale européenne devrait présenter son propre projet lors du Conseil des ministres européens de l'Espace, à Edimbourg, en novembre prochain.

Express :

http://www.lexpress.fr/Express/Info/Sciences/Dossier/station/dossier.asp?nom=esp...

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Piéger le dioxyde de carbone pour réduire l'effet de serre
Samedi, 23/06/2001 - 00:00

Il existe plusieurs stratégies pour réduire les émissions de dioxyde de carbone : développer des sources d'énergie alternatives, réduire la consommation ou piéger le dioxyde de carbone et le stocker dans des puits. Les structures géologiques vidées du pétrole ou du gaz naturel qu'elles contenaient offrent en effet des espaces convenables pour le stockage mais seront toutefois insuffisantes d'ici quelques décennies pour contenir l'ensemble du dioxyde de carbone qui sera produit alors par la combustion des carburants fossiles. En revanche, les fonds océaniques permettent d'envisager d'immenses capacités de stockage, meme si les mouvements de l'eau rendent cette solution très aléatoire. Dans ce contexte, des scientifiques du Massachusetts Institute of Technology (MIT) collaborent avec le Los Alamos National Laboratory du Nouveau Mexique afin de concevoir une centrale dans laquelle le dioxyde de carbone est mélangé avec du silicate de magnésium, entraînant ainsi une réaction chimique qui aboutit a la production de rochers artificiels renfermant le carbone. Les chercheurs envisagent la construction d'une petite centrale pilote d'ici cinq ans.

NYT : http://www.nytimes.com/2001/06/17/science/17CARB.html?

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Les effets protecteurs du jus de raisin rouge
Samedi, 23/06/2001 - 00:00

Les effets bénéfiques du jus de raisin rouge sont dus aux flavonoïdes, des substances d'origines végétales (aussi appelées parfois vitamine P) aux propriétés anti-oxydantes et présentes par exemple dans la pelure du raisin. Afin de mieux comprendre les mécanismes d'action de ces flavonoïdes, une équipe de chercheurs de l'Université de Georgetown, dirigée par le Dr Jane Freedman, a suivi 20 personnes qui ont bu quotidiennement deux verres de jus de raisin rouge pendant 14 jours. Selon leurs conclusions publiées mardi dans la revue Circulation, ces substances agissent essentiellement de deux manières: d'une part, en augmentant la concentration d'anti-oxydants dans le plasma sanguin; d'autre part, en diminuant la production d'un radical libre dans l'organisme. Les flavonoïdes «ont un effet protecteur sur les anti-oxydants (...) et ils ont aussi un effet positif direct sur un certain nombre de fonctions biologiques», a noté le Dr Jane Freedman. Les analyses ont en effet montré que le niveau de vitamine E dans le plasma sanguin était supérieur de 13% par rapport au début de l'expérience. De même, la capacité d'anti-oxydant du plasma s'était accru de 50 % et la production d'oxyde nitrique issue des plaquettes sanguines a augmenté de 70. L'oxyde nitrique limite la formation de caillots en empêchant les plaquettes de s'agglutiner. Il permet donc de prévenir l'athérosclérose (rétrécissement des artères). Inversement, la production de superoxyde, un radical libre particulièrement dangereux, est diminuée d'un tiers à l'issue de l'expérience. Les radicaux libres sont des substances issues de l'oxydation cellulaire ayant une forte réactivité et qui cherchent dans leur environnement une molécule pour se lier. L'organisme produit naturellement des radicaux libres de façon continue mais certains facteurs en aggravent la production. Ils possèdent une toxicité redoutable car ils font vieillir prématurément.

Cyberpresse :

http://www.cyberpresse.ca/groups/public/documents/convertis/sci_p1062918.hcsp

Première greffe du larynx réussie chez l'homme
Samedi, 23/06/2001 - 00:00

Une équipe de la Cleveland Clinic Foundation ( Ohio ) a effectué une greffe de larynx sur un accidenté de la route il y a de cela trois ans : avec le recul, cette première est une réussite, puisque cet homme de 40 ans a retrouvé la voix et est en parfaite santé. L'homme qui s'est fait greffer a été victime d'un accident de la route il ya de cela 20 ans : son larynx et son pharynx avaient été écrasés, le laissant aphone et dénué de goût et d'odorat. Une équipe de chercheurs de Cleveland ( Dr Marshall Strome and coll. ) mène depuis 10 ans des expériences de greffes de larynx sur des rats, toujours couronnées de succès. Après avoir mis en garde le patient des risques qui pouvaient découler d'une telle opération et après avoir obtenu son assentiment, l'équipe de scientifiques a recherché un donneur HLA identique ( pour réduire les risques de rejet ) puis a procédé à la greffe de larynx, de pharynx ( 75% ) , de la trachée et des glandes thyroïde et parathyroïde. A la suite de cette greffe, le patient a subi trois épisodes de trachéo-bronchite infectieuse et une pneumonie, guéris par un traitement antibiotique, puis un épisode de rejet vite contrôlé par l'équipe soignante. Quelques jour après la greffe, le patient était en mesure de parler, sa voix s'améliorant au fil des mois pour devenir tout à fait normale trois ans plus tard. Le greffé a également retrouvé le goût et l'odorat. Avec le recul, cette première constitue un grand espoir...

Csanté : http://www.csante.com/comsante/gen/read.php3?

La lutéine pour prévenir l'athérosclérose ?
Samedi, 23/06/2001 - 00:00

D'après des travaux publiés dans la revue Circulation, une complémentation en lutéine pourrait conférer un effet protecteur contre le développement précoce de l'athérosclérose. La lutéine appartient à la famille des caroténoïdes, composés retrouvés notamment dans les fruits et légumes. Certains auteurs estiment que ces composés participent à la réduction du risque cardiovasculaire liée à la consommation de ces aliments. Dans une nouvelle étude, Dwyer et al. se sont intéressés à l'effet de la lutéine sur la progression de l'athérosclérose. Cet aspect a été étudié par le biais d'une étude épidémiologique, une étude sur des cellules en culture et sur un modèle animal. L'étude épidémiologique a été conduite sur un groupe de 480 personnes sélectionnées au hasard et âgées de 40 à 60 ans. La progression de l'athérosclérose a été évaluée par la mesure de l'épaisseur des artères carotides et comparée au taux de lutéine dans le sang. Après 18 mois, la progression de l'athérosclérose était plus faible chez les personnes avec les concentrations de lutéine les plus élevées. Enfin, une complémentation alimentaire en lutéine a largement diminué la taille des lésions athérosclérotiques chez des souris génétiquement prédisposées. Au vu de ces résultats, les auteurs estiment qu'il serait souhaitable d'aller plus en avant dans l'étude de l'impact d'une complémentation en lutéine sur le risque cardiovasculaire. Par ailleurs, ces données pourraient aider à expliquer pourquoi les régimes alimentaires riches en fruits et légumes sont liés à une réduction du risque cardiovasculaire. On trouve principalement la luteine dans le jaune d'oeuf et dans les avocats, asperges, concombres, brocolis, céleris, épinards et choux de Bruxelles.

BBC :

http://news.bbc.co.uk/hi/english/health/newsid_1395000/1395576.stm

Circulation : http://circ.ahajournals.org/cgi/content/abstract/103/24/2922?

Nouvelespoir de transplantation pour les diabétiques
Samedi, 23/06/2001 - 00:00

La transplantation de cellules de pancréas de porc à un babouin diabétique pourrait permettre de maintenir le taux d'insuline du singe à la normale pendant au moins un an, selon le Professeur Opara, du centre médical universitaire de Duke(Caroline du Sud). Le diabète est dû à un dysfonctionnement du pancréas qui ne sécrète plus ou quasiment plus d'insuline. L'insuline est l'hormone qui permet au sucre, principale source d'énergie cellulaire, de rentrer dans les cellules. Si cette hormone fait défaut le sucre s'accumule dans le sang. Le diabète de type II, insulino-résistant, touche en particulier les personnes de plus de 60 ans étant ou ayant été obèses. La production d'insuline est insuffisante et tend à disparaître. L'équipe du Pr Opara a injecté à un babouin, amputé de 90% de son pancréas, plus de 250.000 cellules encapuchonnées provenant des pancréas de trois cochons. La méthode utilisée par les chercheurs a permis de passer outre la barrière immunitaire, qui jusqu'à présent avait empêché le succès de ce genre de traitement. Le professeur espère lancer des essais cliniques sur l'homme d'ici un à deux ans. Mais pour l'instant les chercheurs ne savent pas combien de pancréas de porcs il faudra pour maintenir un taux stable d'insuline chez l'homme. Selon eux, ce type de traitement ne pourrait être envisagé que sur des diabétiques de type II. Les cellules de pancréas seraient injectées dans l'abdomen des patients par laparoscopie. Actuellement cinq autres babouins subissent le même traitement. Selon le Pr Opara, le pancréas de babouin est suffisamment proche du nôtre pour que les premiers résultats soient très encourageants et ouvre la voie vers un traitement efficace contre le diabète. Cette découverte pourrait changer la vie des diabétiques, astreints à un régime alimentaire des plus stricts et à des piqûres régulières d'insuline.

Sciences&Avenir :

http://quotidien.sciencesetavenir.com/sci_20010618.OBS5437.html

Une microboite à virus
Samedi, 23/06/2001 - 00:00

Des chercheurs du CEA, en collaboration avec le CNRS et l'Institut Laue-Langevin, sont parvenus à assembler et décrire un édifice moléculaire géant de forme icosaédrique. Cette géométrie, identique à celle des virus les plus répandus, n'avait encore jamais été obtenue par assemblage de molécules organiques. Elle ouvre de nouvelles perspectives de formulation pour la vectorisation et la distribution de principes actifs dans le corps humain. Pour ces travaux, en couverture de la revue Nature de cette semaine, les chercheurs ont dissous, puis refroidi lentement, des molécules de tensioactifs (dont une partie est hydrophobe et l'autre hydrophile) usuels électriquement chargées. Celles-ci interagissent alors électrostatiquement et s'auto-assemblent pour former un assemblage icosaédrique. Chaque agrégat se présente sous la forme d'une petite «boîte » de la taille du millième de millimètre présentant des petits pores sur ses douze sommets. Ces pores, qui existent aussi sur certains virus, leur permettent « d'injecter » le matériel génétique dans les cellules. Les interactions très fortes entre les molécules de tensioactifs confèrent aux parois une extrême rigidité, équivalente à celle des nanotubes de carbone. Ces travaux montrent qu'il est possible, à partir de tensioactifs usuels, de fabriquer simplement des architectures moléculaires, de formes et tailles contrôlées, très rigides.

CEA : http://www.cea.fr/actualite/articles.asp?id=165

Le nouveau riz pour l'Afrique, une "prouesse scientifique"
Samedi, 23/06/2001 - 00:00

Le NERICA (new rice for Africa), le nouveau riz "miracle" pour l'Afrique, qui constitue une "prouesse scientifique" devant garantir la sécurité alimentaire sur le continent, est une réalité en Côte d'Ivoire. A une quarantaine de kilomètres de Bouaké, seconde ville de ce pays d'Afrique de l'ouest, 600 hectares, regroupant trois écologies rizicoles différentes, sont consacrés à la culture de cette céréale dans les rizières de l'ADRAO. L'ADRAO (Association pour le développement de la riziculture en Afrique de l'Ouest) a été créée en 1971 par onze pays avec le soutien d'organisations internationales et des financements européens et japonais. "Nous avons déjà sélectionné et développé sept Nerica différents, la production de semences augmente, ce qui nous permet de les diffuser", affirme Gaston Sangare. D'origine malienne et régisseur de la ferme, Sangare inspecte les plantations où les panicules dorées du Nerica tranchent sur le vert tendre des feuilles tandis que des nuées d'oiseaux minuscules, les Cléa Cléa, s'abattent sur les plans avant d'être chassés par des enfants armés de lance-pierres. Le Nerica, hybridation réussie entre un riz africain et un riz asiatique, est le résultat de dix ans de recherches de l'ADRAO. Selon son "découvreur", le professeur Monty Patrick Jones, un Sierra-Léonais, "le plus difficile a été de trouver une solution à la stérilité. Nous avons cependant réussi cette prouesse scientifique en croisant les fruits du premier métissage avec un des géniteurs". Il est également le résultat d'une démarche scientifique originale. "Après quarante ans de sélection scientifique, les paysans continuaient à cultiver les riz traditionnels (...) parce qu'ils cultivent à 80% du riz pluvial sans intrants à cause de la pauvreté", explique le Pr Jones. "C'est pourquoi", ajoute-t-il, "nous avons pensé créer une variété qui ressemble le plus possible aux riz traditionnels". Le Nerica est résistant aux maladies et aux insectes, s'acclimate en sols pauvres et résiste à la sécheresse. Plus riche en protéines, il a surtout des rendements élevés comme les riz asiatiques, avec un cycle de croissance réduit. "La production, selon le docteur Robert Guei, un scientifique ivoirien, est déjà effective en Guinée et en Côte d'Ivoire." "Il est en train d'être introduit massivement au Togo, au Bénin, au Nigeria et est en voie d'homologation en Ouganda et au Zimbabwe", affirme-t-il fièrement. "L'accueil par les paysans est généralement très bon d,'abord pour sa productivité, ensuite pour sa qualité culinaire car c'est un riz parfumé. Un Nerica a d'ailleurs été baptisé Bonfani" ("bon goût" en baoulé, dialecte de Bouaké), ajoute le scientifique ivoirien. Pourtant, malgré ces avantages, tous les paysans ne l'ont pas encore adopté. Ainsi, Georges Kouassi Kouamé, riziculteur à Bouaké, explique: "le Nerica n'est pas encore très populaire. Jusque-là les gens se disent que le Bouaké 189 utilisé ici est suffisant. Nous gardons une petite quantité pour notre consommation personnelle, le reste se vend très bien". En Guinée, il a un impact socio-économique palpable, entraînant une diminution des importations de riz, précise en substance le docteur Gueï, qui souligne que l'objectif est d'"aider à la sécurité alimentaire et permettre aux Etats d'économiser l'argent dépensé massivement dans l'importation du riz". La moitié du riz consommé en Côte d'Ivoire est importé, au Nigéria presque les trois quarts.

AFP : http://fr.news.yahoo.com/010619/1/1dd3v.html

L'agriculture relève le gant !
Samedi, 23/06/2001 - 00:00

L'aboutissement de vingt ans de recherche ! En novembre prochain, Michel Crochon, du Cemagref (Centre national du machinisme agricole, du génie rural et des eaux et forêts), aura mis la dernière main... à un gant pour cueillir les pommes et les pêches. Mais quel gant ! Bourré de capteurs et de puces électroniques, il détermine en une seconde si le fruit peut être cueilli. Ce gant relève d'abord le diamètre du fruit grâce à un potentiomètre reliant le pouce aux quatre autres doigts. Ensuite, un spectrophotomètre placé entre l'index et le majeur évalue les réserves glucidiques en mesurant un rayonnement infrarouge émis à travers le fruit. La même opération est répétée avec une lumière visible, pour préciser, cette fois, la maturité. Enfin, l'analyse du son produit par un marteau miniature frappant le fruit détermine son élasticité, autre critère de maturité. Toutes ces données sont fournies à un micro-ordinateur qui indique alors si le fruit peut être cueilli. « Outre son utilité au moment de la cueillette, ce gant aidera le producteur à suivre l'évolution de ses fruits sur l'arbre et, quand ils seront cueillis, à les trier en fonction de leurs qualités », explique Michel Crochon. Financé par le projet européen Glove, qui associe, outre le Cemagref, des partenaires belges, allemands et italiens, ce gant devrait commencer à envahir les vergers vers 2004.

Le Point : http://www.lepoint.fr/data/PNT1500/0007801P.html

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Toyota dévoile un moteur hybride 'light'
Samedi, 23/06/2001 - 00:00

Toyota vient de dévoiler un système de motorisation hybride «léger» : le Toyota Hybrid System-Mild (THS-M). Simple à installer il serait également adaptable à de nombreux modèles de véhicules. Le constructeur japonais a l'intention d'introduire ce système sur un de ses véhicules 3 litres avant la fin de l'année. A la clé, selon Toyota, un gain de consommation de 15%. Le THS-M se compose d'un petit ensemble moteur-générateur, d'une batterie de 36 volts, et d'une unité de contrôle. Toyota est le premier constructeur a avoir commercialisé un véhicule hybride essence/électricité grand public. La Prius, lancée en décembre 1997, a été vendue à plus de 60.000 exemplaires au Japon, en Europe et aux Etats Unis. Elle fonctionne en mode électrique jusqu'à environ 40 km/h, vitesse où elle passe automatiquement en mode thermique. La plupart des constructeurs travaillent aujourd'hui à des versions hybrides plus légères, où un alternodémarreur électrique est installé en complément du moteur thermique. Ces systèmes permettent de soulager le moteur et donc de réduire la consommation, en vue du respect des normes environnementales de plus en plus sévères. Les constructeurs européens se sont par exemple engagés à réduire les émissions de CO2 à 140 grammes par kilomètre en 2008, et à 120 en 2012.

Usine Nouvelle :

http://www.usinenouvelle.com/usn/site/pages/actualit/actua_j/general.cfm?

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top