RTFlash

RTFLASH Recherche & Technologie
NUMERO 133
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 09 Février 2001
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La France au 7ème rang de la netéconomie en Europe
Un rêve : mettre la lumière au service de l'informatique
Les premiers pas des mémoires holographiques
Un avion piloté directement par influx nerveux
Matsushita lance une puce virtuose de la vidéo
Matière
Premier transistor mono-électronique à température ambiante
Vers un écran plat flexible, transparent et intelligent !
Sony va fabriquer des écrans extra-fins pour détrôner le LCD
Vers la puce en diamant
Ça chauffe pour les processeurs
La station d'épuration produit de l'énergie
Terre
Antarctique : la calotte glaciaire rétrécit de l'intérieur
Le niveau des océans va continuer à monter
Vivant
Deux gènes qui interagissent pour le meilleur ou pour le pire
Douleur : une nouvelle arme chimique
Une protéine naturelle pour traiter l'obésité
Les téléphones mobiles pourraient faire office de stéthoscope
Accident vasculaire cérébral : du nouveau dans le traitement
Dépister le cancer du sein au niveau moléculaire
Recherche
Un véhicule sûr par tous temps
Edito
Quelle énergie pour demain : un choix vital qui va décider du sort de l'humanité



La hausse moyenne de la température de l'atmosphère terrestre pourrait atteindre 5,8° C au cours du XXIe siècle. Voici ce qu'ont annoncé les spécialistes de l'ONU à Shanghai le 22 janvier et qu'ils ont redit avec force ces jours derniers à tous les ministres de l'environnement du monde entier réunis à Nairobi.« Le rythme des changements climatiques durant le siècle qui commence devrait être plus élevé qu'au cours des 10.000 dernières années » estime Sir John Hougthon, co-président de la Conférence de Shanghai. Une telle affirmation devrait nous faire froid dans le dos quand nous prenons conscience de toutes les conséquences qu'un tel changement subit pourrait avoir sur notre planète et sur les hommes qui l'habitent (zones côtières inondées, sécheresses dans certaines régions, pluies diluviennes dans d'autres, ouragans, sans compter les conséquences des profonds déséquilibres des écosystèmes). Et pendant ce temps là, des gouvernements irresponsables, dont les priorités sont plus à rechercher dans les poubelles de la démagogie que dans une volonté clairement exprimée de préparer l'avenir de nos enfants et petits-enfants, ne sont même pas capables de trouver un accord minimal pour arrêter cet énorme gâchis.Si rien n'était fait alors que les émissions de gaz carbonique (principal responsable de l'effet de serre) liées à l'activité humaine atteignent déjà 6,8 milliards de tonnes par an, celles-ci pourraient atteindre 29 milliards de tonnes en 2100. Les Etats-Unis qui sont à la base du blocage du processus de Kyoto décidé en 1997 (qui avait pour finalité de stabiliser et de réduire les émissions de gaz à effet de serre) et qui sont responsables du récent échec de la Conférence de La Haye porteraient une terrible responsabilité dont ils devraient rendre compte devant l'Humanité si, très rapidement, ils ne changeaient pas fondamentalement leur stratégie. Or, malheureusement, le Président Bush ne s'est pas montré, pendant sa campagne, un ardent défenseur de l'Environnement puisqu'il a même affirmé que toutes les annonces faites sur l'effet de serre depuis plusieurs années par la communauté scientifique reposaient sur des bases erronées... Et pourtant les scientifiques ont tenu pendant de longues années à affiner leurs modèles mathématiques de simulation avant de nous adresser le cri d'alarme qui devrait perforer le tympan de chacun. Même si cela n'était considéré que comme une anecdote par certains, tout être sensé ne peut-il être marqué lorsque les météorologues nous disent objectivement, les thermomètres n'étant pas influençables par les pré-supposés de l'Homme, que la décennie 90 a été la plus chaude du XXe siècle, que le XXe siècle a été le plus chaud de tout le millénaire. Nous venons même d'apprendre que l'année 2000 a été en France, avec 1994, l'année la plus chaude du siècle... et ce ne sont pas les 15 à 18° C relevés sur l'ensemble de la France en ce début de février 2001 qui vont faire baisser la moyenne ! Je sais qu'il est ridicule, me dirait un spécialiste des Sciences de la Terre, de prendre en considération le mois, l'année ou même le siècle quand on veut parler de l'histoire de notre planète. Mais ne peut-on quand même pas reconnaître que tous les éléments convergent de façon inquiétante quand on peut prouver (grâce aux carottes de glaces prélevées sur la calotte glaciaire de l'Antarctique) que jamais depuis plusieurs dizaines de milliers d'années, il n'y avait eu une telle concentration d'oxyde de carbone dans l'atmosphère. Ce drame des temps modernes s'est noué il y a quelque 250 ans avec la révolution industrielle quand l'homme a commencé, en brûlant du charbon et ensuite du pétrole, à puiser dans les énergies fossiles que pendant des centaines de millions d'années notre Terre avait su si bien isoler de l'atmosphère. Ainsi, depuis 1750, ce qui n'est que le temps d'une étincelle dans la déjà longue histoire de notre planète, la concentration d'oxyde de carbone a augmenté de 31%. Là où il aura fallu des milliards d'années pour mettre 76 particules d'oxyde de carbone dans un volume de référence, il n'aura fallu que 250 ans pour en ajouter 24 et si rien n'était fait, il y aurait dans l'atmosphère plus d'oxyde de carbone produit par l'homme dans le seul XXIe siècle que la terre n'en aurait émis naturellement. La priorité des priorités de tous ceux qui portent des responsabilités (les gouvernements mais aussi les industries) dans le choix des énergies nécessaires à l'activité humaine est de sans tarder mettre en oeuvre tous les moyens dont ils peuvent disposer pour qu'en quelques courtes décennies nous ne soyons plus obligés de brûler des énergies fossiles et sans obliger pour autant l'Homme à retourner dans les cavernes. Il suffit d'observer le fonctionnement de notre Univers et plus prosaïquement encore de notre nourrice la Terre pour ressentir que c'est bien dans le soleil et dans l'eau, sans lesquels il n'y aurait pas de vie, que nous devons trouver la voie de l'Avenir. Le soleil nous démontre chaque jour que c'est bien dans la fission et la fusion de l'atome que se régénère sans cesse l'énergie la plus efficace. L'eau qui est l'amie intime de la vie et vecteur naturel de l'énergie est composée des deux éléments essentiels, l'hydrogène et l'oxygène, qui sont au centre de tous les process énergétiques. Depuis plus de 50 ans, l'Homme maîtrise les technologies qui permettraient de totalement remplacer les énergies fossiles. Mais le puissant lobbying des industries pétrolières, qui a su s'infiltrer avec cynisme dans la vie politique des Démocraties, associé à un scoutisme écologiste qui fait fausse route, ont fait dévier nos peuples de la vérité. Sans tarder, toutes les démocraties qui ne sont pas sous influence doivent se lever, s'unir et ouvrir la voie par où passera l'avenir de l'humanité. Si nous ne savions pas le faire, il serait à craindre que dans quelques courtes décennies, saisis par la panique, les gouvernements, pour lutter contre le réchauffement inexorable de l'atmosphère, prennent des mesures insupportables qui feraient entrer nos civilisations dans une terrible ère glaciaire.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
La France au 7ème rang de la netéconomie en Europe
Samedi, 10/02/2001 - 00:00

L'association qui fédère les dirigeants des entreprises européennes Growth Plus et le groupe de conseil Arthur Andersen viennent de réaliser une étude comparative portant sur la législation des neuf Etats de l'Union Européenne (Allemagne, Autriche, Belgique, Espagne, France, Italie, Pays-Bas, Royaume-Uni, Suède) et les Etats-Unis. Trois domaines furent passés plus particulièrement au crible : les aides au financement, les "outils d'intéressement et d'attraction de talents", et l'environnement fiscal et juridique des entreprises de la nouvelle économie. Au regard des résultats, "la France occupe une position très moyenne par rapport à ses partenaires européens" affirment Growth Plus et Arthur Andersen qui notent au passage que "la nouvelle économie engendre de nouveaux besoins pour les entreprises, particulièrement les PME et les start-up" qui réclament un "financement important, des spécialistes des nouvelles technologies, et d'un environnement juridique et fiscal propre à leur assurer un développement serein." Le point faible de la France reste "l'importance des charges sociales

France Internet Com :

[http://france.internet.com/news.asp?news_ID=2245">qui] atténue significativement l'attrait de sa législation [sociale, en matière de droit du travail]. En effet, le taux de prélèvements sociaux atteint 45 % en France, soit le taux le plus élevé, plusieurs fois supérieur à celui de l'Allemagne, des Pays-Bas, de l'Espagne, du Royaume-Uni ou des Etats-Unis." note le groupe de conseil américain et l'association de dirigeants d'entreprises de la netéconomie. L'étude indique que le Royaume Uni offre l'environnement le plus favorable à la croissance des entreprises en pleine croissance, suivi de l'Espagne, des Etats-Unis et des Pays Bas. En matière d'investissement, c'est donc logiquement le Royaume Uni qui monte sur la première marche du podium européen. L'Hexagone emporte tout de même la seconde place avec des mesures qui ont été adaptées "pour remédier à la pénurie de financement privé du capital risque, plus prononcée en France que dans d'autres pays." Pour autant, si la France connaît des régimes incitatifs intéressants en matière d'investissement, "elle présente globalement un régime juridique, fiscal et social qui reste par certains côtés moins adapté aux besoins de la nouvelle économie que celui de ces partenaires. De ce fait, elle ne se trouve qu'à la septième place au classement final sur 10 pays représentés." concluent GrowthPlus et Arthur Andersen.

France Internet Com :

[http://france.internet.com/news.asp?news_ID=2245

Un rêve : mettre la lumière au service de l'informatique
Samedi, 10/02/2001 - 00:00

Les électrons ont fait de notre époque celle de l'information. Aujourd'hui, pour augmenter les débits et répondre aux besoins croissants de cette société, ils se sont alliés aux grains de lumière, les photons, pour transmettre les données. Mais ce mariage forcé qui a donné naissance à un nouveau secteur d'activité, l'électronique optique - ou optoélectronique -, n'est pas sans nuages. Le silicium, superstar de la technologie de l'information, est en effet impuissant à produire de la lumière. Dans ces conditions, construire une optronique miniaturisée à partir de puces de silicium paraît relever de la gageure. Pourtant, certains travaux récents laissent à penser que quelques-uns de ces systèmes pourraient voir le jour d'ici à la fin de la décennie. Tant mieux car, aujourd'hui, la lumière est déjà partout. Les fibres optiques transmettent en un instant, et à des milliers de kilomètres, les impulsions de faisceaux laser chargés d'information avec des débits plus importants que ceux offerts par de modestes fils de cuivre. C'est encore la lumière de lasers miniaturisés, obtenus à partir de matériaux semi-conducteurs, qui décryptent le son des disques compacts et qui inscrivent les données sur les disques magnéto-optiques de certains systèmes de stockage dont les capacités sont supérieures à celles des disques durs magnétiques de nos ordinateurs. Mais ce n'est pas suffisant. Aujourd'hui, l'information d'un e-mail envoyé au bout du monde est au départ convertie sous une forme électronique, puis traduite en photons de lumière quand elle est injectée dans les fibres optiques des câbles de télécommunications intercontinentaux, et reconvertie enfin sous une forme électronique à l'arrivée. Les spécialistes des télécommunications et les chercheurs en électronique aimeraient bien s'affranchir de toutes ces ruptures de charge et n'avoir à traiter que des photons, que des signaux de lumière, reléguant ainsi l'électronique à une technique du passé. Mais ce rêve est encore lointain. L'hybride actuel qu'est le mariage entre électronique et optique paraît donc devoir nous accompagner encore longtemps. Un mariage dans lequel aucun des deux conjoints ne paraît très heureux. Le traitement et la transmission d'informations par la lumière nécessitent l'usage du laser ainsi que d'autres sources lumineuses, comme les diodes électroluminescentes. L'industrie de la micro-informatique utilise, par ailleurs, comme dispositifs de commande des transistors, et élabore entièrement ses composants à partir du silicium. Mais personne n'a réussi à ce jour à créer un laser au silicium. En revanche, les lasers d'un lecteur de disques compacts se composent de divers semi-conducteurs à l'arséniure de gallium pour l'essentiel. Malheureusement, arséniure de gallium et silicium ne s'entendent guère. Tous deux possèdent une structure cristalline, leurs atomes étant disposés en rangs réguliers comme des oeufs dans leur boîte. Sauf que les boîtes ne sont pas de même taille : la distance entre les atomes adjacents du silicium - la constante d'assemblage - diffère de celle de l'arséniure de gallium. En conséquence, plaquer une couche d'arséniure de gallium sur une feuille de silicium désorganise complètement l'interface de ces deux couches. Cherchant à s'harmoniser, les atomes de l'un et l'autre matériaux se tendent et se rétractent à leur surface. D'où l'apparition de défauts sous forme de fissures dans la pellicule d'arséniure de gallium, qui annulent ses propriétés de conducteur d'électricité et le rendent inutilisable comme laser à solide. Il en va de même pour d'autres semi-conducteurs électroluminescents. Ainsi n'est-il pas facile d'appliquer des lasers miniatures à une puce de silicium à côté de circuits de micro-informatique. Les choses seraient plus simples si le silicium se comportait comme l'arséniure de gallium, en émettant de la lumière lorsqu'il est stimulé par un courant électrique. Les chercheurs s'efforcent donc depuis plus de dix ans de rendre le silicium « lumineux ». Une solution est de le doper avec des atomes bons émetteurs de lumière, comme ceux de l'erbium. Cela fonctionne, mais pas suffisamment bien. Une autre est d'utiliser des molécules électroluminescentes comme le silicate de cérium, dont Won Chel Choï (Institut coréen des sciences et de la technologie de Séoul) a montré qu'il se plaisait sur le silicium et qu'il émettait une lumière bleue et violette lorsqu'il était stimulé par un autre laser. Mais une des idées les plus prometteuses est celle qui consiste à découper le silicium en structures si fines que son comportement s'en trouve modifié par les lois de la mécanique quantique, qui le transforment alors de médiocre en bon émetteur de lumière. Le silicium traité par un acide puissant devient poreux comme une éponge, comme l'a découvert en 1990 Leigh Canham, de la Defence Research Agency (Malvern, Angleterre). Il se compose de fils quantiques de quelques nanomètres (millionièmes de millimètres), qui deviennent incandescents lorsqu'ils sont traversés par un courant. De plus, la couleur de cette incandescence varie selon l'épaisseur des fils, alors que la couleur émise par les semi-conducteurs électroluminescents est spécifique à chaque matériau. Du jaune, du rouge, du vert et du bleu ont été ainsi obtenus par Canham. En 1996, Philippe Fauchet et son équipe de l'université de Rochester (New York) ont démontré qu'un tel procédé pouvait vraiment mener à une électronique optique intégrée. Ils ont mis au point une diode électroluminescente (light emitting diode, ou led) de silicium poreux, qu'ils ont placée sur une puce non pas de silicium pur, mais d'un matériau similaire riche en silicium. Cependant, ces leds sont encore trop peu efficaces pour convertir l'électricité en lumière et devenir commercialement viables. Mais, plus que les diodes, c'est d'un laser à silicium que l'électronique optique a besoin. Un tel produit, affirme Leigh Canham, révolutionnerait la conception des superordinateurs et ouvrirait la voie à de nouveaux types de dispositifs d'optoélectronique. Des premiers résultats ont été annoncés en novembre 1999 par Lorenzo Pavesi (université de Trente), qui a réussi à obtenir à partir du silicium quelque chose qui se rapproche de la lumière laser en exploitant l'idée de Canham. En décembre de la même année, des Suisses de l'Institut Paul-Scherrer (Villigen) ont, sous la conduite d'Ulf Gennser, fabriqué un laser semi-conducteur non traditionnel en superposant avec le plus grand soin de nombreuses couches très fines de silicium et de germanium. De tels lasers quantiques, dits en cascade, ont été obtenus pour la première fois en 1994 à partir de semi-conducteurs électroluminescents à base d'arséniure d'indium et de gallium (InGaAs). Ils sont encore, malheureusement, peu efficaces et trop coûteux pour servir dans l'électronique optique du silicium.

Le Monde :

http://www.lemonde.fr/article/0,5987,3244--143338-,00.html

Les premiers pas des mémoires holographiques
Samedi, 10/02/2001 - 00:00

Lucent, Imation et trois entreprises de capital-risque viennent de lancer une start-up dédiée exclusivement au stockage holographique, InPhase Technologies. Inphase qui disposera pour commencer de 2300m² dans le Colorado et d'une équipe d'anciens des Bell Labs, en est seulement au démarrage avec, entre autres, un site Web embryonnaire. Son patron est Nelson Diaz, un transfuge de StorageTek. Lucent et Imation avaient déjà lancé un premier partenariat il y a un an et demi. Les mémoires holographiques étaient encore futuristes. Jugeant la technologie suffisamment avancée les deux partenaires estiment aujourd'hui que le moment est opportun pour aller plus loin et envisager un virage commercial du stockage holographique de données. La technologie a en effet effectué des progrès considérables, même si de sérieux problèmes techniques sont encore à régler. Ainsi, il est désormais crédible d'envisager des mémoires holographiques sur un format disque (par opposition à un stockage volumique dans un cristal) capable de conserver 80 films sur un disque de 12 cm de diamètre, avec une vitesse d'accès 25 fois supérieure à celle d'un DVD et une lecture en parallèle de plusieurs flux de données. Dans un premier temps, InPhase va poursuivre les travaux des Bell Labs, l'unité de recherche de Lucent, dans le domaine du HDS. La technique consiste à " imprimer " de multiples motifs lumineux à l'intérieur d'un cristal. Chaque motif représente une série de données sous forme de pixels, les habituels 0 et 1 correspondant à une case " blanche " ou "noire". Un motif peut stocker jusqu'à 1 million de pixels, soit 1 mégabit (125 kilooctets). Les motifs peuvent être superposés dans le cristal : ils seront alors écrits et lus par les lasers sous différents angles "d'attaque" du cristal. Pour enregistrer et lire les données, deux lasers agissent simultanément, un laser de référence (non altéré) et un laser qui passe par un modulateur spatial (pour coder les données). Dans les premières expériences menées aux Bell Labs (mais également dans les labos d'IBM qui travaillent sur le sujet), il était nécessaire, lors des phases de lecture et d'écriture, de bouger les éléments optiques, ce qui ralentissait considérablement la vitesse de transfert de données et augmentait l'encombrement du système. Les chercheurs des Bell Labs ont réussi à contourner ce problème en fixant les parties optiques et en bougeant simplement le cristal de quelques microns entre chaque écriture (ou lecture) de motif. L'enjeu est de taille car, malgré les progrès incessants des disques durs et des autres formes de stockage optique, les mémoires holographiques prendraient alors largement la tête du peloton...

Tranfert : http://www.transfert.net/fr/techno/

Industries : http://www.industries-techniques.com/

Un avion piloté directement par influx nerveux
Samedi, 10/02/2001 - 00:00

Imaginez pouvoir piloter un Jumbo sans jamais toucher la commande de pilotage. Les chercheurs de la NASA ont récemment démontré que ce rêve pourrait devenir réalité. Ces recherches repose sur l'utilisation de l'influx nerveux et sa traduction en commandes par un ordinateur. les chercheurs ont équipé le pilote avec un brassard comportant huit électrodes. Ces capteurs ont enregistré et traduit les influx nerveux produits par les muscles pendant que le pilote faisait les gestes requis pour faire atterrir un avion sur l'aéroport international de San Francisco en Californie. Le pilote a également démontré la possibilité de faire atterrir un avion endommagé. A terme, cette nouvelle technologie de commande Un des avantages de cette commande neuroelectronique est qu'il est possible de se connecter directement et de manière intuitive sur les différentes commandes d'un appareil. Le pilotage devient alors bien plus précis et rapide qu'en utilisant les technologies actuelles.

Brève rédigée par @RT Flash

NASA : http://ftp://ftp.hq.nasa.gov/pub/pao/pressrel/2001/01-012.txt

Matsushita lance une puce virtuose de la vidéo
Samedi, 10/02/2001 - 00:00

Matsushita Electric Industrial Co Ltd a dévoilé une puce à faible consommation permettant de traiter simultanément plusieurs flux de données vidéo numériques. Cette puce LSI (large-scale integrated), destinée aux appareils sans fil de troisième génération, associe plusieurs fonctions qui nécessitaient jusque-là plusieurs microprocesseurs. Elle permettra de réduire de beaucoup la taille et le poids des appareils tels que les téléphones mobiles et les caméras numériques. "La vidéo de pointe est désormais accessible sur des visiophones et d'autres appareils destinés à surfer sur internet," a déclaré Yuji Kakinuma, directeur de la branche développement LSI de Matsushita. Alors que plusieurs puces étaient nécessaires pour numériser et visionner des images au nouveau format video MPEG-4, Matsushita affirme qu'une seule de ses puces permet de parvenir au même résultat. Le traitement simultané de la réception/émission, du décodage/encodage et du visionnage d'une vidéo est essentiel pour permettre de suivre efficacement des vidéoconférences sur des appareils sans fil comme les téléphones mobiles équipés de caméras minuscules. Matsushita a déclaré que la puce pourrait transférer les images à une vitesse de 384 kilobits par seconde, soit six fois plus rapidement qu'une connexion à internet à domicile. C'est la vitesse de transmission qui sera disponible quand les services internet de la troisième génération de téléphonie mobile seront lancés au Japon en mai.

Reuters : http://fr.news.yahoo.com/010206/2/vqrx.html

^ Haut
Matière
Matière et Energie
Premier transistor mono-électronique à température ambiante
Samedi, 10/02/2001 - 00:00

Très prometteuse en matière de stockage de données, la mono-électronique (technique des "écluses" à électrons) a jusqu'à présent toujours buté sur des problèmes de bruit thermique. Toshiba, qui vient d'annoncer la mise au point d'un circuit intégré SET (Single Electron Transistor) fonctionnant sans refroidissement, est le premier fabricant à s'en affranchir. Les composants SET sont basés sur des mécanismes de fonctionnement quantiques rendus exploitables par leur extrême miniaturisation. Compatibles, néanmoins, avec les procédés de fabrication Cmos conventionnels, ces dispositifs seront dans un premier temps hybridés à des blocs fonctionnels standard.

Industries&Techniques : http://www.industries-techniques.com/site/

Vers un écran plat flexible, transparent et intelligent !
Samedi, 10/02/2001 - 00:00

Une nouvelle technologie d'écrans plats flexibles vient d'être suggérée par des chercheurs de l'Institut de technologie de Tokyo. Les spécialistes en matériaux nouveaux du groupe de Hideomi Koinuma viennent en effet de mettre au point un semiconducteur ferromagnétique totalement transparent et fonctionnel à température ambiante. Les travaux sont publiés dans la revue scientifique Science. Le matériau est essentiellement du dioxyde de titane dopé au cobalt et présente l'avantage de montrer ses propriétés ferromagnétiques à l'ambiante, alors que la plupart des matériaux comparables fonctionnent à beaucoup plus basse température, ce qui les rend plus difficiles à utiliser. Ce progrès tombe à point nommé parce qu'il permet d'envisager la convergence de deux technologies à fort potentiel depuis deux ans : les écrans plats flexibles et les mémoires magnétiques. En effet, le nouveau matériau devrait permettre de fabriquer un affichage électronique flexible, d'une autre nature que ceux envisageables avec les OLED d'Osram. Mais à cause de ses propriétés ferromagnétiques, son potentiel est beaucoup plus élevé. En effet, les matériaux ferromagnétiques rendent possibles une forme de mémoire vive magnétique, l'une des technologies mémoire les plus prometteuses du moment . Ce qui veut dire que cette solution titane/cobalt devrait permettre non seulement de fabriquer des écrans flexibles mais aussi d'y incorporer, sans perdre la transparence, une logique électronique rapide et une mémoire vive embarquée. Hideomi Koinuma est cependant loin d'avoirréfléchi à son plan de développement. En réalité, il est tombé par hasard sur ce matériau, développé initialement dans le cadre de travaux sur la mise au point... d'un nouveau catalyseur.

Usine Nouvelle : http://www.usinenouvelle.com/

Sony va fabriquer des écrans extra-fins pour détrôner le LCD
Samedi, 10/02/2001 - 00:00

Dans la course à l'éradication du bon vieux tube cathodique de nos téléviseurs, le géant de l'électronique grand public Sony Corp a dévoilé le prototype d'un écran de 13 pouces (33 cm) doté d'une matrice active de type OEL (organic electroluminescent) et à peine plus épais qu'une carte de crédit. Sony envisage sa production en série d'ici 2003 pour un coût équivalent à celui des écrans cristaux liquides de mêmes dimensions (LCD) mais en plus fin, plus léger et de meilleure résolution. "Cet écran convient parfaitement aux applications du haut débit", a déclaré un vice président de Sony, Suehiro Nakamura. Par "applications du haut débit", Sony entend la capacité à restituer correctement des animations sur un écran dont le temps de réponse suffit à recréer, par exemple, les éclats d'un feu d'artifices. Le géant japonais annonce que ces écrans OEL ont un temps de réponse supérieur aux écrans LCD. Auto- luminescents et ne nécessitant pas de rétro-éclairage, ils sont plus fins, plus légers et offrent un angle de vision plus important. Le marché place un grand espoir dans ce type d'écrans pour les caméras numériques et les téléphones portables. Sanyo Electric et Eastman Kodak d'un côté, NEC Corp et Samsung SDI de l'autre, ont déjà fait part d'associations dans le but de développer eux aussi des écrans OEL. De nombreuses limites technologiques ont dû être surmontées afin de produire des écrans adaptés aux téléviseurs, notamment pour leur conférer une brillance uniforme sur de grandes surfaces. Tetsuo Urabe, directeur de la division recherche et développement OEL de Sony, a dit que l'entreprise travaillerait à la production d'écrans OEL équivalent voir supérieurs en taille, en prix et en longévité aux LCD. A titre de comparaison, Sharp possède en catalogue un écran LCD 28 pouces, mais Urabe envisage un écran de 30 pouces. Il table par ailleurs sur des écrans d'une durée de vie de 10.000 heures. Sony estime que le marché des écrans plats pourrait plus que doubler dans les cinq prochaines années pour atteindre les 6.000 milliards de yen (52,3 milliards de dollars) par an. Nakamura a déclaré que Sony poursuivrait ses activités de recherche et développement dans les autres types d'écrans plats et a précisé que la société n'avait pas encore opté pour l'une ou l'autre des technologies existantes.

Reuters : http://fr.news.yahoo.com/010207/2/vsp3.html

Vers la puce en diamant
Samedi, 10/02/2001 - 00:00

Il peut sembler étrange d'utiliser le diamant pour l'electronique. En tant que cristal de carbone pur, le diamant ne conduit pas bien le courant.Mais s'il est dope grâce a des atomes d'azote ou de bore par exemple, cela fournit des électrons libres qui lui donnent les propriétés d'un semi-conducteur. Pour l'instant, on sait fabriquer de minces films de diamant synthétique qui ne sont pas vraiment appropries pour l'électronique. Ce sont des mosaïques désordonnées de minuscules cristaux, relies par des joints de

grains qui ne conservent pas l'orientation des cristaux. Le flux d'électron est alors bloque a cette frontière. Généralement, les films de diamant sont déposés sur une surface par le procédé de "chemical vapour deposition" (abrege CVD). Or sur toute autre surface que le diamant, des joints de grains indésirables apparaissent. Mais les scientifiques de l'université de Augsburg ont découvert une surface qui élimine ce problème : le métal noble Iridium. Ils ont récemment fusionne environ un milliard de minuscules cristaux de diamants en une rondelle de diamant d'un centimètre-carré sur une base d'Iridium. Selon les chercheurs de l'université de Augsburg, il s'agirait d'un premier pas vers la fabrication de puces en diamant. Comparées aux puces en silicium, les puces en diamant seraient plus petites. D'autre part,elles garderaient leurs propriétés semi-conductrices jusqu'à de très hautes températures (supérieures a 500°C).

BE Allemagne : http://www.adit.fr

Ça chauffe pour les processeurs
Samedi, 10/02/2001 - 00:00

La chaleur est le premier ennemi du matériel électronique", Chris Hipp, un des responsables de la start-up RLX Technologies, a désigné le principal problème qui frappera les fabricants de microprocesseurs dans les années à venir. La cession californienne de l'International Solid-State Circuits Conference (du 4 au 7 février 2001), grand-messe des spécialistes des semi-conducteurs, est d'ailleurs très largement consacrée à ce sujet. Lors de l'ouverture de la manifestation, Pat Gelsinger, le responsable technique d'Intel, n'a pas caché son inquiétude. Devant une assistance captivée, il a expliqué qu'on pourrait atteindre des fréquences de 20 Ghz dans les 10 prochaines années. Basées sur les architectures actuelles, ces puces produiraient autant de chaleur, proportionnellement à leur taille, qu'une centrale nucléaire. Depuis 30 ans, l'industrie des processeurs vit au rythme de la loi de Moore. Mais le célèbre précepte de Gordon Moore, cofondateur d'Intel, qui veut que tous les deux ans, le nombre de transistors d'un microprocesseur double, risque d'avoir du plomb dans l'aile. Plusieurs solutions sont envisagées. En premier lieu, il s'agit de simplifier les requêtes des logiciels afin d'éviter les sollicitations superflues du processeur. Si elle ne résout le problème de surchauffe des processeurs, cette solution n'est néanmoins pas à négliger. Des idées plus prometteuses sont à l'étude chez les grands constructeurs. Intel travaille notamment sur une technique consistant à ajouter, au coeur des processeurs, des sous-ensembles dédiés. Ils seraient chargés d'exécuter des tâches spécifiques, et ne seraient donc utilisés qu'à des moments précis. Cette technique, en répartissant le temps de calcul, réduirait les risques de surchauffe. De leur côté, des chercheurs allemands ont mis au point une technique permettant de substituer le diamant au silicium ( voir brève suivante ). Instable à partir de 150°, la silice est un obstacle de plus pour les fondeurs. Le diamant de synthèse utilisé par l'équipe allemande résiste allégrement à des températures proches de 500°, tout en ayant la même conductivité. Les cerveaux vont chauffer dans la Silicon Valley.

Transfert :

http://transfert.net/fr/techno/article.cfm?idx_rub=89&idx_art=3980

La station d'épuration produit de l'énergie
Samedi, 10/02/2001 - 00:00

Le comté de Seattle (État de Washington) a lancé un audacieux projet de génération électrique : des piles à combustibles sont alimentées directement par les gaz d'une station d'épuration. L'usine d'épuration de King County s'est associée avec FuelCell Energy, dans l'objectif d'avoir un projet de démonstration opérationnel à l'automne 2002. La technologie permet aujourd'hui d'envisager une combinaison directe de la biomasse et des piles à combustibles. Selon les ingénieurs de l'usine d'épuration, un site retraitant environ 8 millions de litres d'eaux usées par jours génère suffisamment de gaz biologique riche en méthane pour alimenter une centrale à piles à combustibles de l'ordre du Mégawatt. Pour que l'affaire se fasse, encore faut-il que le carburant soit utilisable par les piles sans dépenser trop d'argent sur du pré-traitement. Mais c'est précisément l'avantage des piles directes comme celles de FCE. En l'occurrence, il s'agit d'un procédé haute température qui atteint des rendements de conversion de l'ordre de 60%. La température, qui pourrait poser problème dans des applications portables, est ici utile dans la mesure ou elle peut servir de chauffage d'appoint au process d'épuration proprement dit. Il s'agit de l'un des aspects les plus prometteurs de piles à combustibles : une architecture combinée utilisant un carburant "gratuit" et pouvant servir de générateur d'appoint, en cas de défaillance du réseau ou d'envol des prix. Un concept familier pour la Côte Ouest des Etats-Unis, ces derniers temps...

Industries&Techniques : http://www.industries-techniques.com/

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Antarctique : la calotte glaciaire rétrécit de l'intérieur
Samedi, 10/02/2001 - 00:00

Depuis 1992, l'intérieur de la calotte glaciaire de l'Ouest de l'Antarctique a perdu 31 kilomètres cube de glaces, annoncent des chercheurs britanniques dans la revue Science à paraître le 1er février. On sait depuis plusieurs années que la calotte de glace rétrécit, mais les travaux de ces chercheurs du University College London (UCL) et du British Antarctic Survey apportent de nouvelles données sur ce qui se passe à l'intérieur de cette étendue de glace. Les scientifiques ont utilisé des mesures extrêmement précises effectuées par le satellite ERS (European remote sensing satellite), de l'Agence spatiale européenne, qui surveille en permanence les océans, les glaces polaires et les terres émergées. Ces données révèlent que le glacier de l'île Pine, le plus grand de l'Antarctique ouest, a reculé de 5 km. Ce glacier, qui culmine à 2.500 mètres d'altitude, avec un soubassement de 1.500 mètres sous la mer, assure une ''circulation'' de la glace depuis l'intérieur de la calotte jusqu'à l'océan. Or les mesures radars montrent clairement que la glace s'amincit depuis huit ans dans une zone de 5.000 km2 du bassin hydrographique du glacier. Selon les auteurs de l'article publié par Science, ces résultats démontrent sans ambiguïté que la fonte de la calotte glaciaire de l'Antarctique Ouest est associée à la circulation de la glace depuis l'intérieur. Si l'évolution continue sur le même rythme, le glacier de l'île de Pine pourrait disparaître dans quelques centaines d'années.

Nouvel Obs : http://quotidien.nouvelobs.com/sciences/

Le niveau des océans va continuer à monter
Samedi, 10/02/2001 - 00:00

Le niveau général des océans va continuer à monter pendant des siècles, même en cas de stabilisation immédiate du taux de gaz à effet de serre, a estimé mardi un expert australien, John Church, lors d'une conférence internationale sur le climat à Hobart, en Australie. On estime que le niveau des océans a augmenté de 1,8mm au cours du XXe siècle, à un rythme beaucoup plus élevé qu'au cours des siècles précédents, a expliqué M. Church, président du CSIRO, un centre de recherches marines. Cette élévation, a-t-il précisé, est due à l'expansion des océans qui se réchauffent. Les gaz à effet de serre mais aussi la fonte d'une partie de la calotte glaciaire du Groënland figurent parmi les facteurs d'explication. Selon M. Church, le niveau des mers risque de continuer à monter pendant encore plus de 500 ans.

AP : http://fr.news.yahoo.com/010206/5/vqwl.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Deux gènes qui interagissent pour le meilleur ou pour le pire
Samedi, 10/02/2001 - 00:00

Des chercheurs du Wistar Institute et du Fox Chase Cancer Center a Philadelphie ont identifie un nouveau segment de gène situe sur le chromosome 19. Baptise BRAF35, celui-ci semble interargir avec le gène BRCA2, déjà lie a l'apparition des cancers héréditaires du sein et de l'ovaire. Il s'avère que si l'un ou l'autre de ces gènes est inactive, les cellules qui les abritent cessent de se diviser a une vitesse normale. Il en résulte alors une croissance anarchique de ces cellules. Les chercheurs supposent que la combinaison de ces deux gènes, BRCA2 et BRAF35, pourrait jouer un rôle crucial dans la réparation de l'ADN et le bon déroulement du cycle cellulaire.

Brève rédigée par @RT Flash

New York Times :

http://www.nytimes.com/2001/01/29/health/29reuters-women.html

Douleur : une nouvelle arme chimique
Samedi, 10/02/2001 - 00:00

Une équipe danoise aurait obtenu de très intéressants résultats dans le contrôle de la douleur au cours de la période qui suit un accident vasculaire cérébral. Et surtout, le nouveau traitement expérimenté à l'hôpital d'Aarhus, dans le Jütland, aurait entraîné des effets secondaires beaucoup moins intenses que les solutions actuellement disponibles. Cette nouvelle victoire dans la prise en charge de la douleur est susceptible d'apporter un réel changement dans les conditions de vie des malades qui survivent à une attaque majeure. Ces derniers souffrent en effet fréquemment de douleurs très intenses. Chroniques et quasi permanentes, celles-ci sont provoquées par l'hyperexcitabilité des neurones situés dans les zones cérébrales atteintes au cours de l'attaque. La lamotrigine, un médicament plus couramment utilisé dans le traitement de certaines formes d'épilepsie, aurait permis à Troels Staehelin Jensen d'obtenir un bon contrôle de ces manifestations douloureuses. C'est un résultat logique dans la mesure où l'épilepsie se caractérise précisément par une hyperexcitabilité des neurones. Dans le cas d'espèce, ce médicament pourrait avantageusement remplacer certains produits utilisés dans le contrôle de la douleur dont les effets secondaires - baisse de vigilance, hypotension ou troubles du rythme cardiaque - nuisent parfois à une bonne tolérance.

Neurology : http://fr.news.yahoo.com/010202/81/vhwi.html

Une protéine naturelle pour traiter l'obésité
Samedi, 10/02/2001 - 00:00

Des chercheurs ont réussi à faire maigrir des rats tout en les nourrissant avec un régime riche en graisses et en sucres. La clef du ''miracle'' : une protéine appelée Acrp30, synthétisée par les cellules adipeuses, impliquée dans la régulation du poids. L'équipe dirigée par le Pr Harvey F. Lodish, du Whitehead Institute for Biomedical Research (Cambridge, Massachusetts), espère que ses travaux déboucheront sur un traitement contre l'obésité. Ces conclusions sont publiées dans la dernière édition des Proceedings of the National Academy of Sciences.Ces chercheurs américains s'intéressent depuis quelque temps déjà à cette protéine, plus faiblement présente chez les personnes obèses. De précédentes études ont montré qu'elle augmentait les capacités des cellules musculaires à consommer les graisses. Le gain peut aller jusqu'à 39 %. Cette fois, le Pr Lodish a injecté à des souris un fragment de la protéine Acrp30, appelé gAcrp30. Après 10 jours de régime riche en sucres et en gras, les rongeurs avaient perdu 3,7 % de leur poids, et 7,5 % près 16 jours. Selon le Pr Lodish .Pour ces travaux, l'équipe de Lodish est associée à la société de biotechnologie française Genset, qui voudrait commercialiser un médicament contre l'obésité à partir du fragment gAcrp30, rebaptisé Famoxin. Les deux entités ont signé un accord en janvier 2000 pour mener des recherches sur les gènes impliqués dans l'obésité et le diabète. Selon les propos du Pr Lodish, rapportés par Genset, la Famoxin n'agit pas sur le système nerveux central comme d'autres molécules mais « sur les tissus périphériques, et plus spécifiquement sur l'oxydation des acides gras dans le muscle, entraînant ainsi une diminution des acides gras libres dans le sang. C'est précisément cette augmentation de l'oxydation des acides gras qui semble responsable de la perte de poids ». Il faut maintenant vérifier que ces résultats sont valables pour l'être humain.D'après les travaux menés par l'équipe du Dr. Bernard Bihain, de Genset, la protéine Acrp30 « contribue à l'obésité et au diabète de type II », la forme de diabète la plus fréquente dans les pays riches, dite insulino-résistante.

Nouvel Obs :

http://quotidien.nouvelobs.com/sciences/20010206.OBS1920.html?1901

Les téléphones mobiles pourraient faire office de stéthoscope
Samedi, 10/02/2001 - 00:00

Les téléphones mobiles pourraient bientôt sauver des vies grâce à un système de surveillance de certains paramètres vitaux après un accident ou une catastrophe, explique le magazine New Scientist. Bell Labs, détenu par Lucent Technologies, étudie un circuit spécial pour téléphones portables capable d'enregistrer des signaux vitaux tels que la respiration. "Les ingénieurs de Bell Labs, sous la direction des époux Victor Lubecke et Olga Boric-Lubecke, ont remarqué que certaines micro-ondes transmises par l'antenne d'un téléphone mobile rebondissent sur la poitrine, le coeur et les poumons de l'utilisateur et retournent vers le combiné," rapporte l'hebdomadaire. Les ondes renvoyées par le poumon augmentent lorsque celui-ci se gonfle, ce qui a pour effet d'élever la fréquence des micro- ondes. Inversement, elle diminue lorsque le poumon se contracte. "Nous parlons de signaux de très basses fréquences. Ils sont très faciles à discerner de la voix," a déclaré Lubecke au magazine. Le téléphone mobile pourrait également être utilisé pour surveiller les battements de coeur et la respiration, a-t-il précisé, mais pour cela le combiné doit être stable pendant quelques secondes. Pour que ces fonctions d'observation à distance puissent fonctionner, le téléphone doit être allumé mais il ne faut pas y répondre, ce qui en fait un outil idéal pour vérifier l'état de santé de personnes inconscientes ou coincées dans les gravats d'un tremblement de terre. "Donc au moment où l'on discute encore des dangers potentiels des téléphones mobiles (...) on dirait que les portables pourraient avoir au moins une utilité pour la santé," précise le magazine.

Reuters : http://fr.news.yahoo.com/010207/2/vwj6.html

Accident vasculaire cérébral : du nouveau dans le traitement
Samedi, 10/02/2001 - 00:00

Jusqu'à présent, les moyens thérapeutiques dans la prise en charge d'un accident vasculaire cérébral étaient très limités. Un article paru dans " Nature Medicine" rapporte une approche nouvelle, qui semble intéressante d'après les travaux effectués sur des souris. Les accidents vasculaires cérébraux sont de deux types : ischémique ou hémorragique. Dans le premier cas, une partie du cerveau n'est plus irriguée par le sang car l'artère chargée de le faire se bouche. Dans le deuxième cas, cette artère est "rompue", provoquant une hémorragie locale : le cerveau souffre pareillement d'un défaut de vascularisation. Face à un accident vasculaire cérébral, les médecins sont très démunis : les traitements mis en oeuvre sont essentiellement des soins de réanimation et de surveillance des fonctions vitales, mais il n'existe que peu de traitements spécifiques. Dans certaines conditions, il est possible de faire bénéficier le patient qui présente un accident vasculaire cérébral ischémique d'une thrombolyse : il s'agit en fait de dissoudre le caillot qui obture l'artère pour permettre l'irrigation de la zone concernée du cerveau. Ce traitement comporte malheureusement des risques de complications hémorragiques très sévères. Actuellement, près de 25 % des patients présentant un accident vasculaire cérébral décèdent moins d'un mois après la survenue de leur accident. Lors d'un AVC ischémique, un oedème se constitue dans le cerveau à l'endroit de l'ischémie, suite à la synthèse d'un facteur de croissance ( le VEGF ). Cet oedème aggrave le pronostic car il aggrave les lésions du cerveau. Réduire cet oedème signifie réduire la taille de la lésion cérébrale et donc améliorer le pronostic vital et fonctionnel du patient. Les chercheurs ont démontré chez la souris que l'administration d'une substance qui inhibe l'action du VEGF permettait de réduire sensiblement la taille de l'AVC : administré même six heures après l'ischémie cérébrale, les auteurs ont noté une réduction de 40 % de la taille de la lésion cérébrale. Cette étude montre une nouvelle voie thérapeutique et semble prometteuse : la prévention de l'oedème consécutif à l'accident vasculaire cérébral ischémique. En-dehors de l'AVC, d'autres applications peuvent être envisagées, devant des ischémies concernant d'autres organes, tel que l'infarctus du myocarde.

Csanté : http://www.csante.com/

Dépister le cancer du sein au niveau moléculaire
Samedi, 10/02/2001 - 00:00

Des chercheurs de l'université d'état de la Louisiane ont commencé l'analyse systématique des gènes de tissus mammaires cancéreux dans le but de retrouver certains marqueurs spécifiques à la tumeur sur l'ARN des cellules. Cet axe de recherche est né de la certitude que le cancer est une maladie génétique de la cellule, c'est-à-dire qu'il est la conséquence de l'accumulation d'altération des gènes. L'anomalie se manifeste dans un premier temps au niveau de l'ADN, puis de l'ARN et, après traduction, des protéines. Les scientifiques espèrent développer des tests capables de dépister le cancer du sein au niveau moléculaire, bien avant qu'il ne soit perceptible par une mammographie. A l'idéal, une détection précédant la métastase cancéreuse permettrait un traitement précoce. Dès lors, il serait possible d'éviter la dissémination de la tumeur dans d'autres organes vitaux. De plus, ce type de test pourrait découvrir une éventuelle rechute bien plus tôt qu'il n'est actuellement possible.

Infosciences :

http://www.infoscience.fr/breves/breves.php3?niv=1&Ref=1095

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Un véhicule sûr par tous temps
Samedi, 10/02/2001 - 00:00

L'équipementier allemand Hella, spécialiste de l'éclairage automobile a su combiner en un seul capteur une détection de pluie et une mesure de luminosité. Une fois intégré à un véhicule, ce module va commander automatiquement essuie-glaces et phares. Le capteur de détection de pluie met à profit le phénomène de réflexion totale à la frontière entre deux milieux d'indice très différents : le verre du pare-brise et l'air extérieur. Placée sur la face interne du pare-brise, au niveau du rétroviseur, une diode électroluminescente infrarouge émet un faisceau, lequel est recueilli par une diode réceptrice. Si la vitre est sèche, le rayon est presque intégralement réfléchi. En revanche, les gouttes d'eau tapissant l'extérieur du pare-brise captent une partie de la lumière. C'est donc sur la différence de signal (émis - perçu) que s'effectue la mesure d'intensité de pluie. Un peu d'humidité justifie un passage unique du balai ; une forte précipitation enclenche le balayage, réglé à la vitesse optimale. Le capteur de lumière, lui, synthétise deux informations : la lumière ambiante et l'éclairage de la zone immédiate. La première est saisie sous le plus grand angle possible, sans tenir compte de son incidence. La lumière immédiate, en revanche, traduit la qualité de vision du conducteur, sous un angle beaucoup plus restreint. Ces deux données, intégrées dans le temps, discriminent précisément le type d'ambiance : jour, nuit, crépuscule, passage en tunnel, sous un pont, sur une route très arborée, etc. La centrale de commande allume ou éteint les lumières du véhicule en conséquence. Ce dispositif sera installé en série dès cette année.

Industries&Techniques : http://www.industries-techniques.com/

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top