RTFlash

RTFLASH Recherche & Technologie
NUMERO 115
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 06 Octobre 2000
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Première en France : toutes les boutiques de Grenoble sont sur internet
PSA Peugeot Citroën et IBM sur les voitures communicantes
Le Président de la République propose deux actions pour étendre internet et le téléphone mobile
Sony veut faire passer le net par la télévision et la console vidéo
La vidéo à la demande passera-t-elle par les réseaux câblés ou le disque dur de votre téléviseur ?
Avenir
Les nanotubes entrent dans l'ère préindustrielle
Des plastiques solides et résistants à la chaleur
Matière
Les japonais franchissent une étape importante vers le câble supraconducteur industriel
Une pile moins chaude
Des stations orbitales d'énergie solaire en 2050
Terre
Le climat s'emballe-t-il ?
Vivant
L'âge maximal de la mort continue de reculer
Généticiens et biologistes sur la piste de l'immortalité
Un médicament retarde l'apparition de la sclérose en plaques
Une nouvelle technique pour traiter les varices
La protéine qui bloque le cancer colorectal
Les globines s'installent dans le cerveau
Sous le pétrole, des algues médicinales
Un bébé fabriqué pour sauver sa soeur
Recherche
La télé numérique s'embarque en voiture
Automobile : de plus en plus propre et de moins en moins gourmande
Edito
De l'ADN à la puce moléculaire



Depuis 1965, la miniaturisation en micro-électronique a évolué conformément à la fameuse loi de Moore qui prévoit un doublement tous les 18 mois environ du nombre de transistors intégrés sur un puce de même surface. Aujourd'hui, les dernières puces disponibles sur le marché ont une finesse de gravure qui descend à 0,14 micron, soit 140 nanomètres (un nanomètre étant égal à un milliardième de mètre). Les scientifiques, au prix de prouesses technologiques remarquables, pensent pouvoir descendre jusqu'à des composants de seulement 10 nanomètres (une cinquantaine d'atomes de large !) vers 2015. Mais ils auront alors atteint les limites autorisées par les lois de la physique dans le cadre de la technologie du silicium. Les technologies actuelles auront en effet atteint leurs limites en termes de miniaturisation et de puissance et il faudra explorer des voies technologiques nouvelles. L'une des plus prometteuses est la molétronique, ou électronique moléculaire. L'idée consiste à utiliser des molécules à l'état liquide pour fabriquer des processeurs ou des mémoires d'ordinateur. Le liquide serait, par exemple, encapsulé dans une puce semblable aux puces actuelles. Théoriquement, ces molécules pourraient se substituer aux actuels transistors des puces en silicium : environ 1000 fois plus petites et capables de s'assembler en 3 dimensions, elles multiplieraient par plusieurs milliards les capacités de calcul des ordinateurs. Dans la pratique, les difficultés à surmonter pour mettre au point ces puces moléculaires sont immenses. il s'agit notamment de lier ces molécules entre elles par un procédé global, car on ne peut imaginer d'assembler une à une plusieurs millions de molécules. Dans un article intitulé "la fabrication de nanomachines par ADN" et paru le 10-08-200 dans le magazine scientifique américain Nature (http://www.nature.com/nature/), une équipe scientifique internationale (composée de chercheurs de Bell Labs et de l'université d'Oxford) vient de franchir une nouvelle étape vers la fabrication des nano-outils de base qui seront nécessaires à la fabrication ultérieure de puces moléculaires. Les chercheurs ont montré que des brins d'ADN (l'acide désoxyribonucléique qui constitue nos gènes) peuvent servir de liaison entre les molécules. Le concept développé consiste à attacher un brin d'ADN à chaque molécule avant de mélanger celles-ci. Les brins d'ADN sont choisis de manière à ce qu'ils se combinent les uns aux autres. Les chercheurs espèrent ainsi pouvoir un jour organiser les molécules de manière à former un circuit électronique opérationnel. Pour l'instant, les résultats publiés dans Nature montrent qu'il est déjà possible de réaliser un nanomoteur à base d'ADN fin comme le millième d'une tête d'épingle, dont on peut commander l'ouverture et la fermeture. Un tel moteur exploite les propriétés remarquables de l' ADN constituée d'une chaîne et formée de deux brins qui s'enroulent en forme de double hélice. Chaque brin est une longue chaîne, formée par la succession des quatre constituants de base de l'ADN, symbolisés par les lettres A, C, T, et G. Ces quatre molécules ont la particularité de se reconnaître et de s'assembler par paires, le A avec le T, et le C avec le G. Ainsi, quand le brin de l'hélice comporte la succession de lettres ATACG, le brin qui lui fait face est constitué de la suite TATGC. En fabriquant une pince dont les extrémités ne comportent que l'une des moitiés de la double hélice et un carburant qui porte les lettres complémentaires, les chercheurs peuvent à volonté faire et défaire les hélices, entraînant la fermeture et l'ouverture de la pince. C'est ainsi qu'est né le premier instrument moléculaire capable de manipuler atomes et molécules. Pour l'instant, les chercheurs obtiennent des pinces identiques mais ils pensent pouvoir fabriquer de multiples catégories de pinces différentes, utilisant chacune un carburant spécifique. Ces nano-outils pourraient être utilisés pour produire, déplacer et organiser atomes et molécules dans les futures usines de nanofabrication. Mais le plus extraordinaire est que ces outils pourraient même être programmés pour s'auto-reproduire ! Ces passionnantes recherches confirment la convergence de plus en plus marquée entre les domaines de l'électronique et de la physique, d'une part, et ceux de la chimie et de la biologie, d'autre part. Après demain l'informatique, et plus largement la production industrielle dans son ensemble, pourront effectuer le grand saut dans la nanomonde grâce à la maîtrise d'outils et de concepts biologiques. Mais, corrélativement, notre connaissance des mécanismes les plus intimes de la vie progressera de manière extraordinaire grâce à la puissance phénoménale de traitement de l'information dont nous disposerons et à la finesse incomparable d'intervention, au niveau moléculaire et atomique, que permettront les nano-outils et nano-machines. Un des exemples les plus fascinants de cette synergie entre les sciences de l'information et les sciences de la vie nous est donné par le nouveau et extraordinaire défi que représentent l'inventaire et la compréhension du fonctionnement des millions de protéines qui nous constituent. Pour relever ce défi, nous aurons besoin d'une puissance de calcul sans commune mesure avec ce qui existe actuellement, comme le montre un récent article de Wired paru le 23 septembre. Mais inversement, la compréhension des relations entre structures et fonctions des protéines permettra des avancées théoriques majeures dans le domaine des sciences de l'information. Nous assisterons alors, j'en suis convaincu, sous l'effet de cette spirale amplificatrice, à partir du 2ème quart du XXIème siècle, à une nouvelle et prodigieuse accélération de la connaissance scientifique et de la puissance des outils techno-industriels à notre disposition. Mais il dépendra plus que jamais de l'homme, de sa sagesse et de sa clairvoyance, de faire en sorte que ce progrès inimaginable, qui déjà s'amorce, bénéficie à tous et permette de construire un monde plus humain où chacun aura sa place.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Première en France : toutes les boutiques de Grenoble sont sur internet
Samedi, 07/10/2000 - 00:00

Une bonne centaine de commerçants sur liste d'attente pour ouvrir leur «vitrine électronique», 40 qui font déjà du commerce en ligne: le site internet «achat-grenoble.com», une première nationale qui réunit depuis le 30 juin les 3.332 boutiques de Grenoble, s'est révélé un succès. Créé par la chambre de commerce et de l'industrie (CCI) de la ville, le site rend accessibles aussi bien le tabac-presse que le boucher. Si 40 magasins seulement ont franchi le pas de l'e-commerce, 138 présentent déjà dans une «vitrine électronique» leurs caractéristiques et leurs produits.«Le Marine», a été le premier tabac-presse à intégrer l'annuaire et le site vitrine d'«achat-grenoble.com». Le but est de «présenter l'originalité du magasin en se servant des nouveaux moyens de communication» explique la gérante, Catherine Favre. Elle présente des magazines spécialisés et donne la liste des journaux étrangers qu'elle vend. «Un jour, une personne est entrée dans le magasin et m'a directement demandé les 4 titres figurant dans la vitrine du site sans même regarder les rayons. Le site fait rentrer les gens chez nous et les achats sont ciblés, mais c'est au niveau de la presse étrangère qu'il y a le plus gros impact». Ce site internet ne regroupe que les magasins de la ville mais paradoxalement «le plus grand nombre de consultants sont des gens extérieurs à Grenoble», précise Catherine Favre. Le coût de ce service est de 780 F par an mais la gérante du «Marine» rajoute 170 F afin de pouvoir changer tous les mois sa vitrine. Le but d'«achat-grenoble.com» est aussi de sensibiliser les très petites entreprises aux nouvelles technologies de l'information et de la communication, dans une ville où environ 60% des commerçants n'ont pas d'ordinateur.

Progrés : http://www.leprogres.fr/infodujour/Rhone/index.html

PSA Peugeot Citroën et IBM sur les voitures communicantes
Samedi, 07/10/2000 - 00:00

PSA Peugeot Citroën et IBM vont coopérer dans le domaine de la voiture communicante, ont annoncé les deux groupes jeudi, en présentant au Mondial de l'automobile un prototype réalisé sur une Xsara Picasso de Citroën. En s'appuyant sur les derniers progrès de la téléphonie mobile, de l'internet et de l'informatique embarquée, PSA et IBM vont expérimenter les possibilités d'établir, par l'internet, un diagnostic en ligne pour contrôler à distance le bon fonctionnement des organes mécaniques de la voiture. Leur coopération s'étendra à toute la gamme des voitures communicantes que le constructeur automobile français veut développer. Pour PSA, ces expérimentations vont venir enrichir les services apportés par Egery, une société commune qu'il a créée avec le groupe Vivendi pour développer les applications internet pour l'automobiliste. Le groupe automobile vient d'annoncer un autre accord avec l'américain Ford dans la télématique automobile en Europe, venant aussi se greffer sur Egery. Un accord cadre doit être signé avant la fin du dernier trimestre 2000. Egery présente au Mondial les premiers services qu'elle développe. Dans un premier temps, le conducteur pourra, avec son téléphone portable équipé du protocole WAP (qui permet un accès limité à des services internet), avoir accès par commande vocale à des informations sur l'entretien de sa voiture ou des adresses des concessionnaires les plus proches. Lorsque les connexions deviendront plus rapides et performantes grâce au réseau GPRS, début 2001, les services seront plus complets: aide au déplacement avec informations sur la circulation et les temps de parcours, informations touristiques, réception et envoi d'e-mails, etc... PSA avait estimé en mars, en annonçant son partenariat avec Vivendi, que d'ici à la fin de 2002, 80 % des modèles Peugeot et Citroën pourraient être équipés de matériel permettant d'accéder à ces services, et qu'un million de véhicules communicants Peugeot et Citroën seraient effectivement en circulation. L'équipement est proposé sur la nouvelle 607, sur la Citroën C5 qui va sortir l'an prochain et sur la Xsara Windows CE, une série limitée.

AFP : http://fr.news.yahoo.com/000928/1/nung.html

Le Président de la République propose deux actions pour étendre internet et le téléphone mobile
Samedi, 07/10/2000 - 00:00

Jacques Chirac milite pour la réduction du fossé numérique. Dans le cadre d'un déplacement dans le Cher, le Président de la République a proposé jeudi deux ''actions prioritaires'' pour faire en sorte que l'ensemble du territoire français soit desservi par le téléphone mobile et les autoroutes de l'information. ''Il faut d'abord que l'Union européenne fasse entrer le téléphone mobile dans les obligations du service universel de télécommunications pour que l'intégralité de notre territoire soit très rapidement couvert'', a expliqué Jacques Chirac, qui exerce jusqu'au 31 décembre la présidence tournante de l'UE. ''C'est indispensable, dès lors que pour l'ensemble des Européens, l'usage du téléphone mobile s'impose comme un acte ordinaire de la vie courante'', a ajouté le président français. La téléphonie mobile et internet sont en train d'opérer "une redistribution de l'espace" et marquent "la fin de l'isolement" des régions rurales, l'émergence d'une nouvelle géographie humaine, la possibilité d'être à tout moment et en tout lieu en contact avec le monde entier et de travailler dans une commune rurale comme on le ferait dans une grande ville", a-t-il ajouté. Le président a souhaité en conséquence que "l'Union européenne fasse entrer le téléphone mobile dans les obligations du service universel de télécommunications, pour que l"intégralité du territoire soit rapidement couvert". Jacques Chirac a également souhaité que ''les collectivités locales se voient reconnaître par le législateur, dans des conditions plus aisées qu'aujourd'hui, la possibilité de déployer les infrastructures de télécommunications à haut débit''. ''Ce n'est en effet qu'à ce prix que les zones rurales, et donc aussi l'agriculture, pourront pleinement profiter de l'apport des nouvelles technologies'', a souligné le président de la République.

AFP : http://fr.news.yahoo.com/001005/5/o8s3.html

Reuters : http://fr.news.yahoo.com/001005/2/o8vi.html

Sony veut faire passer le net par la télévision et la console vidéo
Samedi, 07/10/2000 - 00:00

Le géant japonais de l'électronique grand public Sony a annoncé le lancement jeudi de la première télévision mobile capable de surfer sur l'internet à partir d'un panneau à commandes tactiles. L'appareil équipé d'un écran à cristaux liquides et appelé Airboard est le premier en son genre, a indiqué Mami Imada, porte-parole de Sony. "Il existe des équipements internet et des télévisions mobiles, mais notre produit est le premier à combiner ces fonctions", a-t-elle affirmé. Ce téléviseur numérique sera commercialisé à partir de début décembre au Japon pour un prix d'environ 130.000 yens (1.215 dollars, 1.370 euros). Selon l'un des ingénieurs à l'origine du projet, Satoru Maeda, l'appareil permet aux personnes rétives à l'usage de l'ordinateur de surfer sur l'internet avec la même rapidité et la même facilité qu'ils pianotent sur leur télécommande pour changer de chaîne télévisée. Au Japon, l'expansion des ordinateurs a été freinée par l'aversion de certains usagers pour les claviers alphabétiques, peu compatibles avec une langue japonaise formée essentiellement d'idéogrammes. "La facilité d'usage est l'une des principales caractéristiques de l'appareil", a confirmé Shizuo Takashima, le patron de la division Sony Home Network (groupe Sony). Notamment parce que l'on peut faire apparaître directement sur l'écran, des index pour décider des chaînes à regarder, des fenêtres de sites internet à explorer, des albums de photos à consulter et même un clavier pour écrire ses messages électroniques. L'autre avantage c'est sa mobilité : le terminal est relativement petit avec son écran de 10,4 pouces, pèse 1,5 kg et peut fonctionner dans un rayon de 30 mètres à partir de sa station de base. Il peut aussi être connecté à un lecteur de disques DVD, à un magnétoscope et aux équipements numériques dotés de la carte mémoire Memory Stick (appareil photo, caméra vidéo, etc.). Il est en outre compatible avec toute la gamme des équipements de Sony pouvant se connecter à l'internet, notamment la console de jeux PlayStation 2, l'ordinateur VAIO et le communicateur personnel (personal digital assistant) en cours de développement, permettant des échanges de documents.

AFP :

http://www-old.afp.com/ext/francais/lemonde/med/000928102156.um3oasoa.html

La vidéo à la demande passera-t-elle par les réseaux câblés ou le disque dur de votre téléviseur ?
Samedi, 07/10/2000 - 00:00

Avec l'avènement de la télévision numérique se pose la,grande question de savoir comment nous accéderons à nos émissions et films préférés dans quelques années. Deux modèles techno-économiques s'affrontent pour l'instant, sans qu'il soit possible de les départager. D'une part le modèle représenté par UltimateTV de Microsoft, ReplayTV, et autres TiVo qui mise à terme sur l'enregistrement numérique intégral de toutes vos émissions sur un disque dur. D'autre part il y a le modèle de la vidéo distribuée en temps réel défendu avec non moins de conviction par de grosses compagnies telles que Enron et Intertainer qui sont persuadées que les futures offres de vidéo à la demande passeront par des connexions Internet à bande large. D'une certaine manière ce débat qui agite tout le secteur du multimédia aux USA n'est que le prolongement d'un autre débat vieux de plus de 30 ans qui n'a cessé d'être au coeur du développement de l'informatique et peut se résumer ainsi : Est-il plus efficace de centraliser des données ou de les distribuer parmi les utilisateurs? Commençons par TiVo et son système ilk. Il s'agit d'un magnétoscope numérique qui vous permet de sauvegarder automatiquement jusqu'à 30 heures d'émissions de TV. Vous pouvez également sauter les séquences de publicité en avance rapide, mettre en pause votre émission pour répondre au téléphone ou encore passer au ralenti. Ce dispositif très simple d'utilisation libère le téléspectateur des contraintes de programmation imposées par les réseaux. Mais outre la possibilité de pouvoir regarder ce que vous voulez, quand vous voulez ce système augmente également le choix des programmes. contrairement à la télévision classique qui vous oblige à vous contenter des émissions disponibles pendant le temps où vous êtes devant la télé, ce système vous permet de sélectionner et compiler de manière personnalisée et intelligente les programmes qui vous intéressent, et eux seuls . Alsop et Intertainer sont pour leur part convaincu que le modèle "privatif" défendu par Tivo est condamné à moyen terme par l'évolution technologique des réseaux. John Taplin, Président d'Intertainer, souligne que "dans un délai de cinq ans la majorité des foyers américains disposeront d'un accès internet standard à un mégabit minimum. Il sera alors de télécharger facilement de chez soi, à la demande, émissions et films, à condition toutefois de se contenter d'une qualité VHS dans un premier temps." Mais chez Tivo on souligne l'optimisme exagéré, voire l'irréalisme d' Intertainer en matière de bande passante des réseaux et on souligne que les foyers n'adopteront la vidéo à la demande distribuée qu'avec l'arrivée du très haut débit chez le particulier (100 mégabits et plus) qui seul pourra permettre -pas avant une dizaine d'années- plusieurs applications simultanées à la maison : télécharger un film en haute définition, jouer en ligne et surfer sur le net par exemple.

Brève rédigée par @RT Flash

Ecompagny :

http://www.ecompany.com/articles/web/0,1653,8533,00.html

^ Haut
Avenir
Nanotechnologies et Robotique
Les nanotubes entrent dans l'ère préindustrielle
Samedi, 07/10/2000 - 00:00

Et si le meilleur moyen d'aller dans l'espace, c'était l'ascenseur ! En théorie, il suffirait pour cela d'accrocher à un satellite géostationnaire un simple câble... de 36 000 kilomètres de long. Malheureusement, la théorie trouve ses limites dans la conception de ce « simple » câble. Il n'existe aujourd'hui aucun filin de cette longueur capable de résister ne serait-ce qu'à son propre poids. Sauf ! Sauf si on le tressait à partir de nanotubes de carbone. Ces prodigieuses molécules, cent fois plus solides et six fois plus légères que l'acier, composées de plusieurs milliers d'atomes de carbone, font rêver les scientifiques. Avec les fullerènes, des molécules cousines, en forme de ballon de football, formées de 60 atomes de carbone, elles constituent, après le graphite et le diamant, le troisième état du carbone. Leur découverte date seulement de 1991. Cette année-là, le Japonais Sumio Ijima les a décelées par hasard dans la suie et les poussières de l'enceinte qu'il utilisait, justement, pour fabriquer des fullerènes, révélés six ans plus tôt par l'Anglais Harold Kroto et l'Américain Richard Smalley. Depuis, les laboratoires du monde entier se livrent une folle compétition pour la maîtrise de ce carbone nouveau. Dans cette course, des chercheurs du CNRS de Bordeaux viennent de faire un pas important. Ils ont mis au point une technique qui permet de fabriquer des filaments ou même des rubans de nanotubes, ce qui laisse entrevoir les premières applications industrielles. « Même si l'on n'est pas encore prêt à faire l'ascenseur spatial, à partir du moment où l'on sait fabriquer du fil, on peut le tresser ou encore le mailler pour en faire autre chose. Je pense en particulier à l'élaboration de nouveaux textiles ultrarésistants », explique Philippe Poulain, qui a travaillé, à Bordeaux, sur la mise au point de ces fibres aux propriétés physiques extraordinaires. Dès lors, les idées les plus délirantes prennent consistance. Chez le géant américain Honeywell, on envisage d'utiliser les nanotubes pour réaliser un muscle artificiel. Stimulés par un courant, ils ont en effet la propriété de s'allonger ou de se contracter comme un vrai muscle. A ceci près que, dans un nanotube, les liaisons qui unissent tous les atomes de carbone entre eux sont si puissantes qu'un tel muscle artificiel développerait une force dix fois supérieure à un muscle humain. Et, d'après Patrick Bernier, du CNRS de Montpellier, qui collabore à la fois avec l'équipe bordelaise et Honeywell, « il serait bien plus résistant ! ». En plus, cette propriété « électromécanique » est réversible. Si on les étire, mécaniquement, les nanotubes produisent des électrons, donc de l'électricité. Les « grands enfants » de Honeywell ont imaginé d'utiliser cette dernière propriété pour transformer l'énergie du vent en électricité : à la place des éoliennes, de grands drapeaux tissés en fibres de nanotubes se déformeraient et produiraient du courant sous l'effet du vent. A plus court terme, les industriels ont dans leurs cartons quelques développements prêts à l'emploi. Exemple : les écrans extraplats pour l'affichage. Aujourd'hui, les écrans à plasma occupent ce marché. Mais il s'agit d'une technologie très élaborée et coûteuse. Les nanotubes sont parfaitement indiqués pour ce type d'écran. Mais, faute d'applications à grande échelle, la synthèse des nanotubes ne bénéficie pas de la réduction des coûts liée à la production industrielle. Un gramme de nanotubes revient encore à 6 000 francs ! Pourtant, « le coréen Samsung doit commercialiser son premier écran à nanotubes d'ici à l'année prochaine et l'américain Motorola en serait au même niveau », assure Patrick Bernier.

Le Point : http://www.lepoint.fr/data/PNT1463/6304701P.html

Des plastiques solides et résistants à la chaleur
Samedi, 07/10/2000 - 00:00

Les plastiques apportent dans l'industrie un gain indéniable de poids, mais on leur reproche toujours leur fragilité en comportement mécanique malgré des progrès en comportement thermique. Des scientifiques de l'Ohio State University viennent de breveter une méthode permettant de mélanger du plastique avec du silicium pour créer un matériau trois a quatre fois plus résistant que le plastique seul. De telles pièces exploitées dans des moteurs de voitures ou d'avions permettraient d'obtenir des véhicules plus légers donc plus économiques. Le nouveau matériau composite est plus résistant car il répartit la force d'un impact sur les nombreuses petites particules de silicium. John Lanutti, professeur associe de sciences des matériaux a Ohio State University, avait à la base développée cette méthode avec ses collègues pour des applications dentaires. Apres des premiers succès modérés, ils ont essayé la technique avec un différent type de plastique pour un membre de l'Ohio Aerospace Institute, BFGoodrich Co. Les particules de silicium sont d'une taille de l'ordre de 50 nm et contiennent de petits pores nanométriques. La méthode est unique car les chercheurs forcent le plastique a remplir ces pores, créant un lien solide entre les atomes de silicium et le plastique sur une grande surface. Jusqu'alors les plastiques avaient été renforcés par des fibres mais bien que résistant alors mieux a la chaleur ils restaient fragiles. Ce nouveau composite présente la même résistance a la chaleur mais par contre est quatre a cinq fois plus résistant aux impacts.

Lettre des nouveaux matériaux : http://www.france-science.org

^ Haut
Matière
Matière et Energie
Les japonais franchissent une étape importante vers le câble supraconducteur industriel
Samedi, 07/10/2000 - 00:00

Furukawa Electric Co. et Tokyo Electric Power Co (Tepco) ont conjointement développé un câble de transport de courant qui serait beaucoup plus efficace que tout ce qui existe actuellement. Ce câble utilise un matériau a base de bismuth, supraconducteur a haute température. Il est constitue de 3 faisceaux de 55 fils supraconducteurs. Chaque faisceau est emballe dans un film en argent, puis les trois faisceaux sont regroupes dans une gaine de 9 cm de diamètre remplie d'azote liquide qui assure le refroidissement. Enfin, une gaine 13 cm de diamètre assure le vide autour. Bien que par définition, les matériaux supraconducteurs ont une résistance électrique nulle, il y a tout de même des pertes dues au champ magnétique génère par un courant alternatif qui traverse un fil. Cependant, les deux compagnies ont réussi a réduire les pertes de 30 % par rapport a d'autres lignes supraconductrices, et de 80 % par rapport a des lignes classiques. Pour cela, ils torsadent les fils, et utilisent une nouvelle méthode pour emballer les torons dans le film d'argent. De plus, ils ont réussi a porter la distance de transmission de 100 m a 1 km. Bien que cette ligne nécessite d'être refroidie pour devenir supraconductrice, ce qui la rend beaucoup plus chère, elle supporte un courant plus de 100 fois plus grand. Elle serait donc idéale pour les réseaux souterrains des zones urbaines.

ADIT : http://www.adit.fr

Une pile moins chaude
Samedi, 07/10/2000 - 00:00

Des chercheurs japonais ont fabriqué une pile à combustible à oxyde solide qui fonctionne à500 °C seulement, contre plus de 800 °C pour les dispositifs disponibles auparavant. C'est la plus basse température obtenue pour une pile alimentée directement par des hydrocarbures. L'équipe japonaise a repris, avec de nouveaux matériaux, un concept ancien : la pile à chambre unique. Contrairement aux autres modèles de piles, le combustible (ici, de l'éthane) est mélangé avec de l'oxygène, dans l'unique compartiment, qui contient aussi deux électrodes. Ce mélange permet l'oxydation partielle de l'éthane, qui produit de l'hydrogène et du monoxyde de carbone. La réaction simultanée de ces deux molécules sur l'une des électrodes, l'anode, et de l'oxygène sur l'autre électrode, la cathode, produit du courant électrique. Entre les deux électrodes, une fine couche de céramique (un oxyde de cérium qui contient aussi un peu de samarium) laisse passer des ions qui ferment le circuit. Les deux électrodes sont en contact avec tous les réactifs : les matériaux ont été choisis pour qu'elles soient très sélectives vis-à-vis des différentes réactions. La cathode est en oxyde de cobalt, de strontium et de samarium, tandis que l'anode est un oxyde de cérium, de samarium et de nickel.

Recherche : http://www.larecherche.fr/VIEW/334/03340103.html

Des stations orbitales d'énergie solaire en 2050
Samedi, 07/10/2000 - 00:00

L'industrie photovoltaique est sur le point de connaitre enfin son véritable lancement commercial à grande échelle. Le marché global a dépassé le stade du milliard de dollars en 1999 et, comme le souligne un rapport de Allied Business Intelligence, «il devrait être 10 fois plus important en 2010», relevant que le 21ieme siècle sera connu sous le nom de «siècle solaire». L'industrie a finalement réussi a raisonnablement baisser ses prix et à suffisamment augmenter ses capacités de production de telle sorte que le prix ne représente plus un frein majeur pour les clients potentiels. La capacité mondiale de production devrait cependant plafonner a 300 mégawatts cette année et à 800 megawatts en 2005 alors que la demande devrait atteindre au mème moment les 900 mégawatts. En 2010 la demande pourrait mème excéeder les 5 gigawatts. Le silicium monocristallin est toujours la technologie dominante mais le silicium polycristallin et les films minces amorphes commencent a faire leur apparition sur le marche. Une petite partie de la production est déjà issue des technologies au tellure de cadmium et au diseleniure de cuivre-indium. Selon Allied deux autres technologies pourraient rendre l'énergie solaire directement compétitive par rapport a celle du réseau électrique traditionnel : les matériaux photovoltaiques a base de dioxyde de titane ou de polymère. La solution au manque de capacité pourrait bien venir du ciel. Le gouvernement americain étudie en effet a nouveau la possibilité de créer une industrie de l'énergie solaire spatiale. Le concept de Solar Power Satellites (SPS) en orbite géostationnaire agissant comme centrale énergétique à grande échelle n'est pas nouveau, datant du scientifique Peter Glaser en 1968. La NASA et l'industrie ont commence au début des années 70 a examiner cette idee et la crise énergétique du moment a convaincu le Department of Energy de lancer une étude majeure sur les SPS entre 1976 et 1980. L'initiative a aboutit en une proposition d'infrastructure spatiale dans laquelle 60 satellites fournissaient 300 gigawatts de puissance. Les couts vertigineux associes a l'architecture et la fin de la crise énergétique ont finalement eu raison de ce projet. La NASA a cependant récemment revu ce projet en proposant une Fresh Look Study et son programme Space Solar Pozer Exploratory Research and Technology (SERT). Ces études estiment que le potentiel des SPS est désormais beaucoup plus important qu'en 1980, même si le travail restant a accomplir est gigantesque. SERT a produit un plan permettant une énergie solaire d'origine spatiale exploitable dans les six a sept ans, avec de préalables démonstrations concernant par exemple des transmissions d'énergie sans câble. Le plan prévoit ensuite la mise au point d'ici 2025 a 2035 d'un prototype à échelle réelle produisant un a deux mégawatts. En 2050 et au-delà, un système complet produisant 10 gigawatts est envisageable. Un tel projet pourrait être soutenu par le gouvernement mais les difficultés techniques sont nombreuses et le pari financier risque.

www.france-science.org : http://www.france-science.org

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le climat s'emballe-t-il ?
Samedi, 07/10/2000 - 00:00

Inondations meurtrières, forêts dévastées, la France a essuyé en 1999 les effets d'une série d'événements météorologiques de nature exceptionnelle. En novembre, un orage d'une rare violence s'est abattu sur le midi de la France : en deux jours certaines régions, comme le département de l'Aude, ont reçu l'équivalent des précipitations d'une année moyenne. Les deux tempêtes qui, à la fin décembre, ont coup sur coup traversé l'Hexagone et une partie de l'Europe ont généré des vents dépassant les 140 km/h sur la moitié du pays. Plus que les pointes de 198 km/h enregistrées sur l'île d'Oléron, c'est l'étendue du territoire touché qui fait de cette perturbation un événement rare. Mais les phénomènes climatiques peu habituels et aux conséquences souvent dramatiques ne sont pas l'apanage de la France. Au cours des dernières années, l'ensemble de la planète en a connu plusieurs. Le cyclone Mitch ou plus récemment le cyclone Eline ont été exceptionnels, non pas en termes d'intensité mais en termes de trajectoire : le premier a secoué l'Amérique centrale trois ou quatre jours durant, fait très rare, et le deuxième, né dans l'océan Indien, a atteint le Mozambique. Dans le contexte du réchauffement climatique, ces faits ont une résonance toute particulière et suscitent deux types d'interrogations : primo , assiste-t-on à l'accélération du rythme des événements climatiques extrêmes ? Et secundo faut-il s'attendre à un tel changement du fait d'un impact des activités humaines sur le climat ? Apprécier la variabilité de ces phénomènes, et a fortiori les changements de cette variabilité, requiert l'analyse de séries de données les plus longues et les plus homogènes possibles. Les transformations au cours du temps des techniques de mesures, le déplacement des stations d'observation, ou encore la densification progressive du réseau d'observation compliquent en effet la tâche. Pour les régions septentrionales des bassins Atlantique et Pacifique, on bénéficie de reconnaissances aériennes : il est donc possible de reconstituer un enregistrement pratiquement complet de l'occurrence des cyclones tropicaux depuis le milieu des années 1940. Mais pour les autres régions océaniques, seules les données satellitaires acquises depuis une trentaine d'années conduisent à une reconstruction fiable de la fréquence des cyclones. Une équipe de chercheurs scandinaves, menée par Hans Alexandersson de l'Institut de météorologie et d'hydrologie suédoise, a ainsi reconstitué des séries locales de vent géostrophique au nord-ouest de l'Europe sur une centaine d'années. Ils ont utilisé les mesures de pressions au niveau de la mer de triplets de stations météorologiques éloignées les unes des autres de quelques centaines de kilomètres(1). L'analyse des résultats montre une augmentation des valeurs de pointe de vent géostrophique à partir du milieu des années 1960 . Mais si l'on regarde au-delà elles n'ont cessé de diminuer, presque régulièrement, depuis le début de la période de mesure. Et de fait les valeurs actuelles sont comparables à celles de la fin du XIXe siècle. Bien que limitées aux régions côtières et ne permettant qu'une évaluation indirecte de la force des vents réels, ces observations semblent donc indiquer une variabilité multidécennale - de l'ordre de cinquante ans - de l'intensité ou de la fréquence des tempêtes les plus fortes. L'essentiel de cette variabilité est probablement d'origine naturelle, et l'importance des fluctuations rend très difficile la détection d'une éventuelle tendance attribuable aux activités humaines au cours du siècle. La variabilité multidécennale des tempêtes comme des cyclones et les limitations des séries de données existantes ne permettent donc pas à ce jour de conclure à une tendance significative sur le siècle de leur fréquence ou de leur intensité. Il est bien difficile alors d'établir une quelconque relation avec les modifications de la composition chimique de l'atmosphère dues aux émissions de gaz à effet de serre par les activités humaines. Le principal obstacle à l'étude de ces extrêmes météorologiques est l'insuffisance des capacités de calcul, qui limite la résolution des modèles. Outre la trop grossière description du phénomène, cette limitation oblige aussi à faire des hypothèses statistiques dont on ne sait si elles sont valides dans les conditions d'un climat modifié par les émissions de gaz à effet de serre. De plus, même dans le cas des meilleures résolutions actuelles, les effets des processus de très petites dimensions, comme la convection orageuse, qui sont pris en compte de manière différente d'un modèle à l'autre, influencent certainement les résultats. Comment passer outre ces handicaps ? Aujourd'hui, la communauté internationale s'oriente vers une confrontation systématique des résultats d'ensemble de simulations différentes sur plusieurs décennies. Et s'il faut se risquer au jeu des pronostics on peut espérer que dans dix ans les avancées seront suffisantes pour enfin connaître les modifications à attendre des émissions de gaz à effet de serre. En revanche, la détection d'une tendance sûre dans les données de réseaux d'observation exigera plus de temps.

La Recherche :

http://www.larecherche.fr/VIEW/335/03350461.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
L'âge maximal de la mort continue de reculer
Samedi, 07/10/2000 - 00:00

L'âge maximal de la mort continue de reculer depuis plus d'un siècle chez l'espèce humaine, une évolution toujours en cours et qui infirmerait l'idée d'une limite biologique, selon les conclusions d'une étude parue jeudi dans la revue Science. Une équipe de chercheurs, dirigée par John Wilmoth, professeur de démographie à l'Université de Berkeley, près de San Francisco (Californie), a étudié les registres de décès de la population suédoise, considérés comme les plus précis au monde. Selon ses conclusions, alors que dans les années 1860, l'âge des personnes les plus vieilles constaté lors de leur décès atteignait en moyenne 101 ans, il a atteint 105 ans dans les années 1960, puis 108 dans les années 1990. Bien que des données fiables telles que ceux enregistrées en Suède ne soient pas disponibles dans d'autres pays, le Professeur Wilmoth croit que les résultats de l'analyse de son équipe sont applicables aux populations dans d'autres nations industrialisées. Jusqu'à présent, une majorité de scientifiques considéraient que la vie humaine était limitée sur le plan biologique à une durée maximale de 120 ans. "Nous avons montré que la durée de la vie change. Ce n'est pas une constante biologique", affirme John Wilmoth, qui estime que les futures générations pourraient bien vivre au-delà de cette limite. Cette tendance à l'accroissement de l'âge maximum connaît une accélération depuis les années 1970, note par ailleurs le chercheur. "Cela correspond étroitement à des percées dans le domaine médical, et notamment dans la compréhension des maladies cardiaques et des attaques cérébrales", souligne le chercheur. La cause principale de l'accélération est attribuable, selon lui, à une survie accrue une fois passé l'âge de 70 ans. Une grande partie de la recherche sur le vieillissement vise à une meilleure compréhension des processus biologiques qui déclenchent la détérioration progressive des cellules qui composent notre organisme. Mais les causes du vieillissement apparaissent de plus en plus nombreuses et complexes et les chercheurs sont de moins en moins certains qu'il existe une limite biologique et génétique infranchissable à la durée de vie dans l'espèce humaine. Quand Jeanne Calment est morte en 1997 à 122 ans, elle était considérée comme la doyenne de l'Humanité mais il est probable qu'il existe de par le monde, dans un des nombreux pays où l'état civil est approximatif ou défaillant, d'autres personnes ayant un âge réel supérieur à 122 ans.

Brève rédigée par @RT Flash

BBC :

http://news.bbc.co.uk/hi/english/sci/tech/newsid_946000/946843.stm

Généticiens et biologistes sur la piste de l'immortalité
Samedi, 07/10/2000 - 00:00

Pourquoi vieillit-on et meurt-on ? Pour quelle raison ne restons-nous pas éternellement jeunes et fringants ? La théorie de l'évolution apporte plusieurs explications à ces questions. Elles s'appuient, au départ, sur la séparation entre le germen, ou lignée germinale - l'ensemble des cellules sexuelles - qui restent saines et en parfait état de marche ; et le soma - le corps qui abrite ces mêmes cellules reproductrices. Les organismes vivants chez lesquels il n'existe pas de différenciation entre le germen et le soma - l'amibe, par exemple - se reproduisent par simple duplication. Ils sont, de ce fait, « immortels ». Pour les autres, et notamment l'homme, on peut dire qu'une fois fournie la part d'effort pour la reproduction, le corps va lentement décliner jusqu'à la mort. De manière plus approfondie, trois théories génétiques contribuent à expliquer le mécanisme du vieillissement et de la mort. La première est l'accumulation des mutations de la lignée germinale qui apparaissent avec l'âge, quand la plupart des autres organismes ont péri par accident ou prédation (le lot commun des animaux sauvages) et que la sélection naturelle n'est pas suffisamment forte pour s'opposer à ces mutations. La seconde hypothèse, liée à la première, est que les gènes qui ont des effets délétères dans le vieil âge sont conservés au sein d'une population en raison des avantages qu'ils procurent dans la jeunesse. Ce compromis entre pertes et profits est lié à la troisième théorie, qui veut que les réserves d'énergie sont rares, et doivent être réparties entre survie et reproduction. C'est ainsi que 90 % des souris, par exemple, meurent au cours de leur première année. L'investissement en mécanismes de survie au-delà de cet âge ne profitant qu'à un très petit nombre d'individus, la sélection naturelle des caractères qui prolongent la vie sera relativement faible. D'une manière générale, l'organisme consacrera son énergie à la reproduction aux dépens de sa propre conservation. Les expériences de laboratoire montrent que les animaux maintenus en captivité mais privés de la reproduction ont tendance à vivre plus longtemps. Rien n'explique, en revanche, les énormes disparités dans la durée de vie des organismes. Votre hamster favori ne vivra guère plus de deux ans, même confié aux soins du meilleur vétérinaire et mis à l'abri de votre chat. Ce dernier vit dix fois plus longtemps que le plus vieux des hamsters ; mais les chats sont déjà décrépits quand les humains sortent à peine de l'adolescence. Et l'homme dépasse rarement le siècle, qui correspond à la fleur de l'âge pour les tortues géantes ou à la prime jeunesse pour les séquoias. D'où viennent de telles différences ? Pourquoi n'y a-t-il pas de hamsters centenaires ? On sait depuis longtemps que les animaux au métabolisme rapide ont souvent une durée de vie brève. Cette hypothèse du « qui vit vite meurt jeune » est vérifiée d'une manière très générale, mais elle ne résiste pas à un examen approfondi. Ainsi, alors que la chauve-souris et la souris possèdent des métabolismes à peu près identiques, la première a une durée de vie dix fois supérieure à la seconde. Beaucoup de primates et d'oiseaux ont un métabolisme plus rapide que leur longévité ne le laisserait penser. C'est notamment le cas de l'homme - un des animaux qui vit le plus longtemps - ou du perroquet. Le métabolisme donne, néanmoins, une indication de taille. Il sécrète des sous-produits extrêmement réactifs, les ROS (Reactive Oxygen Species, ou, en français, dérivés actifs de l'oxygène). Les ROS sont extrêmement dangereux pour les cellules, les tissus et l'ADN. Les preuves sont de plus en plus nombreuses de leur implication dans les manifestations physiques attribuées à l'âge. On sait aussi que leur production est fonction du rythme du métabolisme. Le lien entre ROS et vieillissement laisse supposer que les antioxydants - substances qui protègent contre les ROS - pourraient être utilisés pour retarder les effets de l'âge. Mais le problème n'est pas si simple. Les ROS jouent peut-être aussi un rôle bénéfique. Cela semble le cas de l'anion superoxyde, dont les globules blancs se servent pour lutter contre les agents infectieux. Un autre ROS - le monoxyde d'azote (NO) - intervient dans la régulation du tonus des muscles lisses (et donc de la tension artérielle) ainsi que dans la neurotransmission. Les ROS pourraient même participer au réglage des rythmes du métabolisme, établissant un nouveau lien entre l'hypothèse du qui-vit-vite-meurt-jeune et l'implication directe des ROS dans le vieillissement. Il existe, d'autre part, des mécanismes qui réparent les dommages causés par les ROS. Mais ces dommages peuvent aussi, paradoxalement, présenter des avantages. Ils font partie d'un phénomène connu sous le nom de « stress oxydatif ». La manière dont nous supportons ce stress dépend d'un subtil équilibre entre l'action des ROS et la réponse que notre corps y apporte. Il semble que le vieillissement soit moins lié aux ROS qu'à une aptitude réduite de l'organisme à réagir au stress oxydatif. S'il est fatal à hautes doses, le stress oxydatif peut, en quantité réduite, donner un coup de fouet, stimuler notre biochimie et l'amener à mieux répondre aux périodes de stress important. On a pu trouver une multitude de gènes et de protéines qui lient l'allongement de la vie à l'aptitude à résister au stress oxydatif. Chez le ver de laboratoire Cænorhabditis elegans, notamment. Mais les vers sont très loin des humains. Et, jusqu'à l'année dernière, rares étaient les études relatives aux mutations génétiques de l'allongement de la vie chez les mammifères. Dans un rapport publié par Nature en 1999, Pier Giuseppe Pelicci et son équipe de l'Institut européen d'oncologie de Milan ont montré néanmoins que les souris auxquelles il manque une certaine protéine résistent au stress oxydatif et vivent plus longtemps que les autres (Le Monde du 19 novembre 1999). Cette protéine, qui porte le nom de p66shc, est présente dans la voie biochimique qu'emprunte la réplique à l'action des ROS. Les chercheurs estiment aujourd'hui que les ROS, le stress oxydatif et la réaction biochimique à ce stress sont des éléments-clés de la longévité naturelle ou prolongée. Mais il y en a d'autres, et beaucoup de questions restent posées, dont celle de savoir dans quelle mesure toutes ces découvertes sont applicables à l'être humain. A ce propos, il convient peut-être de rappeler que l'espérance de vie de l'homme a considérablement augmenté en l'espace d'un siècle. Depuis 1900, elle est passée de quarante-sept à soixante-seize ans aux Etats-Unis, ce qui représente une augmentation de 62 %. Beaucoup plus que ce que l'on obtient en laboratoire sur la mouche ou le ver. La raison n'en est pas une mutation génétique spécifique, mais l'accès des populations à une alimentation plus saine, à l'eau potable et aux soins de santé. Hélas, tout le monde n'a pas cette chance. Et, avant de s'efforcer de battre le record de longévité de cent vingt-deux ans détenu par Jeanne Calment, mieux vaudrait faire en sorte que l'espérance de vie des habitants des pays développés soit généralisée à l'ensemble de la population mondiale.

Le Monde :

http://www.lemonde.fr/article/0,2320,seq-2077-100966-QUO,00.html

Un médicament retarde l'apparition de la sclérose en plaques
Samedi, 07/10/2000 - 00:00

Pour la première fois une étude scientifique a démontre que l'interféron Béta 1A, médicament déjà commercialisé en France pour lutter contre la sclérose en plaques, permet non seulement de traiter la maladie déjà en place mais aussi de retarder son arrivée. Selon une étude publiée jeudi dans le New England Journal of Medicine, cet interféron - mis au point et commercialisé sous le nom d'Avonex par la firme Biogen - réduit de 44 % le taux de développement de la maladie. Il a également "un impact significatif" sur le développement des lésions cérébrales et autres anomalies décelées lors d'examens par résonnance magnétique nucléaire (IRM). Ainsi, l'augmentation du volume des lésions cérébrales observées a été de 91 % inférieure à celle observée dans le groupe sous placebo, selon les auteurs de l'étude. Les résultats de cet essai ont été jugés si positifs que le comité de surveillance a décidé de l'interrompre et de traiter les patients sous placebo. Jusqu'à présent, il n'existait aucune recommandation de traitement pour ces malades, considérés comme "à haut risque" mais n'ayant pas encore développé la maladie. La sclérose en plaques est la plus commune des maladies neurologiques parmi les adultes jeunes. Elle est liée à la destruction de la myéline, la gaine qui protège les fibres nerveuses du système nerveux central (axones) qui, normalement, facilite le passage de l'influx nerveux. Fatigue, torpeur, problèmes de vision, troubles de l'élocution, mauvaise coordination, perte de la mémoire récente, dépression et dysfonctionnements intestinaux et urinaires sont les principaux symptômes de cette affection qui peut conduire à des paralysies partielles ou totales. La sclérose en plaques touche 50.000 personnes en France et 350.000 aux Etats-Unis, des femmes dans deux tiers des cas. Elle débute en général vers la trentaine. Elle est deux fois plus fréquente au Nord qu'au Sud de l'Europe.

AFP : http://www-old.afp.com/ext/francais/lemonde/sci/

NEJM :

http://www.nejm.org/content/2000/0343/0013/0898.asp

Une nouvelle technique pour traiter les varices
Samedi, 07/10/2000 - 00:00

Douze millions de Français souffrent de varices, les femmes deux fois plus que les hommes. Chaque année, 200 000 interventions sont réalisées, pour un coût de 10 milliards de francs par an. Jusqu'à présent, la chirurgie des varices restait relativement traumatisante, avec de longs arrêts maladie. Depuis peu, un nouveau procédé américain baptisé « Closure » est disponible en France. Il permet d'éviter les douleurs postopératoires et autorise une reprise de l'activité très rapidement. Les varices sont tout simplement des veines superficielles dilatées de la jambe. Pour que le sang remonte du bas du corps vers le coeur, il y a le long des veines des valvules, sortes de clapets qui empêchent le sang de redescendre. Lorsque ces valvules sont endommagées, un afflux sanguin surcharge les veines et provoque une varice. Souvent héréditaire, la maladie veineuse est plus fréquente chez les femmes (à cause des hormones), chez les personnes âgées, à cause du vieillissement des veines, chez les hommes de race blanche, chez les travailleurs fréquemment en position debout ou chez les obèses. Le nouveau système est une sorte de combinaison des deux précédents. Il s'agit en fait de « fermer » les grosses veines à l'intérieur de la jambe, sans les enlever. Pour cela, l'angiologue ou le chirurgien fait une petite incision de quelques millimètres derrière le genou ou à l'aine. Il introduitdans laveine une sonde au bout de laquelle des électrodes émettent des ondes chauffantes à 85 degrés. Sous l'effet de la chaleur, les paroisde la veine se collent, la varice se rétrécit et « meurt » à l'intérieur de la jambe. Une séance dure en moyenne une heure et peut être réalisée sous anesthésie locale. Des cicatrices quasi invisibles, pas d'hématome, très peu de douleur,l'avantage de cette technique est évident. Au lendemain de l'intervention, le patient peut reprendre son travail.

Parisien : http://www.leparisien.fr/

La protéine qui bloque le cancer colorectal
Samedi, 07/10/2000 - 00:00

Une équipe canadienne a mis en lumière le rôle majeur que cette protéine semble jouer dans l'apparition et le développement de certaines lignées tumorales. Découverte fortuite au demeurant, décrite dans une des toutes dernières livraisons de la très sérieuse revue Nature. L'équipe du Pr Josef Penninger, de l'Institut de Recherche contre le Cancer de l'Ontario à Toronto, avait entrepris des recherches sur une lignée de souris génétiquement modifiées pour être dépourvues de toute trace de p110g. L'objectif était de déterminer l'influence de cette protéine sur le comportement des globules blancs au sein du système immunitaire. En fait, l'objectif a été manqué. Car de manière inexplicable, toutes les souris sont tombées malades. Elles ont dépéri et toutes sont mortes, rapidement. A l'examen, ces souris carencées en p110g se sont avéré atteintes par une forme invasive de cancer colorectal. Ce fut un vrai choc. Car précisément, cette protéine était jusque là considérée comme... un cancérogène potentiel ! Par la suite, les travaux de Penninger et de ses collaborateurs ont permis de mieux comprendre les relations entre cette protéine et le cancer colo-rectal. Ils ont démontré que son administration permettait de mettre un terme au développement tumoral chez la souris. Plus intéressant encore : ils ont obtenu le même résultat, mais en culture de laboratoire seulement, sur des lignées de cellules de cancer colo-rectal humain. Pour les auteurs, c'est un réel espoir de développer des outils thérapeutiques contre cette forme de cancers. Lesquels constituent les cancers digestifs humains les plus fréquents, pour les deux sexes réunis.

Brève rédigée par @RT Flash

Nature 24-08-2000 :

http://www.stockton-press.co.uk/onc/contents2000.html

Les globines s'installent dans le cerveau
Samedi, 07/10/2000 - 00:00

La famille des globines, dont fait partie la très célèbre hémoglobine, vient de s'enrichir d'un troisième larron : la neuroglobine. Exprimée dans le cerveau, cette protéine faciliterait le transport de l'oxygène dans les neurones. Cette découverte, rapportée dans l'hebdomadaire Nature, est le fruit du travail de quatre scientifiques allemands. Les globines représentent une classe de protéines très étudiée. Constituées de porphyrines - pigments naturels formés de carbone et d'azote liés à un atome de fer -, elles sont capables de capturer l'oxygène de façon réversible. Autant dire qu'elles revêtent une grande importance dans les systèmes respiratoires de bon nombre d'espèces vivantes. Jusqu'à maintenant, les scientifiques en connaissaient deux sortes. L'hémoglobine est l'élément principal des globules rouges. Elle transporte et emmagasine l'oxygène dans le sang et participe à la détoxication de l'organisme. La myoglobine, elle, facilite la diffusion de l'oxygène dans les cellules musculaires. En analysant plusieurs bases de données d'ADN humain et murin, Thorsten Burmester, Bettina Weich, Sigrid Reinhardt et Thomas Hankeln de l'université Johannes Gutenberg (Mainz) en ont trouvé une troisième. Ils l'ont rapidement baptisée neuroglobine. Produite principalement dans le cerveau, notamment dans le lobe frontal, le thalamus et le noyau sous-thalamique, elle présente, elle aussi, une très forte affinité avec l'oxygène. "

Infoscience : [http://www.infoscience.fr/">Ces] propriétés sont comparables à celles de la myoglobine des vertébrés, suggérant une fonction similaire dans le cerveau, indiquent les auteurs. L'approvisionnement de ce dernier en oxygène est essentiel : bien qu'il ne représente que 2 % du poids du corps, il consomme, au repos, près de 20 % de l'oxygène disponible." Même si sa concentration cellulaire s'avère assez faible, la neuroglobine aiderait ainsi le transport de l'oxygène du sang vers les tissus neuronaux. Et pourrait aussi avoir un effet protecteur. Les chercheurs remarquent en effet qu'Il suffit d'un peu plus de douze minutes de manque d'oxygène pour provoquer des dégâts moyens dans l'hippocampe. Le même degré de dommage survient, dans le cortex, au bout de dix-neuf minutes. Or, l'expression de la neuroglobine se révèle quatre fois moindre dans l'hippocampe que dans le cortex. Les médecins tiennent peut-être là le premier jalon des futurs traitements préventifs de l'ischémie.

Infoscience : [http://www.infoscience.fr/

Sous le pétrole, des algues médicinales
Samedi, 07/10/2000 - 00:00

On ne trouve pas que du pétrole sous les stations pétrolières off-shore. Des chercheurs en biologie marine de l'université de Santa Barbara en Californie, y ont également trouvé des micro-organismes d'un intérêt particulier pour la médecine. Ils pourraient en effet soigner certains cancers, mais aussi des rhumes et un certain nombre d'autres maladies. Mettant de grands espoirs dans ce nouveau champ de la médecine, le gouvernement américain vient d'allouer un million de dollars aux scientifiques. Les invertébrés pourraient avoir une action anti-cancéreuse. Le squelette du corail marin sera utilisé pour résorber les fractures osseuses. L'arthrite et la leucémie devront également trouver des remèdes issus de la mer. Pourquoi les plates-formes pétrolières ? Selon les scientifiques californiens, elles constituent des laboratoires d'expérimentation exceptionnels. Plongeant dans les profondeurs de l'eau, leurs fondations sont autant de nouveaux environnement accueillant les algues et d'autres invertébrés marins. Il est ainsi possible de les prélever et de les étudier sans détériorer leurs habitats naturels, à savoir les coraux. Huit stations off-shore se transformeront, d'ici quelques mois, en laboratoires de recherche.

Besok : http://www.besok.com/

Un bébé fabriqué pour sauver sa soeur
Samedi, 07/10/2000 - 00:00

Des médecins américains ont créé un bébé-éprouvette spécialement sélectionné pour sauver la vie de sa soeur aînée. Le nouveau-né, dont certaines cellules ont été utilisées pour soigner sa soeur gravement malade, se porte bien. Mais plusieurs spécialistes de l'éthique se demandent s'il s'agit vraiment d'un enfant désiré, ou d'une forme élaborée de produit pharmaceutique. Et ce d'autant plus que 14 embryons, dont plusieurs parfaitement sains, ont été sacrifiés pour obtenir ce bébé controversé. L'histoire commence avec la petite Molly Nash, six ans. Elle est atteinte de l'anémie de Fanconi, une maladie héréditaire rare qui provoque un arrêt graduel de la production de moelle. Les enfants atteints saignent de manière abondante et on de graves problèmes immunitaires. Ils meurent invariablement avant l'âge de huit ou neuf ans. La seule manière de les sauver : une greffe prélevée sur un donneur compatible dans la famille proche. Malheureusement, ses parents, Lisa et Jack Nash, ne remplissaient pas les conditions requises. D'où l'idée de faire un nouvel enfant et de faire en sorte qu'il soit bel et bien un bon donneur pour sauver le petite Molly. En prélevant des ovules et en les fertilisant en éprouvette, les médecins ont obtenu des embryons. Avant de les implanter dans l'utérus de Lisa Nash, ceux-ci subissaient systématiquement un test génétique. Dans un premier temps, on éliminait tous les porteurs du gène de la maladie. Dans un second temps, on éliminait des embryons sains, mais qui ne feraient pas des donneurs compatibles. Ce n'est qu'au 15e essai, après quatre séances de prélèvement d'ovules, que fut obtenu l'enfant voulu, né en août et baptisé Adam. À sa naissance, des cellules de son cordon ombilical ont été prélevées, puis mises en culture et transplantées dans sa soeur aînée un mois plus tard. Les chances de survie de la petite Molly, qui étaient nulles, sont désormais de 85 à 90 %, croient les médecins du Fairview-University Medical Center de Minneapolis.

Cybersciences :

http://www.cybersciences.com/cyber/3.0/N2058.asp

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
La télé numérique s'embarque en voiture
Samedi, 07/10/2000 - 00:00

A l'occasion du Mondial de l'Automobile, à Paris, Sagem démontre une voiture capable de recevoir, par voie hertzienne terrestre, la télévision numérique et des services interactifs. La démonstration est réalisée en association avec TPS, éditeur et diffuseur par satellite d'un bouquet de chaînes numériques. La voiture en question est une Peugeot 406, équipée d'une antenne de réception sur le toit, de deux écrans LCD couleurs de 7 pouces et d'un décodeur multimédia numérique placé dans le coffre. Elle peut circuler en périphérie de Paris tout en recevant les programmes vidéo depuis l'émetteur de TPS à Issy-les-Moulineaux. Les passagers en arrière du véhicule peuvent se divertir en regardant la télé ou en accédant à des services vidéo interactifs. Cette technologie intéresse Renault et Peugeot qui l'envisagent pour le haut de gamme et les voitures familiales. Selon Sagem, le prototype, présenté au salon, devrait devenir un produit commercial dans six mois. Mais pour le moment, la télévision numérique par voie hertzienne terrestre est au stade expérimental dans la région parisienne et en Bretagne.

Industries&Techniques :

http://www.industries-techniques.com/site/quotidien/

Automobile : de plus en plus propre et de moins en moins gourmande
Samedi, 07/10/2000 - 00:00

Les membres de l'Association des Constructeurs Européens d'Automobiles (ACEA) se sont engagés pour 2008 à limiter leurs émissions de Co2 de 25% par rapport à 1995. Cela équivaut, selon PSA, à une consommation moyenne de 5,3 litres/100 pour un véhicule diesel et 5,9 litres pour un véhicule essence. Dans l'immédiat, les constructeurs misent beaucoup sur les nouvelles générations de moteurs à injection directe, qui équipent déjà de nombreuses voitures diesel et commencent à apparaître pour l'essence. Cette technologie réduit la consommation de 20% par rapport à un moteur diesel classique, et de 40% par rapport à un moteur essence, explique PSA. Après l'échec des véhicules électriques, où ils avaient été les pionniers, les constructeurs français manifestent un enthousiasme modéré pour les technologies alternatives dites "propres". Alors que Toyota est le premier à commercialiser en Europe un véhicule "hybride" (la Prius, qui fonctionne à l'essence et à l'électricité), le président de Renault, Louis Schweitzer, prévoit que ces véhicules ne seront "pas compétitifs avant trois ou quatre ans". Ils coûtent en effet sensiblement plus cher qu'un modèle classique comparable et ne bénéficient pas des aides d'Etat accordées aux véhicules électriques. Citroën présente un prototype de véhicule hybride, la Xsara Dynactive, mais son directeur général, Claude Satinet, estime que les hybrides ne sont "pas économiquement rentables aujourd'hui". L'électrique n'a pas été abandonné. Renault lancera l'an prochain une Kangoo électrique dont l'autonomie est prolongée par un petit moteur thermique essence, qui lui permettra de parcourir 200-300 km. Ford prévoit de sortir en 2001 des voitures et vélos électriques sous la marque Think, en attendant les hybrides en 2003. Le groupe américain prévoit qu'en 2006, 20% de ses véhicules seront propulsés par des éneries alternatives. La pile à combustible (qui utilise l'énergie chimique de l'hydrogène et de l'oxygène) est considérée comme le véritable avenir des énergies propres, mais les Français ne prévoient pas de production en grande série avant 2008-2010. L'allemand BMW a prévu d'être le 1er constructeur au monde à fabriquer en série de telles voitures, tandis que le germano-américain DaimlerChrysler prévoit d'en commercialiser en 2004. D'autres voies existent pour réduire la consommation. La Commission Européenne co-finance un projet de recherche, coordonné par Volkswagen, sur les matériaux composites ultralégers, visant à produire d'ici 2004 un véhicule prototype consommant un litre de gazole aux 100 km. Un projet d'automobile consommant 1,5 litre aux 100 kilomètres a été le 6 octobre à Munich à l'occasion du cinquantième anniversaire de l'organisation allemande pour la protection de l'environnement DNR, a annoncé cette dernière mercredi. Un prototype de cette voiture conçue par un bureau d'ingénieurs de Munich devrait bientôt être fabriqué, a indiqué le secrétaire général de l'organisation, Helmut Roescheisen.

AFP : http://fr.news.yahoo.com/001004/1/o7jq.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top