RTFlash

RTFLASH Recherche & Technologie
NUMERO 200
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 21 Juin 2002
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Dégroupage: France Télécom cède à l'ART sur les tarifs
La fracture numérique entre pays riches et pauvres s'accroît
Le logiciel est-il un produit ou un service ?
Des PC moins chers sans Windows
Haut débit : nouvelle solution pour le " dernier kilomètre "
La norme de téléphonie CDMA2000 prend de vitesse l'UMTS
Avenir
Des transistors dix fois plus petits que ceux d'aujourd'hui
Projet de laboratoire sur les nanotechniques à Grenoble
IBM réinvente la carte perforée... à l'échelle nanoscopique
Des nanostructures en pelure d'oignon
Espace
Découverte d'un système solaire "jumeau" du notre
Terre
La fonte des glaciers de l'Antarctique bien plus importante que prévue
Les pays développés responsables de la désertification ?
Vivant
Artérite: un médicament pour faire "pousser des vaisseaux"?
Un antibiotique nasal réduit de moitié les infections à l'hôpital
AVC : un coût financier et humain considérable
Santé : les épidemies de demain seront des maladies de civilisation
Dépenses de santé : les Américains en tête, les Espagnols en queue
Cancer prostatique : un test pronostique
Diabète : une épidémie mondiale en perspective
L'apparition de la vie, née du chaud et du froid
Recherche
Vers la conduite assistée
Edito
"A la conquête du nanomonde ou les promesses de l'infiniment petit"



Le 29 décembre 1959, le grand physicien américain Richard Feynmann prononçait un discours resté fameux, intitulé « Il y a beaucoup d'espace en bas » ( http://www.resonance-pub.com/feynmann.htm). Devant un auditoire sidéré, Feynman, en génial visionnaire, imaginait et développait, avec un demi-siècle d'avance, les perspectives d'application des nanotechnologies. Feynman soulignait avec une assurance tranquille que " Les lois physiques autorisent a priori la manipulation et le positionnement contrôlé des atomes et des molécules, individuellement, un par un. S'appuyant sur ce constat, il déclara " Pourquoi ne pourrait-on pas écrire les 24 volumes de l'encyclopédie Britannica sur une tête d'épingle ? Plus de 25 ans s'écoulèrent, après ce discours historique de Feynmann, avant que les recherches appliquées en nanotechnologie commencent vraiment en 1985, lorsque Richard Smalley, prix Nobel de chimie, eut découvert une forme de carbone pouvant servir de matière première à ces appareils miniatures. En 1986, K. Eric Drexler, théoricien scientifique, écrivit un ouvrage de nanotechnologie devenu un classique - Engines of Creation - où il expliquait les fondements de la science et ses applications potentielles. Selon lui, la manipulation de la matière au niveau de l'atome peut créer un futur d'abondance utopique, où tout pourrait être rendu meilleur marché et où presque tous les problèmes physiques imaginables pourraient être résolus à l'aide de la nanotechnologie et de l'intelligence artificielle. En 1991, la découverte des nanotubes de carbone par le physicien Japonais Ijima a constitué une nouvelle étape fondamentale pour l'essor des nanotechnologies. Plus récemment, des scientifiques sont parvenus à observer et à manipuler directement des atomes. Parallèlement, des chercheurs des universités de Rice et de Yale ont réalisé les premières étapes vers la création de circuits moléculaires qui pourraient remplacer les actuelles puces de silicium. Pour bien comprendre l'enjeu scientifique et industriel que représentent les nanotechnologies, il faut d'abord faire un constat. Depuis toujours, on extrait de notre terre des matériaux, on les modifie, on les chauffe, on leur applique des pressions, on y suscite des réactions physico- chimiques, on les assemble, on les soude, on les colle, etc. Tout cela utilise beaucoup d'énergie (ce qui entraîne aussi beaucoup de déchets !). C'est sur ce principe de base que repose la technologie actuelle de production industrielle. Avec les nanotechnologies, l'approche en matière de fabrication est d'une nature radicalement différente. La nanotechnologie se définit d'abord par l'échelle spatiale, c'est-à-dire le nanomètre ou un milliardième de mètre (http://perso.wanadoo.fr/nanotechnologie ). Le nanomètre (10 -9 mètre) ne représente que 4 fois le diamètre d'un atome et il faut 1000 nanomètres pour faire un micron. (10 -6 mètre). On se représente mieux le rapport vertigineux entre le nanomètre et le mètre quand on comprend qu'il est le même que le rapport entre le millimètre et une distance de 1000 kilomètres ! Comment s'est faite l'évolution de la technologie jusqu'à ce jour ? Elle s'est appuyée sur une approche globale appelée top-down, c'est-à-dire qu'on part du plus grand pour aller vers le plus petit. Par définition, la nanotechnologie, c'est l'approche inverse (bottom- up), c'est-à-dire partir du plus petit pour aller vers le plus grand. Dans ce contexte, on utilise directement les atomes individuels et, en les manipulant et en faisant appel à des procédés d'assemblage, on forme des groupes d'atomes. Si on était capable de les organiser correctement, on pourrait ainsi former des nanomatériaux ou des nanomachines. Il y a donc une nuance importante quant à la manière de faire les choses. Ce que j'appelle ici " nanotechnologie ", c'est cette façon d'aborder la technologie de la miniaturisation. Il est important de faire cette distinction car au cours des dix dernières années, on a appelé " nanotechnologie " toute technologie liée à l'échelle du nanomètre ou même jusqu'à 100 nanomètres, quel que soit le type d'approche. Pour définir la nanotechnologie, on peut donc dire que c'est la création de nouveaux matériaux, dispositifs ou systèmes, par le contrôle de la matière à l'échelle atomique. C'est également l'exploitation de nouveaux phénomènes ayant lieu à l'échelle nanométrique, parce qu'il est maintenant clairement établi, grâce aux travaux des dix dernières années, qu'à cette échelle, les propriétés fondamentales des matériaux, c'est-à-dire les propriétés biologiques, mécaniques, thermiques, électriques, magnétiques, optiques, dépendent de la taille des nanostructures et peuvent différer énormément du matériau bulk. Par exemple, des nanostructures peuvent posséder des propriétés mécaniques extraordinairement plus élevées que les propriétés du même matériau sous forme de bulk. On dispose déjà d'outils permettant de manipuler des atomes, mais peut-on pour autant fabriquer des nanomachines ? Même si on possédait un appareil capable de manipuler un million d'atomes par seconde, il faudrait à l'heure actuelle 13 milliards d'années juste pour reconstruire une feuille de papier ! Or, la nature fait beaucoup mieux : elle utilise des machines moléculaires, l'ADN, l'ARN, les ribosomes pour construire des êtres vivants. Elle a aussi inventé quelque chose d'extraordinaire. Comme nous l'avons tous appris dans nos cours de biologie, une cellule se reproduit par division : c'est ce qu'on appelle la croissance géométrique. Si on arrivait à faire des réplicateurs basés sur ce principe, notre feuille de papier se ferait en deux minutes. En 1986, Eric Drexler dans son livre, Les engins créateurs, pousse un peu plus loin ce concept de nanotechnologie. Il fonde également par la suite l'institut américain Foresight dont l'objectif depuis une dizaine d'années est de sensibiliser le grand public à ce domaine. Dans son essai, Drexler, s'inspirant des outils et méthodes inventés par la nature pour construire les objets vivants, imagine des « assembleurs » capables de synthétiser de manière parfaite, avec le minimum d'énergie, et sans aucun déchet, n'importe quelle molécule. Son modèle : les ribosomes. Mesurant à peine quelques milliers de nanomètres cubes, ces mini-usines sont chargées de synthétiser, en trois dimensions, toutes les protéines vivantes de la planète en combinant des morceaux d'ARN. Infiniment petits, les ribosomes fabriquent plus grands qu'eux en suivant un " programme ", celui du code génétique. Il y a évidemment un mur entre la chimie organique (qui crée la vie) et la chimie inorganique, mais les nanotechnologistes ne désespèrent pas de trouver la passerelle entre ces deux univers. " Imaginez ce que pourrait être notre monde si nous pouvions construire, sans eau et sans cellules vivantes, des objets possédant un degré de perfection atomique aussi grand que celui des organismes vivants ! " écrit Richard E. Smalley. Voilà sans doute le défi majeur que devront relever les nanotechnologies. Parlons des nanotubes. Les nanotubes de carbone ont des propriétés absolument exceptionnelles. Les nanotubes de carbone sont des molécules 50 000 fois plus fines qu'un cheveu, cent fois plus solides et six fois plus légères que l'acier, qui permettent de nombreuses applications futuristes. Ces molécules peuvent être utilisées aussi bien pour les vêtements des astronautes, les cordes des raquettes de tennis que pour les écrans d'affichage. Elles permettent aussi de stocker des substances diverses. Récemment, un dispositif électronique basé sur ces nanotubes et fonctionnant à 10 terahertz a été mis au point. Des nanotubes ont également été utilisés pour des applications dans le domaine des écrans plats parce que ce sont d'excellents émetteurs d'électrons. On prévoit aussi de les employer pour le stockage d'hydrogène, pour les pompes à chaleur à absorption, pour le renforcement de matériaux. Dans quelques années, nous trouverons des applications de la nanotechnologie pratiquement dans tous les secteurs. En ce qui a trait, par exemple, aux applications potentielles des nanomatériaux, on peut nommer les barrières thermiques, la catalyse à haute sélectivité, les piles à combustible, les batteries, le stockage d'hydrogène, les prothèses, les dispensateurs de médicaments, etc. Pour celles des nanostructures, citons les dispositifs électroniques, photoniques, magnétiques, les bio-détecteurs, les nanosenseurs, etc. Notons que plusieurs de ces dispositifs ont déjà été développés dans les laboratoires. Il reste encore beaucoup à faire en matière de recherche fondamentale dans le domaine de la nanotechnologie mais certaines applications ne sont déjà plus de la fiction. Projetons-nous à présent dans le futur et imaginons que l'on parvienne demain à manipuler les atomes et à former de la matière à partir de ceux-ci, que pourrait-il arriver ? On pourrait ainsi auto-fabriquer à partir d'atomes de la matière, des objets, sans produire de déchets (recyclage à 100 %) Ce rêve est fascinant. Y arrivera-t-on ? On ne le sait pas. On pourrait imaginer faire des matériaux sans défaut, parfaitement optimisés pour une application donnée. En fait, on reproduirait en laboratoire ce que la nature a réussi à réaliser au cours de centaines de millions d'années. Même si ces projections sont encore du domaine de la fiction, rappelons que la technologie a souvent été plus rapide que les prédictions humaines. Permettez-moi de citer un exemple. Lorsque les premiers transistors sont apparus, un comité d'experts fit la prédiction suivante en ce qui a trait aux ordinateurs : " C'est bien, on va arriver à la fin du siècle à faire 5000 opérations par seconde avec un appareil de 3000 livres qui consommera des centaines de kilowatts. " Il est donc facile de se tromper quand on fait des prédictions à partir d'un raisonnement évolutionniste. Cette erreur est due au fait que la microélectronique a été une véritable révolution et non une évolution. Le même comité affirmait qu'on aurait besoin au maximum d'une dizaine d'ordinateurs aux États-Unis. Ceci montre qu'on peut donc se permettre de rêver sans trop se tromper. J'ai la conviction qu'à partir de 2020, nanomatériaux et nanofabrication seront partout présents dans les productions industrielles mettant en jeu des nanomatériaux. Mais il est probable que les grands développements se feront dans le domaine de la nanoélectronique et de la photonique, simplement parce que les besoins en technologies de l'information et des communications ne cessent de croître. On sait qu'en matière de miniaturisation électronique la loi de Moore, énoncée par Gordon Moore en 1965 et qui prévoit que le nombre de transistors par puce double tous les 18 mois a été globalement respectée jusqu'à présent. Ceci explique les progrès extraordinaires de l'informatique car depuis le premier microprocesseur en 1971 (2200 transistors) jusqu'au dernier Pentium IV (42 millions de transistors) le nombre de transistors sur une seule puce a été multiplié par 20.000 ! Avec la technologie CMOS telle qu'on la connaît actuellement, Intel pense réduire la finesse de gravure des puces à 65 nanomètres en 2005 (0,06 micron), 45 nanomètres en 2007 et 30 nanomètres en 2009, contre 140 aujourd'hui (0,14 micron), ce qui permettra d'intégrer un milliard de transistors sur une seule puce ! Mais cette technologie de gravure par lithographie a des limites imposées par les lois de la physique et de l'optique et même en utilisation des longueurs d'ondes situées dans l'ultraviolet extrême, il ne sera pas possible de descendre en dessous de 10 nanomètres, limite qui devrait être atteinte vers 2015. Dans cette course vers l'infiniment petit, la France n'a pas dit son dernier mot et le Laboratoire d'électronique, de technologie et d'instrumentation (LETI) à Grenoble a mis au point en novembre 1999, le plus petit transistor jamais réalisé: 20 nanomètres ( http://www.adit.fr/adit_editionpdf/tf/ATF58.pdf ). Toutes proportions gardées, un tel transistor (qui ne sera opérationnel qu'en 2015 à cause des problèmes d'intégration) posé sur une puce de circuit intégré d'environ 2 cm carré, équivaut à un cheveu posé au milieu d'un stade de football ! En juin 2001, le géant mondial des microprocesseurs, Intel, annonçait à son tour ((http://www.intel.com/pressroom/archive/releases/20010611tech.htm ) qu'il serait en mesure de produire des transistors de 20 nanomètres vers 2010. Mais pourquoi, me direz-vous, a-t-on besoin de composants électroniques aussi petits ? Il faut bien comprendre qu'aujourd'hui, ce n'est plus le besoin de miniaturisation, mais la course à la puissance qui force l'industrie informatique à faire toujours plus petit. Le calcul est simple : plus les composants sont petits, plus on peut stocker de transistors sur une même surface. Et comme le temps nécessaire pour qu'un électron traverse le système diminue, la vitesse de travail augmente. Les puces de 2015, qui intégreront 1 milliard de transistors de 20 nanomètres fonctionneront à une fréquence d'au moins 20 GHz et auront une puissance de dix à cent fois supérieure à celle des puces actuelles. Quant aux puces-mémoires, leur capacité prévisible sera, à la même époque, époustouflante : 16000 Gigabits, de quoi stocker un milliard de pages, l'équivalent de la Bibliothèque nationale toute entière ! On mesure mieux le chemin parcouru vers l'infiniment petit en rappelant qu'en 1971, la taille des transistors était de 8 microns, en 1978, de 4 microns. Dans le dernier Pentium, elle est de 0,14 micron (140 nanomètres) et cette taille va donc descendre, avec les techniques de photolithographie actuelles, jusqu'à 10 nanomètres (0,01 micron). Pour descendre en dessous de cette barrière et entrer dans le nanomonde, un saut technologique s'impose car la fréquence des photons de lumière devient trop grande pour graver des canaux si fins dans le silicium. Or, cette barrière des 10 nanomètres, nous l'avons vu, devrait être atteinte dans une dizaine d'années. Après 2010, on peut donc imaginer que la convergence entre nanotechnologies et physique quantique permettra un saut technologique majeur avec l'avènement de la nano-électronique quantique. Un pas décisif vers la nanoélectronique quantique a été franchi en 2001. Dans le numéro du 29 juin 2001 de la revue Science, des chercheurs hollandais ont annoncé un transistor à nanotube à électron unique, le premier en son genre à fonctionner efficacement à température ambiante. Alors même que les chercheurs fabriquent des micro puces toujours plus petites, l'idée d'utiliser un type de transistor appelé " transistor à électron unique " (ou SET) semble de plus en plus séduisante. Tout comme beaucoup d'autres appareils électroniques de ce genre, ces transistors peuvent être fabriqués à une échelle moléculaire et ainsi occuper beaucoup moins de place que leurs confrères conventionnels fabriqués en silicium. L'avantage particulier des SET est qu'ils n'ont besoin que d'un seul électron pour alterner entre " marche " et " arrêt ". Par opposition, les transistors utilisés dans la microélectronique conventionnelle ont besoin de millions d'électrons pour réaliser ces mêmes fonctions. Le transistor SET mis au point par ces scientifiques hollandais mesurait seulement 1 nanomètre de large et 20 nanomètres de long. A peine deux mois après cette percée technologique, IBM annonçait, en août 2001, la mise au point d'un nanotransistor 50 000 fois plus fin qu'un cheveu. Ce mini-transistor est basé sur un nanotube de carbone, une molécule cylindrique, composée d'atomes de carbone, 500 fois plus fine que le silicium. Ce procédé ouvrait la voie vers des processeurs beaucoup plus performants que ceux d'aujourd'hui, puisqu'ils contiendraient 10 000 fois plus de transistors dans le même espace. Il y a exactement un mois le 20 mai, IBM annonçait, dans le prolongement de son annonce de 2001, la mise au point d'un nanotransistor dont les performances sont supérieures aux modèles actuels utilisant du silicium, et qui ouvre vraiment la voie à des ordinateurs incomparablement plus petits et plus rapides que ceux que nous utilisons aujourd'hui ( http://www.ibm.com/news/us/2002/05/20.html). Dans le domaine des mémoires, Les chercheurs d'IBM viennent par ailleurs de redécouvrir les avantages d'une technique de stockage des données vieille d'un siècle : la carte perforée. Après six ans de travail, les laboratoires du groupe à Zurich, sont parvenus à percer des trous 6.000 fois plus petits que le diamètre d'un cheveu dans une pièce de plastique de la taille d'un timbre-poste, ce qui permet de stocker 100 gigaoctets d'informations, soit 15 fois plus que le meilleur disque dur magnétique. Les données sont enregistrées sous la forme de 1.000 milliards de trous, percés par une nano-aiguille à haute température, précisent les chercheurs. Pour le Nobel Gerd Binnig ce nouveau type de mémoire nano-mécanique constitue une vraie révolution. Le célèbre chercheur ajoute : "On pense toujours que l'électronique, c'est l'avenir. Nous pensons plutôt que l'avenir appartient à la mécanique, conjointement à l'électronique. Avec ce type de mémoire nano-mécanique, on pourra atteindre des densités d'enregistrement mille fois supérieures à celles d'aujourd'hui". (voir article dans la rubrique nanotechnologies de notre lettre @RTFlash de ce jour et site d'IBM (http://www.zurich.ibmcom/st/storage/millipede.html). Parmi les dernières avancées remarquables vers la nanoélectronique, il faut aussi souligner la production d'un fil nanoscopique par les laboratoires du Centre d'élaboration de matériaux et d'études structurales (CEMES-CNRS, Toulouse) et du Département de physique et d'astronomie de l'université de Aarhus (Danemark). Large de 0.75 nanomètres, soit deux atomes de cuivre, cette structure repousse les limites de la miniaturisation. Le minuscule ouvrier est une molécule organique composée de 90 atomes de carbone et 98 d'hydrogène. Ses quatre minuscules pieds posés sur une surface plane de cristal de cuivre lui confèrent une étonnante propriété : celle d'auto-assembler les atomes de cuivre en un fil atomique. (http://www.sciencemag.org/cgi/content/summary/296/5566/270). « Cette technique représente un nouveau processus d'auto-fabrication nanoscopique pour la nanoélectronique », concluent les chercheurs. On voit donc que depuis 2 ans plusieurs étapes décisives ont été franchies qui ouvrent la voie vers une révolution technologique, la nanoélectronique quantique, qui succédera à partir de 2010 à la technologie actuelle sur silicium. Mais peut-on aller encore plus loin que la nano-électronique et que les transistors mono-électroniques et imaginer des nano-ordinateurs fabriqués à l'aide de molécules biologiques ? Ce rêve ne relève plus tout à fait de la science-fiction depuis qu'en octobre 2001, un groupe de chercheurs sous la direction du professeur Ehud Shapiro de l'Institut Weizmann, a utilisé des molécules biologiques pour créer de minuscules ordinateurs programmables. Selon un article publié dans la revue scientifique Nature, ces nano-ordinateurs sont si petits qu'on en trouve mille milliards (1 000 000 000 000) dans une goutte d'un dixième de millilitre de solution aqueuse à température ambiante. Ces ordinateurs exécutent ensemble un milliard d'opérations par seconde avec une exactitude supérieure à 99.8 % pour chaque opération, tout en consommant une énergie de moins d'un milliardième de watt. Cette recherche pourrait conduire à l'avenir à des ordinateurs opérant à l'intérieur du corps humain en interaction avec son environnement biochimique et permettre de nouvelles applications biologiques et pharmaceutiques. Il est fascinant de constater qu'à ce niveau de recherche, technologies de l'information et sciences du vivant convergent et que les frontières disciplinaires et théoriques multiséculaires entre biologie et physique s'estompent. Les cellules représentent en effet des machines extraordinairement complexes. Comparés à l'organisation de leurs atomes, dont chacun ou presque a une fonction spécifique, les circuits intégrés imaginés en électronique paraissent d'une simplicité enfantine. L'enjeu des nanotechnologies consiste à créer des machines qui rivalisent avec la nature pour aider la médecine. Ce rêve commence à être du domaine du possible grâce à la manipulation de molécules ou même d'atomes au moyen d'outils très élaborés. Grâce à la nanotechnologie, on entrevoit la possibilité d'offrir des traitements pharmacologiques qui seront beaucoup plus ciblés et par conséquent plus efficaces. Exemple type des nanotechnologies, les puces à ADN sont en train de révolutionner la médecine. Avec la connaissance globale et fine des réponses d'une cellule, d'un tissu, d'un organisme, on peut maintenant imaginer que les médicaments de demain s'adresseront à chacun spécifiquement en tenant compte de son caractère individuel et unique. Les nanotechnologies à finalité thérapeutique permettront donc à la fois de définir des traitements "sur mesure", parfaitement adaptés au profil génétique du malade et de cibler ces traitements au niveau moléculaire et cellulaire avec une précision absolue dans l'espace et le temps. Il y a deux ans, deux équipes scientifiques ont chacune mis au point un "moteur moléculaire", en réussissant à faire tourner une molécule soit à l'aide d'un élément chimique, soit par la lumière. Les deux découvertes, l'une réalisée par une équipe américaine, l'autre par une équipe japonaise et néerlandaise, font franchir un pas important aux nanotechnologies : dans ce monde de l'infiniment petit, si on savait déjà fabriquer des "machines" de la taille d'une ou quelques molécules, les moteurs faisaient jusqu'ici cruellement défaut. Ainsi, l'équipe menée par le Dr Ross Kelly, du Centre de Chimie du Boston College, a découvert une molécule qui, sous l'influence d'une réaction chimique provoquée par du chlorure de carbonyle, décrit une rotation de 120 degrés dont on peut décider le sens. Ce moteur transforme ainsi l'énergie chimique en mouvement. La molécule fait alors une rotation sur elle-même de 360 degrés, dans un sens que l'on peut choisir. Ces nanomoteurs pourraient déboucher à terme sur des machineries moléculaires déclenchées par la lumière, source extérieure facile à employer. Ces découvertes ouvrent d'extraordinaires perspectives thérapeutiques dans le domaine médical car il devient désormais envisageable d'imaginer des nanorobots réparant avec une précision incomparable cellules et tissus endommagés. Il y a quelques mois, un autre pas important était franchi dans la recherche sur les nanomachines. Une équipe de l'université Cornell aux Etats-Unis, menée par Carlo Montemagno, a couplé un enzyme à un support et des pales en nickel de quelques nanomètres pour fabriquer ces engins microscopiques. Le carburant utilisé pour faire tourner le tout est la molécule d'ATP, qui est utilisé par tout être vivant pour se fournir en énergie. Les nanomachines ont pu tourner sans discontinuer pendant huit heures. Les scientifiques espèrent, à terme, pouvoir mettre au point des machines qui pourront être injectées dans le corps du patient pour le soigner. (Voir Cornell News http://www.news.cornell.edu/releases/Nov00/propeller.hrs.html ). On mesure mieux l'enjeu industriel et économique des nanotechnologies quand on sait que le marché mondial des nanocomposants est déjà de l'ordre de 30 milliards de dollars par an selon CMP. Mais la National Science Foundation, principal organisme public américain de recherche dans le domaine des nanotechnologies prévoit un chiffre d'affaires mondial de l'ordre de 1000 milliards de dollars par an à l'horizon 2015 ! Malheureusement, dans le domaine des nanotechnologies comme dans celui de l'effort global de recherche, l'Europe est en train de se laisser distancer par les Etats-Unis. En 1997, les budgets annuels gouvernementaux du Japon, de l'Europe et des Etats-Unis pour la recherche sur les nanotechnologies étaient équivalents, soient environ 120 millions de dollars (130 millions d'euros), avec une légère avance pour l'Europe de l'Ouest (128 millions de dollars). En 1999, les Etats-Unis, mesurant l'ampleur de l'enjeu, ont décidé de se donner les moyens de devenir leader dans ce domaine technologique capital pour leur compétitivité. Dans une lettre datée du 14 décembre 1999, Neal Lane, conseiller de Bill Clinton, écrit au président : "Les Etats-Unis ne peuvent pas se permettre d'être à la seconde place dans le domaine des nanotechnologies. Le pays qui conduira la découverte et la réalisation des nanotechnologies aura un avantage considérable sur la scène économique et militaire pour les décennies à venir. Les nanotechnologies sont la première révolution scientifique et technologique économiquement importante depuis la Seconde Guerre mondiale dans laquelle les Etats-Unis ne sont pas entrés avec la position de leader. Il est temps d'agir". Bill Clinton a répondu en octroyant 500 millions de dollars (550 millions d'euros) au programme national NNI (National nanotechnology initiative) pour l'année 2001, doublant ainsi le budget 2000. L'Etat japonais, pour sa part, a consacré une enveloppe budgétaire de plus de 60 milliards de yens (516 millions d'euros) pour les nanotechnologies durant l'année fiscale 2001, soit presque autant que les Etats-Unis. Le Japon a une forte avance sur les nanotubes de carbones, les fullerènes, les dispositifs à un électron et les techniques de nanofabrication. L'Europe, pour sa part n'a consacré qu'environ 200 millions d'euros à la recherche en nanotechnologies en 2001. George Bush vient d'annoncer une hausse de 13 % des activités de recherche de l'Etat fédéral américain alors que depuis plusieurs années, l'effort de recherche de l'Union stagne à 1,9 % de son PIB, quand celui-ci atteint 2,6% pour les Etats-Unis, et presque 3 % pour le Japon selon les dernières données disponibles (1999). Pour l'année 2002, l'effort de recherche fédéral américain dans le cadre du National Nanotechnology Initiative (NNi) s'élève à 604 millions de dollars, soit plus de 664 millions d'euros ! On voit donc à quel point l'écart se creuse entre les Etats Unis, qui se donnent les moyens de devenir leader dans ce domaine stratégique, et l'Europe. La France compte trois programmes majeurs : les " Matériaux nanostructurés " et le "Réseau de recherche en micro et nanotechnologie" (RMNT) du ministère de la Recherche et de la Technologie et le programme "Nano-objets individuels" du CNRS créé en 1999 à l'initiative de Catherine Bréchignac, alors directrice du CNRS, qui comporte trois axes : physique, biologie et chimie. Le budget des "Matériaux nanostructurés" est de l'ordre de 2,3 millions d'euros, celui du RMNT d'environ 11,5 millions et celui des NO1 de l'ordre de 9 millions d'euros. Au total, la France consacre 23 millions d'euros seulement pour les nanotechnologies, soit presque 30 fois moins que l'effort fédéral américain pour 2002 (664 millions d'euros). La France est également très loin derrière l'Allemagne (laquelle investit 10 fois plus) et l'Angleterre. Les nanotechnologies sont inscrites au 6e programme-cadre de la Commission européenne comme l'un des sept grands thèmes prioritaires. Le sixième programme-cadre européen 2002-2006 qui vient d'être bouclé, prévoit en effet 1,3 milliard d'euros pour le secteur des nanotechnologies/nanosciences, auquel sont joints les matériaux et procédés de production. Mais cet effort réel qui va porter à 216 millions d'euros par an (240 millions de dollars) le budget européen consacré aux nanotechnologies restera néanmoins presque trois fois inférieur à l'effort budgétaire annuel des USA au cours de la même période. Si nous voulons nous donner les moyens de rester dans cette course technologique majeure, et capitale pour notre compétitivité, nous devons donc consentir, au niveau national et européen comme au niveau de nos entreprises, un effort financier considérable pour ne pas nous trouver définitivement distancés par les Etats-Unis et le Japon. Parce qu'elles bouleversent les limites des champs disciplinaires et les relations entre les grands domaines de la connaissance scientifique et qu'elles nous conduisent à une nouvelle représentation de la réalité, et à une nouvelle vision de la nature, les nanotechnologies représentent non seulement un enjeu techno-industriel capital, en tant que moteur de la compétitivité économique, mais aussi un immense défi intellectuel, culturel et éducatif qui doit nous amener à penser le monde dans toutes ses dimensions spatiales et temporelles et dans son irréductible complexité d'organisation.

René TRÉGOUËT

Nanosciences&Nanotechnologies : les liens de référence :

-# Les grands programmes et centres de recherche en France et en Europe :

Forum de coopération européenne en nanotechnologies

http://www.nanoforum.de

Programme nanosciences du CNRS

http://www.cnrs.fr/cw/fr/prog/progsci/nanosciences.html

Réseau National des Micro et Nanotechnologies

http://www.rmnt.org

Pôle d'Innovation en Micro et Nanotechnologies

http://www.minatec.com

Laboratoire d'Electronique et de Technologie de l'Information

http://www-leti.cea.fr

*# Présentation des nanotechnologies :

Nanosites

http://www.nanosites.com/11presentation.html

Numéro spécial de Pour la Science de décembre 20021 sur les nanotechnologies

http://www.pourlascience.com/numeros/pls-290/art-1.htm

Dossier Nanotechnologies du CEA

http://www.cea.fr/fr/presse/dossiers/dossier

_nanosciences.pdf

http://www.minatec.com/actualite/CEA-techno_04-01.pdf

Pour la Science : Numéro spécial sur les Nanotechnologies

http://www.pourlascience.com/numeros/pls-290/art-1.htm

Dossier du magazine d'Aventis sur les nanotechnologies

http://www.corp.aventis.com/future/fr/fut0103/exploring_nanoworld/exploring_nano...

Article sur les nanomachines biomoléculaires

http://www.courrierinternational.com/mag581-582/couv4.htm

Article de Joël de Rosnay : de la biologie moléculaire à la biotique

http://csiweb2.cite-sciences.fr/derosnay/articles/BiolMol_francais.pdf

Les nanomondes

http://perso.wanadoo.fr/nanotechnologie

Dossier sur les nanotechnologies

http://waglux.free.fr/goon/ref/nanotechnologie

La révolution des nanotechnologies ( 12-2001)

http://www.cmp-cientifica.com/cientifica/frameworks/generic/public_users/NOR/NOR...

Nanodata.com

http://www.nanodata.com

*# Sites anglo-saxons :

Discours historique de R Feymann le 29-02-1959

http://www.resonance-pub.com/feynmann.htm

Institut Anglais des Nanotechnolgies

http://www.nano.org.uk

National Nanotechnology Initiative (USA)

http://www.nano.gov

Nanobiotechnology Center

http://www.nbtc.cornell.edu

NASA Nanotech

http://www.nas.nasa.gov/Groups/SciTech

Nanostuctures Laboratory of Princeton

http://www.ee.princeton.edu/~chouweb

Foresight Institute

http://www.foresight.org

Nanojournal

http://www.nano-tek.org/main.html

Smalltimes

http://www.smalltimes.com/document_display.cfm?document_id=3669

Nano Letters

http://pubs.acs.org/journals/nalefd

Nanotechnews

http://www.nanotechnews.com/nanotechnews/nano

Nanotechology Magazine

http://www.nanozine.com

Nanotech planet.com

http://www.nanotech-planet.com/briefs

Nanobase ( NSF)

http://itri.loyola.edu/nanobase

*# Les Nanotubes de carbone :

Les Nanotubes sur le Web

http://www.scf.fundp.ac.be/~vmeunier/carbon_

nanotube.html

Les Nanotubes, matériau du futur

http://www.onera.fr/conferences/nanotubes

Les nanotubes de carbone

http://www.archipress.org/ts/chatelain.htm

Fullerenes et nanotubes de carbone

http://www.imp.cnrs.fr/utilisateurs/guillard/page2.

html

The Nanotube Site

http://www.pa.msu.edu/cmp/csc/nanotube.html

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Dégroupage: France Télécom cède à l'ART sur les tarifs
Samedi, 22/06/2002 - 00:00

France Télécom a présenté une offre tarifaire sur le dégroupage conforme aux exigences de l'Autorité de régulation des télécommunications (ART) mais a saisi le Conseil d'Etat sur le mode de détermination des prix des lignes ouvertes à la concurrence. Dans un communiqué, il indique que son "offre de référence" intègre toutes les demandes formulées par l'organisme de contrôle, en particulier sur la possibilité pour les concurrents d'installer leurs propres équipements dans ses centraux. S'agissant des tarifs de location des lignes, France Télécom s'est plié aux prix imposés par l'ART, à savoir 0,61 euro pour le dégroupage partiel (alors qu'il voulait 2,26 euros) et 10,5 euros pour le dégroupage total (contre 12,16 euros demandés). Mais France Télécom souligne qu'il a introduit un recours devant le Conseil d'Etat en jugeant que l'ART avait établi ces tarifs sans tenir compte d'un décret qui indique que "les tarifs de l'accès à la boucle locale sont orientés vers les coûts correspondants (et que) les tarifs doivent éviter une discrimination fondée sur la localisation géographique". "Les tarifs de location des lignes dégroupées qu'impose l'ART s'écartent de ce principe de péréquation géographique alors que France Télécom avait proposé provisoirement, le 12 avril dernier, une baisse substantielle de ses tarifs, fondés sur ce principe, les amenant parmi les plus bas d'Europe". Le dégroupage de la boucle locale permet aux concurrents de l'opérateur historique de louer des lignes téléphoniques pour avoir un accès direct à l'abonné final alors qu'actuellement les appels téléphoniques sont acheminés jusqu'au client final par l'ancien monopole qui perçoit un tarif d'interconnexion. Le dégroupage doit en principe favoriser la concurrence tarifaire dans le domaine de l'internet rapide.

France Telecom :

http://www.francetelecom.fr/vfrance/direct_v3/journalistes/f_journalistes.htm

La fracture numérique entre pays riches et pauvres s'accroît
Samedi, 22/06/2002 - 00:00

La fracture numérique entre pays riches et pays pauvres s'accroît malgré les nombreux efforts pour aider les pays en développement à accéder aux nouvelles technologies et à s'intégrer ainsi dans l'économie mondiale, s'inquiète le secrétaire général de l'ONU Kofi Annan. "La fracture numérique est toujours aussi béante et des milliards d'individus ne sont toujours pas connectés à une société mondiale qui, quant à elle, l'est de plus en plus ," déclare-t-il. "Malgré de louables efforts et de nombreuses initiatives, nous sommes encore très loin de pouvoir assurer que les bénéfices des technologies de l'informatique et des télécommunications sont accessibles à tous," a-t-il affirmé au début d'une session de l'assemblée générale des Nations Unies consacrée à l'informatique et au développement. Les participants ont estimé qu'un large consensus existait quant au rôle que peuvent jouer les technologies de l'information et de la communication dans la croissance économique et le développement et pour combattre la pauvreté et la maladie. Mais les progrès sont lents dans de nombreuses régions du monde. Selon Yoshio Utsumi, secrétaire général de l'Union internationale des télécommunications (UIT), basée à Genève, plus de 80 pays disposent de moins de 10 lignes téléphoniques pour 100 habitants, et dans trois pays sur cinq, moins d'une personne sur 100 utilise internet. Les pays membres de l'Organisation et de développement économique (OCDE) où réside moins de 20% de la population mondiale, ont plus dépensé ces dernières années en recherche technologique que le montant combiné du PNB des 80 pays les plus pauvres du monde et 80% des utilisateurs de l'Internet sont d'autre part résidents des pays de l'OCDE. Certains pays ont prospéré pendant que d'autres aggravaient leur retard", a-t-il dit. Le Secrétaire général de l'UIT a également regretté que les coûts d'accès à ces services soient souvent trop coûteux pour les pays en développement. A titre d'illustration, il a précisé que si à Genève, la connexion Internet coûte 5 cents à la minute, en Afrique le prix passe à 1 dollar la minute soit 20 fois plus, situation qui empêche l'intégration au monde moderne et à ses avantages. D'où la nécessité de mettre ces technologies au service de tous. "Si nous n'agissons pas, le fossé entre les nantis et les démunis dans le domaine de l'information va continuer à s'accroître."

ONU : http://www.un.org/News/fr-press/docs/2002/AG1295.doc.htm

Le logiciel est-il un produit ou un service ?
Samedi, 22/06/2002 - 00:00

Les éditeurs de logiciels informatiques doivent-ils être tenus pour responsables des défauts de leurs produits, comme le sont les constructeurs de voitures par exemple ? Derrière cette question dont la réponse peut amener plusieurs milliards de dollars de dommages et intérêts, se cache une autre interrogation plus fondamentale, celle de la nature même d'un logiciel: est-il un produit ou un service ? Les éditeurs informatiques ont jusqu'à présent convaincu les tribunaux que le code informatique constituait un produit à part à cause de sa nature intangible et des interactions avec les autres logiciels et les systèmes matériels. Parce qu'il est écrit par des programmeurs, facilement modifiable et utilisé en association avec d'autres logiciels et des composants matériels, le logiciel s'apparente à un service, assure Claude Stern, avocat dans le cabinet Fenwick & West à Palo Alto, Californie, qui défend les sociétés de la Silicon Valley. "Les grille-pains sont relativement complets par eux-mêmes, comme les pneus. Le logiciel n'est pas si simple", estime-t-il. "Les gens s'accordent à penser qu'un logiciel n'est pas parfait." "Attendre d'un logiciel, qui est naturellement complexe, qu'il soit parfait, est ridicule", renchérit Art Coviello, P-DG de l'éditeur de logiciels de sécurité RSA Security. Obliger les éditeurs à respecter des normes de fiabilité "ralentirait la vitesse d'adoption de la technologie." De plus, si les éditeurs devaient être tenus pour responsables, le prix des logiciels augmenterait considérablement, prévoit Marc E. Brown, associé au cabinet d'avocats McDermott, Will & Emery à Los Angeles. Mais pour d'autres, de telles affirmations autorisent les éditeurs à sacrifier la qualité sur l'autel du profit. "Le logiciel n'est pas une manifestation de la liberté de parole ou d'expression", martèle Mark Rasch, avocat spécialisé dans les nouvelles technologies et ancien responsable d'une unité de répression de la cyber-délinquance pour le département fédéral de la Justice. "Jusqu'ici, c'était 'télécharge ou crève', et à tes risques et périls", ajoute-t-il. "Aussi longtemps que les éditeurs de logiciels ne sont pas responsables des dommages occasionnés par leurs produits, ils ne seront pas incités à les rendre plus sûrs." Dans un rapport datant de janvier 2002, l'Académie nationale des sciences, un organisme consultatif du gouvernement des Etats-Unis, a pressé le législateur de réfléchir à une réglementation qui rendrait les éditeurs responsables des failles de sécurité détectées dans leurs logiciels. "La plupart des éditeurs recourent à des formulations de décharge du style 'si vous utilisez notre produit et que cela se passe mal, tant pis'. Imposer une responsabilité changerait cela", assure Herb Lin, scientifique du Bureau Informatique et Télécommunications du Conseil national pour la recherche, une des branches de l'Académie nationale des sciences. "Pourquoi les logiciels, qui sont aujourd'hui essentiels dans notre vie, ne sont pas tenus aux mêmes normes que les voitures et les jouets pour enfants ?", interroge de son côté l'avocat David Banisar, dans un article sur le site SecurityFocus.com. "Il est temps de tuer la vache sacrée et de commencer à partager le fardeau avec ceux qui en sont responsables." Certes, les consommateurs mécontents disposent déjà de recours légaux grâce aux lois existantes sur la fiabilité des produits, mais les éditeurs informatiques parviennent à limiter leur responsabilité en invoquant des clauses de décharge contenues dans l'accord de licence que l'utilisateur doit accepter pour installer le produit. Les éditeurs ont tenté de donner force de loi à ces clauses de limitation de responsabilité avec la loi dite Uniform Computer Information Transactions Act, mais seuls deux Etats, le Maryland et la Virginie, l'ont adoptée. La jurisprudence européenne a, elle, adopté l'approche inverse. "C'est une grave erreur de dire que le logiciel n'est pas un produit", avance Matthew Norris, responsable de la société londonienne d'assurance Hiscox Technology. "Dans beaucoup d'Etats et de pays, le logiciel est considéré comme un produit." Aux Pays-Bas, un tribunal a jugé en septembre dernier la société Exact Holding coupable d'avoir vendu un logiciel bogué, rejetant la thèse de la défense selon laquelle les versions précédentes étaient traditionnellement instables. Toutefois, le juge n'ayant pas constaté de négligence ou d'intention manifeste, il n'a pas retenu la responsabilité de l'éditeur. Des deux côtés de l'Atlantique, les chercheurs informatiques s'accordent à reconnaître que la plupart des problèmes de sécurité sont dus à des défauts qui pourraient facilement être réglés. Bon nombre de logiciels commercialisés comportent "des dizaines de milliers de défauts connus", se lamente Cem Kaner, auteur de "Tester les logiciels" et professeur d'informatique à l'Institut de technologie de Floride. Les éditeurs devraient être contraints à mieux concevoir leurs produits au lieu de se permettre de les publier le plus vite possible, ajoute-t-il. "C'est la règle dans tous les autres secteurs de l'ingénierie", relève Stephen Cross, directeur du Software Engineering Institute. "Beaucoup d'éditeurs ont réussi à persuader tout le monde, particuliers et entreprises, que les logiciels sont si difficiles (à développer) qu'il est impossible de bien le faire, ce qui est un tissu d'idioties", constate Gary McGraw, directeur technique de la société Cigital et auteur du livre "Construire des logiciels sûrs".

Reuters : http://fr.news.yahoo.com/020616/85/2muvg.html

Des PC moins chers sans Windows
Samedi, 22/06/2002 - 00:00

Un PC sans Windows, c'est possible. Depuis quelques jours, la chaîne de grands magasins américains Wal-Mart commercialise des PC dépourvus d'un quelconque système d'exploitation de Microsoft. A la place, les PC fabriqués par Microtel, et distribués sur le site Web de Wal-Mart, disposent de LindowsOS, une déclinaison de Linux développée par Michael Robertson, connu pour avoir créé le site MP3.com. En février dernier, les responsables de Wal-Mart s'étaient lancés dans la distribution de PC Microtel sans aucun système d'exploitation. A cette époque, ils déclaraient à la presse que le retrait de Windows permettaient d'abaisser considérablement le prix de vente des machines. Sur les PC à 600 dollars et moins, Windows serait en effet l'un des éléments les plus chers de la configuration. Reste que l'absence de système d'exploitation sur les PC rebute un grand nombre d'utilisateurs, par ailleurs peu enclin à s'aventurer sur le terrain des distributions Linux. L'arrivée de LindowsOS est censée lever les dernières appréhensions des utilisateurs. Le système d'exploitation de Michael Robertson bénéficierait de la fiabilité de Linux, dont il est dérivé, tout en étant capable de faire fonctionner les logiciels écrits pour Windows. Mais on attend encore que la liste des programmes compatibles soit publiée sur le site de Lindows.com. A ce jour, le système d'exploitation n'est même pas officiellement terminé. Les testeurs peuvent se le procurer dans une version bêta contre 99 dollars. Quant à la version livrée par Microtel, elle serait optimisée pour la configuration matérielle des PC en vente. Quoi qu'il en soit, l'ambition des éditeurs de LindowsOS est bien de briser le monopole de Microsoft avec un système bon marché. « En s'affranchissant de la "taxe Microsoft" de 100 dollars, on peut concevoir des PC à tout petit budget », affirme Michael Robertson dans sa newsletter. Le prix des machines distribuées par Wal-Mart semble lui donner raison : il débute à 299 dollars (316 euros), mais sans écran et avec un processeur Duron 850 MHz, en fin de vie. En France, il est extrêmement difficile de trouver une machine sans Windows. Pourtant, le marché de renouvellement - aujourd'hui un achat sur deux - devrait inciter les fabricants à proposer des PC sans système d'exploitation. Libre aux utilisateurs d'installer le logiciel de leur choix, et éventuellement de réinstaller celui de leur première machine. Alors, à quand un PC sans Windows à Carrefour ou à la Fnac ?

OINet : http://www.01net.com/rdn?oid=187017&rub=3169

Haut débit : nouvelle solution pour le " dernier kilomètre "
Samedi, 22/06/2002 - 00:00

Selon un rapport de la Federal Communications Commission (FCC), en raison des coûts de raccordement filaire très importants, seuls 7 % des foyers américains (soit 7,5 millions) disposent actuellement d'un accès à haut débit à Internet. L'industrie des radiocommunications ambitionne de s'attaquer au quasi-monopole des réseaux câblés et téléphoniques sur ces accès, grâce à la norme de transmission de données sans-fil Wi-Fi (ou 802.11b). Ainsi, de nombreux travaux ont été réalisés sur la technologie complexe de systèmes de routage à maillage qui permettrait de relier des centaines ou des milliers d'émetteurs-récepteurs à courte portée. Entre-temps, Etherlinx une petite entreprise de Cupertino (Californie) lance une nouvelle technologie basée sur le " software-designed radio ", dont chaque unité communiquerait avec une antenne centrale et convertirait directement à la norme Wi-Fi les signaux destinés à être reçus à l'intérieur des habitations. Les ingénieurs d'Etherlinx ont modifié les cartes Wi-Fi, peu coûteuses, en utilisant leur propre code, afin d'accroître de manière importante la portée du système de réception jusqu'à 30 km. Testée depuis un an à Oakland (Californie), cette technologie suscite déjà l'intérêt du gouvernement fédéral et de grandes entreprises qui développent des services Internet comme Cable and Wireless P.L.C.

NYT 10/06/02 :

http://www.nytimes.com/2002/06/10/technology/10WIRE.html

La norme de téléphonie CDMA2000 prend de vitesse l'UMTS
Samedi, 22/06/2002 - 00:00

D'un côté, l'UMTS (Universal Mobile Telecommunications System), norme de téléphonie mobile de troisième génération choisie par les opérateurs européens. De l'autre, la norme concurrente, le CDMA2000. Tandis que les opérateurs européens ne cessent de retarder le lancement de l'UMTS, les opérateurs et les fabricants qui ont choisi le CDMA2000 proposent déjà des services 3G au Japon et en Corée du Sud. Parmi les dix millions d'abonnés à travers le monde qui se sont laissés séduire par la norme CDMA2000, beaucoup sont recensés dans ces deux pays. En comparaison, les services 3G utilisant une variante de la norme européenne et proposés depuis octobre dernier par le japonais NTT DoCoMo comptent seulement 112.300 abonnés à la fin mai. Les réseaux de téléphonie de troisième génération permettent de surfer sur internet à grande vitesse via un téléphone portable et d'accéder à des contenus riches et variés: sons, images, etc. Les standards rivaux, UMTS et CDMA2000, sont tous deux issus de la technologie CDMA (Code Division Multiple Access). L'UMTS est d'ailleurs aussi appelé WCDMA (W pour Wideband, large bande passante). L'opérateur japonais KDDI propose depuis le 1er avril des services 3G basés sur la norme CDMA et a conquis jusqu'ici 829.000 abonnés, a assuré Hideo Okinaka, responsable du planning de la technologie stratégique de l'opérateur nippon. Le CDMA2000 a plus de succès que l'UMTS notamment parce qu'il exige une mise à jour relativement légère de la norme CDMA précédente, et une mise en état des réseaux moins onéreuse et plus rapide. Les opérateurs UMTS doivent s'engager dans des révisions plus lourdes de leurs réseaux de deuxième génération GSM (Global System for Mobile Communications) pour les mettre à la norme UMTS. L'étape intermédiaire en Europe, baptisée GPRS (General Packet Radio Service), est pénalisée par le nombre limité de combinés adaptés et le peu de services séduisants disponibles. Les opérateurs au Japon et en Corée ont également bénéficié du fait que ces deux pays sont en pointe en matière de contenus pour mobiles. De plus, les téléphones CDMA2000, à la différence des combinés UMTS, fonctionnent également sur les réseaux classiques. De leur côté, les opérateurs européens ont à plusieurs reprises retardé le lancement des services 3G. Quelques acteurs du secteur estiment que les services 3G seront lancés en Europe en 2003. Pour d'autres, 2004 ou 2005 sont des objectifs plus réalistes. Le Hong-Kongais Hutchison Whampoa, l'un des investisseurs UMTS les plus optimistes, table sur des lancements en Grande-Bretagne et en Italie dans le courant 2002, et vise un million d'abonnés dans chacun de ces deux pays à la fin 2003. En dépit des succès déjà enregistrés par la norme CDMA2000, les opérateurs européens engagés dans l'UMTS ne devraient pas changer de cap, en partie parce qu'ils y ont déjà investi des milliards. La politique des fabricants en la matière compte également. "Tout cela est en partie dicté par ce qu'il arrive dans le secteur marchand", a expliqué Nick Ingelbrecht, analyste chez Gartner Group. Les grands fabricants européens de matériel comme Nokia, Ericsson, Siemens et Alcatel, partisans de l'UMTS, ont intérêt à ce que la technologie UMTS triomphe. Mais pour Ingelbrecht de Gartner, le débat sur les normes concurrentes est largement hors de propos, les deux technologies utilisant le CDMA: "Ce n'est pas ou l'un ou l'autre. Il s'agit des deux branches d'un même arbre".

Reuters : http://fr.news.yahoo.com/020615/85/2mt6n.html

^ Haut
Avenir
Nanotechnologies et Robotique
Des transistors dix fois plus petits que ceux d'aujourd'hui
Samedi, 22/06/2002 - 00:00

Le numéro un mondial de la sous-traitance en matière de semi-conducteurs, le taïwanais TSMC, a annoncé avoir réussi à fabriquer un microprocesseur doté d'un transistor d'une taille dix fois inférieure à ceux qui sont à l'heure considérés comme les plus performants sur le marché. TSMC, plus important fabricant de puces au monde, estime que cette avancée dans les technologies de l'infiniment petit pourra réduire les transistors à une taille de neuf nanomètres, soit 1/10.000e de l'épaisseur d'un cheveu, et enfermer la puissance de tout un superordinateur sur la surface d'un ongle. L'entreprise précise qu'elle a déjà réussi à fabriquer un modèle opérationnel d'une taille de 35 nanomètres et pense pouvoir atteindre les 9 nanomètres. L'objet, baptisé FinFET, a été présenté le 12 juin à Honolulu durant un symposium consacré aux technologies VLSI (Very large scale integration). On s'en doute, le procédé technique est particulièrement complexe mais les ingénieurs de TSMC précisent que cette nouvelle technique repousse considérablement les limites physiques actuelles des composants CMOS et lui assurerait une nouvelle pérennité de 20 années au moins.

Reuters : http://fr.news.yahoo.com/020612/85/2mmhh.html

Des virus pour fabriquer des composants électroniques !
Samedi, 22/06/2002 - 00:00

Estimant que les nanotechnologies pourraient générer environ mille milliards de dollars sous la forme de biens et de services d'ici 2015, le gouvernement fédéral américain souhaite investir 600 millions de dollars (656 millions d'euros) dans la recherche en 2002. Dans ce secteur, le domaine connaissant la croissance la plus rapide concerne les matériaux hybrides associant composés organiques et inorganiques. Une équipe de chimistes de l'Université du Texas (Etats-Unis), à Austin, vient de publier dans les colonnes du mensuel Science les résultats de travaux qui ont consisté à modifier le génome d'un virus non-infectieux, afin qu'il puisse être associé à une substance utilisée dans la fabrication de semi-conducteurs. En présence d'une solution chimique et d'un champ magnétique, les molécules de ce virus se lient en effet à cette substance et se multiplient, créant ainsi une structure liquide cristalline longue de plusieurs centimètres. A terme, ces structures pourraient faire partie intégrante de capteurs, d'écrans à cristaux liquides ou encore d'autres composants utilisés en microélectronique. Dès l'automne prochain, la totalité des chercheurs de l'équipe de l'Université d'Austin devrait s'installer au Massachusetts Institute of Technology (MIT) afin de poursuivre ses travaux. La concurrence est telle dans ce domaine que les centres universitaires se disputent les meilleures équipes.

ADIT : http://www.adit.fr)

Projet de laboratoire sur les nanotechniques à Grenoble
Samedi, 22/06/2002 - 00:00

Le lancement, à Grenoble, d'un nouveau laboratoire qui sera consacré aux nanotechniques (techniques du millionième de millimètre) des "puces" de silicium de 300 millimètres de diamètre, a été annoncé le 30 mai par l'administrateur général du Commissariat à l'énergie atomique (CEA) Pascal Colombani. Ce projet "Nanotec 300" devrait voir le jour en 2007 et employer 150 chercheurs. Il demandera 400 millions d'euros d'investissement et son financement est en cours d'élaboration. Il devrait être installé à Grenoble, à côté du Laboratoire d'électronique et des technologies de l'information (LETI), département du CEA qui compte 2.000 chercheurs. "Nous devons développer une expertise en nanotechnologies quand les industriels commenceront à industrialiser cette nouvelle technologie, car, si nous ne le faisions pas, notre pays perdrait son leadership scientifique et technique", a déclaré M. Colombani au Forum 4I (Innovation, Industrie, Investissement et International), qui met en relation des "jeunes pousses" et des grandes sociétés. Face à une compétition internationale forte avec notamment la montée en puissance du Sud-Est asiatique, la France ne peut rester dans la course qu'en donnant une impulsion décisive au dispositif existant. L'accord entre STMicroelectronics, Philips et Motorola pour mettre en commun leurs activités de R & D/300 mm constitue donc une chance supplémentaire pour conforter la place de la France dans ce domaine : l'alliance ainsi conclue conduit en effet à la création du deuxième acteur mondial en microélectronique, loin devant les autres concurrents du secteur.

CEA : http://www.cea.fr/actualite/html/020412A.htm

IBM réinvente la carte perforée... à l'échelle nanoscopique
Samedi, 22/06/2002 - 00:00

Les chercheurs d'IBM redécouvrent les avantages d'une technique de stockage des données vieille d'un siècle: la carte perforée. Après six ans de travail, les laboratoires du groupe à Zurich, sont parvenus à percer des trous 6.000 fois plus petits que le diamètre d'un cheveu dans une pièce de plastique de la taille d'un timbre-poste, ce qui permet de stocker 100 gigaoctets d'informations. Les données sont enregistrées sous la forme de 1.000 milliards de trous, percés par une nano-aiguille à haute température, précisent les chercheurs. Comme son homologue magnétique, la mémoire mécanique "millipede", autrement dit mille-pattes, possède une pointe fine, la pointe du microscope à force atomique. Ce microscope a été développé par Gerd Binnig sur la base du microscope à effet tunnel et lui a valu le prix Nobel en 1986. Le processus d'écriture dans cette nanomémoire utilise une pointe chauffée, qui perce dans une feuille de matière plastique de minuscules trous de quelques atomes de diamètre. Le Millipede est composé de pointes dont l'extrémité (d'un diamètre de 40 nanomètres) repose légèrement sur une surface plastique lisse en mouvement. Lorsqu'un courant électrique passe dans la pointe, celle-ci est brièvement chauffée à 400 °C : elle fond le polymère, créant une série d'entailles qui codent les informations. Pour lire ces informations, on chauffe l'extrémité de la pointe à une température constante de 350 °C (inférieure à la température de fusion du plastique) tout en la déplaçant sur la surface du polymère. Lorsque la pointe tombe dans une entaille, sa chaleur se dissipe : la baisse de température est alors détectée par un changement de résistance électrique de la pointe. De fabrication simple et utilisant un support bon marché, le Millipede est constitué de 32 rangées de 32 pointes qui se déplacent sur une surface de neuf millimètres carrés. Ces pointes sont en silicium et fonctionnent simultanément, gravant leurs entailles sur une mince couche de plastique qui recouvre un substrat de silicium. Le nombre de pointes peut encore augmenter, et l'utilisation de nanotubes de carbone réduirait leur taille. Millipede stocke jusqu'à 80 milliards de bits par centimètre carré (soit 15 fois plus que le meilleur disque dur magnétique), sous la forme d'entailles microscopiques sur une surface plane de polymère. Au moment où le monde de l'informatique ne jure que par les disques électromagnétiques et les mémoires flash, revenir à la perforation mécanique - même à l'échelle microscopique - peut sembler un retour en arrière. L'apparition il y a 110 ans des cartes perforées avait ouvert la voie aux ancêtres des ordinateurs actuels. "L'un de nos slogans est 'retour vers le futur de la mécanique'", explique Peter Vettiger, directeur de ce projet baptisé Millipede. Cette technologie, selon lui, pourrait notamment être utilisée dans des appareils mobiles requérant une moindre consommation d'énergie. Si IBM décide de poursuivre le programme, les premières "mémoires mécaniques" de ce type devraient être commercialisées d'ici fin 2005, avec une capacité de stockage de 5 à 10 gigaoctets. Les prototypes peuvent stocker jusqu'à vingt fois plus de données que le système magnétique actuel, ce qui représente 25 millions de pages imprimées de données contenues sur la surface d'un timbre-poste, précise la firme. Pour le Nobel Gerd Binnig ce nouveau type de mémoir nano-mécanique constitue une vraie révolution. Le célèbre chercheur ajoute : "On pense toujours que l'électronique, c'est l'avenir. Nous pensons plutôt que l'avenir appartient à la mécanique, conjointement à l'électronique. Nous devons redécouvrir ses vertus et la mémoire millipede constitue un premier pas dans cette direction, une sorte de retour à l'àge de pierre. Redécouvrir l'écriture cunéiforme et constater que la mécanique à une échelle microscopique permet de faire énormément de choses. Ainsi, on pourra atteindre des densités d'enregistrement mille fois supérieures à celles d'aujourd'hui".

Brève rédigée par @RT Flash

Reuters : http://fr.news.yahoo.com/020611/85/2mkks.html

IBM : http://www.zurich.ibm.com/st/storage/millipede.html

Pour la Science :

http://www.pour-la-science.com/numeros/pls-273/disques/illus8.htm

Des nanostructures en pelure d'oignon
Samedi, 22/06/2002 - 00:00

La détermination de l'architecture atomique des molécules de fullerènes (C 60), puis des nanotubes de carbone simple et multi-parois, a offert aux physiciens de superbes objets nanométriques qu'ils se sont empressé d'observer, d'analyser et de manipuler jusqu'à les organiser en prototypes de systèmes fonctionnalisés (éléments de base de circuits logiques par exemple). Il est possible aujourd'hui de contrôler finement les propriétés physiques et chimiques d'un matériau à base de C 60, par l'incorporation (insertion ou substitution) d'atomes étrangers entre les molécules de C 60. Des chercheurs du Laboratoire de physique des solides d'Orsay, en collaboration avec une équipe suédoise, ont mis au point un nouveau type de matériau en introduisant des atomes d'azote dans et entre des molécules géantes de fullerènes emboîtées les unes dans les autres comme les pelures successives d'un oignon. Dimension de l'ensemble : seulement quelques nanomètres... Le travail réalisé dans le cadre d'une collaboration européenne réunit tous les ingrédients d'une étude modèle : la synthèse par pulvérisation magnétron sur un substrat à 350 °C, c'est-à-dire à relativement basse température, et l'observation par microscopie électronique qui montre que le dépôt est constitué d'un agglomérat compact (structures en «nano-oignons»), composé en moyenne d'une dizaine de couches atomiques sphériques concentriques pour un diamètre total de l'ordre de 6 à 8 nm. Des mesures de déformation mécanique sous l'extrémité d'une nano-pointe de diamant, effectuées à Linköping, ont prouvé que les matériaux à base d'aza-fullerène possèdent à la fois dureté et élasticité. On peut rendre compte de ces propriétés en décrivant les nano-oignons comme étant de «minuscules balles de caoutchouc» fortement collées les unes aux autres. Et imaginer des applications probables comme revêtements protecteurs pour des suspensions, des disques durs, voire des implants médicaux, les premiers résultats laissant supposer que ce matériau serait bio-compatible...

CNRS : http://www.cnrs.fr/Cnrspresse/n401/html/n401rd10.htm

^ Haut
Espace
Espace et Cosmologie
Découverte d'un système solaire "jumeau" du notre
Samedi, 22/06/2002 - 00:00

Des astronomes américains ont annoncé le 13 juin la découverte d'un système solaire similaire au nôtre, doté de trois planètes dont l'une est comparable à Jupiter, en orbite autour de son soleil, à 41 millions d'années-lumières de la Terre dans la constellation du Cancer. "Nous annonçons aujourd'hui la découverte d'une planète qui pour la première fois ressemble à une planète de notre propre système solaire", a déclaré sur un ton solennel l'astronome Geoffrey Marcy de l'Université de Californie à Berkeley, en débutant une conférence de presse au siège de la NASA, à Washington. Les chercheurs ont identifié cette planète extra-solaire ou exoplanète en orbite autour de l'étoile 55 de la constellation du Cancer, qui est elle-même similaire à notre Soleil, selon le chercheur. "Ce nouveau système solaire présente donc des similarités avec le nôtre", a-t-il dit. Lors de la même conférence de presse, M. Marcy et son collègue Paul Butler, de la Carnegie Institution à Washington, ont annoncé la découverte d'un total de 15 nouvelles exoplanètes. "Toutes les autres planètes extrasolaires découvertes jusqu'à maintenant sont en orbite plus proche autour de leur étoile. Cette nouvelle planète est en orbite aussi loin de son étoile que notre propre Jupiter est en orbite autour du Soleil", selon le professeur Marcy. Les astronomes ont fait cette découverte après 15 ans d'étude de cette étoile. Ils avaient déjà annoncé en 1996 la présence d'une planète située dix fois plus près de cette étoile que l'est la Terre du Soleil. Jeudi, outre l'existence de la planète ressemblant à Jupiter, les chercheurs ont annoncé l'existence d'une troisième planète, située elle aussi dans une orbite proche de l'étoile 55 de la constellation du Cancer. Cette étoile est âgée de cinq milliards d'années et "c'est une étoile que l'on peut voir à l'oeil nu", a précisé le professeur Marcy pour souligner sa relative proximité et la possibilité d'obtenir dans un proche avenir une image directe de cette planète ressemblant à Jupiter. La planète met environ 13 ans pour faire le tour de son étoile, une durée comparable à celle de Jupiter dont une révolution prend 11,86 ans. Et cette planète a une masse de 3,5 à 5 fois celle de Jupiter. "Nous n'avons pas encore trouvé un système solaire exactement analogue au nôtre, avec une orbite circulaire et une masse plus proche de celle de Jupiter. Mais cela montre que nous nous en approchons, nous en sommes au point où nous découvrons des planètes à des distances supérieures à 4 UA (unités astronomiques) de leur étoile", a pour sa part expliqué M. Butler. L'UA est une unité de distance qui représente approximativement la distance moyenne de la Terre au Soleil (149 millions de km). "Je pense que nous allons en trouver beaucoup d'autres parmi les 1.200 étoiles que nous étudions", a ajouté l'astronome. L'équipe de chercheurs a partagé ses données avec Greg Laughlin, professeur adjoint d'astronomie de l'Université de Californie à Santa Cruz, qui a réalisé une simulation montrant qu'une planète similaire à la Terre pourrait survivre en orbite stable entre les deux planètes proches de l'étoile et celle qui en est éloignée. Et les astronomes Marcy et Butler n'ont pas exclu de repérer une planète d'une masse similaire à la Terre dans l'orbite de cette étoile lors de leurs prochaines observations, en raison de l'existence d'un "grand fossé" entre les deux planètes les plus proche de l'étoile et la troisième, éloignée comme l'est Jupiter dans notre système solaire. Les scientifiques ont annoncé la découverte d'un total de 15 nouvelles planètes extra-solaires, parmi lesquelles la plus petite jamais repérée, qui tourne autour de l'étoile HD49674 dans la constellation du Cocher (Auriga), à une distance de 0,05 UA, soit un vingtième de la distance de la Terre au Soleil. Cette série de découvertes porte le total des planètes connues en dehors de notre système solaire à plus de 80. La première de ces planètes n'avait été identifiée qu'il y a six ans, a souligné M. Marcy en saluant la rapidité des découvertes dans ce domaine de l'astronomie.

NASA : http://ftp.hq.nasa.gov/pub/pao/pressrel/2002/02-111.txt

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La fonte des glaciers de l'Antarctique bien plus importante que prévue
Samedi, 22/06/2002 - 00:00

L'effet du réchauffement climatique sur la fonte des glaciers de l'Antarctique serait-il plus important que ce que l'on pensait ? On savait déjà que la base de la calotte glaciaire (la glace basale) fond en arrivant sur la ligne d'échouage, le point où les glaciers, glissant du continent, rejoignent la mer et y flottent sur des dizaines de kilomètres avant de se disloquer en icebergs. Une étude publiée par "Science" démontre que le taux de fusion - ou de fonte - des plates-formes de glace en Antarctique, est beaucoup plus important que ce que l'état de la recherche ne le laissait entendre jusqu'à présent, du moins sur la ligne d'échouage. D'après les deux auteurs de l'étude, le Français Éric Rignot, chercheur du Jet Propulsion Laboratory de la Nasa, et l'Américain Stanley Jacobs, du Lamont-Doherty Earth Observatory de l'Université de Columbia, chaque augmentation de température de 0,1° C de la mer peut élever le taux de fusion de la glace basale d'un mètre par an en moyenne. Soit une vitesse de fonte pouvant varier de 4 mètres par an jusqu'à 40 mètres, dans le cas du glacier de Pine Island, le plus grand de l'Antarctique Ouest. Probables conséquences du réchauffement climatique, ces phénomènes n'en apportent cependant aucunement la preuve. « Cette approche est très intéressante. C'est la première fois qu'une corrélation précise est faite entre le réchauffement et la fonte des glaces », estime Benoît Le Grésis, du Laboratoire d'étude en géophysique et océanographie spatiale (CNRS-Toulouse), qui a déjà travaillé avec Éric Rignot. Ces nouveaux résultats peuvent s'expliquer par le fait que les deux chercheurs ont mesuré le taux de fusion précisément au niveau de la ligne d'échouage, réputé comme l'endroit le moins froid des plates-formes de glace. Or les mesures antérieures n'étaient pas aussi précises, portant généralement sur l'ensemble des blocs. Ce résultat tient également à la méthode de mesure utilisée. Éric Rignot a eu recours à des images radar des satellites ERS1 et ERS2 de l'Agence spatiale européenne qui permettent de distinguer les glaces continentales et celles qui flottent sur la mer. Il a donc pu comparer la vitesse d'écoulement de la glace et son épaisseur avant et après le moment où le glacier, venant du sol, se met à flotter sur la mer.

Science du 14 juin 2002. :

http://www.sciencemag.org/cgi/content/abstract/296/5575/2020

Les pays développés responsables de la désertification ?
Samedi, 22/06/2002 - 00:00

A l'occasion de la huitième "Journée mondiale de lutte contre la désertification" qui s'est tenue le 17 juin sous l'egide de l'ONU, les participants mis l'accent sur les conséquences désastreuses de la désertification croissante : pénuries alimentaires, terres improductives, disparitions d'espèces animales et végétales. La désertification concerne 6 millions d'hectares de terres productives par an. En tout, 3500 millions d'hectares sont touchés par la désertification dans le monde. Des chiffres qui font frémir mais qui ont pour principal détracteur l'abattage des forêts par les agriculteurs, notamment dans les zones tropicales. Un abattage trop systématique et surtout excessif qui conduit à la dégradation des sols et à la désertification. Mais les agriculteurs ne semblent pas les seuls mis en cause. Selon des recherches australiennes et canadiennes publiées dans le New Scientist, la sécheresse au Sahel dans les années 80 serait également le fait des émissions de soufre des industries et centrales thermiques américaines et européennes. Ces émissions massives de dioxyde créeraient des aérosols capables de modifier la composition des nuages et empêchant ainsi la pluie de tomber. Une théorie que développe Leon Rotstayn du CSIRO, l'institut de recherche australien, et Ulrike Lohmann de l'université de Dalhousie à Halifax (Canada). Ces deux chercheurs en veulent pour preuve de leurs investigations le refroidissement de la surface terrestre au nord par rapport au sud. Les pluies tropicales se seraient alors déplacer vers le sud de l'Afrique, privant le Sahel de pluie. Toutes ses hypothèses découlent d'un modèle informatique qui a simulé l'impact des émissions de dioxyde de soufre des années 80 sur la formation des nuages. Les deux chercheurs s'appuient également sur des données. Entre 1972 et 1975, puis 1984 et 1985, le Sahel a connu une baisse de 20 à 50% des précipitations, entraînant la mort d'un million de personnes. Aujourd'hui même si la région souffre moins de la sécheresse, la désertification reste importante. Pour l'ONU, environ « 60 millions de personnes » auront quitté la région du Sahel dans les vingt prochaines années.

ONU : http://www.un.org/apps/press/latestFrench.asp

New Scientist :

http://www.newscientist.com/news/news.jsp?id=ns99992393

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Artérite: un médicament pour faire "pousser des vaisseaux"?
Samedi, 22/06/2002 - 00:00

Voilà un bel espoir pour les patients atteints d'artérite, ce que les spécialistes appellent aussi l'athérosclérose des membres inférieurs ! Une équipe américaine vient en effet de mettre en évidence les bénéfices d'un traitement susceptible d'améliorer leur mobilité tout en réduisant leurs douleurs. Le Dr Brian Annex, cardiologue au Duke University Medical Center aux Etats-Unis, a suivi 190 patients qui souffraient de claudication intermittente. Cet engourdissement douloureux d'un membre inférieur - ou des deux - qui provoque une raideur entraîne une boiterie douloureuse. Si douloureuse qu'elle réduit le périmètre de marche et l'autonomie des malades. Ces troubles sont généralement liés à une oblitération plus ou moins prononcée des artères. Soit par des plaques d'athérome - du cholestérol déposé sur les parois - soit par des caillots sanguins... ou les deux associés. D'après Brian Annex, l'administration d'un traitement qui stimule la croissance des vaisseaux sanguins pourrait non seulement augmenter les capacités fonctionnelles des patients mais également diminuer leurs douleurs. Au cours d'une étude menée dans des conditions très rigoureuses d'objectivité, il a en effet constaté que les sujets traités par ce procédé dit " d'angiogénèse voyaient leur périmètre de marche nettement augmenté, par rapport à des malades sous placebo. L'équipe d'Annex n'entend pas en rester là. De nouvelles recherches sont ainsi prévues, sur une plus large cohorte de patients et sur une plus longue durée. Elles confirmeront peut-être ces résultats prometteurs.

The Lancet du 15-06-2002 : http://www.thelancet.com/journal/current

Un antibiotique nasal réduit de moitié les infections à l'hôpital
Samedi, 22/06/2002 - 00:00

Un antibiotique nasal permet de réduire de moitié au moins les infections dues au staphylocoque doré contractées par les patients pendant leur séjour à l'hôpital, selon une étude américaine publiée le 13 juin dans la revue The New England Journal of Medicine. Le médicament (mupirocin) divise au moins par deux les taux d'infection par ce germe très commun chez les patients hospitalisés, selon les chercheurs de l'Université de l'Iowa (centre-nord) et de Johns Hopkins qui ont réalisé l'étude. "Nos résultats ont des implications énormes pour la réduction des blessures chirurgicales à staphylocoque doré et autres infections à l'hôpital, et pour prévenir les maladies et sauver des vies", a commenté le Dr Trish Perl, principal auteur de l'article et professeur de médecine à la Johns Hopkins University de Baltimore (Maryland, est). Les chercheurs ont déterminé le taux d'infections par ce germe lors de blessures chirurgicales et autres infections chez 4.030 patients adultes ayant fait l'objet d'actes chirurgicaux dans les hôpitaux de l'Université de l'Iowa et du centre médical du Veteran's Affairs à Iowa City. Parmi les quelque 900 patients de l'étude qui étaient porteurs du germe dans le nez, le taux d'infection par blessure opératoire a été de 4% pour ceux qui ont reçu l'antibiotique et de 7,7% pour ceux qui ont reçu un placebo. Néanmoins, l'auteur et ses collègues mettent en garde contre l'utilisation trop large de ce médicament produit par les laboratoire GlaxoSmithKline, qui conduirait au développement d'une résistance du germe à cet antibiotique qui s'applique dans la paroi nasale. "Il ne faut pas baigner l'hôpital de mupirocin. Il nous revient, comme médecins, de réserver ce médicament aux patients à haut risque", a souligné le Dr Perl, dont les travaux ont été financés par GlaxoSmithKline.

NEJM : http://content.nejm.org/cgi/content/abstract/346/24/1871

AVC : un coût financier et humain considérable
Samedi, 22/06/2002 - 00:00

Plus de 1,3 milliards d'Euros, 7 % du budget de la santé ! Voilà le coût des accidents vasculaires cérébraux (AVC), la 3ème cause de décès en France. Sans compter le poids des soins ambulatoires et de rééducation requis après la survenue d'un AVC. Et 40 % de ces sommes sont consacrés à l'hospitalisation aiguë. Au-delà de ces chiffres, les AVC laissent des handicaps profonds : 75 % des survivants ont en effet des séquelles définitives. Or en 1999, il y avait en France 219 945 personnes qui rapportaient un handicap du à un AVC. Certes dans la majorité des cas - 50,3 % - ce handicap n'empêche pas une vie autonome. Mais plus de 26% des patients ont besoin d'aide pour les tâches de la vie courante, et 9% ne peuvent même plus sortir de chez eux. Sans oublier qu'ils sont plus de 14% à rester confinés, au lit ou au fauteuil. En 1999, il y a eu en France 148 326 admissions pour un AVC, qui ont entraîné 1,66 millions de journées d'hospitalisation. Le taux moyen de récidive - 25 % - augmente encore cet extraordinaire gâchis. Or il est tout à fait possible de le prévenir. Par de bonnes règles hygiénodiététiques mais aussi, comme vient de le démontrer l'étude LIFE - Losartan Intervention for Endpoint - par une lutte efficace contre l'hypertension artérielle. Ce travail mené sur plus de 9 000 malades, dans 7 pays et pendant 5 ans, vient en effet de prouver qu'il est possible de progresser encore dans ce domaine : en réduisant de 25%, par rapport au bétabloquant de référence, le nombre d'AVC chez les malades traités par ce protocole.

Lancet : http://www.thelancet.com/journal/current

Santé : les épidemies de demain seront des maladies de civilisation
Samedi, 22/06/2002 - 00:00

Ce n'est pas sur le front des maladies infectieuses que se livreront les grandes batailles sanitaires à venir. Mais bien sur celui des maladies non-transmissibles : maladies cardio-vasculaires, cancers, diabète et autres affections respiratoires chroniques. L'OMS en est si convaincue qu'à l'issue de sa 55ième assemblée mondiale, elle a demandé un engagement résolu dans une stratégie globale de lutte contre ce qu'elle annonce comme fléau montant. L'incapacité attribuables aux principales maladies non transmissibles sont actuellement responsables d'environ 60 % de l'ensemble des décès et de 43 % de la charge de morbidité dans le monde et devraient, selon les prévisions, compter pour 73 % de l'ensemble des décès et 60 % de la charge mondiale de morbidité d'ici 2020. La Cinquante-Cinquième Assemblée mondiale de la Santé, Ayant examiné le rapport sur l'alimentation, l'exercice physique et la santé rappelle ce constat implacable : plus de la moitié des maladies cardio-vasculaires et un cancer sur trois pourraient être évités. Les facteurs de risque, et particulièrement le tabagisme, un régime alimentaire déséquilibré, le manque d'exercice physique et l'abus d'alcool sont trop souvent en cause. Ils peuvent être infléchis mais encore faudrait-il pour cela, des politiques concertées et une action déterminée.

OMS : http://www.who.int/inf/en/note2002-wha55-01.html

Dépenses de santé : les Américains en tête, les Espagnols en queue
Samedi, 22/06/2002 - 00:00

Les Américains dépensent le plus dans le domaine de la santé, laissant les Espagnols fermer la marche des pays développés, selon une comparaison internationale des dépenses de santé. Cette étude des services statistiques du ministère des Affaires sociales analyse les évolutions des dépenses de santé de 1970 à la fin des années 90 dans sept pays : Allemagne, Espagne, Etats-Unis, France, Italie, Pays-Bas et Royaume-Uni. Ainsi à la fin des années 90, les Etats-Unis consacraient 3.500 dollars par habitant et par an, alors qu'en Espagne les dépenses n'atteignaient qu'un peu plus de 1.000 USD par an, 1.300 USD en Italie et au Royaume-Uni et 2.000 USD en Allemagne, aux Pays-Bas et en France. Pour autant ce classement résulte d'une "modification significative de la hiérarchie des pays sur l'ensemble de la période, ces pays ayant connu par ailleurs des évolutions très différentes", soulignent les auteurs de l'étude. En 1970, les dépenses des Pays-Bas étaient proches de celles des Etats-Unis, tandis que la France dépensait comme le Royaume-Uni et l'Italie. En 1996, la France était devenue, en termes de dépenses par habitant, le troisième pays dépensier derrière les Etats-Unis et l'Allemagne, tandis que les Pays-Bas ont connu une augmentation de leurs dépenses particulièrement faible au cours des années 70, qui les place aujourd'hui en 4e place derrière les Etats-Unis (1er), l'Allemagne (2e) et la France (3e).

AFP : http://www.larecherche.fr/afp/n020618111652.cbjmjyqe.html

Cancer prostatique : un test pronostique
Samedi, 22/06/2002 - 00:00

Une équipe américaine a mis au point un test capable de prédire le niveau " d'agressivité ", en quelque sorte, d'un cancer de la prostate. Dans la revue Cancer, les auteurs présentent leur approche comme une amélioration significative de l'échelle de Gleason, seule technique jusqu'ici disponible pour déterminer le potentiel de développement de ce type de tumeur. Une technique qui " pêche " malgré tout sur un point majeur : l'incapacité à déterminer précisément la rapidité prévisible de la croissance tumorale. A Minneapolis, le Dr Akhouri Sinha et ses collègues du University of Minnesota Cancer Center, ont donc développé un test très simple et efficace. Lequel permettrait de distinguer " un cancer de la prostate agressif d'un autre qui le serait moins ". D'après les auteurs, " ce test effectué à partir d'une tumeur diagnostiquée récemment donne une indication précise sur la gravité de la maladie. Il permet donc d'adopter au plus tôt le traitement le plus approprié. Une approche qui pourrait également être utilisée pour les cancers du sein ou du colon ".

Cancer :

http://www3.interscience.wiley.com/cgi-bin/abstract/94517449/START

Diabète : une épidémie mondiale en perspective
Samedi, 22/06/2002 - 00:00

A l'échelle mondiale, le nombre de diabétiques devrait augmenter de... 130 % dans les 25 prochaines années ! En 2025, la prévalence du diabète chez l'adulte devrait ainsi s'élever à 5,4 % de la population totale : plus d'une personne sur 20! Ces chiffres ressortent de la dernière livraison du Bulletin Epidémiologique Hebdomadaire (BEH), du ministère français de l'emploi et de la solidarité, entièrement consacré au diabète. Et plus particulièrement au diabète de type 2, autrefois qualifié de " non insulino-dépendant, et qui représente 90 % de l'ensemble des diabètes sucrés ! Aux Etats-Unis, la prévalence de la maladie a augmenté de 49 % au cours de ces onze dernières années ! De la même manière, un Australien de plus de 25 ans sur quatre est diabétique ou susceptible de développer la maladie dans les 10 ans. Pour Paul Zimmet, responsable de l'Institut international du Diabète, à Melbourne, " le diabète devrait même devenir la plus grande épidémie jamais répandue dans le monde... La France ? Elle n'est bien sûr pas épargnée. Même si les chiffres sont pour l'heure moins impressionnants qu'aux Etats-Unis ou en Australie. La prévalence du diabète s'élève à 3,06 % contre 7,3 % outre-Atlantique. Mais attention, tout laisse à penser que notre pays suit la même trajectoire que les Etats-Unis et l'Australie. Avec juste un temps de retard...

Destination santé : http://www.destinationsante.com/

L'apparition de la vie, née du chaud et du froid
Samedi, 22/06/2002 - 00:00

Depuis les travaux audacieux des biologistes Alexandre Oparin et John Haldane, la théorie de la soupe prébiotique domine les courants de pensée sur l'origine de la vie sur la Terre. Selon la version moderne de cette théorie, des composés organiques se sont accumulés dans les océans primordiaux, produisant des macromolécules de plus en plus grandes et complexes qui ont fini par contrôler leur propre réplication. Mais est-ce bien ainsi que la vie est née ? Et quelles sont les conditions qui ont favorisé cette émergence ? En 1953, le biologiste Stanley Miller a démontré que d'importantes biomolécules, comme les acides aminés, pouvaient être synthétisées dans des conditions simulant la Terre à ses débuts. La découverte d'acides aminés extraterrestres en 1970, dans la météorite Murchison, montre que des réactions identiques se sont produites sur des corps cosmiques tôt dans l'histoire du système solaire. Au tout début, sur la Terre, il se peut que le répertoire des composés organiques soit provenu d'un certain nombre de sources : produits chimiques d'origine terrestre, impacts d'astéroïdes et de comètes, et particules de poussières interplanétaires et de météorites. Ces composés organiques simples auraient suffi à fournir la matière première nécessaire aux réactions ultérieures. Ces réactions auraient abouti à la vie telle que nous la connais sons : des systèmes de molécules biologiques fondamentales, délimités par une membrane, comme l'ADN et les protéines. Tandis que ces molécules grandissaient et se compliquaient, certaines ont commencé à se lier et à interagir avec d'autres molécules. Avec un éventail croissant d'assemblages, il se peut que certaines molécules aient développé la capacité de contrôler leur propre autoreproduction imparfaite. Cela marquerait l'apparition des premières entités moléculaires capables de multiplication, d'hérédité, et de variation et, par conséquent, en somme les débuts de la vie et de l'évolution. La nature chimique des molécules utilisées par les premières entités autoreproductrices demeure incertaine. On admet généralement qu'elles étaient les ancêtres de l'ARN, qui lui-même représente un tremplin vers le monde de l'ADN et des protéines de la biochimie moderne. Le scénario de la soupe prébiotique suggère ainsi que les premières entités vivantes sont apparues et ont évolué quand la Terre était froide plutôt que bouillante. En raison de la luminosité réduite du jeune Soleil, il se peut que la Terre ait été complètement recouverte de glace à ses débuts. Au cours de la dernière décennie, la validité de la théorie de la soupe prébiotique a été remise en question, particulièrement en ce qui concerne la vraisemblance de la synthèse de molécules complexes. D'après une théorie alternative, dite « métaboliste », le premier système vivant sur la Terre était une vie métabolique primitive caractérisée par une série de réactions autoentretenues reposant sur des composés organiques simples obtenus directement de composants tels que le dioxyde de carbone en présence de catalyseurs métalliques. Selon cette théorie, la vie n'était au début rien de plus qu'une chaîne autoentretenue de réactions chimiques associées à des surfaces minérales, sans avoir besoin d'information génétique. D'où l'expression juste selon laquelle la vie métabolique serait « la vie telle que nous ne la connaissonspas». Les réactions chimiques autoentretenues pourraient s'être produites dans tout environnement, tant que les molécules critiques pouvaient survivre suffisamment longtemps pour continuer à faire partie de la réaction en chaîne. La vie telle que nous la connaissons repose à la fois sur la chimie et sur l'information. Si cette vie métabolique a existé au début de la Terre, pour se transformer en vie telle que nous la connaissons, il a fallu l'émergence d'un certain type de système d'information génétique. Or les molécules supports de l'information, comme les acides nucléiques (les briques de base de l'ADN), se détériorent très rapidement à température élevée. Le scénario paraît donc plus envisageable dans des environnements froids. Si la transition de la chimie prébiotique à la première biochimie sur la jeune Terre s'est bien produite à basses températures, elle pourrait avoir eu lieu pendant des périodes froides et calmes entre d'importants phénomènes stérilisants liés à l'impact de météorites. Cependant, quelle que soit la façon dont s'est créée la vie, il se peut qu'elle n'ait pas survécu à des vagues d'impacts ultérieures. La vie pourrait avoir surgi à plusieurs reprises avant que les conditions régnant à la surface ne deviennent suffisamment tranquilles, pendant des périodes suffisamment longues, pour permettre à ces premières entités vivantes de survivre et d'évoluer.

Figaro : http://www.lefigaro.fr/sciences/20020615.FIG0210.html

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Vers la conduite assistée
Samedi, 22/06/2002 - 00:00

Une voiture repérant le véhicule qui le précède et s'adapte à sa vitesse, ça existe. On peut l'essayer jusqu'à vendredi en se rendant à Satory (Versailles), au Symposium sur les véhicules intelligents (1). Cet exploit technique n'est qu'un début. Dans quelques années, les voitures seront en effet munies de multiples capteurs du milieu où elles évoluent. A Satory, la technologie utilisée est un simple radar. «Celui-ci détecte l'automobile, mais il ne peut pas encore deviner qu'elle vient ou non de s'arrêter brutalement», précise Jean-Marc Blosseville, qui dirige le Laboratoire sur les interactions véhicules- infrastructure-conducteurs (Livic). Une nouvelle étape sera bientôt franchie avec l'installation d'un émetteur-récepteur capable d'informer le conducteur de la présence, à quelques centaines de mètres, d'un véhicule en panne ou d'un objet posé sur la route. Le système est presque prêt. Reste à choisir une bande hertzienne disponible. Petit à petit, l'information fournie deviendra très complète. «On peut imaginer que la voiture de demain vous donnera la distance exacte qui la sépare du véhicule situé devant elle. Elle vous avertira des possibles écarts de conduite, du pourcentage d'adhérence de ses pneus dans une courbe, et vous préviendra des limitations de vitesse et de la dangerosité des virages», poursuit Jean-Marc Blosseville. Les progrès porteront ensuite sur l'automatisation. La pédale d'accélérateur se bloquera dès que la voiture s'approchera dangereusement du pare-chocs de celle qui la précède. En cas de coup de volant trop brusque, le véhicule sera maintenu d'autorité sur la route. De quoi épargner plusieurs milliers de vies par an!La voiture du futur sera équipée de caméras permettant la lecture optique des bandes blanches peintes sur la route. Elle reconnaîtra sa voie de circulation et n'en bougera plus. Son conducteur pourra lâcher le volant. Guidée par une informatique embarquée capable de lire des images numérisées, elle sera entièrement automatisée. Ce qui permettra une utilisation plus rationnelle des autoroutes urbaines. Nous devrions être alors aux alentours de 2030...Les automobilistes accepteront-ils cette perte d'autonomie? Pour le savoir, la Suède mène actuellement une étude sur 12 000 engins équipés de limiteurs de vitesse. La France, plus modestement, suit l'évolution de 22 véhicules dans le cadre du programme Lavia (limiteur adaptatif de vitesse instantanée autorisée).

Express :

http://www.lexpress.fr/Express/Info/Societe/Dossier/securite/dossier.asp

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top